Los modelos de lenguaje grandes no se convertirán en agentes inteligentes capaces de entender el mundo, ya que operan en un universo limitado a palabras y estadísticas. A pesar de mejoras en precisión y coherencia, las «alucinaciones» persistentes demuestran que no alcanzarán la inteligencia artificial general (IAG) con la tecnología actual.
En enero de 2020, Jared Kaplan, físico teórico y profesor en la Universidad Johns Hopkins, publicó un paper titulado «Leyes de Escalamiento para Modelos de Lenguaje Neurales». Esta hipótesis propone que los modelos generativos mejoran predeciblemente al aumentar el número de parámetros, la cantidad de datos de entrenamiento y la potencia computacional. Sin embargo, a medida que estos modelos se sofisticaban, también lo hacían sus «alucinaciones», volviéndose más difíciles de detectar.
Kaplan y su equipo entrenaron modelos de diversos tamaños y cantidades de datos, comprobando que, al aumentar estos factores, la precisión y coherencia de las respuestas mejoraban y se reducían los errores de predicción. Esta mayor exposición a datos diversos parecía ayudarles a «entender» mejor el lenguaje humano, aunque esta idea de aprendizaje es engañosa. Los modelos no aprenden ni entienden como los seres vivos; sus «alucinaciones» revelan que no tienen una comprensión real del mundo.
Los grandes modelos de lenguaje, como Gemini, Claude o GPT, son sistemas complejos, compuestos de muchas partes interconectadas que interactúan según leyes que no pueden ser inferidas solo sumando sus partes. Estas leyes de «potencia» sugieren que, con más recursos, los modelos se convertirán en agentes inteligentes con capacidad para entender el mundo. Sin embargo, la persistencia de las alucinaciones demuestra que esto no sucederá con la tecnología actual. Los modelos viven en un mundo limitado a palabras y estadísticas, sin capacidad real para mentir, alucinar o equivocarse porque todas las palabras son verdaderas en su contexto.
Las leyes de la naturaleza, como la ley de Kleiber y la ley de Zipf, describen comportamientos complejos en organismos y lenguas. La ley de escalamiento de Kaplan sugiere que los modelos de lenguaje podrían evolucionar con más recursos, pero las «alucinaciones» persistentes son prueba de que no alcanzarán la inteligencia artificial general (IAG). Estos modelos, confinados a un universo wittgensteniano de signos y estadísticas, no lograrán entender el mundo con la tecnología actual. Cualquier afirmación en contrario es engañosa.
Noticia elaborada a partir del artículo original publicado en El País.