La ilusión del pensamiento en la inteligencia artificial: un estudio de Apple revela que los modelos de IA no razonan, sino que simulan razonamiento con patrones estadísticos. Esto plantea interrogantes sobre la comprensión real de estos sistemas.
En un estudio titulado «The Illusion of Thinking», Apple cuestiona la idea de que los modelos de inteligencia artificial actualmente existentes sean capaces de razonar. A través de un análisis detallado, Apple demuestra que incluso los modelos más avanzados, como GPT-4o de OpenAI, Claude de Anthropic o Gemini de Google, fallan de manera sistemática y radical cuando se enfrentan a tareas que requieren un razonamiento más complejo. El estudio no solo resalta los errores de rendimiento, sino que también critica la forma en que las empresas presentan sus modelos al público, sugiriendo que lo que se percibe como «razonamiento» en realidad es una simulación de razonamiento basada en asociaciones probables sin comprensión real ni sentido del contexto.
Durante el último año, los modelos de lenguaje han sido aclamados por su capacidad para realizar tareas complejas que van desde la generación de código hasta la resolución de problemas. Sin embargo, el estudio de Apple revela que estas metáforas son engañosas, ya que los modelos de IA no son capaces de realizar un razonamiento genuino cuando se enfrentan a tareas que requieren múltiples pasos de inferencia lógica.
La advertencia del estudio es clara: si se siguen construyendo expectativas en torno a la idea de que los modelos de IA actuales son capaces de pensar, se corre el riesgo de enfrentar desilusiones que podrían tener consecuencias reales, como diagnósticos errados o decisiones automatizadas injustas. A pesar de su capacidad para generar texto convincente y realizar diversas tareas, los modelos de lenguaje actuales no poseen la capacidad de comprensión real ni la autoconciencia necesaria para pensar de manera genuina.
En resumen, el estudio de Apple pone en duda la idea de que los modelos de IA actuales son capaces de razonar, destacando la importancia de no confundir el desempeño de estos sistemas con una comprensión real. Aunque la inteligencia artificial ha avanzado significativamente en la generación de contenido y la resolución de tareas específicas, todavía queda un largo camino por recorrer en términos de desarrollar una verdadera inteligencia artificial que sea capaz de pensar y comprender de manera similar a los seres humanos.
FUENTE: WIRED EN ESPAÑOL
https://es.wired.com/articulos/los-modelos-de-lenguaje-realmente-piensan









