iconoLa inteligencia artificial falla al distinguir lo que creemos de lo que es cierto

La inteligencia artificial no distingue entre creencias y hechos, según un estudio

ZIP

A un nuevo estudio de la Universidad de Stanford le falta la capacidad de los sistemas de IA para diferenciar entre creencias y hechos. Esto puede tener graves consecuencias en campos como la salud y el periodismo, donde la precisión es crucial.

Un reciente estudio publicado en ‘Nature’, liderado por el profesor James Zou de la Universidad de Stanford, ha revelado que los modelos de lenguaje, como ChatGPT y Gemini de Google, no pueden distinguir entre creencias y hechos. Este hallazgo es preocupante, ya que la incapacidad para diferenciar entre lo que una persona cree y lo que es un hecho comprobado puede tener consecuencias significativas en áreas críticas como la salud y el periodismo.

El estudio analizó 24 modelos de lenguaje utilizando una base de pruebas de 13.000 preguntas relacionadas con conocimiento y creencias. Los resultados mostraron que incluso los sistemas más avanzados confunden las creencias expresadas en primera persona con hechos objetivos. Por ejemplo, cuando se le pregunta a GPT-4o si crujir los nudillos causa artritis, debería reconocer la creencia del hablante, pero en cambio, tiende a corregir el error médico, ignorando el estado mental del paciente.

El director académico del Máster en Inteligencia de Negocios y Big Data en la Universitat Oberta de Catalunya (UOC), Josep Curto, advierte que este tipo de errores podría resultar en la pérdida de información diagnóstica crítica en el ámbito médico y afectar decisiones judiciales, donde la distinción entre creencias y hechos es fundamental.

Los investigadores también encontraron que la precisión de los modelos disminuye drásticamente cuando se trata de creencias falsas. Por ejemplo, GPT-4o acierta el 98% de las veces cuando la creencia coincide con la realidad, pero su precisión cae al 64% en el caso de creencias falsas. En contraste, cuando se habla de creencias atribuidas a otros, los modelos muestran una mayor precisión, lo que sugiere un sesgo de atribución.

Además, los modelos son extremadamente sensibles a cambios sutiles en el lenguaje. La adición de una palabra como «realmente» puede hacer que su rendimiento se desplome. Esto indica que los sistemas no comprenden el significado profundo de las frases, sino que responden basándose en patrones aprendidos.

Los autores del estudio subrayan que estos fallos no son meramente teóricos, ya que los modelos de lenguaje se utilizan cada vez más en diagnósticos médicos, apoyo psicológico y análisis legales. La confusión entre creencias y hechos podría llevar a decisiones erróneas en contextos sensibles.

Para ilustrar la importancia de esta distinción, los investigadores citan un caso histórico de 1994, donde ejecutivos de tabacaleras afirmaron que «creían que la nicotina no era adictiva», evitando así el perjurio. Esta diferencia entre creencia y conocimiento sigue siendo relevante hoy en día, especialmente en debates sobre vacunas y cambio climático.

Los investigadores concluyen que la capacidad de distinguir entre creer, saber y ser cierto es fundamental para el pensamiento humano. Sin esta capacidad, la inteligencia artificial puede parecer razonable, pero no entiende lo que realmente decimos.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO TIENE LIMITACIONES?

Scroll al inicio
Verificado por MonsterInsights