iconoLa IA malinterpreta las noticias el 45 % del tiempo, según la Unión Europea de Radiodifusión

Los asistentes de inteligencia artificial malinterpretan las noticias el 45 % del tiempo, según un estudio de la Unión Europea de Radiodifusión que analizó más de 3.000 respuestas de los principales asistentes de IA. El estudio revela problemas graves de precisión y atribución, lo que pone en riesgo la confianza pública en la información.

El estudio coordinado por la Unión Europea de Radiodifusión (UER), en el que participaron 22 medios públicos de 18 países, entre ellos Radio Televisión Española (RTVE), ha revelado que los asistentes de inteligencia artificial (IA) malinterpretan las noticias el 45 % del tiempo. Este análisis incluyó más de 3.000 respuestas en 14 idiomas de los cuatro asistentes de IA más relevantes: ChatGPT, Copilot, Gemini y Perplexity.

Los resultados muestran que el 20 % de las respuestas contenían problemas graves de precisión, que incluían datos inventados e información desfasada. Además, se observó que hasta un 31 % de las respuestas omitían la atribución de la información o citaban fuentes engañosas, lo que genera preocupación sobre la fiabilidad de estos sistemas. Jean Philip de Tender, subdirector general de la UER, advirtió que estos fallos no son incidentes aislados, sino que son sistémicos y transfronterizos, lo que pone en peligro la confianza pública en la información.

Entre los asistentes de IA evaluados, Gemini fue el que presentó peores resultados, con un 76 % de sus respuestas mostrando problemas significativos, más del doble que otros asistentes. Este bajo rendimiento se atribuye a su ineficacia en la búsqueda de fuentes. Los asistentes de IA mostraron más problemas con noticias de rápida evolución, cronologías complejas y temas que requieren una clara distinción entre hechos y opiniones.

Por ejemplo, cerca de la mitad de las explicaciones sobre los aranceles de Donald Trump contenían problemas significativos, al igual que las relacionadas con la cifra de muertos del terremoto en Birmania (Myanmar) y el bombardeo estadounidense en Yemen en 2025. Ante estos hallazgos, la UER ha enfatizado la necesidad de un seguimiento continuo de los asistentes de IA y ha instado a la Unión Europea y a sus miembros a reforzar las leyes sobre la integridad de la información, los servicios digitales y el pluralismo mediático.

Este estudio pone de manifiesto la importancia de abordar los problemas de precisión y atribución en la información proporcionada por los asistentes de IA, ya que su uso se está expandiendo rápidamente en la sociedad contemporánea.

«¿Es realmente seguro confiar en la información que nos ofrecen los asistentes de IA, o deberíamos cuestionar su precisión constantemente?»

¿QUIÉN DIJO QUE LA VERDAD NO ES RELATIVA?

Fuente: Agencia EFE | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights