iconoLos chatbots de IA fallan al resumir noticias, según un estudio de la BBC

Inexactitudes y distorsiones en los resúmenes de noticias generados por IA
Investigación revela que los chatbots no son fuentes fiables de información

**Los chatbots de inteligencia artificial distorsionan la información y comprometen la fiabilidad de las noticias.**
Un estudio de la BBC revela que ChatGPT, Copilot, Gemini y Perplexity AI presentan errores significativos al resumir noticias. El 51% de las respuestas analizadas contenían problemas graves y el 19% incluía errores fácticos, como cifras y fechas incorrectas. La directora ejecutiva de BBC News, Déborah Turnes, advierte que esta distorsión informativa podría erosionar la confianza pública en los medios.

 

Un estudio reciente realizado por la BBC ha puesto de manifiesto las limitaciones de los chatbots de inteligencia artificial en la tarea de resumir noticias. La investigación evaluó a ChatGPT, Copilot, Gemini y Perplexity AI, proporcionándoles contenido de la BBC y formulando preguntas sobre dichas noticias. Los resultados fueron preocupantes: el 51% de las respuestas presentaban problemas significativos y el 19% contenía errores fácticos, incluyendo datos incorrectos y fechas erróneas.

La directora ejecutiva de BBC News and Current Affairs, Déborah Turnes, expresó su preocupación al respecto, señalando que “la distorsión ocurre cuando un asistente de inteligencia artificial extrae información para responder a una pregunta y ofrece una respuesta incorrecta, engañosa y potencialmente peligrosa”. Turnes advirtió que esta distorsión informativa puede debilitar la confianza del público en los medios tradicionales y provocar desinformación masiva.

El informe también destaca que los chatbots de IA no solo cometen errores en los datos, sino que además confunden hechos con opiniones, tienden a editorializar y omiten información contextual esencial. Esto podría llevar a interpretaciones erróneas de la realidad y a una pérdida de credibilidad en las herramientas de IA utilizadas para el consumo de noticias.

En respuesta a estos hallazgos, un portavoz de OpenAI declaró que la empresa está trabajando para mejorar la precisión de sus sistemas y que ha implementado medidas para “respetar las preferencias de los editores”, lo que incluye ajustes en los algoritmos que determinan cómo los chatbots acceden y presentan la información.

Este estudio pone de relieve las limitaciones actuales de la inteligencia artificial en el procesamiento y resumen de información compleja, y subraya la importancia de la intervención humana en la verificación y contextualización de las noticias. A medida que las herramientas de IA se integran en el consumo informativo, surge una pregunta clave: “¿Cómo pueden los desarrolladores de IA garantizar que la información generada sea precisa, objetiva y contextualizada sin comprometer la confianza del público en los medios?”

·····················
Este es un resumen comentado, basado en la noticia original de Ana Higuera publicada en 20minutos el 12 de febrero de 2025.
Puedes leer el artículo completo aquí: 20minutos.es/tecnologia/inteligencia-artificial/ia-no-sirve-para-estar-informado-estudio-revela-chatbots-resumen-mal-noticias-5681628/
·····················

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights