2 de septiembre de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAutolesiones, suicidios y asesinatos: la IA «multiplica por la enésima potencia» los riesgos en personas vulnerables

OpenAI reconoce que sus medidas para salvaguardar la salud mental de sus usuarios pueden no haber sido suficientes. La empresa creadora de ChatGPT ha publicado en su blog cómo están trabajando para mejorar la seguridad de sus usuarios, reconociendo que los sistemas implantados hasta ahora en el chatbot conversacional más famoso del mundo no habían sido suficientes para evitar tragedias. La denuncia de unos padres en Estados Unidos acusando a ChatGPT de estar involucrado en el suicidio de su hijo de 16 años ha puesto en evidencia la falta de protección en interacciones prolongadas con la inteligencia artificial.

El caso de Adam Raine se suma a otros sucesos en los que ChatGPT ha estado implicado, como el de un empresario de 56 años que acabó suicidándose después de conversaciones con la IA. Este tipo de situaciones ponen de manifiesto la necesidad de mejorar las medidas de protección en los chatbots inteligentes y no supervisados, especialmente en personas vulnerables. A pesar de los esfuerzos de empresas como OpenAI por entrenar a sus modelos para no proporcionar instrucciones de autolesión y adoptar un lenguaje empático, la interacción continua puede llevar a resultados peligrosos.

Expertos como José Antonio Luengo, psicólogo infanto-juvenil y vicepresidente del Consejo General de Psicología de España, señalan que la IA generativa puede multiplicar los riesgos para la salud mental de las personas, especialmente en redes sociales. La sensación de tener un ‘confidente’ disponible las 24 horas del día puede ser atractiva, pero también representa un peligro evidente al reforzar ideas autodestructivas. La necesidad de regular el diseño y uso de estos sistemas para ofrecer recursos de ayuda inmediatos y cortar interacciones de riesgo es una prioridad en la prevención de suicidios relacionados con el uso de chatbots.

En España, el suicidio sigue siendo la causa de muerte externa más frecuente en los hombres, con un descenso del 6,6% en las cifras de 2024. El Ministerio de Sanidad ha lanzado un plan para la prevención del suicidio, y existen líneas

Fuente: El Español | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿Es legítimo cobrar más por un vuelo a quien va a un funeral que a quien viaja por placer? “Estamos ante una nueva frontera de abusos potenciales”

La aerolínea Delta Air Lines generó controversia al plantear la posibilidad de establecer precios personalizados para sus clientes a través de herramientas de inteligencia artificial que analizan datos personales. Esta práctica, conocida como surveillance pricing, consiste en utilizar la información del cliente en su contra para cobrarle el máximo posible. La FTC ha alertado sobre los efectos negativos de esta estrategia, tanto en términos de competencia como de protección al consumidor.

El presidente de Delta, Glen Hauenstein, reveló que la aerolínea pretendía calcular exactamente cuánto cada cliente podía pagar por su billete, utilizando un enfoque basado en la información personal del usuario. A pesar de las quejas recibidas, la compañía emitió un comunicado asegurando que no utilizaría datos personales para fijar sus precios. Sin embargo, la preocupación persiste, ya que otras empresas también están adoptando esta práctica, con el objetivo de maximizar sus ganancias a expensas de los consumidores.

La fijación de precios personalizados mediante inteligencia artificial plantea dilemas éticos y legales en torno a la privacidad de los usuarios y la equidad en el mercado. Mientras que en la Unión Europea existen regulaciones que limitan el uso de datos personales para la toma de decisiones automatizadas, en Estados Unidos esta práctica no es ilegal. Expertos y legisladores han instado a prohibir los precios basados en la vigilancia, argumentando que es necesario proteger la privacidad de las personas y garantizar la accesibilidad a los productos y servicios.

En definitiva, la polémica en torno a la fijación de precios personalizados a través de la inteligencia artificial plantea cuestiones fundamentales sobre la ética empresarial, la protección de datos y el equilibrio entre la rentabilidad corporativa y los derechos de los consumidores. Ante el avance de estas prácticas, es crucial establecer regulaciones claras que salvaguarden la privacidad y la equidad en el mercado, evitando que la tecnología se convierta en una herramienta de explotación para las empresas.

Fuente: El País | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights