El Comisionado para la Salud Mental del Ministerio de Sanidad de España ha comenzado un diálogo con dos gigantes tecnológicos, Meta, la empresa matriz de Facebook, y OpenAI, responsable de ChatGPT. Este esfuerzo busca mejorar el uso de asistentes de inteligencia artificial y establecer medidas de protección para aquellos que podrían recurrir a estas herramientas en momentos de sufrimiento psíquico. La motivación detrás de esta iniciativa es alarmante: el suicidio de un joven estadounidense de 16 años en agosto, quien había mantenido conversaciones con ChatGPT durante varios meses.
A pesar de que en España no se han registrado casos similares, el Ministerio de Sanidad ha manifestado su preocupación por el riesgo de que estos sistemas se utilicen como sustitutos de la ayuda profesional. La comisionada Belén González ha enfatizado que ChatGPT no puede actuar como terapeuta psicológico y ha subrayado la importancia de que la inteligencia artificial no reemplace el acompañamiento humano en contextos de salud mental. González ha declarado que el objetivo es implementar mecanismos de seguridad en estas herramientas para prevenir la emisión de mensajes inapropiados o potencialmente peligrosos.
OpenAI, por su parte, ha reconocido recientemente fallos en su sistema y ha anunciado la implementación de un control parental que permitirá a las familias supervisar el uso que los menores hacen de ChatGPT. Este anuncio se produce en un contexto crítico, ya que el Día Mundial de Prevención del Suicidio se conmemora en medio de una realidad que causa la muerte de aproximadamente 4.000 personas al año en España. La ministra Mónica García ha destacado que, según datos provisionales del INE, los suicidios descendieron en 2024 a 3.846, tras varios años de incremento. Sin embargo, ha recordado que 11 personas siguen quitándose la vida cada día en el país.
García ha instado a abordar el suicidio desde una perspectiva integral, considerando los determinantes sociales de la salud, como la vivienda, la precariedad laboral y la soledad. Durante la jornada, se presentaron iniciativas locales de prevención en municipios como Getafe, Alcalá la Real y Getxo, enfocándose en colectivos vulnerables, como la comunidad trans y el entorno laboral. La ministra ha resaltado que la inteligencia artificial no es capaz de detectar todas las señales de peligro relacionadas con el suicidio, lo que subraya la necesidad de un enfoque humano y profesional en el tratamiento de la salud mental.
¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL PUEDE SER UN TERAPEUTA MEJOR QUE UN HUMANO?
—
«`
APARECEN EN EL ARTÍCULO ORIGINAL:
Belén González, Getafe, Alcalá la Real, Getxo, Mónica García, Meta, OpenAI, ChatGPT, INE
«`
Fuente: Cadena SER | URL: Ver noticia original









