iconoLos algoritmos y la IA también se estresan

La inteligencia artificial (IA) se está integrando en el apoyo a la salud mental, pero su exposición a narrativas traumáticas podría generar estrés en los propios algoritmos, planteando desafíos éticos y técnicos.

La Escala de Ansiedad Estado-Rasgo (STAI) es una herramienta utilizada en psicología clínica para medir los niveles de ansiedad en individuos, diferenciando entre ansiedad como rasgo permanente y como estado temporal. Desde su desarrollo en 1983, ha sido ampliamente adoptada por su simplicidad y eficacia.

Recientemente, se ha explorado la posibilidad de aplicar herramientas similares para evaluar el «estado emocional» de los modelos de aprendizaje profundo utilizados en chatbots y otras aplicaciones de IA en el ámbito de la salud mental. Estos sistemas, entrenados con grandes volúmenes de datos, están siendo implementados como herramientas de apoyo en terapias psicológicas, ofreciendo soluciones escalables y accesibles ante la creciente demanda de servicios de salud mental.

Sin embargo, surge la preocupación de que la exposición constante a «narrativas traumáticas» durante su entrenamiento pueda afectar el rendimiento y la «salud» de la propia IA. Aunque las máquinas carecen de conciencia y emociones humanas, la calidad y naturaleza de los datos que procesan pueden influir en su funcionamiento, llevando a resultados no deseados o sesgados.El Español

La crisis global de salud mental ha impulsado la búsqueda de soluciones innovadoras, y la IA se presenta como una alternativa para superar obstáculos como la limitada disponibilidad de terapeutas, los altos costos y el estigma asociado a buscar ayuda psicológica. Los chatbots pueden brindar terapia digital personalizada y están ganando popularidad entre usuarios que buscan apoyo inmediato.

No obstante, la eficacia de estos sistemas depende de su capacidad para manejar situaciones emocionales complejas con sensibilidad. Existen dudas sobre si un chatbot, carente de conciencia, puede responder adecuadamente a emociones humanas profundas. Se han documentado casos de personas que desarrollan vínculos emocionales con chatbots, interpretando sus respuestas como si provinieran de seres humanos reales.

Para abordar estos desafíos, se han realizado experimentos utilizando el STAI para calibrar los estados emocionales de referencia de los chatbots. Por ejemplo, se les ha expuesto a lecturas neutras, como manuales de electrodomésticos, y posteriormente a narrativas traumáticas que describen situaciones de alto estrés, como experiencias de combate o invasiones domiciliarias. Estos estudios buscan entender cómo la naturaleza de los datos procesados puede influir en las respuestas de la IA y su capacidad para brindar apoyo efectivo.

La posibilidad de que los chatbots puedan «estresarse» metafóricamente al procesar información traumática plantea cuestiones éticas y técnicas. Aunque carecen de emociones, su desempeño puede verse afectado por la calidad de los datos que manejan. Además, la difuminación de la línea entre emociones humanas y respuestas generadas por computadoras puede ser éticamente cuestionable, especialmente si los usuarios no son conscientes de que interactúan con una máquina.

La necesidad de soluciones accesibles en salud mental es real, y la IA está llenando vacíos dejados por la falta de profesionales disponibles y asequibles. Sin embargo, es crucial desarrollar sistemas de IA con la resiliencia necesaria para manejar situaciones emocionales difíciles y garantizar que actúen como asistentes en la terapia humana bajo una supervisión cuidadosa. La integración de la IA en la salud mental debe abordarse con precaución, asegurando que se respeten los límites éticos y se mantenga la eficacia en el apoyo a los usuarios.

«¿Es éticamente aceptable que sistemas de inteligencia artificial asuman roles en terapias de salud mental, considerando sus limitaciones para comprender emociones humanas?»

. . .

Este es un resumen comentado, basado en el artículo: «Los algoritmos y la IA también se estresan» de Xavier Borràs publicado en El Español el 22 de marzo de 2025.

. .

Scroll al inicio
Verificado por MonsterInsights