iconoLa IA funciona con sesgos y provoca una pérdida del sentido crítico

La inteligencia artificial (IA) se ha convertido en un tema de creciente relevancia en nuestra sociedad, aportando tanto ventajas como oportunidades. Sin embargo, esta tecnología no es neutra y presenta una carga ideológica que puede manifestarse en sesgos de género y raza. Javier Cantón, experto en desinformación y profesor de la Universidad Internacional de La Rioja (UNIR), ha advertido sobre los riesgos asociados al uso de la IA, especialmente entre los menores. Según Cantón, es fundamental educar a la población sobre el uso responsable de estas tecnologías.

El algoritmo de la IA, como el que opera ChatGPT, no solo responde a las preguntas de los usuarios, sino que también está influenciado por intereses económicos de las empresas que lo desarrollan. Cantón ha señalado que no se debe utilizar un ‘chatbot’ como ChatGPT en lugar de un psicólogo o un confidente profesional, ya que esto puede resultar peligroso. OpenAI, la empresa matriz de ChatGPT, anunció el 2 de septiembre que implementará controles parentales en su famoso asistente de IA, tras recibir acusaciones de que este podría haber contribuido a las autolesiones o al suicidio de algunos jóvenes en Estados Unidos.

El experto ha destacado que, aunque estos sistemas de IA intentan derivar a los usuarios a asistencia especializada cuando detectan conversaciones sobre temas delicados, a largo plazo, el sesgo de adulación puede llevar a situaciones graves. Cantón ha enfatizado que, si el uso de la IA ya es problemático en adultos, en adolescentes puede ser aún más preocupante. Por lo tanto, la alfabetización digital se vuelve esencial para comprender cómo funcionan estas tecnologías.

Además, Cantón ha subrayado que los usuarios tienden a antropomorfizar estas herramientas, lo que les lleva a verlas como seres inteligentes, cuando en realidad son máquinas que operan con probabilidades y sesgos. Aunque la regulación del uso de la IA está más avanzada en Europa que en Estados Unidos, el experto considera que es necesario acelerar el desarrollo normativo, ya que este va mucho más lento que la implantación de la tecnología.

Los ‘chatbots’ han reemplazado a los buscadores tradicionales en la búsqueda de respuestas, pero Cantón advierte que pueden dar el mismo peso a opiniones no científicas. Por ejemplo, durante la pandemia, algunos ‘chatbots’ llegaron a recomendar beber lejía para evitar contagios de COVID-19, un bulo que se propagó ampliamente. Esto demuestra que la IA carece del sentido crítico necesario para discernir entre información válida y desinformación.

Finalmente, Cantón ha resaltado que muchas personas confían más en las respuestas de ChatGPT que en las recomendaciones de profesionales, especialmente si estas respuestas coinciden con sus propias creencias. Por ello, es crucial que el uso de tecnologías digitales, incluida la IA, esté acompañado de una supervisión adecuada y de un proceso de alfabetización crítica que abarque a toda la sociedad, no solo a los adolescentes.

¿NO ES IRÓNICO QUE UNA TECNOLOGÍA CREADA PARA MEJORAR NUESTRA VIDA PUEDA LLEVAR A DECISIONES TAN PELIGROSAS?
___
«`
APARECEN EN EL ARTÍCULO ORIGINAL:
Javier Cantón, OpenAI, Universidad Internacional de La Rioja (UNIR)
«`

Fuente: Agencia EFE | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights