iconoEl mercado laboral según los estereotipos de internet: mujeres más jóvenes y peor cualificadas que los hombres | Tecnología | EL PAÍS

Título original: Un estudio sobre 1,4 millones de fotografías y vídeos constata la vigencia del edadismo de género, un sesgo que la IA amplifica con herramientas como ChatGPT

Super resumen: Un estudio que analiza 1,4 millones de imágenes y vídeos revela que el edadismo de género persiste en la representación de mujeres y hombres en diversas ocupaciones. A pesar de la igualdad en la fuerza laboral, las mujeres son retratadas como más jóvenes, lo que se amplifica mediante herramientas de inteligencia artificial como ChatGPT.

El reciente estudio publicado en la revista Nature por Douglas Guilbeault y su equipo de la Universidad de Stanford ha puesto de manifiesto la persistencia del edadismo de género en la representación de mujeres y hombres en el ámbito laboral. Analizando 1,4 millones de fotografías y vídeos de plataformas como Google, Wikipedia, IMDb, Flickr y YouTube, los investigadores concluyeron que, aunque no existen diferencias sistemáticas de edad entre hombres y mujeres en la fuerza laboral, las mujeres son representadas como significativamente más jóvenes que los hombres en diversas ocupaciones y roles sociales.

El estudio destaca que las mujeres enfrentan una presión constante por parecer jóvenes, lo que se traduce en discriminación en la búsqueda de empleo y en la promoción profesional. Por ejemplo, se observó que Google Images muestra a los doctores en una franja de edad de entre 25 y 34 años, mientras que las doctoras son representadas entre los 18 y 24 años. En IMDb, las imágenes de actrices son predominantemente de mujeres jóvenes, mientras que los actores son mayormente hombres de mediana edad.

Los investigadores utilizaron la edad biológica como un punto de referencia objetivo para evaluar la exactitud de los estereotipos. Nuria Oliver, directora científica de la Fundación ELLIS Alicante, subrayó la importancia de la cuantificación rigurosa de estos sesgos. En un experimento, se pidió a los participantes que estimaran la edad media de hombres y mujeres en ciertas ocupaciones, y aquellos que utilizaron Google Images tendieron a subestimar la edad de las mujeres.

Los resultados revelan que los sesgos de género y edad están presentes en los modelos de lenguaje como ChatGPT, donde ser mayor se asocia con ser hombre. Esto plantea serias preocupaciones sobre la perpetuación de estos estereotipos en sistemas automatizados. Marian Blanco Ruiz, profesora en la Universidad Rey Juan Carlos, advirtió que estos sesgos pueden tener consecuencias reales en la vida cotidiana, afectando el acceso a servicios esenciales.

Finalmente, Pablo Haya Coll, investigador de la Universidad Autónoma de Madrid, enfatizó la necesidad de auditorías de algoritmos y transparencia en los sistemas de IA, en línea con el Reglamento Europeo de Inteligencia Artificial, para garantizar un uso ético y no discriminatorio de estas tecnologías.

“¿Es posible que la inteligencia artificial, en lugar de ser una herramienta de progreso, se convierta en un espejo distorsionado de nuestros prejuicios?”

¿QUÉ MÁS NECESITAMOS PARA RECONOCER QUE LOS ALGORITMOS NO SON NEUTRALES, SINO REFLEJOS DE NUESTRAS PROPIAS LIMITACIONES?

Fuente: elpais.com | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights