imagen mas conceptual sin tanEn el evento WomenWithTech, organizado por Telefónica Tech, surgió un tema que no es nuevo pero que sigue siendo de gran relevancia: la inteligencia artificial refleja los sesgos de género presentes en nuestra sociedad. Esta realidad se desprende de cómo se nutren los modelos de IA a partir de datos humanos, que están inevitablemente influenciados por prejuicios sociales. El informe de la Unesco, titulado “Challenging systematic prejudices”, destaca cómo estos sesgos afectan principalmente a mujeres y minorías, y se manifiestan en modelos de lenguaje como GPT-2, LLaMa 2 y ChatGPT.
Este documento, publicado con motivo del Día Internacional de la Mujer, analiza cómo los modelos de lenguaje tienden a asociar a las mujeres con roles domésticos y a los hombres con roles de liderazgo, reforzando estereotipos dañinos. Además, advierte sobre la necesidad de más investigación para corregir estos prejuicios y garantizar la equidad en el desarrollo de la IA.
Un experimento personal utilizando Dall-E 3 reveló que incluso con sustantivos neutros, los resultados obtenidos tendían a favorecer representaciones masculinas en contextos de éxito o relevancia. Este sesgo de género no solo refleja las limitaciones de los modelos actuales, sino que refuerza la necesidad de mejorar los datos de entrada, diversificar los equipos de desarrollo y educar en perspectiva de género.
Las posibles soluciones técnicas incluyen la limpieza de datos y el pre-entrenamiento con conjuntos de datos inclusivos. Sin embargo, también es esencial que los desarrolladores y las empresas responsables promuevan una mayor representación femenina en el sector tecnológico. No se trata solo de «arreglar» la tecnología, sino de garantizar que su uso no perpetúe las desigualdades sociales.
En conclusión, la IA, al igual que cualquier herramienta creada por humanos, refleja las visiones, valores y prejuicios de quienes la desarrollan. Para que la inteligencia artificial sea verdaderamente equitativa, se requiere una acción concertada tanto en el ámbito técnico como en el educativo. ¿Seremos capaces de adaptar la IA para que no refuerce las mismas barreras sociales que buscamos eliminar?
·····················
Este texto es un resumen comentado basado en la noticia original de María Pilar Cantarero publicada en Telefónica el 01/10/2024. Puedes leer el artículo completo aquí: https://www.telefonica.com/es/sala-comunicacion/blog/ia-sesgo-genero/
·····················
.
.
.
.