La inteligencia artificial hereda prejuicios: el nuevo banco de imágenes ético de Sony AI
ZIP
Un equipo de Sony AI, liderado por Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), un banco de imágenes ético que busca reducir los sesgos en inteligencia artificial. Se basa en fotos de 1.981 personas de 80 países.
La inteligencia artificial (IA) ha sido objeto de críticas en los últimos años debido a su tendencia a perpetuar prejuicios y estereotipos. Esto se debe, en gran parte, a que muchos sistemas de reconocimiento facial y análisis de imágenes han sido entrenados con datos obtenidos sin consentimiento y con escasa diversidad. En este contexto, un equipo de Sony AI ha desarrollado una alternativa innovadora: el Fair Human-Centric Image Benchmark (FHIBE). Este proyecto, liderado por la investigadora Alice Xiang, busca crear un conjunto de datos ético y diverso que permita evaluar los sesgos en los modelos de visión artificial de manera justa y transparente.
El FHIBE se compone de fotografías de 1.981 personas de más de 80 países, todas obtenidas con el consentimiento de los participantes y tras una compensación económica. Este enfoque no solo garantiza la ética en la recolección de datos, sino que también permite a los participantes retirar sus imágenes en cualquier momento. Además, se han implementado técnicas avanzadas de privacidad para proteger la información personal.
Los investigadores han puesto a prueba el FHIBE con modelos de visión artificial ampliamente utilizados, como sistemas de detección y verificación facial. Los resultados han revelado que estos algoritmos aún muestran diferencias significativas en precisión según la edad, el color de piel y la ascendencia. Por ejemplo, los modelos funcionan mejor con personas jóvenes y de piel clara, mientras que tienen un rendimiento deficiente con personas mayores o de ascendencia africana.
Además, el estudio ha descubierto nuevos tipos de sesgos que no habían sido identificados en investigaciones anteriores. Por ejemplo, los modelos de reconocimiento facial tienden a confundir más a hombres calvos, mientras que los sistemas de verificación facial presentan mayores dificultades con las mujeres debido a la variabilidad en los peinados. Los modelos multimodales, como CLIP de OpenAI, también han mostrado distorsiones significativas, identificando erróneamente a los hombres como el «género por defecto» y asociando rostros africanos con entornos rurales.
El objetivo del FHIBE no es reemplazar conjuntos de datos existentes, sino establecer un nuevo estándar ético que permita auditar sistemas de IA sin recurrir a imágenes obtenidas sin permiso. Este enfoque busca reducir el riesgo de reproducir desigualdades y destaca la paradoja de que la comunidad científica, que denuncia los sesgos de la IA, siga dependiendo de bases de datos creadas sin consentimiento.
La propuesta de FHIBE es un paso hacia la creación de una herramienta de confianza para evaluar la equidad de los modelos de IA, permitiendo la actualización continua de la base de datos y asegurando que los autores de las imágenes tengan el control sobre su uso.
¿NO ES IRÓNICO QUE LA SOLUCIÓN A LOS SESGOS EN IA SURJA DE UNA BASE DE DATOS ÉTICA, MIENTRAS QUE ANTES SE PRIORITIZÓ LA CANTIDAD SOBRE LA CALIDAD? ¿NO?









