Los algoritmos de IA tienen un sesgo contra la piel con tonos amarillos
FOTO: WIRED

En el ámbito de la inteligencia artificial (IA), la precisión y la equidad son fundamentales. Un artículo reciente de WIRED destapa una problemática significativa en este campo: los algoritmos de IA muestran sesgos contra tonos de piel amarillos. A pesar de los esfuerzos por mejorar la precisión de los algoritmos de reconocimiento facial, especialmente después de que en 2018 se revelara que estos sistemas eran menos precisos con personas de piel más oscura, las soluciones actuales siguen siendo insuficientes.

Google y Meta, entre otras empresas, han adoptado escalas de medición de tono de piel para probar sus algoritmos. Sin embargo, una investigación de Sony pone en duda la efectividad de estas escalas, argumentando que ignoran la diversidad de tonos amarillos y rojos en la piel humana. Los sistemas de IA, como los algoritmos de recorte de imágenes y las herramientas de análisis fotográfico, tienen problemas principalmente con las pieles más amarillas, lo que podría afectar la precisión de tecnologías como el reconocimiento facial y la detección de falsificaciones.

Alice Xiang, investigadora principal de Sony, subraya la importancia de detectar y mitigar sesgos, algo que no se logra con evaluaciones unidimensionales. La controversia no es meramente académica; encontrar medidas adecuadas de imparcialidad es una prioridad para la industria tecnológica, especialmente ahora que legisladores de la Unión Europea y Estados Unidos consideran exigir a las empresas auditar sus sistemas de IA.

La escala de Fitzpatrick, desarrollada originalmente por un dermatólogo, ha sido la forma habitual de medir el sesgo por color de piel en algoritmos. Sin embargo, los investigadores de Sony proponen un estándar internacional conocido como CIELAB, que podría representar de manera más fiel el amplio espectro de la piel. Al aplicar CIELAB en sus estudios, descubrieron variaciones no solo en tono sino también en matiz.

Los investigadores de Sony sugieren una nueva forma de representar el color de la piel, utilizando dos coordenadas en lugar de un único número, para captar la diversidad de tonos cálidos a fríos. Este método podría revelar sesgos no detectados anteriormente en conjuntos de datos y algoritmos de IA, como se demostró con el sesgo hacia tonos rojos en conjuntos de datos populares y modelos generativos de IA.

La nueva propuesta de Sony también plantea un cambio en la metodología de evaluación, pasando de clasificaciones humanas subjetivas a un sistema totalmente automatizado. Sin embargo, esto no está exento de críticas. Algunos expertos, como el sociólogo Ellis Monk, cuestionan si la eliminación del juicio humano podría simplificar o ignorar otras complejidades de la diversidad humana.

El artículo concluye reconociendo que el camino hacia una IA más justa y precisa no será fácil. A pesar de los avances, como la presión para que el campo adopte una visión más matizada del género, la simplificación en la clasificación de las personas sigue siendo un desafío. La nueva metodología de Sony podría ser un paso hacia una representación más fiel de la diversidad humana, pero aún queda mucho por hacer para que las máquinas y, por extensión, la sociedad, reconozcan y valoren esta diversidad.

En resumen El artículo de WIRED revela cómo los algoritmos de IA favorecen ciertos tonos de piel, ignorando la diversidad de tonos amarillos y rojos. Sony propone una nueva metodología para representar fielmente el espectro de la piel y detectar sesgos en IA.

*** Información extraída del artículo original: [Los algoritmos de IA tienen un sesgo contra la piel con tonos amarillos], publicado en WIRED***.

Share:

Facebook
Twitter
Pinterest
LinkedIn
Scroll al inicio