Joy Buolamwini: «Estamos dando carta blanca a las empresas de IA»
FOTO: MIT Technology Review

Joy Buolamwini, una destacada investigadora y activista en el campo de la inteligencia artificial (IA), comparte su historia personal y sus preocupaciones sobre los sistemas de IA actuales en su nuevo libro. Su trayectoria desde el MIT hasta la fundación de la Liga de Justicia Algorítmica (AJL) ilustra tanto los avances tecnológicos como los desafíos éticos pendientes. En 2018, Buolamwini y Timnit Gebru publicaron «Gender Shades», un estudio que revelaba el sesgo racial y de género en los sistemas de reconocimiento facial comerciales, lo que llevó a importantes empresas tecnológicas a mejorar sus algoritmos y políticas.

Buolamwini ahora aboga por un cambio radical en la construcción de sistemas de IA, criticando la extracción de grandes cantidades de datos de internet sin consentimiento, lo que ella denomina «colonialismo de datos». Argumenta que la falta de regulación permite a las empresas tecnológicas explotar recursos y datos sin restricciones, lo que puede perpetuar tecnologías sesgadas y opresivas.

La investigadora enfatiza la necesidad de una cultura de auditoría en IA, donde los sistemas sean rigurosamente probados antes de su implementación. Propone que los desarrolladores se cuestionen el impacto y la necesidad real de los sistemas que crean. Su experiencia personal con el sesgo algorítmico, que la llevó a ser una activista «por accidente», subraya la importancia de la responsabilidad y la ética en la tecnología.

Buolamwini también relata su confrontación con Amazon cuando su investigación doctoral sobre el sesgo en el reconocimiento facial de la empresa provocó ataques públicos de sus ejecutivos. A pesar de los desafíos, incluido el agotamiento personal y la falta de apoyo institucional, continuó su lucha, culminando en su graduación doctoral en 2022.

Su historia es tanto inspiradora como una advertencia sobre los peligros de la IA no regulada. Buolamwini aconseja a los jóvenes tecnólogos que busquen apoyo y estén preparados para los riesgos al denunciar las injusticias en la tecnología.

En resumen Joy Buolamwini, investigadora y activista, advierte sobre los riesgos de los sistemas de IA no regulados y el «colonialismo de datos». Su libro y su lucha contra el sesgo algorítmico destacan la necesidad de una IA ética y responsable.

Share:

Facebook
Twitter
Pinterest
LinkedIn
Scroll al inicio