“Lo peor de la discriminación algorítmica es que nadie es consciente de hasta dónde llega”, Míriam Hatibi

Los algoritmos ya no están solo en las redes sociales. Tienen un peso clave a la hora de decidir qué protección recibe una víctima de violencia machista, quién accede a ayudas públicas, qué empleado ha sido más productivo o a cuál convendría ir preparándole una carta de despido. La necesidad de aumentar la transparencia sobre estos sistemas para que no se conviertan en herramientas de discriminación ha motivado la creación de una Agencia de Supervisión de Algoritmos en el seno del Gobierno y empuja a las organizaciones sociales a tener esta problemática cada vez más presente.

Un objetivo que se hace difícil para algunas organizaciones sociales “porque necesitas hablar ese lenguaje que la mayoría de personas no hablamos porque no nos lo han enseñado”, explica Míriam Hatibi, activista antirracista miembro del colectivo AlgoRace. Pero es un obstáculo que se puede superar y el primer paso es “darse cuenta de la importancia que eso tiene para tu ONG, que la tiene en absolutamente todas”.

Para ayudar en ese propósito Lafede.cat, Espai Societat Oberta, Algorace y Algorights han organizado las Jornadas sobre Democracia, Algoritmos y Resistencias, que este viernes se celebrarán en Barcelona y el sábado en Madrid. “No muchas personas tienen la formación académica para entender este tema. Piensan que les queda muy lejos o que nunca lo van a llegar a entender. Lo que hay que hacer es naturalizar esas conversaciones, y ese es el objetivo de las jornadas”, explica Hatibi en esta entrevista con elDiario.es.

Usted es una activista antirracista. ¿Cómo empezó a trabajar con el problema de la discriminación que pueden acarrear las decisiones de la inteligencia artificial?

Yo trabajo en una consultora de comunicación en la que hacemos análisis de datos y comunicación digital. Ahí iba viendo cosas, no tanto sobre inteligencia artificial, sino sobre efectos de algoritmos a nivel de priorización de contenidos a partir de intereses de los usuarios. Al final el algoritmo, que parece muy inocente al recomendarte contenido personalizado, puede acabar llevándote hacia contenido tóxico, reforzando discursos de odio y encerrándote en tu comunidad.

Pero siempre lo había trabajado desde la perspectiva de comunicación. Cuando entré en AlgoRace no sabía absolutamente nada más. Desde que me uní al colectivo hemos ido viendo diferentes casos, aplicaciones y realidades de la discriminación a través de algoritmos. Cada vez que escuchas un caso te sorprendes porque lo peor es que nadie es consciente de hasta dónde llega esto….

(Clip 400 palabras)
Lee la noticia completa original en ELDIARIO.ES


BARCELONADOT no se hace responsable de la información
que contiene este mensaje y no asume responsabilidad alguna
frente a terceros sobre su íntegro contenido, quedando igualmente
exonerada de la responsabilidad de la entidad autora del mismo.

 

 

Share:

Facebook
Twitter
Pinterest
LinkedIn
Scroll al inicio