Saltar al contenido

El Gobierno abre la puerta a que la sociedad civil participe en la Agencia Española de Supervisión de la IA con el futuro observatorio de algoritmos

  • por
  • as una carta firmada por más de 50 organizaciones sociales, la SEDIA recibe a representantes de varias de ellas para escuchar sus consideraciones.
  • La futura Agencia Española de Supervisión de la IA necesita de humanistas y de mayor contacto con la sociedad civil, indicaron a la secretaria de Estado, Carme Artigas.

A mediados de septiembre, más de medio centenar de organizaciones sociales lanzaron una carta abierta dirigida a la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) que dirige Carme Artigas. En ella, planteaban que la futura Agencia Española de Supervisión de la IA (AESIA), que ahora busca sede fuera de Madrid, no podía crearse de espaldas a la sociedad civil.

La respuesta por parte de la SEDIA no ha tardado en llegar. Este martes varias personas representantes de distintos colectivos firmantes de la carta mantuvieron un encuentro con la propia Artigas. En el encuentro, del que los colectivos informarán más adelante con una nota de prensa, se abordaron varias cuestiones. Y las sensaciones son positivas.

Aunque no se ha concretado nada, el Gobierno ha recibido como lógicas algunas consideraciones que estas entidades vienen trasladando desde hace meses. Por ejemplo, la necesidad de que la futura AESIA no cuente únicamente con tecnólogos y juristas: regular la inteligencia artificial también requiere contar con humanistas y expertos en ciencias sociales.

Para ello estará el futuro Observatorio del Impacto Social de los Algoritmos, que se enmarcará precisamente en la estructura de la AESIA y cuyo propósito es detectar aquellos procesos automatizados que, si bien superarían los exámenes que esbozan el futuro Reglamento de la IA que se cocina en Bruselas, pueden conllevar desafíos sociales que no sean tan medibles.

Hay ejemplos claros. A principios de mes elDiario.es exponía el caso de una IA con varios algoritmos desarrollada por una startup llamada Sanas que tiene la capacidad de “traducir la voz de una persona a muchos acentos diferentes”. Sobre el papel, inofensivo. El Reglamento de IA que se desarrolla en Bruselas podría catalogarlo con un riesgo “medio”.

Pero las implicaciones van mucho más allá. “Traducir” acentos en la práctica supone que muchos trabajadores de centros de atención al cliente deslocalizados verán cómo sus acentos se occidentalizan para que suenen igual que las entonaciones de ciudadanos en países ricos.

El futuro Observatorio del Impacto Social de Algoritmos ayudará a la AESIA, de esta manera, a detectar aquellos modelos de inteligencia artificial que aunque han superado los trámites de la futura regulación europea y a nivel de auditoría no se detecta ningún problema, en realidad están generando problemas sociales graves, como un refuerzo de ideas racistas, por ejemplo….

(Recorte de prensa / Clipping)
Continúa leyendo la noticia completa original de este recorte en BUSINESS INSIDER


BARCELONADOT no se hace responsable de la información
que contiene este mensaje y no asume responsabilidad alguna
frente a terceros sobre su íntegro contenido, quedando igualmente
exonerada de la responsabilidad de la entidad autora del mismo.

 

 




Otros artículos de interés