0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA genera audios plagados de machismo, racismo e infracciones de derechos de autor

Audios generados por IA: ¿una revolución con sesgos?
Los riesgos éticos de los datos en IA: sesgos y derechos vulnerados
De la promesa al problema: los retos de la IA generativa en audio
La IA y el contenido tóxico: una sombra en el avance tecnológico

La inteligencia artificial generativa en audio enfrenta críticas por sesgos y violaciones de derechos de autor, poniendo en jaque su ética y regulación.

Un análisis exhaustivo sobre bases de datos de audio generadas por IA detectó sesgos de género y racismo, además de contenidos protegidos por copyright. Los hallazgos reflejan patrones similares a los observados en textos e imágenes, lo que plantea preocupaciones sobre el impacto social y legal de esta tecnología. Los expertos destacan la necesidad de auditar y regular mejor los conjuntos de datos para evitar perpetuar prejuicios y vulnerar derechos.

El avance de la inteligencia artificial generativa en audio ha revolucionado campos como la música, la transcripción de voz y la accesibilidad. Sin embargo, un reciente estudio liderado por William Agnew de la Universidad Carnegie Mellon ha revelado importantes deficiencias éticas y técnicas. Tras analizar 680.000 horas de audio de plataformas como AudioSet, LibriVox y Free Music Archive, se encontraron patrones preocupantes: contenido machista, racista y frases que violan derechos de autor. Estas conclusiones ponen de relieve los riesgos asociados al uso de bases de datos mal diseñadas.

El estudio también subrayó que los términos relacionados con hombres tienden a asociarse con roles históricos y bélicos, mientras que las mujeres son encasilladas en tareas domésticas y familiares. Asimismo, se detectaron miles de términos ofensivos hacia la diversidad sexual y racial. Investigadores como Robin Netzorg, de la Universidad de California, advierten que estas bases de datos perpetúan estereotipos y marginan voces queer y otras diversidades.

Además, el impacto legal no es menor. Como explica Borja Adsuara, abogado experto en derechos digitales, la voz es un dato biométrico especialmente protegido, comparable a la huella dactilar. Los modelos de IA han simulado voces de artistas como Scarlett Johansson o Bad Bunny, violando derechos de imagen y propiedad intelectual. El caso evidencia la necesidad de establecer marcos regulatorios claros para prevenir abusos y proteger los derechos de los individuos.

El desafío técnico también es significativo. Según Sauvik Das, del Instituto de Interacción Humano-Computadora, auditar conjuntos de datos de audio implica un uso intensivo de almacenamiento y procesamiento. Aunque se requiere más información para mejorar los modelos, el coste de hacerlo de manera ética y responsable es elevado.

El impacto de estos problemas trasciende la tecnología, influyendo en la percepción social y en debates sobre regulación y ética. Mientras tanto, el avance de la IA en audio continúa enfrentándose al reto de equilibrar innovación y responsabilidad.

·····················
Este es un resumen comentado, basado en la noticia original de Constanza Cabrera publicada en El País el 9 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://elpais.com/tecnologia/2024-12-09/la-ia-genera-audios-plagados-de-machismo-racismo-e-infracciones-de-derechos-de-autor.html
·····················
.
.
.
.