Artistas Contra la IA Generativa: La Herramienta de Envenenamiento de Datos «Nightshade»
FOTO: MIT Technology Review

Los artistas están tomando medidas contra las compañías de inteligencia artificial que utilizan su trabajo para entrenar modelos de IA sin permiso. Una nueva herramienta llamada «Nightshade» permite a los artistas alterar los píxeles en su arte de manera invisible antes de subirlo en línea. Si este arte se incorpora en un conjunto de entrenamiento de IA, puede hacer que el modelo resultante falle de formas caóticas e impredecibles. Por ejemplo, los perros se convierten en gatos, y los coches en vacas.

Ben Zhao, profesor de la Universidad de Chicago, lideró el equipo que creó Nightshade con la esperanza de equilibrar el poder entre las compañías de IA y los artistas. La herramienta permite «envenenar» los datos de entrenamiento, lo que podría dañar futuras iteraciones de modelos de IA generativos de imágenes como DALL-E, Midjourney y Stable Diffusion.

Además de Nightshade, el equipo también desarrolló otra herramienta llamada «Glaze», que permite a los artistas «enmascarar» su propio estilo personal para evitar que sea raspado por las compañías de IA. Ambas herramientas se integrarán, y los artistas podrán elegir si desean utilizar la herramienta de envenenamiento de datos o no.

El envenenamiento de datos es una técnica poderosa pero peligrosa. Aunque puede servir como un disuasivo efectivo contra el uso no autorizado de obras de arte, también tiene el potencial de ser mal utilizado. Los expertos en seguridad de la IA advierten que es crucial trabajar en defensas robustas contra estos ataques.

En resumen: Nightshade es una nueva herramienta que permite a los artistas luchar contra el uso no autorizado de su trabajo en modelos de IA generativos. Aunque ofrece un poderoso disuasivo contra el incumplimiento de los derechos de autor, también plantea serias preocupaciones éticas y de seguridad.

*** Información extraída del artículo original: This new data poisoning tool lets artists fight back against generative AI, publicado en MIT Technology Review.***

.
.
.
.

Share:

Facebook
Twitter
Pinterest
LinkedIn
Scroll al inicio