iconoNueva normativa española exige etiquetar contenidos generados por inteligencia artificial

El Gobierno español ha aprobado un anteproyecto de ley que obliga a etiquetar los contenidos generados por inteligencia artificial (IA), establece restricciones al uso del reconocimiento facial en tiempo real y contempla sanciones de hasta 35 millones de euros por incumplimiento.

El Consejo de Ministros presentó recientemente el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial, con el objetivo de regular la aplicación práctica de esta tecnología en España. Este documento desarrolla y adapta al ordenamiento jurídico español lo establecido en el Reglamento Europeo de Inteligencia Artificial, aprobado en marzo de 2024.

La normativa clasifica las aplicaciones de IA en función del riesgo que suponen para la sociedad:

  • Riesgo inaceptable: Sistemas prohibidos que trascienden la conciencia de una persona, técnicas manipuladoras deliberadas, aquellos que explotan vulnerabilidades o infieren emociones, raza u opiniones políticas.

  • Alto riesgo: Sistemas que requieren supervisión constante, como la identificación biométrica remota en diferido, categorización biométrica, reconocimiento de emociones, aplicaciones que afectan a la seguridad de infraestructuras críticas, educación, empleo, prestación de servicios públicos esenciales, aplicación de la ley o gestión de la migración.

  • Bajo riesgo: Aplicaciones que se pueden manejar sin restricciones específicas.

Una de las medidas destacadas es la obligación de etiquetar los contenidos generados por IA. Cuando los sistemas de IA produzcan contenido sintético de audio, imagen, video o texto, se deberá marcar claramente su naturaleza artificial. Aunque la ley no especifica el formato exacto de este etiquetado, su ausencia se considerará una infracción grave.

En cuanto al reconocimiento facial en tiempo real en espacios públicos, la normativa lo prohíbe salvo en casos excepcionales, como la búsqueda de víctimas de secuestro, prevención de amenazas inminentes para la seguridad o la identificación de sospechosos de delitos graves. Para su uso, las autoridades deberán obtener una autorización específica que detalle los motivos de urgencia, las personas a identificar y el ámbito geográfico y temporal de la operación.El País

La Agencia Española de Supervisión de Inteligencia Artificial (Aesia) será la encargada de centralizar la vigilancia de los algoritmos y garantizar el cumplimiento de la normativa. Además, la Agencia Española de Protección de Datos (AEPD) gestionará el tratamiento de datos biométricos, la Junta Electoral Central supervisará los sistemas de IA que puedan afectar a la democracia y el Consejo General del Poder Judicial se ocupará de aquellos que incidan en la aplicación de la justicia.El País

El régimen sancionador establece multas proporcionales a la gravedad de la infracción:Escura | Abogados y Economistas

  • Infracciones muy graves: Multas de entre 7,5 y 35 millones de euros, o entre el 2% y el 7% del volumen de negocios anual mundial.

  • Infracciones graves: Multas de entre 7,5 y 15 millones de euros, o entre el 2% y el 3% del volumen de negocios anual mundial.

  • Infracciones leves: Multas de entre 6.000 y 500.000 euros, o entre el 0,5% y el 1% del volumen de negocios anual mundial.

Las infracciones muy graves incluyen el uso de tecnologías prohibidas o sistemas de identificación biométrica en tiempo real no autorizados. Las graves abarcan la falta de etiquetado de contenidos generados por IA, la resistencia a aplicar medidas provisionales impuestas por las autoridades o la introducción en el mercado de aplicaciones de alto riesgo sin registro previo. Las leves se refieren a la provisión de información incompleta, inexacta o engañosa cuando las autoridades lo requieran.

Se espera que la ley entre en vigor en la primera mitad de este año, con la obligación de publicar informes anuales sobre el uso de sistemas de identificación biométrica remota en tiempo real o en diferido antes del 31 de diciembre de 2025. La Aesia deberá emitir un primer informe antes del 2 de agosto sobre el estado de los recursos financieros y humanos de las autoridades nacionales competentes.

«¿Cómo afectará la obligatoriedad de etiquetar contenidos generados por IA a la confianza del público en la información digital?»

.

.

.

Este es un resumen comentado, basado en el artículo: «¿Hay que etiquetar los vídeos generados con IA? ¿Qué pasa si no lo hago? Preguntas y respuestas sobre la nueva normativa española» de Manuel G. Pascual publicado en EL PAÍS el 20 de marzo de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights