iconoViolar la ley de la IA supondrá multas del 7% de tus ingresos

Las empresas que violen la ley de la IA tendrán un problema muy gordo: uno llamado 7% de sus ingresos

La UE prohíbe el uso de IA para registrar emociones de empleados y la puntuación social

La Unión Europea veta sistemas de IA que registren emociones laborales y evalúen socialmente a individuos

Bruselas sancionará con hasta el 7% de los ingresos a empresas que utilicen IA para monitorear emociones de empleados

La Unión Europea establece sanciones severas para el uso indebido de la inteligencia artificial en la monitorización emocional y la puntuación social.
La Unión Europea ha implementado la Ley de IA, prohibiendo prácticas como la puntuación social y la monitorización de emociones en entornos laborales y académicos. Las empresas que incumplan esta normativa enfrentan multas de hasta 35 millones de euros o el 7% de sus ingresos anuales, aplicables sin importar la ubicación de la empresa. Aunque existen excepciones para agencias de seguridad en casos específicos, la regulación busca proteger los derechos fundamentales y la privacidad de los ciudadanos europeos.

 

La Ley de Inteligencia Artificial de la Unión Europea entró en vigor el 1 de agosto de 2024. Recientemente, la Comisión Europea detalló las prácticas prohibidas bajo esta normativa, enfocándose en aplicaciones de IA que interactúan con personas en diversos contextos. La regulación clasifica los sistemas de IA en cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable.

Las prácticas consideradas de riesgo inaceptable incluyen:

Sistemas de IA que realizan puntuación social, creando perfiles de riesgo basados en el comportamiento individual.
IA que manipula decisiones humanas de manera subliminal o engañosa.
IA que explota vulnerabilidades relacionadas con la edad, discapacidad o nivel socioeconómico.
IA que predice crímenes basándose en la apariencia de las personas.
IA que usa datos biométricos para inferir características personales como la orientación sexual.
IA que recolecta datos biométricos en tiempo real en espacios públicos con fines policiales.
IA que monitorea y analiza las emociones de los empleados o estudiantes.
IA que amplía bases de datos de reconocimiento facial a partir de imágenes obtenidas en internet o cámaras de seguridad.
Las sanciones para empresas que violen estas regulaciones incluyen multas de hasta 35 millones de euros o el 7% de los ingresos anuales, aplicándose a cualquier empresa, sin importar su ubicación.

No obstante, existen excepciones: las agencias de seguridad pueden usar ciertos sistemas de recolección de datos biométricos para localizar personas desaparecidas o prevenir amenazas inminentes.

Los países miembros de la UE tienen hasta el 2 de agosto de 2025 para designar las autoridades responsables de supervisar el cumplimiento de la ley. A pesar de que el impacto en las funciones de IA en la UE podría ser limitado, el marco regulatorio sigue siendo un desafío para la adopción de innovaciones tecnológicas en Europa.

«¿Podrá la Unión Europea encontrar un equilibrio entre la protección de derechos y la competitividad tecnológica global sin quedar rezagada ante potencias como EE.UU. y China?»

·····················
Este es un resumen comentado, basado en la noticia original de Javier Pastor publicada en Xataka el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:

https://www.xataka.com/robotica-e-ia/ue-revela-usos-prohibidos-ia-nada-registrar-emociones-empleados-puntuarnos-socialmente
·····················

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights