Bruselas propone nuevas normas y limitaciones para la inteligencia artificial

  • por

La Comisión Europea ha propuesto nuevas normas y medidas con las que busca “convertir a Europa en el centro mundial de una IA digna de confianza”.

A través de este primer marco jurídico sobre la IA y de un plan coordinado con los Estados miembros, Bruselas quiere garantizar la seguridad y los derechos fundamentales de las personas y empresas, al mismo tiempo que refuerza la adopción, la inversión y la innovación en materia de IA en todo el bloque.

“Nuestras normas intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”

“En cuanto a la inteligencia artificial, la confianza es una obligación, no un adorno. Mediante estas reglas de referencia, la UE lidera la formulación de nuevas normas mundiales para que garanticen que se pueda confiar en la IA”, asegura Margrethe Vestager, vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital. “Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva. Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”, explica Vestager.

El nuevo reglamento quiere garantizar que los europeos pueden confiar en la IA, ofreciendo unas normas flexibles que aborden riesgos específicos que plantea esta tecnología y fija estándares más altos de seguridad.

De este modo, Bruselas establece la norma con cuatro niveles claros de riesgo: riesgo inadmisible; alto riesgo; riesgo limitado; y riesgo mínimo o nulo.

RIESGO INADMISIBLE

El riesgo inadmisible establece la prohibición de los sistemas de IA que se consideren una amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Estos abarcan los sistemas y aplicaciones de IA que manipulan el comportamiento humano para eludir la voluntad de los usuarios, como por ejemplo los juguetes que utilizan un asistente de voz para iniciar a comportamientos peligrosos a los menores, así como sistemas que permitan la puntuación social por parte de los Gobiernos.

ALTO RIESGO

A su vez, los sistemas considerados de alto riesgo abarcan las tecnologías de IA que se emplean en infraestructuras críticas y que pueden poner en peligro la vida y salud de los ciudadanos; así como en formación educativa o profesional, que pueden determinar el acceso a la educación y la carrera profesional de una persona (como la puntuación de exámenes); o los componentes de seguridad de los productos (como el uso de la IA en cirugía asistida por robots).

Bruselas también señala los usos en empleo, gestión de trabajadores y acceso al trabajador por cuenta propia, como los programas informáticos de clasificación de CV para procedimientos de contratación; los servicios públicos y privados esenciales, que permiten por ejemplo sistemas de calificación crediticia que priven a los ciudadanos de obtener un préstamo; la aplicación de las leyes, que pueden interferir con los derechos fundamentales de las personas (por ejemplo, la evaluación de la fiabilidad de las pruebas).

Por otro lado, la Comisión señala además la gestión de la migración, el asilo y el control de las fronteras, tecnologías que permitan, por ejemplo, la comprobación de la autenticidad de los documentos de viaje; así como la administración de justicia y procesos democráticos, por ejemplo, la aplicación de la ley a un conjunto concreto de hechos.

Todos estos sistemas considerados de alto riesgo estarán sujetos a obligaciones estrictas antes de que se puedan empezar a comercializar (y aquellos que ya se comercialicen tendrán que cumplimentar la norma).

De este modo, tendrán que contar con sistema adecuados de evaluación y mitigación de riesgosalta calidad de los conjuntos de datos que alimentan el sistema de manear que se minimicen los riesgos y, sobre todo, los resultados discriminatorios; registro de la actividad para garantizar la trazabilidad de los resultados; y una documentación detallada que aporte la información necesaria sobre el sistema y su finalidad para la evaluación por parte de las autoridades.

Además, se exige información clara y adecuada al usuario; medidas apropiadas de supervisión humana; y un alto nivel de solidez, seguridad y precisión.

Bruselas pone el foco especialmente en los sistemas de identificación biométrica remota, asegurando que se consideran de alto riesgo y estarán sujetos a requisitos estrictos, de manera que se prohíbe su uso para fines policiales en espacios de acceso público, con algunas excepciones estrictas, como la búsqueda de un menor desaparecido, prevención de amenazas terroristas o la detección e identificación de sospechosos de delitos graves. En todos los casos, la Comisión advierte que su uso estará sujeto a la autorización por parte de un órgano judicial u organismo independiente y a los límites adecuados desde el punto de vista de la duración, el alcance geográfico y las bases de datos exploradas…

sigue leyendo eloriginal en Zonamovilidad