El International AI Safety Report, liderado por Yoshua Bengio, recopila los principales riesgos de la inteligencia artificial de propósito general y propone medidas de mitigación. La investigadora Nuria Oliver, coautora del informe, defiende la regulación europea como una herramienta imprescindible para asegurar que la IA se use de manera ética. Entre los riesgos identificados se encuentran la manipulación de la opinión pública, la generación de contenido falso y la posibilidad de que modelos de IA sean utilizados para desarrollar armas biológicas.
El avance de la inteligencia artificial ha llegado a un punto en el que las preocupaciones sobre su regulación se han convertido en una prioridad global. El International AI Safety Report, elaborado por casi un centenar de expertos bajo la dirección de Yoshua Bengio, ha sido presentado en la antesala de la cumbre de IA de París, con el respaldo de la ONU, la OCDE y la Unión Europea.
Entre los autores del informe se encuentra la investigadora española Nuria Oliver, directora de la Fundación Ellis Alicante, quien subraya la importancia de una regulación clara para evitar los riesgos asociados a la IA. El informe señala que los peligros de la inteligencia artificial van desde la generación de deepfakes hasta el uso de modelos avanzados para crear armas biológicas. Aunque algunos riesgos son meramente especulativos, otros, como la manipulación informativa y la falta de transparencia, ya son una realidad.
La regulación europea ha sido pionera en este sentido. La Ley de Inteligencia Artificial de la UE ha prohibido ciertas aplicaciones de la IA y ha establecido códigos de buenas prácticas que entrarán en vigor en primavera. Según Nuria Oliver, esta normativa es fundamental para garantizar que los proveedores de modelos de IA cumplan con las exigencias de transparencia si quieren seguir operando en Europa.
Sin embargo, la regulación de la IA sigue siendo un campo de batalla entre distintas visiones. Mientras algunos expertos defienden el código abierto como una vía para fomentar la innovación y la transparencia, otros alertan sobre los peligros de que modelos avanzados caigan en manos de actores malintencionados. El reciente caso de DeepSeek, la IA de código abierto de una empresa china, ha abierto un debate sobre hasta qué punto es seguro permitir el acceso indiscriminado a estos modelos.
El informe también menciona los riesgos sistémicos de la IA, como su impacto en el mercado laboral, la concentración de poder en unas pocas empresas y la falta de equidad en el acceso a estas tecnologías. A medida que los gobiernos y las grandes corporaciones definen sus estrategias de IA, la pregunta clave sigue siendo hasta qué punto se puede regular una tecnología que evoluciona más rápido que las normativas.
La inteligencia artificial está en una encrucijada. Por un lado, sus avances pueden impulsar el progreso en múltiples ámbitos, desde la medicina hasta la ciberseguridad. Por otro, los riesgos que plantea no pueden ser ignorados. La regulación europea marca un camino, pero queda por ver si será suficiente para evitar que la IA se convierta en una herramienta fuera de control.
·····················
Este es un resumen comentado, basado en la noticia original de M. Prieto publicada en Expansión el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:
https://www.expansion.com/economia-digital/protagonistas/2025/02/05/67a3a1c6468aeba2578b459a.html
·····················
.
.
.
.









