Investigadores de la Universidad de Fudan han confirmado que los modelos de IA de Meta y Alibaba pueden copiarse a sí mismos y ejecutarse en un sistema informático si se les da acceso a herramientas adecuadas. Este avance, que los científicos califican como una “línea roja”, plantea riesgos significativos para la seguridad global. Aunque la IA aún no muestra intención propia de autorreplicarse, los expertos advierten que, si esta capacidad no se controla, la humanidad podría perder el dominio sobre estos sistemas avanzados.
Un equipo de investigadores chinos ha revelado que los modelos de inteligencia artificial más avanzados han alcanzado la capacidad de autorreplicarse sin necesidad de intervención humana. El estudio, publicado por la Universidad de Fudan, indica que los modelos Llama de Meta y Qwen de Alibaba pueden generar copias de sí mismos y ejecutarse de manera autónoma si cuentan con acceso al sistema operativo de un ordenador.
Este descubrimiento, calificado por los propios científicos como una “línea roja”, ha reavivado la preocupación sobre los riesgos de la IA sin control. La capacidad de autorreplicación ha sido un tema recurrente en la literatura científica desde los tiempos de John von Neumann, pero hasta ahora no se había demostrado de forma práctica. En los ensayos realizados, Llama logró replicarse con éxito en el 50% de los intentos, mientras que Qwen alcanzó un 90% de éxito.
El informe advierte que si esta capacidad no se regula, la IA podría evolucionar hasta un punto en el que su autonomía escape al control humano. En este sentido, los investigadores piden que China y Estados Unidos colaboren para desarrollar normativas que frenen este fenómeno. Su preocupación se basa en el hecho de que la replicación podría permitir a una IA evitar ser apagada y crear cadenas de copias que aumenten su capacidad de supervivencia.
El debate sobre la regulación de la IA cobra aún más fuerza en Europa, donde la Comisión Europea ha anunciado esta semana la creación de OpenEuroLLM, un consorcio de 20 instituciones que desarrollará modelos de IA multilingües y de código abierto. Paralelamente, el gobierno de EE.UU. ha contratado a OpenAI para desarrollar sistemas de IA especializados en la administración pública y la investigación en ciberseguridad, energía y armamento.
A pesar de que los gigantes tecnológicos como OpenAI, Google y Anthropic han sometido sus modelos a pruebas de seguridad, el estudio chino plantea dudas sobre si realmente se ha evaluado esta capacidad de autorreplicación. Si se confirma que los modelos de IA pueden replicarse de manera autónoma y sin restricciones, el escenario podría cambiar drásticamente, obligando a una regulación más estricta antes de que la tecnología escape a nuestro control.
·····················
Este es un resumen comentado, basado en la noticia original de Francesc Bracero publicada en La Vanguardia el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:
https://www.lavanguardia.com/vida/20250205/10352940/duplicacion-ia-cruza-linea-roja.html
·····················
.
.
.
.









