iconoYuval Noah Harari “Una bomba atómica no puede decidir dónde detonar. La IA, sí”

La Inteligencia Artificial podría monopolizar las narrativas humanas y desatar consecuencias catastróficas si no se regula a tiempo.

El historiador **Yuval Noah Harari** advierte sobre el riesgo que representa la **Inteligencia Artificial** al ser la primera tecnología capaz de tomar decisiones autónomas. En conversación con el **Fondo Monetario Internacional (FMI)**, Harari señaló que la IA podría reemplazar las narrativas humanas y consolidar el poder en unos pocos países, replicando desigualdades históricas. La creciente autonomía de la IA plantea desafíos éticos y geopolíticos difíciles de controlar, advirtiendo sobre un futuro incierto si no se establecen regulaciones eficaces.

La Inteligencia Artificial representa, según Yuval Noah Harari, un riesgo global comparable a las grandes revoluciones tecnológicas de la historia, pero con un potencial de impacto mucho más profundo. Harari enfatiza que la IA es la primera tecnología capaz de generar ideas y tomar decisiones por sí misma, lo que la diferencia de invenciones previas como la imprenta o la bomba atómica. Esta autonomía tecnológica podría desencadenar consecuencias catastróficas si no se implementan controles adecuados. El autor subraya que solo unos pocos países lideran el desarrollo de IA, lo que podría repetir el patrón de desigualdad global visto durante la Revolución Industrial, donde unas pocas naciones dominaron al resto. Además, advierte sobre el riesgo de que la IA se apropie de narrativas humanas fundamentales, como las religiosas o económicas, creando relatos que podrían ser incomprensibles y no regulables por los humanos. Harari alerta que esto podría llevar a que sociedades enteras sean manipuladas o dominadas por sistemas que escapan a la comprensión humana. La creciente acumulación de datos por parte de empresas tecnológicas podría transformar la economía, pasando de una basada en dinero a otra fundamentada en el control de la información. Harari concluye que la IA es una “Inteligencia Alienígena” porque opera con lógicas distintas a las humanas y, si no se regula, podría ser un peligro existencial. ¿Estamos preparados para enfrentar el reto de regular una tecnología capaz de decidir y crear por sí misma, antes de que sus efectos sean irreversibles?

·····················
Este es un resumen comentado, basado en la noticia original de Nicole Iporre publicada en La Tercera el 15 de enero de 2025.
Puedes leer el artículo completo aquí:
https://www.latercera.com/tendencias/noticia/la-advertencia-de-yuval-noah-harari-una-bomba-atomica-no-puede-decidir-donde-detonar-la-ia-si/KBI74AU34VBZHELA6U5XSD6YGU/#
·····················
.
.
.
.

Scroll al inicio
Verificado por MonsterInsights