icono

### Desafíos éticos y políticos de la inteligencia artificial en la guerra

El uso de la inteligencia artificial en conflictos armados plantea nuevos desafíos éticos y políticos, con potenciales consecuencias mortales si no se regula adecuadamente. Diversos actores internacionales, como EE.UU., Rusia, Israel, China y la Unión Europea, tienen posturas divergentes sobre el control de las armas autónomas. Mientras algunos países defienden su desarrollo como parte de la seguridad nacional, otros abogan por una regulación internacional más estricta, similar al Tratado de No Proliferación Nuclear. El conflicto en Ucrania ha servido como campo de pruebas para sistemas autónomos, con drones capaces de actuar de forma independiente en combate. China y Rusia, por su parte, ven en la IA militar una herramienta fundamental para su superioridad en futuros conflictos. La necesidad de establecer un marco ético y legal internacional para regular la IA en la guerra es urgente, antes de que la tecnología escape al control humano y genere consecuencias irreversibles.

**FUENTE:** LA VOZ DE GALICIA S.A.

https://www.lavozdegalicia.es/noticia/opinion/2025/07/19/bellum-ia-autonoma/0003_202507G19P14991.htm

Scroll al inicio
Verificado por MonsterInsights