iconoGoogle abandona su política de «no hacer daño» en su IA y se abre sus puertas a desarrollar armas militares

Google modifica sus principios éticos de IA, permitiendo su uso en armamento La compañía elimina restricciones para el desarrollo de tecnologías militares basadas en inteligencia artificial Google actualiza su política de IA y abre la puerta al desarrollo de armas autónomas

Google elimina restricciones éticas en IA, abriendo la puerta al desarrollo de armamento militar.

En 2018, Google estableció principios éticos para el desarrollo de inteligencia artificial, comprometiéndose a no utilizar esta tecnología en aplicaciones que pudieran causar daño, incluyendo armamento y vigilancia que violara derechos humanos. Recientemente, la empresa ha eliminado discretamente esta restricción de sus directrices, permitiendo el uso de IA en desarrollos militares. Esta decisión ha generado preocupación entre expertos y empleados, quienes temen que Google participe en la creación de tecnologías que puedan causar daño directo a las personas.

 

En 2018, Google estableció una serie de principios éticos para el desarrollo de su inteligencia artificial, comprometiéndose a no utilizar esta tecnología en aplicaciones que pudieran causar daño, como armamento o sistemas de vigilancia que violaran los derechos humanos. Sin embargo, según informa Bloomberg, la compañía ha eliminado discretamente esta restricción de sus directrices, abriendo la posibilidad de emplear la IA en desarrollos militares.

Esta modificación ha generado inquietud entre expertos y empleados de la empresa. Margaret Mitchell, ex codirectora del equipo de IA ética de Google y actual jefa de ética en Hugging Face, expresó su preocupación al respecto, señalando que «esto significa que Google, probablemente, ahora trabajará en el despliegue de tecnología directa que pueda matar personas».

En los últimos años, Google ha estrechado vínculos con los ejércitos de Estados Unidos e Israel, proporcionando infraestructura en la nube, lo que ha provocado protestas internas por parte de los empleados. La eliminación de esta cláusula ética podría intensificar estas colaboraciones, permitiendo a la compañía participar en proyectos que antes estaban fuera de sus límites autoimpuestos.

Esta decisión se enmarca en un contexto más amplio donde otras empresas tecnológicas, como OpenAI y Anthropic, también están mostrando interés en vender sus desarrollos de IA al ejército de Estados Unidos. Aunque actualmente la inteligencia artificial se utiliza principalmente para acelerar procesos de planificación y estrategia, existe la preocupación de que, en un futuro cercano, pueda emplearse en la creación de armas autónomas capaces de tomar decisiones letales sin intervención humana.

La actualización de las políticas de Google ha suscitado un debate sobre las implicaciones éticas de utilizar la inteligencia artificial en contextos militares. Mientras algunos argumentan que la colaboración entre empresas tecnológicas y el sector de defensa es inevitable para mantener la competitividad y la seguridad nacional, otros advierten sobre los riesgos de desarrollar tecnologías que puedan causar daño directo a las personas y la necesidad de establecer límites claros en su aplicación.

¿Está Google sacrificando sus principios éticos en pos de la competitividad en el sector de la inteligencia artificial militar, y cuáles podrían ser las consecuencias a largo plazo de esta decisión para la sociedad y la seguridad global?

····················· Este es un resumen comentado, basado en la noticia original de Jesús Quesada publicada en Urban Tecno el 06/02/2025. Puedes leer el artículo completo aquí: https://www.mundodeportivo.com/urbantecno/tecnologia/google-abandona-su-politica-de-no-hacer-dano-en-su-ia-y-se-abre-sus-puertas-a-desarrollar-armas-militares ····················· . . . .

Scroll al inicio
Verificado por MonsterInsights