La administración de Trump ha ordenado a los científicos de inteligencia artificial eliminar cualquier ‘sesgo ideológico’ de los modelos avanzados, argumentando que esto garantizará su neutralidad y objetividad. Sin embargo, la medida genera controversia sobre el papel de la política en el desarrollo tecnológico.
Durante la administración de Trump, se ha implementado una directiva que exige a los investigadores en inteligencia artificial revisar sus algoritmos y eliminar cualquier indicio de «sesgo ideológico». La orden busca asegurar que los sistemas de IA sean neutrales y no reflejen posturas políticas o sociales que puedan considerarse parciales.
Esta decisión se produce en un contexto en el que la administración Trump ha criticado a las grandes tecnológicas por posibles sesgos en sus algoritmos, especialmente en plataformas de redes sociales y motores de búsqueda. El gobierno argumenta que la inteligencia artificial debe operar con total imparcialidad y no favorecer ninguna ideología en sus resultados.
La orden ejecutiva establece tres medidas principales:
- Revisión obligatoria de modelos de IA para detectar y eliminar sesgos ideológicos.
- Desarrollo de protocolos de recopilación de datos que garanticen neutralidad.
- Creación de equipos de supervisión para auditar modelos de IA en sectores clave.
Sin embargo, la medida ha sido recibida con escepticismo en la comunidad científica y tecnológica. Expertos en IA advierten que eliminar completamente el sesgo es prácticamente imposible, ya que los algoritmos aprenden de conjuntos de datos que reflejan realidades sociales y económicas. Algunos investigadores temen que la presión por “despolitizar” la IA pueda llevar a la eliminación de perspectivas diversas y al ocultamiento de problemas de discriminación algorítmica.
Además, organizaciones de derechos digitales han expresado preocupación sobre la posibilidad de que esta orden se utilice para manipular modelos de IA con fines políticos. Señalan que la “neutralidad” puede convertirse en una herramienta para favorecer narrativas específicas en detrimento de otras.
Por otro lado, algunos sectores apoyan la directiva, argumentando que es necesario garantizar que la inteligencia artificial no refuerce agendas ideológicas. Empresarios de Silicon Valley han manifestado que la medida podría fomentar la confianza del público en la IA y evitar sesgos perjudiciales en decisiones automatizadas, como las relacionadas con contratación, financiamiento o atención médica.
En el ámbito internacional, la iniciativa también podría generar tensiones. Mientras Europa avanza en regulaciones que exigen mayor transparencia y supervisión en la IA, Estados Unidos opta por una estrategia que prioriza la competitividad y el liderazgo tecnológico. Esta diferencia de enfoques podría afectar futuras colaboraciones en normativas globales sobre inteligencia artificial.
«¿Es posible eliminar completamente el sesgo en la inteligencia artificial sin afectar su capacidad para reflejar la realidad?»
. .
.
Este es un resumen comentado, basado en el artículo: «Bajo la administración de Trump, se instruye a los científicos de IA a eliminar el ‘sesgo ideológico’ de los modelos avanzados» de Hugo López, publicado en IA España el 17 de marzo de 2025.
. .









