IA y economía: el dilema de las desigualdades, los costes y el poder
Vivimos un momento de profundas transformaciones que agitan la geopolítica y los equilibrios de poder. La política global se tambalea entre regresiones autoritarias y crisis institucionales, con el espectro de un nuevo mandato de Trump removiendo los equilibrios internacionales. En los frentes de guerra, drones y sistemas autónomos muestran que los algoritmos ya no solo calculan, también deciden. Y en el mundo civil, la inteligencia artificial generativa —capaz de crear texto, imagen o código— ha irrumpido como una herramienta de uso masivo sin que tengamos del todo claro cuáles son sus límites ni sus reglas de juego.
Este contexto plantea una cuestión de fondo: ¿Cómo evaluar el impacto real de la inteligencia artificial en la economía y en la vida social? ¿Por los beneficios que promete, por los costes que impone, por las mejoras en la calidad de vida, o por los efectos colaterales que genera? No hay una única métrica posible. Y tampoco hay respuestas neutras.
Porque la IA no es solo una tecnología, es una construcción social, económica y política. Una apuesta de poder y una disputa de modelo. El debate ético no está fuera del debate técnico ya que lo recorre de forma transversal. Por eso es urgente mirar más allá del entusiasmo tecnocrático y preguntarnos en qué dirección nos está llevando esta transformación.
La cara oculta: costes energéticos, materiales y económicos
Uno de los grandes puntos ciegos del relato oficial sobre la IA es su coste energético y material. Se habla de eficiencia, pero poco de consumo. Se promete desmaterialización, pero el modelo es profundamente físico ya que requiere entrenamiento de modelos con millones de parámetros, centros de datos que requieren refrigeración constante, cadenas de suministro extractivas que atraviesan medio mundo.
Entrenar un modelo como GPT-4 puede requerir decenas de millones de dólares en infraestructura y energía. Un informe de OpenAI y Microsoft reveló que sus sistemas consumen gigavatios-hora equivalentes al consumo de una ciudad mediana. Google estima que el entrenamiento de modelos de gran escala puede superar las 500 toneladas de CO₂ por sistema (Strubell et al., 2019).
La «nube» es en realidad un conjunto de minas, redes, fábricas y servidores. Esta infraestructura es intensiva en energía, agua y minerales críticos, y es poco compatible con los compromisos de descarbonización. Además, impone costes económicos indirectos: aumento del precio energético en países con alta demanda digital, presiones sobre redes eléctricas y conflictos por el uso del agua.
Además, los costes, impactos y escenarios son geopolíticos ya que el 90% de los chips avanzados los produce Taiwán; China controla más del 70% del procesamiento de tierras raras; EE. UU. lidera en semiconductores y propiedad intelectual. La “economía algorítmica” consolida nuevas dependencias.
Para hacernos otra idea en el mundo hay del orden de 8.000 centros de datos de los cuales un 30% están en EE. UU., y China solo cuenta con 400, siendo Alemania, el Reino Unido y Francia los otros centros importantes. El coste de un centro de datos como los de Microsoft o Google cuesta del orden entre 1.500 y 2.000 millones de dólares. Una idea de consumo es que el 40% de los gastos son en refrigeración.
En términos de inversión según Stanford AI Index 2024 y McKinsey Global Institute el sector privado ha invertido 67.000 millones de dólares y el público unos 30.000 millones. Estos niveles de inversión solo se lo pueden permitir países con una gran capacidad económica, ergo, la economía del conocimiento general una geopolítica basada en la desigualdad de países y fuentes de información que se traducirá, necesariamente, en los poderes en el planeta a los cuales habrá referencia más adelante.
Empleo: entre la promesa de la productividad y el sesgo hacia la automatización
Uno de los argumentos más reiterados es que la IA permitirá aumentar la productividad y liberar a las personas de tareas rutinarias. En parte es cierto, pero el problema está en cómo se distribuyen esos beneficios, y en qué tipo de empleo desaparece o se transforma. ¿Será en servicios, en industria, en tareas “inteligentes”? ¿Pueden afectar a tareas intensivas en fuerza de trabajo como los cuidadores, los agricultores, los servicios de restauración y hostelería?
Uno de los autores más citados en el tema, Erik Brynjolfsson, ha defendido que la IA puede ser un aliado del trabajador, no un sustituto. Si se orienta hacia la complementariedad, puede mejorar resultados y liberar tiempo para tareas más creativas. Pero esta visión optimista choca con la lógica dominante del mercado.
La automatización ha generado una pérdida neta de empleos medios: en EE. UU., más del 60% de la caída en empleos administrativos desde 2000 se atribuye a la informatización. La OCDE advierte que hasta el 27% de los empleos actuales pueden verse profundamente alterados en una década, y el impacto será desigual: mayor en jóvenes, mujeres y trabajadores de menor cualificación.
Esto genera un doble impacto, por un lado, la destrucción de empleos intermedios, por otro, una polarización creciente. La IA generativa no afecta solo a operarios o tareas repetitivas, sino también a profesiones cognitivas como traductores, diseñadores, administrativos, incluso programadores.
El riesgo es un mercado de trabajo en forma de «reloj de arena» basado en una concentración en la cúspide y precarización en la base.
Desigualdad, exclusión y concentración del poder
La inteligencia artificial no solo redistribuye funciones, también redistribuye poder. Las infraestructuras, los datos, los algoritmos y los beneficios están concentrados en pocas manos. Hoy, cuatro empresas (Microsoft, Google, Amazon y Meta) controlan más del 80% de la infraestructura de IA generativa. La inversión en IA está dominada por fondos privados solo en 2023, se superaron los 65.000 millones de dólares, y el 90% fue a parar a EE.UU. y China (McKinsey, 2023).
El gran tema no es solo la capacidad que tienen ciertos países para controlar la información atendiendo a sus recursos para promover data centers y, consecuentemente, tener medios para acumular conocimiento. En este sentido Shoshana Zuboff ha descrito este fenómeno como “capitalismo de vigilancia”: un sistema donde la extracción masiva de datos personales se convierte en una fuente de valor económico y de control social. Esta lógica erosiona la privacidad, socava la autonomía individual y refuerza asimetrías ya existentes.
Complementariamente, se puede dar el caso – no necesariamente, pero ya se ha dado en Google – que los modelos de IA entrenados con datos sesgados pueden perpetuar discriminaciones de género, raza o clase. Y lo hacen bajo un barniz de objetividad algorítmica. A falta de auditorías públicas, las decisiones automatizadas se vuelven opacas y difíciles de impugnar.
Además, la exclusión digital no es una externalidad sino un resultado directo del modelo de concentración, si no se corrige políticamente. La IA puede exacerbar la brecha entre países con capacidad tecnológica y aquellos que solo consumen tecnología ajena.
Conclusión: otra IA es posible (y necesaria)
No se trata de rechazar la inteligencia artificial. Se trata de preguntarnos con honestidad qué IA queremos, al servicio de qué fines, y con qué reglas. Como bien dice Zuboff, sin control ciudadano sobre los datos, no hay democracia digital. Las decisiones están en juego ahora. No es una revolución inevitable sino una construcción que puede orientarse. Y eso exige repensar no solo la tecnología, sino los valores que la guían, las instituciones que la regulan y las métricas con las que evaluamos su éxito.
Si seguimos midiendo el progreso por la velocidad del procesamiento o el tamaño del modelo, corremos el riesgo de perdernos lo más importante que no es otra cosa de saber, fehacientemente, para quién estamos diseñando el futuro.
Autor: Héctor Santcovsky


