14 de abril de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoIA y economía: el dilema de las desigualdades, los costes y el poder

Vivimos un momento de profundas transformaciones que agitan la geopolítica y los equilibrios de poder. La política global se tambalea entre regresiones autoritarias y crisis institucionales, con el espectro de un nuevo mandato de Trump removiendo los equilibrios internacionales. En los frentes de guerra, drones y sistemas autónomos muestran que los algoritmos ya no solo calculan, también deciden. Y en el mundo civil, la inteligencia artificial generativa —capaz de crear texto, imagen o código— ha irrumpido como una herramienta de uso masivo sin que tengamos del todo claro cuáles son sus límites ni sus reglas de juego.

Este contexto plantea una cuestión de fondo: ¿Cómo evaluar el impacto real de la inteligencia artificial en la economía y en la vida social? ¿Por los beneficios que promete, por los costes que impone, por las mejoras en la calidad de vida, o por los efectos colaterales que genera? No hay una única métrica posible. Y tampoco hay respuestas neutras.

Porque la IA no es solo una tecnología, es una construcción social, económica y política. Una apuesta de poder y una disputa de modelo. El debate ético no está fuera del debate técnico ya que lo recorre de forma transversal. Por eso es urgente mirar más allá del entusiasmo tecnocrático y preguntarnos en qué dirección nos está llevando esta transformación.

La cara oculta: costes energéticos, materiales y económicos

Uno de los grandes puntos ciegos del relato oficial sobre la IA es su coste energético y material. Se habla de eficiencia, pero poco de consumo. Se promete desmaterialización, pero el modelo es profundamente físico ya que requiere entrenamiento de modelos con millones de parámetros, centros de datos que requieren refrigeración constante, cadenas de suministro extractivas que atraviesan medio mundo.

Entrenar un modelo como GPT-4 puede requerir decenas de millones de dólares en infraestructura y energía. Un informe de OpenAI y Microsoft reveló que sus sistemas consumen gigavatios-hora equivalentes al consumo de una ciudad mediana. Google estima que el entrenamiento de modelos de gran escala puede superar las 500 toneladas de CO₂ por sistema (Strubell et al., 2019).

La «nube» es en realidad un conjunto de minas, redes, fábricas y servidores. Esta infraestructura es intensiva en energía, agua y minerales críticos, y es poco compatible con los compromisos de descarbonización. Además, impone costes económicos indirectos: aumento del precio energético en países con alta demanda digital, presiones sobre redes eléctricas y conflictos por el uso del agua.

Además, los costes, impactos y escenarios son geopolíticos ya que el 90% de los chips avanzados los produce Taiwán; China controla más del 70% del procesamiento de tierras raras; EE. UU. lidera en semiconductores y propiedad intelectual. La “economía algorítmica” consolida nuevas dependencias.

Para hacernos otra idea en el mundo hay del orden de 8.000 centros de datos de los cuales un 30% están en EE. UU., y China solo cuenta con 400, siendo Alemania, el Reino Unido y Francia los otros centros importantes. El coste de un centro de datos como los de Microsoft o Google cuesta del orden entre 1.500 y 2.000 millones de dólares. Una idea de consumo es que el 40% de los gastos son en refrigeración.

En términos de inversión según Stanford AI Index 2024 y McKinsey Global Institute el sector privado ha invertido 67.000 millones de dólares y el público unos 30.000 millones. Estos niveles de inversión solo se lo pueden permitir países con una gran capacidad económica, ergo, la economía del conocimiento general una geopolítica basada en la desigualdad de países y fuentes de información que se traducirá, necesariamente, en los poderes en el planeta a los cuales habrá referencia más adelante.

Empleo: entre la promesa de la productividad y el sesgo hacia la automatización

Uno de los argumentos más reiterados es que la IA permitirá aumentar la productividad y liberar a las personas de tareas rutinarias. En parte es cierto, pero el problema está en cómo se distribuyen esos beneficios, y en qué tipo de empleo desaparece o se transforma. ¿Será en servicios, en industria, en tareas “inteligentes”? ¿Pueden afectar a tareas intensivas en fuerza de trabajo como los cuidadores, los agricultores, los servicios de restauración y hostelería?

Uno de los autores más citados en el tema, Erik Brynjolfsson, ha defendido que la IA puede ser un aliado del trabajador, no un sustituto. Si se orienta hacia la complementariedad, puede mejorar resultados y liberar tiempo para tareas más creativas. Pero esta visión optimista choca con la lógica dominante del mercado.

La automatización ha generado una pérdida neta de empleos medios: en EE. UU., más del 60% de la caída en empleos administrativos desde 2000 se atribuye a la informatización. La OCDE advierte que hasta el 27% de los empleos actuales pueden verse profundamente alterados en una década, y el impacto será desigual: mayor en jóvenes, mujeres y trabajadores de menor cualificación.

Esto genera un doble impacto, por un lado, la destrucción de empleos intermedios, por otro, una polarización creciente. La IA generativa no afecta solo a operarios o tareas repetitivas, sino también a profesiones cognitivas como traductores, diseñadores, administrativos, incluso programadores.

El riesgo es un mercado de trabajo en forma de «reloj de arena» basado en una concentración en la cúspide y precarización en la base.

Desigualdad, exclusión y concentración del poder

La inteligencia artificial no solo redistribuye funciones, también redistribuye poder. Las infraestructuras, los datos, los algoritmos y los beneficios están concentrados en pocas manos. Hoy, cuatro empresas (Microsoft, Google, Amazon y Meta) controlan más del 80% de la infraestructura de IA generativa. La inversión en IA está dominada por fondos privados solo en 2023, se superaron los 65.000 millones de dólares, y el 90% fue a parar a EE.UU. y China (McKinsey, 2023).

El gran tema no es solo la capacidad que tienen ciertos países para controlar la información atendiendo a sus recursos para promover data centers y, consecuentemente, tener medios para acumular conocimiento. En este sentido Shoshana Zuboff ha descrito este fenómeno como “capitalismo de vigilancia”: un sistema donde la extracción masiva de datos personales se convierte en una fuente de valor económico y de control social. Esta lógica erosiona la privacidad, socava la autonomía individual y refuerza asimetrías ya existentes.

Complementariamente, se puede dar el caso – no necesariamente, pero ya se ha dado en Google – que los modelos de IA entrenados con datos sesgados pueden perpetuar discriminaciones de género, raza o clase. Y lo hacen bajo un barniz de objetividad algorítmica. A falta de auditorías públicas, las decisiones automatizadas se vuelven opacas y difíciles de impugnar.

Además, la exclusión digital no es una externalidad sino un resultado directo del modelo de concentración, si no se corrige políticamente. La IA puede exacerbar la brecha entre países con capacidad tecnológica y aquellos que solo consumen tecnología ajena.

Conclusión: otra IA es posible (y necesaria)

No se trata de rechazar la inteligencia artificial. Se trata de preguntarnos con honestidad qué IA queremos, al servicio de qué fines, y con qué reglas. Como bien dice Zuboff, sin control ciudadano sobre los datos, no hay democracia digital. Las decisiones están en juego ahora. No es una revolución inevitable sino una construcción que puede orientarse. Y eso exige repensar no solo la tecnología, sino los valores que la guían, las instituciones que la regulan y las métricas con las que evaluamos su éxito.

Si seguimos midiendo el progreso por la velocidad del procesamiento o el tamaño del modelo, corremos el riesgo de perdernos lo más importante que no es otra cosa de saber, fehacientemente, para quién estamos diseñando el futuro.

Autor: Héctor Santcovsky

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTED2025: Humanity Reimagined, conclusiones

TED2025 concluyó con una intensa jornada de reflexiones sobre inteligencia artificial, salud mental colectiva, activismo climático y espiritualidad. Sam Altman habló del futuro de la IA como una extensión humana, Xiye Bastida reivindicó la sabiduría indígena frente al cambio climático y Pico Iyer celebró el poder del silencio como medicina universal.
El evento TED2025: Humanity Reimagined concluyó en Vancouver con una jornada cargada de ideas provocadoras sobre el futuro de la humanidad. La última sesión congregó a destacados ponentes que abordaron desde la revolución de la inteligencia artificial hasta la espiritualidad y la acción climática como pilares para un futuro más consciente y sostenible.

Sam Altman, CEO de OpenAI, abrió la jornada dialogando con Chris Anderson, director de TED. Altman analizó el crecimiento exponencial de los modelos como ChatGPT, vaticinando un futuro donde estas inteligencias actuarán como extensiones de nuestra mente. Rechazó la idea de una única “explosión” de la AGI (inteligencia general artificial), abogando por una evolución gradual. Hizo énfasis en el desarrollo de IA agentica, con capacidades autónomas, y la urgencia de diseñar barreras éticas que prevengan abusos de poder y riesgos sistémicos.

El periodista y podcaster Dan Taberski presentó un inquietante estudio sobre un caso real de histeria colectiva en 2011, cuando un grupo de adolescentes en Nueva York comenzó a manifestar síntomas similares al síndrome de Tourette. Taberski usó este episodio como espejo de la vulnerabilidad social ante el estrés colectivo y la desinformación.

La activista climática Xiye Bastida ofreció un mensaje inspirador desde la resiliencia ecológica y el liderazgo indígena. Invitó a reimaginar el futuro aprendiendo de la naturaleza y empleando la imaginación como herramienta de cambio, reclamando un activismo climático fundamentado en la esperanza activa.

El cierre estuvo a cargo del escritor Pico Iyer, quien compartió una conmovedora reflexión sobre la muerte de su padre y la importancia del silencio profundo como vía de sanación y reconexión personal. Su testimonio reafirmó el poder restaurador de detenerse y escuchar más allá del ruido cotidiano.

La jornada subrayó que, ante desafíos globales, la combinación de tecnología, ética, comunidad y espiritualidad será esencial para diseñar el mundo que queremos habitar.

«¿Cómo podemos equilibrar el avance tecnológico con la necesidad de introspección y conexión humana auténtica?»

. .
.

Este es un resumen comentado, basado en el artículo : «An epic day 5 of TED2025» de Brian Greene, Maria Ladias y Oliver Friedman publicado en TED Blog el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSam Altman plantea pagar a artistas cuyos estilos inspiren la inteligencia artificial

El CEO de OpenAI, Sam Altman, propuso durante TED 2025 un modelo de reparto de ingresos para artistas cuyos estilos sean usados por sistemas de IA. La idea surge tras el escándalo por imágenes generadas al estilo de Studio Ghibli. Altman también adelantó novedades de ChatGPT como memoria contextual y menor censura.
Durante su intervención en TED 2025, el CEO de OpenAI, Sam Altman, planteó la creación de un modelo de reparto de ingresos para artistas y creadores que opten por permitir el uso de su estilo en contenidos generados por inteligencia artificial. La propuesta llega en un momento crítico, marcado por la polémica que generó en redes sociales la tendencia viral de imágenes generadas con estilo del estudio japonés Studio Ghibli, lo que reavivó el debate sobre el respeto a los derechos de autor en la era de la IA.

Altman sugirió que si un creador da su consentimiento explícito para que su obra sea usada como referencia por modelos como ChatGPT, se podría implementar un sistema de compensación económica proporcional. “Sería genial encontrar un modelo donde si alguien quiere generar una imagen en nombre de un artista que ha dado su consentimiento, exista una vía de ingresos”, declaró. No obstante, reconoció la complejidad de aplicar esta lógica cuando se combinan varios estilos, planteando interrogantes como: ¿cómo se distribuye equitativamente el dinero entre múltiples creadores?

En cuanto al estado actual del sistema, Altman explicó que existen barreras técnicas en los modelos de OpenAI para impedir la generación de imágenes que copien directamente el estilo de artistas específicos sin consentimiento. Añadió que OpenAI está trabajando en suavizar restricciones sobre temas de lenguaje, en busca de una generación más abierta de contenido.

Entre otras novedades, Altman presentó una función de memoria contextual en el generador de imágenes de ChatGPT, basada en GPT-4o, que permite recordar consultas previas del usuario y actuar como una extensión personalizada. Esta función, explicó, podría eventualmente observar e interactuar de forma más continua con las actividades del usuario.

Finalmente, Altman abordó el temor a la sustitución laboral por la IA, afirmando que, como en otras revoluciones tecnológicas, aumentarán tanto las exigencias como las capacidades humanas. OpenAI, actualmente valorada en 300.000 millones de dólares, desarrolla también agentes autónomos capaces de operar en nombre de los usuarios.

«¿Qué mecanismos deberían establecerse para garantizar una compensación justa a los creadores en el ecosistema de la inteligencia artificial?»

. .
.

Este es un resumen comentado, basado en el artículo : «‘It would be cool’: OpenAI CEO Sam Altman suggests revenue-sharing model for creators in time» de Tech Desk publicado en The Indian Express el 13 de abril de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights