Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoCómo aprovechar la IA para ser un líder más eficaz / FORBES

La inteligencia artificial no solo automatiza tareas: está redefiniendo el liderazgo moderno. Directivos eficaces la utilizan para mejorar la toma de decisiones, el desarrollo personal y la gestión del tiempo, creando organizaciones más adaptables e inteligentes.

Según un estudio de Deloitte, más del 80% de los líderes considera que la IA es clave para el éxito de sus organizaciones. La periodista Caroline Castrillon recopila siete estrategias eficaces donde la IA potencia el liderazgo real. Desde CEOs que la utilizan para resolver conflictos de equipo mediante análisis cruzado de departamentos, hasta gestores que recuperan tiempo valioso al automatizar reuniones con herramientas como Otter.ai o Zoom AI Companion.

Una de las estrategias destacadas es el uso de IA para el desarrollo personalizado de líderes. Plataformas como BetterUp analizan el rendimiento y ofrecen recomendaciones concretas para mejorar habilidades clave como la delegación o la productividad. Otra aplicación es la toma de decisiones complejas, donde modelos de análisis ayudan a descubrir patrones invisibles y permiten una planificación más afinada, como ocurrió en una cadena minorista que revirtió una caída de ventas regional.

La IA también mejora el clima laboral: sistemas de feedback detectan signos tempranos de estrés y permiten acciones preventivas. Además, el liderazgo eficaz requiere combinar datos algorítmicos con intuición humana. Casos como el de un hospital demuestran que un equilibrio entre eficiencia digital y sensibilidad personal es indispensable.

Por último, generar una cultura que abrace la IA sin miedo es esencial. Crear espacios seguros para experimentar, formar al equipo y reconocer tanto éxitos como aprendizajes fomenta la innovación sostenible.

«¿Está tu organización preparada para liderar con inteligencia artificial sin perder el toque humano?»

. .
.

Este es un resumen comentado, basado en el artículo: «Cómo aprovechar la IA para ser un líder más eficaz» de Caroline Castrillon, publicado en Forbes España el 16/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoInvestigadores en IA no creen que los modelos actuales lleven a alcanzar la inteligencia humana

Una encuesta global revela que el 76% de los expertos en inteligencia artificial considera improbable que los modelos actuales, por más que se escalen, puedan alcanzar una inteligencia artificial general comparable a la humana.

Según un estudio de la Asociación para el Avance de la Inteligencia Artificial (AAAI), que ha consultado a 475 expertos en IA, el consenso es claro: el camino seguido por las grandes tecnológicas con modelos cada vez más grandes no basta para lograr una inteligencia artificial general (AGI). Pese al impacto y los avances recientes, como los nuevos modelos de Meta o de OpenAI, la comunidad científica duda que este enfoque escale hacia una inteligencia verdaderamente humana.

Mientras algunos investigadores creen que podría alcanzarse con combinaciones incrementales y más cómputo —como José Hernández-Orallo, desde Cambridge—, otros como Senén Barro de la Universidad de Santiago de Compostela, consideran que los modelos actuales, aunque mejoren, no cumplirán con la definición de AGI, que incluye capacidades como la autoconciencia o el sentido común.

Carme Torras, del Institut de Robòtica i Informàtica Industrial, y Carles Sierra, del Instituto de Investigación en IA, coinciden en que la IA debe tener una dimensión corporal y simbólica para avanzar. Esto implica dotarla de capacidad perceptiva, de interacción con el entorno, y de estructuras neurosimbólicas que simulen experiencias humanas, algo clave para generar una verdadera agencia.

En resumen, el camino hacia una IA con inteligencia humana no será una simple ampliación de modelos actuales, sino un rediseño profundo de enfoques, integrando cuerpo, razonamiento simbólico y conciencia del entorno.

«¿Podrá la IA alcanzar algún día la autoconciencia o será siempre una réplica superficial de la mente humana?»

. .
.

Este es un resumen comentado, basado en el artículo: «Investigadores en IA no creen que los modelos actuales lleven a alcanzar la inteligencia humana» de Jordi Pérez Colomé, publicado en EL PAÍS el 17/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenAI revoluciona ChatGPT con IA que razona visualmente: o3 y o4-mini llegan gratis al usuario

OpenAI presenta sus modelos de IA más avanzados hasta la fecha, o3 y o4-mini, que incorporan razonamiento visual avanzado y la capacidad de integrar múltiples herramientas en un solo sistema, transformando la experiencia de ChatGPT incluso en su versión gratuita.

OpenAI ha lanzado dos nuevos modelos de inteligencia artificial, o3 y o4-mini, marcando un salto significativo respecto a sus predecesores. El modelo o3 es ahora el más potente de la compañía, con un 20% menos de errores importantes en tareas complejas respecto a versiones anteriores. Por su parte, o4-mini sucede al o3-mini y ya está disponible para usuarios gratuitos de ChatGPT, que pueden acceder a él activando la función de razonamiento.

Estos modelos integran capacidades multimodales, permitiendo combinar razonamiento textual, análisis de imágenes, búsqueda web, interpretación de código Python y análisis de datos en un único sistema. Lo más destacado es la introducción del concepto de «pensar con imágenes»: la IA puede ahora girar, ampliar, recortar e interactuar visualmente con fotografías o gráficos, y utilizar toda esa información en su cadena de razonamiento para ofrecer respuestas mucho más precisas y contextuales.

Los ejemplos presentados por OpenAI demuestran que estas IA pueden resolver problemas prácticos a partir de imágenes poco nítidas, identificar información clave en fotos complejas o responder preguntas abstractas basadas en elementos visuales. En pruebas, han demostrado gran capacidad para comprender patrones visuales, identificar errores o completar secuencias lógicas a partir de imágenes.

En términos de benchmarks, o4-mini alcanza un 92,7% de precisión en matemáticas avanzadas, superando incluso a otros grandes modelos como Gemini 2.5 Pro. Ambas IA pueden ya utilizarse en ChatGPT Plus, Pro y Team, mientras que los usuarios gratuitos tienen acceso a o4-mini usando el botón de ‘Razonar’.

«¿Estamos preparados para interactuar con IA que no solo entiende texto, sino que razona visualmente como un humano?»

. .
.

Este es un resumen comentado, basado en el artículo: «o3 y o4-mini son las nuevas IA más avanzadas de OpenAI: prometen un enorme salto ‘pensando con imágenes’ que llega a ChatGPT gratis» de Antonio Sabán publicado en Genbeta el 16/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA pasa el test de Turing (no corran todavía)

Un estudio revela que GPT-4.5 de OpenAI ha superado el test de Turing con una tasa de éxito del 73%, convenciendo más veces que humanos reales. Sin embargo, los expertos insisten: imitar el lenguaje humano no significa poseer inteligencia o consciencia, sino que muestra el avance de la sustituibilidad tecnológica.

La prueba ideada por Alan Turing en 1950 —el célebre “juego de imitación”— proponía que una máquina es inteligente si puede engañar a un humano haciéndole creer que también lo es. Este test se ha convertido en un símbolo del desarrollo de la inteligencia artificial, aunque su valor es más perceptivo que científico. Ahora, un nuevo estudio realizado por Cameron R. Jones y Benjamin K. Bergen, de la Universidad de California en San Diego, demuestra que varios modelos actuales de IA pueden pasar esta prueba con éxito.

El experimento evaluó cuatro sistemas conversacionales: el histórico ELIZA, el nuevo LLaMa-3.1-405B de Meta, GPT-4o y GPT-4.5 de OpenAI. Durante cinco minutos de conversación, los interrogadores —sin saber si interactuaban con un humano o una máquina— consideraron a GPT-4.5 como humano en el 73% de los casos, superando incluso al participante humano real. LLaMa-3.1 alcanzó un 56%, ELIZA un 23% y GPT-4o solo un 21%.

Los autores del estudio aclaran que superar esta prueba no significa haber alcanzado la inteligencia general artificial. El test mide sustituibilidad: la capacidad de un sistema para reemplazar funciones sociales o económicas sin ser detectado como máquina. Por tanto, se encienden señales de alerta sobre el impacto en empleos, relaciones humanas y la confianza digital.

La historia recuerda el caso de Eugene Goostman, un chatbot que pasó el test en 2014 simulando ser un niño ucraniano de 13 años, estrategia que suavizaba sus limitaciones. Hoy, con tecnologías mucho más sofisticadas, los expertos alertan de los riesgos que conlleva no saber si interactuamos con una máquina o una persona real, incluso para investigadores expertos.

Este fenómeno puede tener profundas implicaciones éticas, sociales y económicas. La capacidad de una IA para hacerse pasar por humano sin ser detectada plantea nuevos retos en la transparencia, la regulación y la protección frente a la manipulación y desinformación.

«¿Estamos preparados para un mundo en el que no sepamos si hablamos con una persona o una máquina?»

. .
.

Este es un resumen comentado, basado en el artículo : «La IA pasa el test de Turing (no corran todavía)» de Francesc Bracero publicado en La Vanguardia el 16/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

icono“La consciencia y la inteligencia solo se pueden dar en seres vivos / Ramon López de Mántaras

El investigador Ramon López de Mántaras critica el entusiasmo acrítico hacia la IA generativa y defiende que la inteligencia y la consciencia solo pueden darse en seres vivos. Subraya que sin cuerpo ni comprensión del mundo, los sistemas como ChatGPT no suponen avances científicos reales y representan riesgos éticos y sociales relevantes.

Con medio siglo dedicado a la inteligencia artificial, Ramon López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial del CSIC, se muestra escéptico ante el impacto científico de herramientas como ChatGPT o Copilot. Considera que la fascinación por estos sistemas, basados en arquitectura Transformer, responde a una ilusión: la percepción de inteligencia que generan al producir textos coherentes y persuasivos, aunque en esencia no comprendan lo que dicen.

En su nuevo libro 100 cosas que hay que saber sobre inteligencia artificial, el científico catalán argumenta que la verdadera inteligencia requiere consciencia, y esta solo puede emerger de organismos vivos, con una base biológica —química del carbono—, distinta de la lógica binaria del silicio. Distingue radicalmente entre los procesos neuronales humanos y el procesamiento computacional, que califica de incomparable.

Crítico con la idea de una IA consciente, cree que esta afirmación debe demostrarse, no asumirse. Para él, dotar de cuerpo a la IA es una vía necesaria para acercarse al entendimiento del mundo físico y al sentido común, como proponen científicos como Demis Hassabis o Yann LeCun, aunque matiza que ni siquiera eso garantiza la aparición de consciencia.

Además, advierte sobre los riesgos del despliegue apresurado de estas tecnologías, sin pruebas suficientes ni regulaciones sólidas. Cita consecuencias ya conocidas, como suicidios relacionados con interacciones con chatbots, y apela a la prudencia y la responsabilidad ética. Apoya el enfoque regulador de la Unión Europea, aunque critica su excesiva burocratización y omisiones clave, como las armas autónomas.

«¿Estamos confundiendo complejidad algorítmica con comprensión real del mundo?»

. .
.

Este es un resumen comentado, basado en el artículo : «Ramon López de Mántaras, experto en IA: “La consciencia y la inteligencia solo se pueden dar en seres vivos”» de Manuel G. Pascual publicado en El País el 16/04/2025.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿Es segura la IA en WhatsApp? Lo que debes saber antes de usarla

Meta ha integrado su inteligencia artificial en WhatsApp, generando inquietudes sobre privacidad, concentración y uso ético. Aunque no se puede eliminar del todo, se puede ocultar. Expertos advierten sobre cinco riesgos clave, como distracción, información imprecisa y alto consumo energético, promoviendo la desactivación parcial de esta función.

La implementación de Meta IA en WhatsApp, representada por un icono azul en la lista de chats, ha despertado tanto interés como preocupación. Aunque su propósito oficial es mejorar la experiencia del usuario mediante respuestas automatizadas, generación de imágenes y asistencia digital, un creciente número de expertos y usuarios cuestionan su impacto, especialmente en relación con la privacidad.

Desde Meta se asegura que esta IA no accede al contenido de las conversaciones privadas, pero el solo hecho de tenerla presente como una opción dentro de la aplicación resulta incómodo o invasivo para muchos. Por ello, varios usuarios están buscando la manera de eliminarla o reducir su visibilidad. Aunque no es posible desinstalarla por completo, se puede ocultar su acceso directo eliminando el chat correspondiente, lo cual evita interacciones no deseadas, aunque sigue disponible desde la barra de búsqueda.

Especialistas citan cinco motivos principales para considerar su desactivación. El primero es el impacto ambiental, ya que los modelos de IA consumen grandes cantidades de energía; incluso, generar una imagen podría equivaler al consumo de media carga de un teléfono móvil. El segundo es la inexactitud de la información: las respuestas generadas pueden contener errores o directamente ser invenciones. El tercero se refiere a la distracción constante, lo cual afecta negativamente la productividad. En cuarto lugar, se señala la limitación creativa, ya que la IA tiende a ofrecer respuestas estandarizadas. Por último, se menciona la reducción de la curiosidad: obtener respuestas inmediatas podría disminuir la capacidad crítica y el interés por investigar, especialmente entre estudiantes.

El uso de herramientas como Meta IA debe ser una elección informada. Para muchos, controlar su visibilidad es un primer paso hacia una interacción digital más segura, privada y consciente.

«¿Estamos cediendo demasiado control por la comodidad de una respuesta instantánea?»

. .
.

Este es un resumen comentado, basado en el artículo : «Un experto recomienda desactivar Meta IA en WhatsApp: podrías poner en riesgo tu privacidad» de RD Tododisca publicado en Tododisca el 15/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0080 CRÓNICAS AZOTEA

iconoNarciso 2.0 La era del Yo hipnótico

Hoy quiero viajar desde el siglo I a.C. hasta nuestros días, en un recorrido por el amor al Ego, la autocomplacencia, la veneración de uno mismo y el narcisista deleite de sentirse irresistible.

¿Quién no conoce la leyenda de Narciso? Ese joven griego, espectacularmente bello, que, enamorado de su propia imagen, se acercaba cada día a un lago y se quedaba extasiado contemplando su imagen reflejada en su superficie. Tan perfecto se percibía, tan hipnótica le resultaba la visión de sí mismo, que fue incapaz de apartarse de ella. Y así, absorto en su imagen, olvidó el mundo, el tiempo, el hambre y la sed… hasta que murió. Murió no por un castigo de los dioses, sino por algo más trágico: por no poder dejar de mirarse. Por quedar atrapado en su ilusión de perfección, preso de un amor imposible: el amor por sí mismo.

Hasta aquí, lo que nos cuenta la leyenda griega, que circulaba ya en el siglo I a.C., y su posterior versión romana, del poeta Ovidio, quien la inmortalizó en el año 8 d.C., en sus célebres Metamorfosis.

Lo que ya no tantos conocen es el remate a la leyenda que le dio Oscar Wilde en 1894, en su brevísimo cuento El discípulo: un giro de esos tan suyos, donde la ironía y la belleza se mezclan con una dosis de veneno. Wilde no se entretiene en contarnos el drama del muchacho y su reflejo. En lugar de eso, nos sitúa directamente en el momento posterior a su muerte. Las ninfas del bosque lloran su pérdida, claro… pero lo que sorprende es que la laguna también llora, llora desconsoladamente. Intrigadas, las ninfas le preguntan al lago:

—¿Por qué lloras tú, tanto amabas a Narciso?

Y la laguna responde:

—¿Por Narciso?, no, que va!

—Lloro por mí… porque cuando él se inclinaba sobre mí, yo veía reflejada en sus ojos mi propia belleza. Y ahora -sin Narciso- ya nunca más podré contemplar mi exquisita hermosura.

Mira por dónde: la vanidad no tiene límites. Y el amor, o más bien la idolatría al Ego, parece ser una pulsión que va más allá de los humanos… y alcanza incluso a la naturaleza.

Cuando acabé de leer es pasaje de Wilde pensé: esto es exactamente lo que ocurre hoy en las redes sociales.

Instagram, TikTok, X, Facebook… no son lagunas, pero funcionan de la misma manera. Cuando accedemos y nos sumergimos en ellas no buscamos mirar al mundo, buscamos vernos reflejados. No nos asomamos a ellas para conocer a otros, sino para comprobar si los otros nos devuelven una imagen que nos guste de nosotros mismos.

Publicamos una foto, un pensamiento, una frase ingeniosa, un vídeo: y nos quedamos esperando. Esperando likes, corazones, fueguitos, aplausos virtuales. Lo que en apariencia es compartir, muchas veces es solo una forma de preguntarnos: ¿cómo me ven? ¿cómo me reflejo en los ojos ajenos?

Y ahí está el riesgo. Como Narciso, corremos el peligro de quedar atrapados en nuestro propio reflejo digital. Alimentamos una imagen que nos parece perfecta, pero que exige alimnetarla con filtros, narrativa, validación… Creamos una versión de nosotros mismos que, si no recibe atención, se apaga. Y con ella, se apaga también parte de nuestra autoestima.

Pero no somos nosotros los único ‘malos’, como en el cuento de Wilde, quienes nos miran —el público, los seguidores— buscan su propia belleza en nuestros ojos. Nos siguen, sí, pero porque les devolvemos algo de lo que ellos quieren ver. Y así, en un circuito infinito de espejos, cada cual busca su reflejo en el otro… sin llegar a mirar nunca de verdad.

Las redes, que prometían conexión, se convierten entonces en una galería de reflejos, donde la imagen ha desplazado al encuentro, y el ego al diálogo.

Y quizá no muramos de hambre o sed, como Narciso. Pero sí podemos morir de algo parecido: de no ver más allá de nosotros mismos.

Así que cuidado.

El mito de Narciso no es solo una advertencia sobre la vanidad, sino sobre el riesgo de confundir una imagen con la realidad. Cuando vivimos pendientes del reflejo que los demás nos devuelven —ya sea aprobación, admiración o envidia—, dejamos de mirar hacia fuera y empezamos a girar en círculo. Todo lo que no nos refleja, nos molesta o nos aburre. Todo lo que no alimenta el ego, lo ignoramos.

—Dios!.

Y así, poco a poco, dejamos de ver al otro como es. Dejamos de escucharlo. De estar presentes para seguir mirándonos indefinida e inútilmente el propio ombligo.

El mayor peligro no es mirarse demasiado, sino dejar de ver el mundo más allá del espejo.

Y hoy, ese espejo ya no es un lago, es un apantalla u tiene wifi.

—Hala!

Tomás Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenAI lanza GPT-4.1 y amplía su arsenal de modelos para desarrolladores

OpenAI ha presentado GPT-4.1, GPT-4.1 mini y GPT-4.1 nano, una nueva familia de modelos de lenguaje más eficientes, precisos y adaptados a usos reales, que superan a sus predecesores y estarán disponibles exclusivamente mediante API, no en ChatGPT. Destacan por su ventana de contexto de hasta un millón de tokens y precios escalonados según capacidad.

OpenAI ha dado un paso clave en su hoja de ruta tecnológica con la presentación de tres nuevos modelos de lenguaje: GPT-4.1, GPT-4.1 mini y GPT-4.1 nano. Estas versiones, orientadas específicamente a desarrolladores, están disponibles únicamente a través de la API de OpenAI, lo que marca una clara estrategia de producto centrada en aplicaciones y servicios profesionales.

Los modelos superan a GPT-4o y GPT-4o mini, y según la propia OpenAI, incluso mejoran aspectos del reciente GPT-4.5. Entre las principales novedades destaca una ventana de contexto de hasta un millón de tokens, lo que permite trabajar con textos mucho más extensos de una sola vez. También se ha actualizado la base de conocimiento hasta junio de 2024, lo que mejora la relevancia y actualidad de sus respuestas.

En pruebas de rendimiento (benchmarks), GPT-4.1 lidera en tres frentes: programación (54,6% en SWE-bench Verified), capacidad de seguir instrucciones (38,3% en MultiChallenge) y comprensión de contextos largos (72% en Video-MME sin subtítulos), superando ampliamente a modelos anteriores.

Los precios varían en función del modelo y su potencia: el GPT-4.1 cuesta 2 $ por millón de tokens de entrada y 8 $ por millón de salida; GPT-4.1 mini baja a 0,40 $ y 1,60 $, y el más liviano, GPT-4.1 nano, se ofrece por apenas 0,10 $ y 0,40 $ respectivamente. Esta escalabilidad en coste y rendimiento permite elegir el modelo óptimo según presupuesto y necesidad.

Aunque no estarán disponibles en ChatGPT, su integración en productos es inmediata. OpenAI busca mantener el liderazgo en un contexto cada vez más competitivo, donde rivales como Google avanzan con propuestas potentes. Además, Sam Altman anticipó el lanzamiento de dos nuevos modelos este año: o3 y o4-mini, aunque su desarrollo está en pausa.

«¿Debería la evolución de modelos de lenguaje priorizar benchmarks o utilidad en escenarios reales?»

. .
.

Este es un resumen comentado, basado en el artículo : «OpenAI pisa el acelerador: presenta GPT-4.1 junto a otros dos modelos de lenguaje para seguir marcando el ritmo de la IA» de Javier Marquez publicado en Xataka el 14 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoIA y economía: el dilema de las desigualdades, los costes y el poder

Vivimos un momento de profundas transformaciones que agitan la geopolítica y los equilibrios de poder. La política global se tambalea entre regresiones autoritarias y crisis institucionales, con el espectro de un nuevo mandato de Trump removiendo los equilibrios internacionales. En los frentes de guerra, drones y sistemas autónomos muestran que los algoritmos ya no solo calculan, también deciden. Y en el mundo civil, la inteligencia artificial generativa —capaz de crear texto, imagen o código— ha irrumpido como una herramienta de uso masivo sin que tengamos del todo claro cuáles son sus límites ni sus reglas de juego.

Este contexto plantea una cuestión de fondo: ¿Cómo evaluar el impacto real de la inteligencia artificial en la economía y en la vida social? ¿Por los beneficios que promete, por los costes que impone, por las mejoras en la calidad de vida, o por los efectos colaterales que genera? No hay una única métrica posible. Y tampoco hay respuestas neutras.

Porque la IA no es solo una tecnología, es una construcción social, económica y política. Una apuesta de poder y una disputa de modelo. El debate ético no está fuera del debate técnico ya que lo recorre de forma transversal. Por eso es urgente mirar más allá del entusiasmo tecnocrático y preguntarnos en qué dirección nos está llevando esta transformación.

La cara oculta: costes energéticos, materiales y económicos

Uno de los grandes puntos ciegos del relato oficial sobre la IA es su coste energético y material. Se habla de eficiencia, pero poco de consumo. Se promete desmaterialización, pero el modelo es profundamente físico ya que requiere entrenamiento de modelos con millones de parámetros, centros de datos que requieren refrigeración constante, cadenas de suministro extractivas que atraviesan medio mundo.

Entrenar un modelo como GPT-4 puede requerir decenas de millones de dólares en infraestructura y energía. Un informe de OpenAI y Microsoft reveló que sus sistemas consumen gigavatios-hora equivalentes al consumo de una ciudad mediana. Google estima que el entrenamiento de modelos de gran escala puede superar las 500 toneladas de CO₂ por sistema (Strubell et al., 2019).

La «nube» es en realidad un conjunto de minas, redes, fábricas y servidores. Esta infraestructura es intensiva en energía, agua y minerales críticos, y es poco compatible con los compromisos de descarbonización. Además, impone costes económicos indirectos: aumento del precio energético en países con alta demanda digital, presiones sobre redes eléctricas y conflictos por el uso del agua.

Además, los costes, impactos y escenarios son geopolíticos ya que el 90% de los chips avanzados los produce Taiwán; China controla más del 70% del procesamiento de tierras raras; EE. UU. lidera en semiconductores y propiedad intelectual. La “economía algorítmica” consolida nuevas dependencias.

Para hacernos otra idea en el mundo hay del orden de 8.000 centros de datos de los cuales un 30% están en EE. UU., y China solo cuenta con 400, siendo Alemania, el Reino Unido y Francia los otros centros importantes. El coste de un centro de datos como los de Microsoft o Google cuesta del orden entre 1.500 y 2.000 millones de dólares. Una idea de consumo es que el 40% de los gastos son en refrigeración.

En términos de inversión según Stanford AI Index 2024 y McKinsey Global Institute el sector privado ha invertido 67.000 millones de dólares y el público unos 30.000 millones. Estos niveles de inversión solo se lo pueden permitir países con una gran capacidad económica, ergo, la economía del conocimiento general una geopolítica basada en la desigualdad de países y fuentes de información que se traducirá, necesariamente, en los poderes en el planeta a los cuales habrá referencia más adelante.

Empleo: entre la promesa de la productividad y el sesgo hacia la automatización

Uno de los argumentos más reiterados es que la IA permitirá aumentar la productividad y liberar a las personas de tareas rutinarias. En parte es cierto, pero el problema está en cómo se distribuyen esos beneficios, y en qué tipo de empleo desaparece o se transforma. ¿Será en servicios, en industria, en tareas “inteligentes”? ¿Pueden afectar a tareas intensivas en fuerza de trabajo como los cuidadores, los agricultores, los servicios de restauración y hostelería?

Uno de los autores más citados en el tema, Erik Brynjolfsson, ha defendido que la IA puede ser un aliado del trabajador, no un sustituto. Si se orienta hacia la complementariedad, puede mejorar resultados y liberar tiempo para tareas más creativas. Pero esta visión optimista choca con la lógica dominante del mercado.

La automatización ha generado una pérdida neta de empleos medios: en EE. UU., más del 60% de la caída en empleos administrativos desde 2000 se atribuye a la informatización. La OCDE advierte que hasta el 27% de los empleos actuales pueden verse profundamente alterados en una década, y el impacto será desigual: mayor en jóvenes, mujeres y trabajadores de menor cualificación.

Esto genera un doble impacto, por un lado, la destrucción de empleos intermedios, por otro, una polarización creciente. La IA generativa no afecta solo a operarios o tareas repetitivas, sino también a profesiones cognitivas como traductores, diseñadores, administrativos, incluso programadores.

El riesgo es un mercado de trabajo en forma de «reloj de arena» basado en una concentración en la cúspide y precarización en la base.

Desigualdad, exclusión y concentración del poder

La inteligencia artificial no solo redistribuye funciones, también redistribuye poder. Las infraestructuras, los datos, los algoritmos y los beneficios están concentrados en pocas manos. Hoy, cuatro empresas (Microsoft, Google, Amazon y Meta) controlan más del 80% de la infraestructura de IA generativa. La inversión en IA está dominada por fondos privados solo en 2023, se superaron los 65.000 millones de dólares, y el 90% fue a parar a EE.UU. y China (McKinsey, 2023).

El gran tema no es solo la capacidad que tienen ciertos países para controlar la información atendiendo a sus recursos para promover data centers y, consecuentemente, tener medios para acumular conocimiento. En este sentido Shoshana Zuboff ha descrito este fenómeno como “capitalismo de vigilancia”: un sistema donde la extracción masiva de datos personales se convierte en una fuente de valor económico y de control social. Esta lógica erosiona la privacidad, socava la autonomía individual y refuerza asimetrías ya existentes.

Complementariamente, se puede dar el caso – no necesariamente, pero ya se ha dado en Google – que los modelos de IA entrenados con datos sesgados pueden perpetuar discriminaciones de género, raza o clase. Y lo hacen bajo un barniz de objetividad algorítmica. A falta de auditorías públicas, las decisiones automatizadas se vuelven opacas y difíciles de impugnar.

Además, la exclusión digital no es una externalidad sino un resultado directo del modelo de concentración, si no se corrige políticamente. La IA puede exacerbar la brecha entre países con capacidad tecnológica y aquellos que solo consumen tecnología ajena.

Conclusión: otra IA es posible (y necesaria)

No se trata de rechazar la inteligencia artificial. Se trata de preguntarnos con honestidad qué IA queremos, al servicio de qué fines, y con qué reglas. Como bien dice Zuboff, sin control ciudadano sobre los datos, no hay democracia digital. Las decisiones están en juego ahora. No es una revolución inevitable sino una construcción que puede orientarse. Y eso exige repensar no solo la tecnología, sino los valores que la guían, las instituciones que la regulan y las métricas con las que evaluamos su éxito.

Si seguimos midiendo el progreso por la velocidad del procesamiento o el tamaño del modelo, corremos el riesgo de perdernos lo más importante que no es otra cosa de saber, fehacientemente, para quién estamos diseñando el futuro.

Autor: Héctor Santcovsky

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTED2025: Humanity Reimagined, conclusiones

TED2025 concluyó con una intensa jornada de reflexiones sobre inteligencia artificial, salud mental colectiva, activismo climático y espiritualidad. Sam Altman habló del futuro de la IA como una extensión humana, Xiye Bastida reivindicó la sabiduría indígena frente al cambio climático y Pico Iyer celebró el poder del silencio como medicina universal.
El evento TED2025: Humanity Reimagined concluyó en Vancouver con una jornada cargada de ideas provocadoras sobre el futuro de la humanidad. La última sesión congregó a destacados ponentes que abordaron desde la revolución de la inteligencia artificial hasta la espiritualidad y la acción climática como pilares para un futuro más consciente y sostenible.

Sam Altman, CEO de OpenAI, abrió la jornada dialogando con Chris Anderson, director de TED. Altman analizó el crecimiento exponencial de los modelos como ChatGPT, vaticinando un futuro donde estas inteligencias actuarán como extensiones de nuestra mente. Rechazó la idea de una única “explosión” de la AGI (inteligencia general artificial), abogando por una evolución gradual. Hizo énfasis en el desarrollo de IA agentica, con capacidades autónomas, y la urgencia de diseñar barreras éticas que prevengan abusos de poder y riesgos sistémicos.

El periodista y podcaster Dan Taberski presentó un inquietante estudio sobre un caso real de histeria colectiva en 2011, cuando un grupo de adolescentes en Nueva York comenzó a manifestar síntomas similares al síndrome de Tourette. Taberski usó este episodio como espejo de la vulnerabilidad social ante el estrés colectivo y la desinformación.

La activista climática Xiye Bastida ofreció un mensaje inspirador desde la resiliencia ecológica y el liderazgo indígena. Invitó a reimaginar el futuro aprendiendo de la naturaleza y empleando la imaginación como herramienta de cambio, reclamando un activismo climático fundamentado en la esperanza activa.

El cierre estuvo a cargo del escritor Pico Iyer, quien compartió una conmovedora reflexión sobre la muerte de su padre y la importancia del silencio profundo como vía de sanación y reconexión personal. Su testimonio reafirmó el poder restaurador de detenerse y escuchar más allá del ruido cotidiano.

La jornada subrayó que, ante desafíos globales, la combinación de tecnología, ética, comunidad y espiritualidad será esencial para diseñar el mundo que queremos habitar.

«¿Cómo podemos equilibrar el avance tecnológico con la necesidad de introspección y conexión humana auténtica?»

. .
.

Este es un resumen comentado, basado en el artículo : «An epic day 5 of TED2025» de Brian Greene, Maria Ladias y Oliver Friedman publicado en TED Blog el 11 de abril de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights