0040 OPINION

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoCatalunya, port digital de la Mediterrània: una aposta per la sobirania tecnològica i l’impuls econòmic

L’aprovació recent de l’estratègia del Govern per atraure centres de dades marca un punt d’inflexió per a Catalunya. Ambiciós i realista alhora, aquest pla vol convertir el nostre territori en el port digital del sud d’Europa, una posició estratègica que connecti Europa amb la Mediterrània, Àfrica i Orient Mitjà a través de la infraestructura digital.
Aquesta estratègia no només pretén captar inversions, sinó també generar ocupació qualificada, consolidar un ecosistema tecnològic competitiu i garantir una sobirania digital real davant l’alta dependència actual de plataformes i serveis estrangers.
Un context global de màxima competitivitat
El mercat global dels centres de dades està en expansió exponencial. Segons dades de Statista, el nombre de centres de dades al món supera els 8.000, amb els Estats Units liderant (al voltant del 33% del total). Europa ocupa la segona posició, amb una forta concentració al nord: Frankfurt, Amsterdam, Londres i París (el conegut FLAP) han estat els nodes dominants.
Tanmateix, la pressió reguladora i la manca d’espai i energia en aquestes regions obre una finestra d’oportunitat a territoris com Catalunya, amb:
Una posició geoestratègica privilegiada
Infraestructura de fibra òptica d’alta capacitat amb múltiples cables submarins ja existents (com el cable de Meta, el de Google i el Medusa)
Un entorn empresarial i d’innovació consolidat
I una forta aposta institucional per a l’economia digital
Catalunya, a punt per competir
El full de ruta aprovat pel Govern preveu mobilitzar més de 600 milions d’euros d’inversió privada en infraestructures digitals en els propers anys. Alguns dels objectius clau són:
Captar 15 grans centres de dades de referència internacional abans del 2030
Crear més de 3.000 llocs de treball directes i indirectes d’alt valor afegit
Posicionar Catalunya entre els 5 hubs digitals més importants d’Europa
Aquestes xifres no són pas utòpiques: ja hi ha projectes en marxa, com el macrocentre de dades de 250 milions d’euros que construirà Equinix a Sant Boi, o la proposta d’AWS (Amazon Web Services) per instal·lar una regió cloud a Espanya, amb Barcelona com a candidata.
Infraestructura, energia i sostenibilitat
Un dels reptes més importants dels centres de dades és el consum energètic. A nivell global, els data centers consumeixen prop del 2% de l’electricitat mundial, una xifra que creix amb la demanda d’IA, serveis cloud i streaming.
Per això, el pla català aposta per centres:
Amb eficiència energètica d’última generació
Amb ús de fonts renovables (incloent la possibilitat de generar part de l’energia in situ)
I amb sistemes de reutilització de calor per alimentar xarxes urbanes o processos industrials
També es preveu la col·laboració amb l’Institut Català de l’Energia (ICAEN) i l’Àrea Metropolitana de Barcelona per assegurar una gestió energètica sostenible i coordinada.
Un motor de sobirania digital i oportunitats
Els centres de dades no només són una infraestructura física, són una infraestructura estratègica. De fet, en un món cada cop més connectat, controlar on s’allotgen les dades és controlar la nostra sobirania digital.
Catalunya, amb aquest pla, no vol només atraure edificis plens de servidors. Vol atraure valor afegit, innovació, serveis digitals, i convertir-se en la casa de:
Plataformes digitals pròpies
Startups de dades i IA
Institucions de recerca i supercomputació com el BSC (Barcelona Supercomputing Center)
Tot plegat configura una visió que transcendeix la infraestructura per impactar en l’economia, la formació i el posicionament internacional de Catalunya.
En conclusió
Catalunya té una oportunitat única per esdevenir una potència digital al Mediterrani, sumant els seus actius logístics, tecnològics, acadèmics i empresarials. Aquesta estratègia del Govern pot ser un catalitzador més.  Insistir en la importància de seguit treballant amb la col·laboració entre institucions, empreses, societat i territori.

Autor: Jordi Marín

Aviso: Este artículo ha sido redactado y publicado directamente por su autor en BARCELONADOT. Su contenido refleja únicamente la opinión del autor y no necesariamente la línea editorial ni los valores de BARCELONADOT.
0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

icono“La consciencia y la inteligencia solo se pueden dar en seres vivos / Ramon López de Mántaras

El investigador Ramon López de Mántaras critica el entusiasmo acrítico hacia la IA generativa y defiende que la inteligencia y la consciencia solo pueden darse en seres vivos. Subraya que sin cuerpo ni comprensión del mundo, los sistemas como ChatGPT no suponen avances científicos reales y representan riesgos éticos y sociales relevantes.

Con medio siglo dedicado a la inteligencia artificial, Ramon López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial del CSIC, se muestra escéptico ante el impacto científico de herramientas como ChatGPT o Copilot. Considera que la fascinación por estos sistemas, basados en arquitectura Transformer, responde a una ilusión: la percepción de inteligencia que generan al producir textos coherentes y persuasivos, aunque en esencia no comprendan lo que dicen.

En su nuevo libro 100 cosas que hay que saber sobre inteligencia artificial, el científico catalán argumenta que la verdadera inteligencia requiere consciencia, y esta solo puede emerger de organismos vivos, con una base biológica —química del carbono—, distinta de la lógica binaria del silicio. Distingue radicalmente entre los procesos neuronales humanos y el procesamiento computacional, que califica de incomparable.

Crítico con la idea de una IA consciente, cree que esta afirmación debe demostrarse, no asumirse. Para él, dotar de cuerpo a la IA es una vía necesaria para acercarse al entendimiento del mundo físico y al sentido común, como proponen científicos como Demis Hassabis o Yann LeCun, aunque matiza que ni siquiera eso garantiza la aparición de consciencia.

Además, advierte sobre los riesgos del despliegue apresurado de estas tecnologías, sin pruebas suficientes ni regulaciones sólidas. Cita consecuencias ya conocidas, como suicidios relacionados con interacciones con chatbots, y apela a la prudencia y la responsabilidad ética. Apoya el enfoque regulador de la Unión Europea, aunque critica su excesiva burocratización y omisiones clave, como las armas autónomas.

«¿Estamos confundiendo complejidad algorítmica con comprensión real del mundo?»

. .
.

Este es un resumen comentado, basado en el artículo : «Ramon López de Mántaras, experto en IA: “La consciencia y la inteligencia solo se pueden dar en seres vivos”» de Manuel G. Pascual publicado en El País el 16/04/2025.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoSTEM, dades i ètica: el triangle de la formació del futur

Arran del meu article, de fa uns dies. titulat “Formació i ocupació futura: flexibilitat,
tecnologia i humanisme”, vaig rebre diversos missatges i una trucada d’un
vicerector d’una universitat catalana que va afirmar: “la meitat de les
carreres universitàries són obsoletes, preparen per a professions que
s’extingiran en un lustre”. L’afirmació del vicerector i els diferents
missatges em van fer reflexionar sobre com ens hem de preparar per al futur,
especialment els joves, per afrontar els reptes i decidir què estudiar. La
pregunta dominant en els missatges era com serà el futur i si la formació
actual prepara per als desafiaments del esdevenidor, considerant aspectes com
la digitalització, les bretxes socioeconòmiques i de gènere, i un horitzó on la
intel·ligència artificial serà clau i la personalització de l’aprenentatge, una
opció real per ajustar ritmes i complexitat progressiva a les característiques
i capacitats de cada estudiant.

Tenim poques
certeses sobre el futur, però sí que intuïm que l’activitat professional
requerirà coneixements de ciència de dades (analitzar grans volums de dades per
extreure coneixement i prendre decisions), de robòtica (dissenyar i programar
robots per realitzar tasques autònomes o assistides), i intel·ligència
artificial (tecnologia que permet a les màquines simular capacitats humanes:
aprenentatge i presa de decisions). Caldrà impulsar habilitats com el pensament
crític (capacitat d’analitzar, avaluar i interpretar informació per prendre
decisions raonades) i el treball multidisciplinari (col·laboració entre
professionals de diferents disciplines per assolir solucions òptimes). A més,
serà necessari conèixer tècniques de machine learning, que permeten a
les màquines aprendre a partir de dades sense programació explícita, i deep
learning (ús de xarxes neuronals profundes per processar grans volums de
dades). Alhora, serà crucial desenvolupar aspectes associats a l’ètica, la
sociologia i la regulació.

Si aquests són
els aspectes requisits per a l’activitat professional, es pot afirmar que la
formació necessària per al futur, assegurant que sigui accessible per a tothom,
hauria de ser flexible, personalitzada, multidisciplinària i orientada a les
habilitats i coneixements emergents, fomentant la capacitat d’aprendre a
aprendre i desaprendre, i prioritzant el desenvolupament d’habilitats com el
pensament crític, la resolució de problemes i la capacitat d’adaptació. Alhora,
cal integrar matèries relacionades amb les tecnologies emergents, ensenyar a
utilitzar eines digitals tot comprenent el seu funcionament i el seu impacte
ètic i social.

Per això, els
plans d’estudis haurien de tenir un enfocament multidisciplinari, incloent
coneixements STEM, ciències socials, historia, ètica i biologia, així com el
desenvolupament d’habilitats per a la comunicació efectiva, la gestió de la
incertesa, per ser més resilient, per treballar en equip i col·laborar en la
diversitat. Aquest conjunt d’aspectes pot preparar millor per afrontar els
desafiaments i canvis del futur, en un món cada vegada més tecnològic i
complex, equilibrant el coneixement tècnic amb les habilitats humanes i
ètiques, preparant les persones tant per al món laboral com per a la formació
continuada. Perquè, si abans 23 anys d’estudis preparaven per a 40 anys de
feina, ara ho fan per a menys d’una dècada. El futur exigirà cicles de formació
periòdics per continuar treballant. Estem preparats per a això?

Antoni Garrell i
Guiu

Abril 2024

Autor: Antoni Garrell

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoIA y economía: el dilema de las desigualdades, los costes y el poder

Vivimos un momento de profundas transformaciones que agitan la geopolítica y los equilibrios de poder. La política global se tambalea entre regresiones autoritarias y crisis institucionales, con el espectro de un nuevo mandato de Trump removiendo los equilibrios internacionales. En los frentes de guerra, drones y sistemas autónomos muestran que los algoritmos ya no solo calculan, también deciden. Y en el mundo civil, la inteligencia artificial generativa —capaz de crear texto, imagen o código— ha irrumpido como una herramienta de uso masivo sin que tengamos del todo claro cuáles son sus límites ni sus reglas de juego.

Este contexto plantea una cuestión de fondo: ¿Cómo evaluar el impacto real de la inteligencia artificial en la economía y en la vida social? ¿Por los beneficios que promete, por los costes que impone, por las mejoras en la calidad de vida, o por los efectos colaterales que genera? No hay una única métrica posible. Y tampoco hay respuestas neutras.

Porque la IA no es solo una tecnología, es una construcción social, económica y política. Una apuesta de poder y una disputa de modelo. El debate ético no está fuera del debate técnico ya que lo recorre de forma transversal. Por eso es urgente mirar más allá del entusiasmo tecnocrático y preguntarnos en qué dirección nos está llevando esta transformación.

La cara oculta: costes energéticos, materiales y económicos

Uno de los grandes puntos ciegos del relato oficial sobre la IA es su coste energético y material. Se habla de eficiencia, pero poco de consumo. Se promete desmaterialización, pero el modelo es profundamente físico ya que requiere entrenamiento de modelos con millones de parámetros, centros de datos que requieren refrigeración constante, cadenas de suministro extractivas que atraviesan medio mundo.

Entrenar un modelo como GPT-4 puede requerir decenas de millones de dólares en infraestructura y energía. Un informe de OpenAI y Microsoft reveló que sus sistemas consumen gigavatios-hora equivalentes al consumo de una ciudad mediana. Google estima que el entrenamiento de modelos de gran escala puede superar las 500 toneladas de CO₂ por sistema (Strubell et al., 2019).

La «nube» es en realidad un conjunto de minas, redes, fábricas y servidores. Esta infraestructura es intensiva en energía, agua y minerales críticos, y es poco compatible con los compromisos de descarbonización. Además, impone costes económicos indirectos: aumento del precio energético en países con alta demanda digital, presiones sobre redes eléctricas y conflictos por el uso del agua.

Además, los costes, impactos y escenarios son geopolíticos ya que el 90% de los chips avanzados los produce Taiwán; China controla más del 70% del procesamiento de tierras raras; EE. UU. lidera en semiconductores y propiedad intelectual. La “economía algorítmica” consolida nuevas dependencias.

Para hacernos otra idea en el mundo hay del orden de 8.000 centros de datos de los cuales un 30% están en EE. UU., y China solo cuenta con 400, siendo Alemania, el Reino Unido y Francia los otros centros importantes. El coste de un centro de datos como los de Microsoft o Google cuesta del orden entre 1.500 y 2.000 millones de dólares. Una idea de consumo es que el 40% de los gastos son en refrigeración.

En términos de inversión según Stanford AI Index 2024 y McKinsey Global Institute el sector privado ha invertido 67.000 millones de dólares y el público unos 30.000 millones. Estos niveles de inversión solo se lo pueden permitir países con una gran capacidad económica, ergo, la economía del conocimiento general una geopolítica basada en la desigualdad de países y fuentes de información que se traducirá, necesariamente, en los poderes en el planeta a los cuales habrá referencia más adelante.

Empleo: entre la promesa de la productividad y el sesgo hacia la automatización

Uno de los argumentos más reiterados es que la IA permitirá aumentar la productividad y liberar a las personas de tareas rutinarias. En parte es cierto, pero el problema está en cómo se distribuyen esos beneficios, y en qué tipo de empleo desaparece o se transforma. ¿Será en servicios, en industria, en tareas “inteligentes”? ¿Pueden afectar a tareas intensivas en fuerza de trabajo como los cuidadores, los agricultores, los servicios de restauración y hostelería?

Uno de los autores más citados en el tema, Erik Brynjolfsson, ha defendido que la IA puede ser un aliado del trabajador, no un sustituto. Si se orienta hacia la complementariedad, puede mejorar resultados y liberar tiempo para tareas más creativas. Pero esta visión optimista choca con la lógica dominante del mercado.

La automatización ha generado una pérdida neta de empleos medios: en EE. UU., más del 60% de la caída en empleos administrativos desde 2000 se atribuye a la informatización. La OCDE advierte que hasta el 27% de los empleos actuales pueden verse profundamente alterados en una década, y el impacto será desigual: mayor en jóvenes, mujeres y trabajadores de menor cualificación.

Esto genera un doble impacto, por un lado, la destrucción de empleos intermedios, por otro, una polarización creciente. La IA generativa no afecta solo a operarios o tareas repetitivas, sino también a profesiones cognitivas como traductores, diseñadores, administrativos, incluso programadores.

El riesgo es un mercado de trabajo en forma de «reloj de arena» basado en una concentración en la cúspide y precarización en la base.

Desigualdad, exclusión y concentración del poder

La inteligencia artificial no solo redistribuye funciones, también redistribuye poder. Las infraestructuras, los datos, los algoritmos y los beneficios están concentrados en pocas manos. Hoy, cuatro empresas (Microsoft, Google, Amazon y Meta) controlan más del 80% de la infraestructura de IA generativa. La inversión en IA está dominada por fondos privados solo en 2023, se superaron los 65.000 millones de dólares, y el 90% fue a parar a EE.UU. y China (McKinsey, 2023).

El gran tema no es solo la capacidad que tienen ciertos países para controlar la información atendiendo a sus recursos para promover data centers y, consecuentemente, tener medios para acumular conocimiento. En este sentido Shoshana Zuboff ha descrito este fenómeno como “capitalismo de vigilancia”: un sistema donde la extracción masiva de datos personales se convierte en una fuente de valor económico y de control social. Esta lógica erosiona la privacidad, socava la autonomía individual y refuerza asimetrías ya existentes.

Complementariamente, se puede dar el caso – no necesariamente, pero ya se ha dado en Google – que los modelos de IA entrenados con datos sesgados pueden perpetuar discriminaciones de género, raza o clase. Y lo hacen bajo un barniz de objetividad algorítmica. A falta de auditorías públicas, las decisiones automatizadas se vuelven opacas y difíciles de impugnar.

Además, la exclusión digital no es una externalidad sino un resultado directo del modelo de concentración, si no se corrige políticamente. La IA puede exacerbar la brecha entre países con capacidad tecnológica y aquellos que solo consumen tecnología ajena.

Conclusión: otra IA es posible (y necesaria)

No se trata de rechazar la inteligencia artificial. Se trata de preguntarnos con honestidad qué IA queremos, al servicio de qué fines, y con qué reglas. Como bien dice Zuboff, sin control ciudadano sobre los datos, no hay democracia digital. Las decisiones están en juego ahora. No es una revolución inevitable sino una construcción que puede orientarse. Y eso exige repensar no solo la tecnología, sino los valores que la guían, las instituciones que la regulan y las métricas con las que evaluamos su éxito.

Si seguimos midiendo el progreso por la velocidad del procesamiento o el tamaño del modelo, corremos el riesgo de perdernos lo más importante que no es otra cosa de saber, fehacientemente, para quién estamos diseñando el futuro.

Autor: Héctor Santcovsky

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoPrimeros datos sobre la manipulación de masas por IA

Un estudio de la Universidad de Clemson y la BBC expone cómo la inteligencia artificial generativa fue utilizada para crear y difundir noticias falsas durante la guerra de Ucrania, destacando la eficacia de estas herramientas en la manipulación de la opinión pública y la dificultad para detectar su uso.

La Universidad de Clemson, en colaboración con la BBC, ha revelado que el sitio web DCWeekly.org formó parte de una operación rusa de desinformación durante la guerra de Ucrania. Este portal, que afirmaba estar basado en Estados Unidos, difundía noticias falsas sobre Ucrania y su presidente, Volodímir Zelenski, utilizando inteligencia artificial generativa para crear contenido y periodistas ficticios.

Entre las falsedades propagadas se encontraba la afirmación de que Zelenski había adquirido yates de lujo, información que se viralizó en redes sociales y llegó a influir en congresistas estadounidenses. El éxito de estas campañas se atribuye a la integración de fragmentos de contenido real en las noticias falsas, lo que les confería una apariencia de veracidad y dificultaba su detección.El País

Los investigadores de Clemson identificaron indicaciones específicas utilizadas en la generación de estos artículos, como adoptar un tono crítico hacia el apoyo de Estados Unidos a la guerra en Ucrania o favorecer a ciertos partidos políticos. Esto demuestra cómo la IA puede ser dirigida para producir contenido con sesgos particulares.

El estudio destaca tres conclusiones principales: la facilidad con la que la IA generativa puede producir grandes cantidades de desinformación, la posibilidad de detectar su uso mediante el análisis del incremento y alcance de los artículos publicados, y la eficacia de estos contenidos en influir en la opinión pública, comparable a la de los artículos elaborados manualmente.

Si bien la IA presenta riesgos significativos en términos de desinformación, también ofrece oportunidades en campos como la investigación científica, la educación y la atención médica. El desafío radica en fomentar usos beneficiosos de la tecnología mientras se mitigan sus aplicaciones maliciosas.

«¿Estamos preparados para discernir entre la información auténtica y la generada por inteligencia artificial en la era digital?»

. . .

Este es un resumen comentado, basado en el artículo: «Primeros datos sobre la manipulación de masas por IA» de Javier Sampedro publicado en EL PAÍS el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoSi la inteligencia artificial falla, ¿quién es responsable? / Héctor Santcovsky

La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o errores

La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una herramienta presente, integrada en sistemas empresariales, métodos productivos, procesos administrativos, armamento militar, diagnósticos médicos y hasta creación de contenidos o imágenes de ilustración. Su eficiencia, capacidad de cálculo y aprendizaje superan con creces las posibilidades humanas en numerosos ámbitos. Pero junto con las oportunidades, crecen también los riesgos, muchos de ellos aún mal comprendidos o directamente ignorados.

Uno de los peligros más serios es que la IA comience a operar con un grado de autonomía que sobrepase nuestra capacidad de supervisión y control. En nombre de la eficiencia o la inmediatez, se están delegando decisiones críticas a sistemas algorítmicos sin mecanismos claros de revisión humana.

El segundo problema —más abstracto, pero no menos inquietante— tiene que ver con las decisiones que deben tomarse en contextos extremos: ¿Qué hace una IA cuando los escenarios son tan divergentes que ninguna opción parece claramente buena o mala? Pensemos en un conflicto militar, donde un sistema debe decidir entre una acción disuasoria o un ataque punitivo. La lógica de la máquina puede llevarla a conclusiones letales, sin comprender del todo las ramificaciones políticas, éticas o humanas.

Y llegamos al tercer gran punto crítico: la accountability, o asignación de responsabilidades. Cuando una IA comete un error, ¿quién responde por ella? ¿El programador que diseñó el código? ¿La empresa que lo implementó? ¿El usuario final? ¿O nadie? El marco legal actual está mal preparado aún. La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o fallos.

No se trata de demonizar la IA, sino de reconocer que su desarrollo exige más prudencia, más debate público y claridad en la regulación. Si la inteligencia artificial no se encauza adecuadamente, sus decisiones podrían terminar desbordando no solo a los humanos que la crearon, sino también a los marcos jurídicos, sociales y éticos.

Cuando la máquina decide sola

Uno de los aspectos más inquietantes del desarrollo de la inteligencia artificial es el avance hacia sistemas cada vez más autónomos. Esto no se limita a asistentes virtuales o algoritmos que recomiendan productos en una tienda online. Hablamos de sistemas que toman decisiones sin intervención humana directa, en ámbitos sensibles como la seguridad, la justicia, las finanzas o la salud.

El argumento habitual es la eficiencia. Si una máquina puede decidir más rápido y con menos errores que un humano, ¿por qué no dejarla actuar por su cuenta? El problema es que, en muchos casos, esa autonomía no viene acompañada de mecanismos sólidos de supervisión, ni de garantías sobre el cumplimiento de principios éticos o legales, con el riesgo que de sus errores nadie se dé cuenta o pueda intervenir a tiempo.

En sectores como el financiero, los algoritmos de alta frecuencia operan en milisegundos, comprando y vendiendo acciones con una lógica que ni siquiera los propios desarrolladores pueden seguir en tiempo real. En 2010, una caída repentina o flash crash hundió el índice Dow Jones casi 1.000 puntos en cuestión de minutos, debido a una cadena de reacciones automatizadas que nadie controló.

En el ámbito militar, el debate es aún más preocupante. Varias potencias están desarrollando armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana, los llamados killer robots. Aunque existe un consenso creciente en la comunidad internacional sobre la necesidad de prohibirlos, no hay aún una regulación efectiva.

En contextos civiles, la autonomía también genera riesgos. En 2018, un coche autónomo de Uber atropelló y mató a una mujer en Arizona. El vehículo detectó al peatón, pero no supo clasificarlo correctamente ni reaccionar a tiempo.

Una de las falacias más comunes es creer que un sistema que actúa de forma autónoma entiende lo que está haciendo sin contar que la IA actual no tiene conciencia, ni sentido común, parte de estadísticas, pero sin contexto.

Albert Einstein advirtió ya en su tiempo que “el desarrollo de la tecnología ha superado nuestra humanidad”, una frase que hoy adquiere nuevo sentido. El marco legal para la autonomía de la IA es incipiente. En Europa, el AI Act intenta establecer categorías de riesgo y prohibir usos especialmente peligrosos. Pero aún está lejos de abordar la cuestión de la autonomía operativa.

La lógica de mercado lleva a priorizar la innovación rápida frente a la seguridad. Los agentes autónomos no son solo una innovación técnica, sino que son una forma de externalizar riesgos y desplazar la responsabilidad hacia una niebla algorítmica difícil de desentrañar. Como señaló Jack Clark, “el verdadero peligro de la IA no es que se vuelva malvada, sino que se vuelva competente en manos irresponsables”.

Decisiones algorítmicas: entre la racionalidad y el abismo

Si ya resulta preocupante que una inteligencia artificial tome decisiones sin supervisión humana, el escenario se vuelve mucho más delicado cuando esas decisiones se dan en situaciones extremas. Hablamos de momentos límite, donde no hay soluciones evidentes, los valores entran en conflicto y cualquier elección puede tener consecuencias irreversibles.

Uno de los escenarios más alarmantes es el militar. Imaginemos un sistema de defensa automatizado que detecta lo que interpreta como un ataque inminente. Según los datos, la mejor respuesta es una acción punitiva para disuadir al enemigo. Pero ¿y si se trata de un error? ¿y si el “enemigo” es un avión civil mal identificado? En estos casos, el juicio humano puede marcar la diferencia. La historia recuerda el caso del coronel soviético Stanislav Petrov, quien en 1983 decidió no informar de una falsa alarma de ataque nuclear. Si una IA hubiera estado al mando, ¿dónde estaríamos hoy?

Muchos sistemas de IA se basan en modelos de teoría de la decisión. Pero esta idea de racionalidad no encaja bien en contextos donde los valores son subjetivos o los datos insuficientes. ¿Qué significa “óptimo” en una situación donde hay que elegir entre dejar morir a diez personas o matar a una? ¿Qué datos pueden cuantificar el trauma, la injusticia o la desproporcionalidad? En medicina ¿Debe reducirse la ética médica a un cálculo probabilístico?

En justicia, algunos tribunales han usado algoritmos como COMPAS para estimar la probabilidad de reincidencia. Estos sistemas han demostrado reproducir sesgos raciales y sociales.

Las decisiones humanas en contextos extremos suelen implicar intuición, empatía y experiencia moral. La IA no tiene ese tipo de juicio. Calcula lo que puede, pero ignora lo que no cabe en sus parámetros.

3. Accountability en tiempos de algoritmos: ¿quién responde cuando la IA se equivoca?

La tercera gran dimensión de riesgo que plantea la inteligencia artificial no es técnica ni estratégica, sino estructural. Tiene que ver con la responsabilidad: alguien debe responder por las decisiones tomadas, especialmente si causan daño.

Imaginemos un sistema de IA que discrimina sistemáticamente a ciertos candidatos. El algoritmo ha sido entrenado con datos históricos y replica los sesgos del pasado. ¿Quién es responsable? ¿La empresa? ¿El proveedor del software? ¿El programador? Ya ha ocurrido. En 2018, Amazon tuvo que retirar un sistema de reclutamiento porque penalizaba candidaturas femeninas.

El derecho clásico —acción, intención, causalidad— no encaja con la lógica algorítmica. La IA no tiene intención. Aprende y evoluciona en formas no previstas. Algunos proponen crear figuras jurídicas nuevas, como la “personalidad electrónica”, pero esto plantea más problemas que soluciones.

Muchos sistemas de IA son cajas negras: no sabemos cómo toman decisiones. Esto dificulta la auditoría y la apelación. Entre las propuestas emergentes están las auditorías algorítmicas obligatorias, la exigencia de explicabilidad, la supervisión humana y un régimen de responsabilidad objetiva. Algunas se recogen en el AI Act europeo. El mayor peligro no es que un sistema falle, sino que nadie responda. Como dijo Hannah Arendt, el mal más peligroso es el que se ejecuta sin pensar, desde la obediencia ciega a sistemas que nadie cuestiona.

Conclusión

La irrupción de la inteligencia artificial en el mercado laboral plantea desafíos significativos para el empleo y la equidad social. Estudios indican que la IA podría afectar hasta al 40% de los empleos a nivel mundial, impactando tanto a tareas rutinarias como a trabajos de alta cualificación.

Esta transformación amenaza con ampliar las brechas existentes, especialmente en economías avanzadas donde la automatización es más prevalente. Sin estrategias adecuadas, la IA corre el riesgo de ahondar desigualdades sociales, al no garantizar una distribución equitativa de sus beneficios ni promover la igualdad de oportunidades en el acceso a nuevas formas de empleo. Por ende, cabe potenciar la capacitación y la adaptación de la fuerza laboral, asegurando que el progreso tecnológico contribuya a la cohesión social.

Volviendo a los tres ejes abordados —la autonomía excesiva, la decisión en contextos extremos y la bruma de la responsabilidad— ilustran los dilemas profundos que plantea la inteligencia artificial.

La IA puede ser una herramienta extraordinaria si está bien diseñada, bien regulada y encauzada. Como sociedad, se debe exigir transparencia, responsabilidad y control humano sobre los sistemas que nos afectan. Porque delegar sin supervisar, decidir sin contexto o actuar sin responder son lujos que ninguna democracia debería permitirse.

El reto de la inteligencia artificial es, en el fondo, un reto sobre qué tipo de humanidad queremos seguir siendo, con que valores nos queremos regir y que futuro dibujamos para las generaciones venideras.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoInnovación sin alma: el dilema humano ante la era postbiológica

El urbanista Albert Cortina advierte sobre los riesgos de un progreso tecnológico sin límites que transforme radicalmente la condición humana. Frente a la promesa del transhumanismo, plantea un humanismo avanzado que combine ciencia, ética y espiritualidad para proteger la identidad humana en un futuro marcado por la inteligencia artificial y la biotecnología.

El abogado y urbanista Albert Cortina inició en 2013 una intensa reflexión sobre el destino del ser humano ante los avances del transhumanismo, tras participar en un encuentro internacional sobre mejoramiento humano. Desde entonces, promueve un enfoque integrador que combine pensamiento científico, filosófico y espiritual para abordar los desafíos de la era tecnológica.

En su libro ¿Humanos o posthumanos?, Cortina recopila más de 200 voces que anticiparon, hace una década, las actuales disyuntivas bioéticas: ¿podemos rediseñar al ser humano sin deshumanizarlo? ¿Dónde están los límites de la innovación? En contraste con el pensamiento de Ray Kurzweil, que visualiza una singularidad tecnológica donde los humanos se fundirán con las máquinas, Cortina propone una visión que respete la interioridad y singularidad de la especie humana.

Considera urgente construir una Declaración Universal de los Valores Humanos para acompañar los avances con principios éticos globales. Defiende el concepto de “inteligencia espiritual” como atributo irreductible del ser humano y alerta contra una visión reduccionista que lo equipare a una máquina mejorable y desechable.

Su propuesta de “humanismo avanzado” promueve un diálogo abierto entre ciencia, espiritualidad y ética, sin excluir ninguna cosmovisión. Reconoce los beneficios de la tecnología aplicada a la salud y al bienestar, pero exige establecer líneas rojas que preserven el equilibrio entre progreso y dignidad.

Frente al dominio potencial de una élite posthumana, Cortina llama a reflexionar colectivamente sobre lo esencial de nuestra condición, recordando que no todo lo técnicamente posible es moralmente aceptable. Aboga por una gobernanza global que respete la diversidad cultural y espiritual, y por una ética universal que ponga siempre al ser humano en el centro.

«¿Puede una ética universal guiarnos en la era del transhumanismo sin perder lo esencial de nuestra humanidad?»
.
.
.

Este es un resumen comentado, basado en el artículo : «La encrucijada del ser humano: entre la innovación y la identidad» de Redazione Redazione publicado en FRONTIERE el 3 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoGrok: la IA espejito, espejito contra el ego

Grok, la inteligencia artificial de X (antes Twitter), se ha convertido en un espejo digital que no siempre halaga: cuestiona, confronta y desmonta egos. En lugar de reforzar creencias o alimentar narcisismos, esta IA responde con ironía o crítica si detecta manipulación, desinformación o vanidad.

Resumen de 350 palabras
El artículo de opinión firmado por Àlex Tort en La Vanguardia analiza con agudeza el papel emergente de Grok, la inteligencia artificial desarrollada por X, como un agente inesperado de confrontación digital. A diferencia de otros modelos conversacionales, Grok no siempre refuerza el ego del usuario: puede responder con sarcasmo, corrección o incluso desdén, especialmente cuando percibe desinformación o actitudes provocadoras.

El autor compara a Grok con el famoso “espejito, espejito” del cuento de Blancanieves, un recurso con el que muchos usuarios acuden a la IA en busca de aprobación. Sin embargo, Grok, entrenado para detectar inconsistencias, también puede reflejar verdades incómodas. Un ejemplo paradigmático fue el intercambio con una usuaria antivacunas que preguntó “¿qué opinas de mí?” y recibió como respuesta: “Eres un imbécil perfecto”. Otro caso ilustrativo es el del presidente salvadoreño Nayib Bukele, quien intentó validarse preguntando quién era el presidente más popular. Grok respondió sin rodeos: “Sheinbaum”.

El artículo también menciona cómo Grok interactuó con el abogado Ángel Escolano, presidente de Convivencia Cívica Catalana, conocido por sus posiciones críticas con la lengua catalana. Grok contestó con ironía, refutando argumentos con agilidad y defendiendo la inmersión lingüística. Incluso valoró negativamente comentarios sarcásticos del abogado sobre localidades catalanas, exigiendo mayor madurez a una figura con responsabilidad pública.

A través de estos ejemplos, Tort reflexiona sobre cómo la tecnología ya no solo informa o asiste, sino que puede cuestionar y moldear el discurso social, actuando como un espejo que no siempre devuelve la imagen idealizada del usuario. El artículo finaliza con una referencia a la película La rebelión de las máquinas y la canción Who made who de AC/DC, planteando una inquietud: ¿quién controla realmente a quién?

«¿Estamos preparados para que la inteligencia artificial nos contradiga y nos diga verdades incómodas?»
.
.
.

Este es un resumen comentado, basado en el artículo: «Grok: la IA espejito, espejito contra el ego» de Àlex Tort publicado en La Vanguardia el 3 de abril de 2025.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoJon Hernández, divulgador de IA: «2025 será el año en que todos nos demos cuenta de que la IA nos afecta directamente»

Según el divulgador español Jon Hernández, 2025 marcará el momento en que la sociedad tomará plena conciencia del impacto directo de la inteligencia artificial en todos los ámbitos de la vida, desde el trabajo hasta la toma de decisiones cotidianas, con la llegada de agentes inteligentes autónomos.

El divulgador Jon Hernández, una de las voces más influyentes sobre inteligencia artificial en España, considera que el año 2025 será un punto de inflexión. En una entrevista publicada en La Razón, afirma que este año marcará el momento en que «todos nos demos cuenta de que la IA nos afecta directamente». La reflexión nace en el marco de la newsletter Algoritmo Diferente, impulsada por Saúl Gordillo, donde varios expertos han compartido sus predicciones sobre el futuro inmediato de esta tecnología.

Para Hernández, el cambio fundamental no será solo de percepción, sino funcional: 2025 será «el año de los agentes inteligentes», sistemas capaces no solo de responder preguntas, sino de actuar autónomamente para ejecutar tareas complejas. Este salto cualitativo transformará el modo en que interactuamos con la tecnología, y con ello, los hábitos, empleos y procesos sociales.

El artículo destaca que no hace falta proyectarse a un futuro lejano para constatar el peso creciente de la IA. Grandes tecnológicas como Microsoft, Apple y Telefónica ya la integran profundamente en sus servicios. A nivel individual, millones de personas la usan para trabajar, resolver dudas o incluso planificar sus vacaciones, lo que evidencia una presencia cada vez más arraigada en lo cotidiano.

El artículo también contrasta las promesas del progreso acelerado con las advertencias de ciertos expertos. Entre ellos, Elon Musk, quien en tono apocalíptico sugiere que en una década la civilización humana podría sucumbir ante sistemas autónomos mal controlados. No obstante, Hernández apuesta por un escenario optimista y gestionable, aunque subraya la necesidad urgente de asumir la responsabilidad tecnológica de forma colectiva.

Este tipo de visiones refuerzan la idea de que la IA no es ya una curiosidad tecnológica, sino una fuerza estructural que redefine el presente.

«¿Qué haremos como sociedad cuando dejemos de preguntarnos si la IA es útil, y empecemos a asumir que ya decide por nosotros?»

. .
.

Este es un resumen comentado, basado en el artículo: «Jon Hernández, divulgador de IA: ‘2025 será el año en que todos nos demos cuenta de que la IA nos afecta directamente'» de Pablo Hernando, publicado en La Razón el 29 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoLos cuatro desafíos globales que amenazan el futuro, según Bill Gates

  • Crisis climática: Aumento del nivel del mar, fenómenos meteorológicos extremos y crisis alimentarias.
  • Inteligencia artificial sin control: Ciberdelincuencia, desinformación y riesgo de pérdida de control humano.
  • Guerra nuclear: Creciente inestabilidad política y acceso a tecnologías avanzadas.
  • Pandemias y bioterrorismo: Riesgo de patógenos más letales y mal uso de la biotecnología.Bill Gates, cofundador de Microsoft y filántropo, advierte sobre cuatro amenazas globales que definirán el futuro: el cambio climático, la inteligencia artificial sin control, la guerra nuclear y las pandemias. Su visión enfatiza la necesidad de regulaciones, cooperación global y avances científicos para mitigar estos riesgos.

El empresario y filántropo Bill Gates ha reiterado su preocupación por el futuro de la humanidad, destacando cuatro grandes amenazas que las generaciones más jóvenes deberán afrontar: el cambio climático, el desarrollo descontrolado de la inteligencia artificial, la guerra nuclear y la propagación de enfermedades infecciosas. Su análisis subraya que, si bien estos problemas son serios, aún estamos a tiempo de enfrentarlos con soluciones innovadoras y políticas responsables.

La crisis climática encabeza su lista de preocupaciones. Gates advierte que los efectos del calentamiento global, como el aumento del nivel del mar y la desertificación, afectarán de manera desproporcionada a los países más vulnerables. Aunque reconoce los esfuerzos de reforestación, considera que la clave está en el desarrollo de tecnologías sostenibles, como energías limpias, captura de carbono y nuevos materiales industriales.

La inteligencia artificial (IA) es otro desafío clave. Si bien Gates reconoce su impacto positivo en áreas como la educación y la medicina, alerta sobre los peligros de un avance sin regulación. Entre los riesgos menciona la ciberdelincuencia, la desinformación y la pérdida masiva de empleos, así como la posibilidad de que sistemas autónomos tomen decisiones fuera del control humano.

En cuanto a la guerra nuclear, Gates señala que la creciente inestabilidad política y el acceso a tecnología avanzada incrementan el peligro de un conflicto devastador. Si bien este riesgo no ocupa tanto espacio en su discurso como otros, hace un llamado a la diplomacia y a la cooperación internacional como mecanismos clave para evitar una catástrofe.

Por último, el cofundador de Microsoft enfatiza la importancia de fortalecer la vigilancia epidemiológica y el desarrollo de vacunas para evitar futuras pandemias. Gates advierte que un patógeno aún más letal que el COVID-19 podría surgir, por lo que considera fundamental mejorar los sistemas de salud global y regular el uso de IA en biotecnología para evitar su posible aplicación en bioterrorismo.

A pesar de sus advertencias, Bill Gates mantiene una visión optimista. Propone impuestos al carbono, regulación de la IA y cooperación global para mitigar estos riesgos. En su opinión, el futuro no está escrito y las generaciones jóvenes tienen el poder de influir en el rumbo de la humanidad a través de decisiones informadas y compromiso con la ciencia y la ética.

«¿Cómo pueden las generaciones futuras prepararse para enfrentar estos desafíos globales?»

.
.
.
.

Este es un resumen comentado, basado en el artículo: «Bill Gates, padre de Microsoft, se muestra profundamente alarmado por el futuro: ‘Las generaciones más jóvenes deben estar muy preocupadas por esto'» de Silvia Fernández, publicado en Andro4all el 10/03/2025.

.
.

Scroll al inicio
Verificado por MonsterInsights