10 de abril de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa UE quiere triplicar su capacidad en centros de datos en siete años

La Unión Europea ha anunciado el Plan de Acción Continente IA, que busca triplicar la infraestructura de centros de datos en siete años y desarrollar gigafactorías de inteligencia artificial con al menos 100.000 chips de última generación cada una, con una inversión de 20.000 millones de euros.

El plan, presentado por Henna Virkkunen, vicepresidenta de la Comisión Europea y comisaria de Soberanía Tecnológica, Seguridad y Democracia, se estructura en cinco pilares:

  1. Supercomputación: Desarrollo de fábricas de IA, como la proyectada en Barcelona, y creación de gigafactorías más grandes. Se promoverá una Ley de Desarrollo de la Nube y la IA para incentivar inversiones, considerando el impacto medioambiental.

  2. Calidad de datos: Creación de Laboratorios de Datos y lanzamiento de una Estrategia de Datos para asegurar datos de alta calidad en el entrenamiento de modelos de IA.

  3. Desarrollo de algoritmos: Fomento del desarrollo y adopción de algoritmos en sectores estratégicos.

  4. Habilidades y competencias: Refuerzo de capacidades en IA mediante becas y creación de academias especializadas.

  5. Simplificación regulatoria: Revisión de normativas para reducir burocracia en pymes y grandes empresas, manteniendo la minimización de riesgos establecida en el Reglamento Europeo de IA aprobado el año anterior.

Este plan surge en respuesta al anuncio del presidente de EE. UU., Donald Trump, quien en diciembre pasado informó sobre inversiones de 500.000 millones de dólares en cuatro años para impulsar la IA, destinadas principalmente a la construcción de centros de datos y plantas energéticas.

La comisaria Virkkunen reconoció la dependencia actual de la UE en tecnología estadounidense, especialmente en la adquisición de chips, y mencionó negociaciones en curso para desarrollar capacidades propias. Sin embargo, no se detalló la procedencia de los 20.000 millones de euros ni si se basará en tecnología europea o extranjera.

La iniciativa europea también enfrenta desafíos relacionados con el elevado consumo energético de los centros de datos. Aunque se mencionó la futura adopción de una Hoja de Ruta para la Digitalización y la IA en el … aún no se han proporcionado soluciones concretas para integrar sosteniblemente estas infraestructuras en el sistema energético.

«¿Cómo garantizará la Unión Europea la sostenibilidad energética y la autonomía tecnológica en su ambicioso plan de expansión de centros de datos?»

. . .

Este es un resumen comentado, basado en el artículo: «La UE quiere triplicar su … » de Manuel G. Pascual publicado en EL PAÍS el 9 de abril de 2025.

. . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoSi la inteligencia artificial falla, ¿quién es responsable? / Héctor Santcovsky

La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o errores

La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una herramienta presente, integrada en sistemas empresariales, métodos productivos, procesos administrativos, armamento militar, diagnósticos médicos y hasta creación de contenidos o imágenes de ilustración. Su eficiencia, capacidad de cálculo y aprendizaje superan con creces las posibilidades humanas en numerosos ámbitos. Pero junto con las oportunidades, crecen también los riesgos, muchos de ellos aún mal comprendidos o directamente ignorados.

Uno de los peligros más serios es que la IA comience a operar con un grado de autonomía que sobrepase nuestra capacidad de supervisión y control. En nombre de la eficiencia o la inmediatez, se están delegando decisiones críticas a sistemas algorítmicos sin mecanismos claros de revisión humana.

El segundo problema —más abstracto, pero no menos inquietante— tiene que ver con las decisiones que deben tomarse en contextos extremos: ¿Qué hace una IA cuando los escenarios son tan divergentes que ninguna opción parece claramente buena o mala? Pensemos en un conflicto militar, donde un sistema debe decidir entre una acción disuasoria o un ataque punitivo. La lógica de la máquina puede llevarla a conclusiones letales, sin comprender del todo las ramificaciones políticas, éticas o humanas.

Y llegamos al tercer gran punto crítico: la accountability, o asignación de responsabilidades. Cuando una IA comete un error, ¿quién responde por ella? ¿El programador que diseñó el código? ¿La empresa que lo implementó? ¿El usuario final? ¿O nadie? El marco legal actual está mal preparado aún. La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o fallos.

No se trata de demonizar la IA, sino de reconocer que su desarrollo exige más prudencia, más debate público y claridad en la regulación. Si la inteligencia artificial no se encauza adecuadamente, sus decisiones podrían terminar desbordando no solo a los humanos que la crearon, sino también a los marcos jurídicos, sociales y éticos.

Cuando la máquina decide sola

Uno de los aspectos más inquietantes del desarrollo de la inteligencia artificial es el avance hacia sistemas cada vez más autónomos. Esto no se limita a asistentes virtuales o algoritmos que recomiendan productos en una tienda online. Hablamos de sistemas que toman decisiones sin intervención humana directa, en ámbitos sensibles como la seguridad, la justicia, las finanzas o la salud.

El argumento habitual es la eficiencia. Si una máquina puede decidir más rápido y con menos errores que un humano, ¿por qué no dejarla actuar por su cuenta? El problema es que, en muchos casos, esa autonomía no viene acompañada de mecanismos sólidos de supervisión, ni de garantías sobre el cumplimiento de principios éticos o legales, con el riesgo que de sus errores nadie se dé cuenta o pueda intervenir a tiempo.

En sectores como el financiero, los algoritmos de alta frecuencia operan en milisegundos, comprando y vendiendo acciones con una lógica que ni siquiera los propios desarrolladores pueden seguir en tiempo real. En 2010, una caída repentina o flash crash hundió el índice Dow Jones casi 1.000 puntos en cuestión de minutos, debido a una cadena de reacciones automatizadas que nadie controló.

En el ámbito militar, el debate es aún más preocupante. Varias potencias están desarrollando armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana, los llamados killer robots. Aunque existe un consenso creciente en la comunidad internacional sobre la necesidad de prohibirlos, no hay aún una regulación efectiva.

En contextos civiles, la autonomía también genera riesgos. En 2018, un coche autónomo de Uber atropelló y mató a una mujer en Arizona. El vehículo detectó al peatón, pero no supo clasificarlo correctamente ni reaccionar a tiempo.

Una de las falacias más comunes es creer que un sistema que actúa de forma autónoma entiende lo que está haciendo sin contar que la IA actual no tiene conciencia, ni sentido común, parte de estadísticas, pero sin contexto.

Albert Einstein advirtió ya en su tiempo que “el desarrollo de la tecnología ha superado nuestra humanidad”, una frase que hoy adquiere nuevo sentido. El marco legal para la autonomía de la IA es incipiente. En Europa, el AI Act intenta establecer categorías de riesgo y prohibir usos especialmente peligrosos. Pero aún está lejos de abordar la cuestión de la autonomía operativa.

La lógica de mercado lleva a priorizar la innovación rápida frente a la seguridad. Los agentes autónomos no son solo una innovación técnica, sino que son una forma de externalizar riesgos y desplazar la responsabilidad hacia una niebla algorítmica difícil de desentrañar. Como señaló Jack Clark, “el verdadero peligro de la IA no es que se vuelva malvada, sino que se vuelva competente en manos irresponsables”.

Decisiones algorítmicas: entre la racionalidad y el abismo

Si ya resulta preocupante que una inteligencia artificial tome decisiones sin supervisión humana, el escenario se vuelve mucho más delicado cuando esas decisiones se dan en situaciones extremas. Hablamos de momentos límite, donde no hay soluciones evidentes, los valores entran en conflicto y cualquier elección puede tener consecuencias irreversibles.

Uno de los escenarios más alarmantes es el militar. Imaginemos un sistema de defensa automatizado que detecta lo que interpreta como un ataque inminente. Según los datos, la mejor respuesta es una acción punitiva para disuadir al enemigo. Pero ¿y si se trata de un error? ¿y si el “enemigo” es un avión civil mal identificado? En estos casos, el juicio humano puede marcar la diferencia. La historia recuerda el caso del coronel soviético Stanislav Petrov, quien en 1983 decidió no informar de una falsa alarma de ataque nuclear. Si una IA hubiera estado al mando, ¿dónde estaríamos hoy?

Muchos sistemas de IA se basan en modelos de teoría de la decisión. Pero esta idea de racionalidad no encaja bien en contextos donde los valores son subjetivos o los datos insuficientes. ¿Qué significa “óptimo” en una situación donde hay que elegir entre dejar morir a diez personas o matar a una? ¿Qué datos pueden cuantificar el trauma, la injusticia o la desproporcionalidad? En medicina ¿Debe reducirse la ética médica a un cálculo probabilístico?

En justicia, algunos tribunales han usado algoritmos como COMPAS para estimar la probabilidad de reincidencia. Estos sistemas han demostrado reproducir sesgos raciales y sociales.

Las decisiones humanas en contextos extremos suelen implicar intuición, empatía y experiencia moral. La IA no tiene ese tipo de juicio. Calcula lo que puede, pero ignora lo que no cabe en sus parámetros.

3. Accountability en tiempos de algoritmos: ¿quién responde cuando la IA se equivoca?

La tercera gran dimensión de riesgo que plantea la inteligencia artificial no es técnica ni estratégica, sino estructural. Tiene que ver con la responsabilidad: alguien debe responder por las decisiones tomadas, especialmente si causan daño.

Imaginemos un sistema de IA que discrimina sistemáticamente a ciertos candidatos. El algoritmo ha sido entrenado con datos históricos y replica los sesgos del pasado. ¿Quién es responsable? ¿La empresa? ¿El proveedor del software? ¿El programador? Ya ha ocurrido. En 2018, Amazon tuvo que retirar un sistema de reclutamiento porque penalizaba candidaturas femeninas.

El derecho clásico —acción, intención, causalidad— no encaja con la lógica algorítmica. La IA no tiene intención. Aprende y evoluciona en formas no previstas. Algunos proponen crear figuras jurídicas nuevas, como la “personalidad electrónica”, pero esto plantea más problemas que soluciones.

Muchos sistemas de IA son cajas negras: no sabemos cómo toman decisiones. Esto dificulta la auditoría y la apelación. Entre las propuestas emergentes están las auditorías algorítmicas obligatorias, la exigencia de explicabilidad, la supervisión humana y un régimen de responsabilidad objetiva. Algunas se recogen en el AI Act europeo. El mayor peligro no es que un sistema falle, sino que nadie responda. Como dijo Hannah Arendt, el mal más peligroso es el que se ejecuta sin pensar, desde la obediencia ciega a sistemas que nadie cuestiona.

Conclusión

La irrupción de la inteligencia artificial en el mercado laboral plantea desafíos significativos para el empleo y la equidad social. Estudios indican que la IA podría afectar hasta al 40% de los empleos a nivel mundial, impactando tanto a tareas rutinarias como a trabajos de alta cualificación.

Esta transformación amenaza con ampliar las brechas existentes, especialmente en economías avanzadas donde la automatización es más prevalente. Sin estrategias adecuadas, la IA corre el riesgo de ahondar desigualdades sociales, al no garantizar una distribución equitativa de sus beneficios ni promover la igualdad de oportunidades en el acceso a nuevas formas de empleo. Por ende, cabe potenciar la capacitación y la adaptación de la fuerza laboral, asegurando que el progreso tecnológico contribuya a la cohesión social.

Volviendo a los tres ejes abordados —la autonomía excesiva, la decisión en contextos extremos y la bruma de la responsabilidad— ilustran los dilemas profundos que plantea la inteligencia artificial.

La IA puede ser una herramienta extraordinaria si está bien diseñada, bien regulada y encauzada. Como sociedad, se debe exigir transparencia, responsabilidad y control humano sobre los sistemas que nos afectan. Porque delegar sin supervisar, decidir sin contexto o actuar sin responder son lujos que ninguna democracia debería permitirse.

El reto de la inteligencia artificial es, en el fondo, un reto sobre qué tipo de humanidad queremos seguir siendo, con que valores nos queremos regir y que futuro dibujamos para las generaciones venideras.

Scroll al inicio
Verificado por MonsterInsights