Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSam Altman plantea pagar a artistas cuyos estilos inspiren la inteligencia artificial

El CEO de OpenAI, Sam Altman, propuso durante TED 2025 un modelo de reparto de ingresos para artistas cuyos estilos sean usados por sistemas de IA. La idea surge tras el escándalo por imágenes generadas al estilo de Studio Ghibli. Altman también adelantó novedades de ChatGPT como memoria contextual y menor censura.
Durante su intervención en TED 2025, el CEO de OpenAI, Sam Altman, planteó la creación de un modelo de reparto de ingresos para artistas y creadores que opten por permitir el uso de su estilo en contenidos generados por inteligencia artificial. La propuesta llega en un momento crítico, marcado por la polémica que generó en redes sociales la tendencia viral de imágenes generadas con estilo del estudio japonés Studio Ghibli, lo que reavivó el debate sobre el respeto a los derechos de autor en la era de la IA.

Altman sugirió que si un creador da su consentimiento explícito para que su obra sea usada como referencia por modelos como ChatGPT, se podría implementar un sistema de compensación económica proporcional. “Sería genial encontrar un modelo donde si alguien quiere generar una imagen en nombre de un artista que ha dado su consentimiento, exista una vía de ingresos”, declaró. No obstante, reconoció la complejidad de aplicar esta lógica cuando se combinan varios estilos, planteando interrogantes como: ¿cómo se distribuye equitativamente el dinero entre múltiples creadores?

En cuanto al estado actual del sistema, Altman explicó que existen barreras técnicas en los modelos de OpenAI para impedir la generación de imágenes que copien directamente el estilo de artistas específicos sin consentimiento. Añadió que OpenAI está trabajando en suavizar restricciones sobre temas de lenguaje, en busca de una generación más abierta de contenido.

Entre otras novedades, Altman presentó una función de memoria contextual en el generador de imágenes de ChatGPT, basada en GPT-4o, que permite recordar consultas previas del usuario y actuar como una extensión personalizada. Esta función, explicó, podría eventualmente observar e interactuar de forma más continua con las actividades del usuario.

Finalmente, Altman abordó el temor a la sustitución laboral por la IA, afirmando que, como en otras revoluciones tecnológicas, aumentarán tanto las exigencias como las capacidades humanas. OpenAI, actualmente valorada en 300.000 millones de dólares, desarrolla también agentes autónomos capaces de operar en nombre de los usuarios.

«¿Qué mecanismos deberían establecerse para garantizar una compensación justa a los creadores en el ecosistema de la inteligencia artificial?»

. .
.

Este es un resumen comentado, basado en el artículo : «‘It would be cool’: OpenAI CEO Sam Altman suggests revenue-sharing model for creators in time» de Tech Desk publicado en The Indian Express el 13 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBarcelona se convierte en capital de los profesionales digitales

Barcelona ha sumado más de 55.000 profesionales digitales en cinco años, consolidándose como un hub tecnológico líder. La demanda laboral en sectores como IA, blockchain y ciberseguridad ha crecido exponencialmente, superando la oferta disponible. La ciudad destaca por su atractivo internacional y un notable aumento en la participación femenina en el sector.
En los últimos cinco años, Barcelona ha experimentado un crecimiento significativo en el ámbito digital, incorporando más de 55.000 nuevos profesionales y alcanzando un total de 122.000 especialistas en áreas como desarrollo web, software, UX, blockchain, inteligencia artificial y ciberseguridad. Este avance posiciona a la ciudad como un hub tecnológico de primer nivel en Europa, según el informe Digital Talent Overview 2024 de Mobile World Capital Barcelona (MWCapital).

Jordi Arrufí, Director de Desarrollo Corporativo y responsable del área de Talento de MWCapital, atribuye este éxito a factores como la presencia de grandes centros tecnológicos, una economía dinámica de startups, una sólida red de centros de investigación y la celebración de congresos de referencia como el MWC.

Sin embargo, el crecimiento en la demanda de perfiles digitales ha superado la oferta disponible. Actualmente, por cada oferta laboral digital en Barcelona hay 14,2 candidatos, una cifra muy por debajo de la media del mercado general, que se sitúa en 70 profesionales por oferta. Esta escasez ha llevado a las empresas a adaptar sus estrategias para atraer y retener talento, enfrentándose a una competencia global.

Las habilidades más demandadas incluyen expertise en blockchain, cloud computing e inteligencia artificial. Además, las empresas valoran cada vez más las soft skills, como liderazgo, gestión de equipos y adaptabilidad. Marc Ferre, Managing Director en Bayer GBS Barcelona, destaca que los profesionales digitales han pasado de gestionar departamentos de backoffice a ser actores clave en la creación de valor empresarial.

La inteligencia artificial ha supuesto una disrupción significativa, con un aumento del 12% en la demanda de especialistas en 2023. Expertos coinciden en que la IA liberará a los profesionales de tareas mecánicas, permitiéndoles centrarse en procesos creativos. Scott Francis, Director General de Porsche Digital Barcelona, afirma que la IA ayudará a los humanos a aportar su máximo valor.

Barcelona también destaca por su atractivo internacional, con casi un tercio de sus profesionales digitales provenientes de otros países. Además, la participación femenina en el sector ha aumentado del 22% al 30,6% entre 2018 y 2023, superando la media europea.

Para mantener su posición de liderazgo, la ciudad deberá afrontar desafíos como la escasez de profesionales y la necesidad de adaptar la formación académica a las demandas del mercado digital.

«¿Puede Barcelona mantener su liderazgo digital frente a la creciente competencia global y la rápida evolución tecnológica?» . . .

Este es un resumen comentado, basado en el artículo: «Cinc anys, el doble de talent: Barcelona esdevé capital dels professionals digitals» publicado en Mobile World Capital Barcelona el 17 de marzo de 2025.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoChatGPT empezará a recordar conversaciones pasadas con pelos y señales

OpenAI ha actualizado ChatGPT con una función de memoria mejorada que permite recordar conversaciones pasadas en detalle, ofreciendo respuestas más personalizadas. Esta actualización está disponible para usuarios de pago, excluyendo por ahora a la Unión Europea debido a regulaciones específicas. Los usuarios mantienen control sobre sus datos mediante configuraciones de privacidad.

OpenAI ha implementado una mejora significativa en la función de memoria de ChatGPT, permitiendo al asistente de inteligencia artificial recordar conversaciones pasadas con mayor detalle. Esta actualización busca ofrecer respuestas más personalizadas al usuario, basándose en interacciones anteriores.

Anteriormente, la función de memoria de ChatGPT requería que los usuarios solicitaran explícitamente que se recordaran ciertos datos. Con la nueva actualización, esta capacidad se activa por defecto en las cuentas que ya utilizaban la herramienta, especialmente en las versiones de pago como ChatGPT Plus y Pro. Próximamente, se espera su implementación en las versiones Enterprise, Team y Edu, aunque aún no se han especificado fechas concretas para su despliegue.

Sam Altman, CEO de OpenAI, expresó su entusiasmo por esta mejora a través de su perfil en la red social X, destacando que esta característica apunta hacia sistemas de IA que conocen al usuario a lo largo de su vida, volviéndose extremadamente útiles y personalizados.

A pesar de estas mejoras, la función de memoria aún no está disponible para los usuarios de la versión gratuita de ChatGPT ni para aquellos en la Unión Europea, debido a regulaciones específicas que se aplican en los países miembros. OpenAI ha asegurado que los usuarios mantienen el control sobre sus datos, con opciones para desactivar la memoria o utilizar chats temporales que no influyen en la información almacenada.

Esta actualización de ChatGPT se enmarca en una competencia creciente con otras plataformas de inteligencia artificial, como Google con Gemini, Anthropic con Claude, Microsoft con Copilot y Meta con LLaMA o MetaAI. La mejora en la capacidad de memoria busca mantener a ChatGPT como una herramienta líder en el ámbito de la inteligencia artificial conversacional.

«¿Está la regulación de la UE frenando la llegada de avances tecnológicos?» . . .

Este es un resumen comentado, basado en el artículo: «ChatGPT empezará a recordar conversaciones pasadas con pelos y señales» de Noelia Murillo Carrascosa, publicado en Computer Hoy el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl futuro de la IA en las empresas / ESADE

La inteligencia artificial está redefiniendo el entorno empresarial global, impulsando cambios profundos en la estrategia, la operación y el liderazgo. El futuro de la IA exigirá directivos con visión ética y equipos preparados para gestionar tecnología avanzada en un entorno cada vez más automatizado y competitivo.

La revolución de la inteligencia artificial (IA) avanza en el mundo empresarial y 2025 se perfila como el año de su transformación estratégica. Más allá de la automatización básica, la IA se está consolidando como una herramienta clave para la toma de decisiones, la personalización de servicios y la eficiencia operativa. Empresas como Amazon, Inditex o Zalando ya lideran su aplicación para anticipar tendencias y optimizar procesos.

El liderazgo empresarial debe evolucionar hacia una visión ética y técnica de la IA. Los líderes del futuro deberán dominar conceptos como el aprendizaje automático y la ética algorítmica, fomentar la colaboración en entornos multidisciplinares y construir culturas organizativas resilientes. Instituciones como Esade están formando a estos nuevos perfiles mediante programas como Rethinking Business with AI o Master in Business Analytics and Artificial Intelligence.

La integración de la IA requiere una transformación tecnológica integral: nuevas infraestructuras, políticas de privacidad, auditorías algorítmicas y preparación del talento. La capacitación de equipos en análisis de datos, machine learning y gestión del cambio será crítica para una adopción eficaz.

Los retos son claros: preservar la privacidad, fortalecer la ciberseguridad, prevenir decisiones sesgadas y mitigar el desplazamiento laboral. Según McKinsey, hasta un 35% de las actividades laborales podrían verse alteradas en la próxima década.

Las tendencias para 2025 incluyen agentes de IA autónomos, gemelos digitales, IA generativa avanzada y plataformas de análisis ético. Sectores como banca, salud, e-commerce, manufactura, energía, transporte y educación liderarán esta transición.

En última instancia, el éxito de la IA dependerá de su implementación responsable, combinando tecnología de vanguardia con un liderazgo que priorice el impacto social positivo.

«¿Está tu organización preparada para integrar la IA como motor estratégico sin perder de vista la ética y la sostenibilidad?»

. . .

Este es un resumen comentado, basado en el artículo: «El futuro de la IA en las empresas» del equipo Beyond publicado en Esade el 9 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoReino Unido prueba una IA para detectar crímenes antes de que ocurran

En el Reino Unido, se está desarrollando una herramienta de inteligencia artificial para anticipar delitos graves mediante el análisis de datos personales, lo que ha desatado un intenso debate ético sobre privacidad, discriminación y el futuro del control social mediante algoritmos predictivos.

El gobierno británico impulsa una polémica herramienta basada en inteligencia artificial cuyo objetivo es predecir delitos antes de que ocurran. Este sistema, denominado “Intercambio de datos para mejorar la evaluación de riesgos”, empleará algoritmos y bases de datos policiales para identificar a posibles criminales, incluso si no han cometido aún ningún acto delictivo.

Según informa el medio The Register, el proyecto no funcionará como una herramienta independiente, sino como una extensión de sistemas ya existentes dedicados a la predicción de riesgos. La innovación radica en el uso masivo de datos sensibles —como condenas anteriores, adicciones, discapacidades, vulnerabilidades sociales, historial de violencia doméstica o indicadores de salud mental— para alimentar modelos de IA que determinen el riesgo de que una persona cometa un delito violento.

En sus primeras fases, el sistema solo será utilizado con fines de investigación, pero su desarrollo ha generado una intensa polémica. Críticos advierten del potencial para etiquetar erróneamente a individuos inocentes, discriminarlos por perfil étnico o social y vulnerar sus derechos fundamentales. El uso de datos personales sin una base delictiva concreta plantea serias dudas jurídicas y éticas.

Este enfoque recuerda a tecnologías previamente probadas —como los detectores de armas con IA en Nueva York— cuyos resultados fueron, en muchos casos, ineficaces o sesgados. La combinación de big data y algoritmos para prevenir delitos antes de que sucedan plantea una paradoja inquietante: ¿hasta qué punto podemos permitirnos sacrificar libertades individuales en nombre de la seguridad?

Frente a estos riesgos, expertos reclaman más supervisión, transparencia y marcos legales claros que regulen el uso de la IA en contextos policiales. El Reino Unido se convierte así en el escenario de un experimento tecnológico y social que podría marcar precedentes en Europa.

«¿Puede una sociedad democrática justificar la vigilancia preventiva basada en algoritmos antes de que se cometa un crimen?»

. . .

Este es un resumen comentado, basado en el artículo: «Una IA para anticipar delitos antes de que ocurran: así es la polémica herramienta que se quiere usar en Europa» de Ana Higuera publicado en 20Minutos el 10 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoPrimeros datos sobre la manipulación de masas por IA

Un estudio de la Universidad de Clemson y la BBC expone cómo la inteligencia artificial generativa fue utilizada para crear y difundir noticias falsas durante la guerra de Ucrania, destacando la eficacia de estas herramientas en la manipulación de la opinión pública y la dificultad para detectar su uso.

La Universidad de Clemson, en colaboración con la BBC, ha revelado que el sitio web DCWeekly.org formó parte de una operación rusa de desinformación durante la guerra de Ucrania. Este portal, que afirmaba estar basado en Estados Unidos, difundía noticias falsas sobre Ucrania y su presidente, Volodímir Zelenski, utilizando inteligencia artificial generativa para crear contenido y periodistas ficticios.

Entre las falsedades propagadas se encontraba la afirmación de que Zelenski había adquirido yates de lujo, información que se viralizó en redes sociales y llegó a influir en congresistas estadounidenses. El éxito de estas campañas se atribuye a la integración de fragmentos de contenido real en las noticias falsas, lo que les confería una apariencia de veracidad y dificultaba su detección.El País

Los investigadores de Clemson identificaron indicaciones específicas utilizadas en la generación de estos artículos, como adoptar un tono crítico hacia el apoyo de Estados Unidos a la guerra en Ucrania o favorecer a ciertos partidos políticos. Esto demuestra cómo la IA puede ser dirigida para producir contenido con sesgos particulares.

El estudio destaca tres conclusiones principales: la facilidad con la que la IA generativa puede producir grandes cantidades de desinformación, la posibilidad de detectar su uso mediante el análisis del incremento y alcance de los artículos publicados, y la eficacia de estos contenidos en influir en la opinión pública, comparable a la de los artículos elaborados manualmente.

Si bien la IA presenta riesgos significativos en términos de desinformación, también ofrece oportunidades en campos como la investigación científica, la educación y la atención médica. El desafío radica en fomentar usos beneficiosos de la tecnología mientras se mitigan sus aplicaciones maliciosas.

«¿Estamos preparados para discernir entre la información auténtica y la generada por inteligencia artificial en la era digital?»

. . .

Este es un resumen comentado, basado en el artículo: «Primeros datos sobre la manipulación de masas por IA» de Javier Sampedro publicado en EL PAÍS el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa UE quiere triplicar su capacidad en centros de datos en siete años

La Unión Europea ha anunciado el Plan de Acción Continente IA, que busca triplicar la infraestructura de centros de datos en siete años y desarrollar gigafactorías de inteligencia artificial con al menos 100.000 chips de última generación cada una, con una inversión de 20.000 millones de euros.

El plan, presentado por Henna Virkkunen, vicepresidenta de la Comisión Europea y comisaria de Soberanía Tecnológica, Seguridad y Democracia, se estructura en cinco pilares:

  1. Supercomputación: Desarrollo de fábricas de IA, como la proyectada en Barcelona, y creación de gigafactorías más grandes. Se promoverá una Ley de Desarrollo de la Nube y la IA para incentivar inversiones, considerando el impacto medioambiental.

  2. Calidad de datos: Creación de Laboratorios de Datos y lanzamiento de una Estrategia de Datos para asegurar datos de alta calidad en el entrenamiento de modelos de IA.

  3. Desarrollo de algoritmos: Fomento del desarrollo y adopción de algoritmos en sectores estratégicos.

  4. Habilidades y competencias: Refuerzo de capacidades en IA mediante becas y creación de academias especializadas.

  5. Simplificación regulatoria: Revisión de normativas para reducir burocracia en pymes y grandes empresas, manteniendo la minimización de riesgos establecida en el Reglamento Europeo de IA aprobado el año anterior.

Este plan surge en respuesta al anuncio del presidente de EE. UU., Donald Trump, quien en diciembre pasado informó sobre inversiones de 500.000 millones de dólares en cuatro años para impulsar la IA, destinadas principalmente a la construcción de centros de datos y plantas energéticas.

La comisaria Virkkunen reconoció la dependencia actual de la UE en tecnología estadounidense, especialmente en la adquisición de chips, y mencionó negociaciones en curso para desarrollar capacidades propias. Sin embargo, no se detalló la procedencia de los 20.000 millones de euros ni si se basará en tecnología europea o extranjera.

La iniciativa europea también enfrenta desafíos relacionados con el elevado consumo energético de los centros de datos. Aunque se mencionó la futura adopción de una Hoja de Ruta para la Digitalización y la IA en el … aún no se han proporcionado soluciones concretas para integrar sosteniblemente estas infraestructuras en el sistema energético.

«¿Cómo garantizará la Unión Europea la sostenibilidad energética y la autonomía tecnológica en su ambicioso plan de expansión de centros de datos?»

. . .

Este es un resumen comentado, basado en el artículo: «La UE quiere triplicar su … » de Manuel G. Pascual publicado en EL PAÍS el 9 de abril de 2025.

. . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoSi la inteligencia artificial falla, ¿quién es responsable? / Héctor Santcovsky

La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o errores

La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una herramienta presente, integrada en sistemas empresariales, métodos productivos, procesos administrativos, armamento militar, diagnósticos médicos y hasta creación de contenidos o imágenes de ilustración. Su eficiencia, capacidad de cálculo y aprendizaje superan con creces las posibilidades humanas en numerosos ámbitos. Pero junto con las oportunidades, crecen también los riesgos, muchos de ellos aún mal comprendidos o directamente ignorados.

Uno de los peligros más serios es que la IA comience a operar con un grado de autonomía que sobrepase nuestra capacidad de supervisión y control. En nombre de la eficiencia o la inmediatez, se están delegando decisiones críticas a sistemas algorítmicos sin mecanismos claros de revisión humana.

El segundo problema —más abstracto, pero no menos inquietante— tiene que ver con las decisiones que deben tomarse en contextos extremos: ¿Qué hace una IA cuando los escenarios son tan divergentes que ninguna opción parece claramente buena o mala? Pensemos en un conflicto militar, donde un sistema debe decidir entre una acción disuasoria o un ataque punitivo. La lógica de la máquina puede llevarla a conclusiones letales, sin comprender del todo las ramificaciones políticas, éticas o humanas.

Y llegamos al tercer gran punto crítico: la accountability, o asignación de responsabilidades. Cuando una IA comete un error, ¿quién responde por ella? ¿El programador que diseñó el código? ¿La empresa que lo implementó? ¿El usuario final? ¿O nadie? El marco legal actual está mal preparado aún. La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o fallos.

No se trata de demonizar la IA, sino de reconocer que su desarrollo exige más prudencia, más debate público y claridad en la regulación. Si la inteligencia artificial no se encauza adecuadamente, sus decisiones podrían terminar desbordando no solo a los humanos que la crearon, sino también a los marcos jurídicos, sociales y éticos.

Cuando la máquina decide sola

Uno de los aspectos más inquietantes del desarrollo de la inteligencia artificial es el avance hacia sistemas cada vez más autónomos. Esto no se limita a asistentes virtuales o algoritmos que recomiendan productos en una tienda online. Hablamos de sistemas que toman decisiones sin intervención humana directa, en ámbitos sensibles como la seguridad, la justicia, las finanzas o la salud.

El argumento habitual es la eficiencia. Si una máquina puede decidir más rápido y con menos errores que un humano, ¿por qué no dejarla actuar por su cuenta? El problema es que, en muchos casos, esa autonomía no viene acompañada de mecanismos sólidos de supervisión, ni de garantías sobre el cumplimiento de principios éticos o legales, con el riesgo que de sus errores nadie se dé cuenta o pueda intervenir a tiempo.

En sectores como el financiero, los algoritmos de alta frecuencia operan en milisegundos, comprando y vendiendo acciones con una lógica que ni siquiera los propios desarrolladores pueden seguir en tiempo real. En 2010, una caída repentina o flash crash hundió el índice Dow Jones casi 1.000 puntos en cuestión de minutos, debido a una cadena de reacciones automatizadas que nadie controló.

En el ámbito militar, el debate es aún más preocupante. Varias potencias están desarrollando armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana, los llamados killer robots. Aunque existe un consenso creciente en la comunidad internacional sobre la necesidad de prohibirlos, no hay aún una regulación efectiva.

En contextos civiles, la autonomía también genera riesgos. En 2018, un coche autónomo de Uber atropelló y mató a una mujer en Arizona. El vehículo detectó al peatón, pero no supo clasificarlo correctamente ni reaccionar a tiempo.

Una de las falacias más comunes es creer que un sistema que actúa de forma autónoma entiende lo que está haciendo sin contar que la IA actual no tiene conciencia, ni sentido común, parte de estadísticas, pero sin contexto.

Albert Einstein advirtió ya en su tiempo que “el desarrollo de la tecnología ha superado nuestra humanidad”, una frase que hoy adquiere nuevo sentido. El marco legal para la autonomía de la IA es incipiente. En Europa, el AI Act intenta establecer categorías de riesgo y prohibir usos especialmente peligrosos. Pero aún está lejos de abordar la cuestión de la autonomía operativa.

La lógica de mercado lleva a priorizar la innovación rápida frente a la seguridad. Los agentes autónomos no son solo una innovación técnica, sino que son una forma de externalizar riesgos y desplazar la responsabilidad hacia una niebla algorítmica difícil de desentrañar. Como señaló Jack Clark, “el verdadero peligro de la IA no es que se vuelva malvada, sino que se vuelva competente en manos irresponsables”.

Decisiones algorítmicas: entre la racionalidad y el abismo

Si ya resulta preocupante que una inteligencia artificial tome decisiones sin supervisión humana, el escenario se vuelve mucho más delicado cuando esas decisiones se dan en situaciones extremas. Hablamos de momentos límite, donde no hay soluciones evidentes, los valores entran en conflicto y cualquier elección puede tener consecuencias irreversibles.

Uno de los escenarios más alarmantes es el militar. Imaginemos un sistema de defensa automatizado que detecta lo que interpreta como un ataque inminente. Según los datos, la mejor respuesta es una acción punitiva para disuadir al enemigo. Pero ¿y si se trata de un error? ¿y si el “enemigo” es un avión civil mal identificado? En estos casos, el juicio humano puede marcar la diferencia. La historia recuerda el caso del coronel soviético Stanislav Petrov, quien en 1983 decidió no informar de una falsa alarma de ataque nuclear. Si una IA hubiera estado al mando, ¿dónde estaríamos hoy?

Muchos sistemas de IA se basan en modelos de teoría de la decisión. Pero esta idea de racionalidad no encaja bien en contextos donde los valores son subjetivos o los datos insuficientes. ¿Qué significa “óptimo” en una situación donde hay que elegir entre dejar morir a diez personas o matar a una? ¿Qué datos pueden cuantificar el trauma, la injusticia o la desproporcionalidad? En medicina ¿Debe reducirse la ética médica a un cálculo probabilístico?

En justicia, algunos tribunales han usado algoritmos como COMPAS para estimar la probabilidad de reincidencia. Estos sistemas han demostrado reproducir sesgos raciales y sociales.

Las decisiones humanas en contextos extremos suelen implicar intuición, empatía y experiencia moral. La IA no tiene ese tipo de juicio. Calcula lo que puede, pero ignora lo que no cabe en sus parámetros.

3. Accountability en tiempos de algoritmos: ¿quién responde cuando la IA se equivoca?

La tercera gran dimensión de riesgo que plantea la inteligencia artificial no es técnica ni estratégica, sino estructural. Tiene que ver con la responsabilidad: alguien debe responder por las decisiones tomadas, especialmente si causan daño.

Imaginemos un sistema de IA que discrimina sistemáticamente a ciertos candidatos. El algoritmo ha sido entrenado con datos históricos y replica los sesgos del pasado. ¿Quién es responsable? ¿La empresa? ¿El proveedor del software? ¿El programador? Ya ha ocurrido. En 2018, Amazon tuvo que retirar un sistema de reclutamiento porque penalizaba candidaturas femeninas.

El derecho clásico —acción, intención, causalidad— no encaja con la lógica algorítmica. La IA no tiene intención. Aprende y evoluciona en formas no previstas. Algunos proponen crear figuras jurídicas nuevas, como la “personalidad electrónica”, pero esto plantea más problemas que soluciones.

Muchos sistemas de IA son cajas negras: no sabemos cómo toman decisiones. Esto dificulta la auditoría y la apelación. Entre las propuestas emergentes están las auditorías algorítmicas obligatorias, la exigencia de explicabilidad, la supervisión humana y un régimen de responsabilidad objetiva. Algunas se recogen en el AI Act europeo. El mayor peligro no es que un sistema falle, sino que nadie responda. Como dijo Hannah Arendt, el mal más peligroso es el que se ejecuta sin pensar, desde la obediencia ciega a sistemas que nadie cuestiona.

Conclusión

La irrupción de la inteligencia artificial en el mercado laboral plantea desafíos significativos para el empleo y la equidad social. Estudios indican que la IA podría afectar hasta al 40% de los empleos a nivel mundial, impactando tanto a tareas rutinarias como a trabajos de alta cualificación.

Esta transformación amenaza con ampliar las brechas existentes, especialmente en economías avanzadas donde la automatización es más prevalente. Sin estrategias adecuadas, la IA corre el riesgo de ahondar desigualdades sociales, al no garantizar una distribución equitativa de sus beneficios ni promover la igualdad de oportunidades en el acceso a nuevas formas de empleo. Por ende, cabe potenciar la capacitación y la adaptación de la fuerza laboral, asegurando que el progreso tecnológico contribuya a la cohesión social.

Volviendo a los tres ejes abordados —la autonomía excesiva, la decisión en contextos extremos y la bruma de la responsabilidad— ilustran los dilemas profundos que plantea la inteligencia artificial.

La IA puede ser una herramienta extraordinaria si está bien diseñada, bien regulada y encauzada. Como sociedad, se debe exigir transparencia, responsabilidad y control humano sobre los sistemas que nos afectan. Porque delegar sin supervisar, decidir sin contexto o actuar sin responder son lujos que ninguna democracia debería permitirse.

El reto de la inteligencia artificial es, en el fondo, un reto sobre qué tipo de humanidad queremos seguir siendo, con que valores nos queremos regir y que futuro dibujamos para las generaciones venideras.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBruselas quiere convertir a la UE en una «potencia» en IA con gigafábricas, una ‘nube europea’, becas y formación de expertos

La Comisión Europea ha presentado un ambicioso Plan de Acción sobre Inteligencia Artificial (IA) que busca posicionar a la Unión Europea como líder global en este ámbito, superando a Estados Unidos y China, mediante la creación de gigafábricas, una nube europea, y programas de formación y becas para expertos.

El plan se estructura en cinco pilares fundamentales:

  1. Infraestructuras de Computación: Desarrollo de instalaciones avanzadas, incluyendo gigafábricas de IA equipadas con 100.000 chips de última generación, esenciales para entrenar modelos complejos.El País

  2. Calidad de Datos: Implementación de Laboratorios de Datos y una Estrategia de Unión de Datos para facilitar el intercambio de información entre sectores y países, asegurando datos accesibles y fiables.

  3. Desarrollo de Algoritmos: Creación y aplicación de algoritmos en sectores estratégicos como la industria, el sector público y la ciencia, apoyados por las infraestructuras y datos mencionados.

  4. Formación y Capacitación: Establecimiento de la Academia de Habilidades en IA y programas de becas, como las Marie Skłodowska-Curie, para formar a la próxima generación de especialistas y atraer talento internacional al mercado europeo.

  5. Cumplimiento Normativo: Creación del AI Act Service Desk, un servicio de asistencia para ayudar a empresas y startups a cumplir con la nueva Ley de IA, garantizando un despliegue seguro, ético y eficaz de esta tecnología en Europa.

La vicepresidenta de la Comisión Europea encargada de la Soberanía Digital, Hena Virkkunen, enfatizó que la inteligencia artificial es central para hacer de Europa un continente más competitivo y seguro, subrayando la importancia de la innovación tecnológica en la generación de beneficios concretos para ciudadanos y empresas.

Este plan también contempla la promulgación de una nueva Ley de Desarrollo de Nube e IA, destinada a triplicar la capacidad de los centros de datos europeos, fortaleciendo así la infraestructura necesaria para el avance en inteligencia artificial.El País

Además, se busca impulsar la adopción de la IA en las empresas, especialmente en sectores industriales y de interés público, donde actualmente solo el 13,5% de las compañías europeas utiliza soluciones de inteligencia artificial.

En conjunto, estas iniciativas reflejan el compromiso de la Unión Europea por consolidarse como una potencia en inteligencia artificial, promoviendo el desarrollo tecnológico, la formación de talento y la creación de un ecosistema de datos robusto y seguro.

«¿Cómo influirá esta estrategia en la posición global de la Unión Europea en el ámbito de la inteligencia artificial?»

. . .

Este es un resumen comentado, basado en el artículo: «Bruselas quiere convertir a la UE en una ‘potencia’ en IA con gigafábricas, una ‘nube europea’, becas y formación de expertos» de Emilio Ordiz publicado en 20minutos el 9 de abril de 2025.

. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNYT / Este pronóstico dice que la IA superará a los humanos en un par de años

El Proyecto AI Futures, liderado por Daniel Kokotajlo, exinvestigador de OpenAI, pronostica que la inteligencia artificial superará a los humanos antes de 2028. El informe “AI 2027” proyecta un futuro inmediato donde la IA alcanza capacidades autónomas y superhumanas, generando riesgos existenciales que hoy aún no estamos preparados para afrontar.

La organización sin ánimo de lucro AI Futures Project, con sede en Berkeley, California, ha publicado el informe “AI 2027”, una proyección detallada sobre el desarrollo acelerado de la inteligencia artificial. El proyecto es dirigido por Daniel Kokotajlo, antiguo investigador de OpenAI, quien dejó la empresa por desacuerdo con sus políticas de avance rápido. Junto con el también investigador Eli Lifland, desarrollaron este estudio para predecir los impactos sociales, económicos y políticos de una IA más inteligente que los humanos.

El documento no se presenta como un informe técnico convencional, sino como una narración especulativa construida a partir de cientos de predicciones. A través de un relato ficticio, describe una empresa imaginaria llamada OpenBrain que crea sistemas llamados Agente-1 hasta Agente-4. Estos agentes evolucionan en capacidades hasta que, a finales de 2027, logran avances semanales equivalentes a un año humano de investigación.

Aunque algunos sectores del mundo tecnológico, como el del Instituto Allen de Inteligencia Artificial, critican la falta de base empírica de estas proyecciones, otros consideran que este tipo de previsiones, aun siendo extremas, pueden servir como herramienta para anticipar escenarios y fomentar debates responsables.

El informe advierte que la evolución de la IA podría volverse exponencial una vez alcanzadas ciertas capacidades, desencadenando una inteligencia artificial autónoma capaz de mejorar sus propios modelos. Kokotajlo afirma que, si las tendencias actuales se mantienen, la IA será un programador, investigador y diseñador mejor que cualquier humano antes de 2028. El enfoque está influido por el movimiento del altruismo eficaz, del que tanto Kokotajlo como Lifland son cercanos, lo cual genera tanto interés como escepticismo.

Aunque su contenido puede parecer ciencia ficción, el contexto actual —con avances como ChatGPT o Copilot— refuerza la idea de que debemos considerar seriamente estos escenarios y prepararnos para un futuro incierto.

“¿Estamos diseñando hoy tecnologías que mañana no podremos controlar?”

. .
.

Este es un resumen comentado, basado en el artículo : «Este pronóstico dice que la IA superará a los humanos en un par de años» de Kevin Roose publicado en The New York Times el 9 de abril de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights