0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoReino Unido prueba una IA para detectar crímenes antes de que ocurran

En el Reino Unido, se está desarrollando una herramienta de inteligencia artificial para anticipar delitos graves mediante el análisis de datos personales, lo que ha desatado un intenso debate ético sobre privacidad, discriminación y el futuro del control social mediante algoritmos predictivos.

El gobierno británico impulsa una polémica herramienta basada en inteligencia artificial cuyo objetivo es predecir delitos antes de que ocurran. Este sistema, denominado “Intercambio de datos para mejorar la evaluación de riesgos”, empleará algoritmos y bases de datos policiales para identificar a posibles criminales, incluso si no han cometido aún ningún acto delictivo.

Según informa el medio The Register, el proyecto no funcionará como una herramienta independiente, sino como una extensión de sistemas ya existentes dedicados a la predicción de riesgos. La innovación radica en el uso masivo de datos sensibles —como condenas anteriores, adicciones, discapacidades, vulnerabilidades sociales, historial de violencia doméstica o indicadores de salud mental— para alimentar modelos de IA que determinen el riesgo de que una persona cometa un delito violento.

En sus primeras fases, el sistema solo será utilizado con fines de investigación, pero su desarrollo ha generado una intensa polémica. Críticos advierten del potencial para etiquetar erróneamente a individuos inocentes, discriminarlos por perfil étnico o social y vulnerar sus derechos fundamentales. El uso de datos personales sin una base delictiva concreta plantea serias dudas jurídicas y éticas.

Este enfoque recuerda a tecnologías previamente probadas —como los detectores de armas con IA en Nueva York— cuyos resultados fueron, en muchos casos, ineficaces o sesgados. La combinación de big data y algoritmos para prevenir delitos antes de que sucedan plantea una paradoja inquietante: ¿hasta qué punto podemos permitirnos sacrificar libertades individuales en nombre de la seguridad?

Frente a estos riesgos, expertos reclaman más supervisión, transparencia y marcos legales claros que regulen el uso de la IA en contextos policiales. El Reino Unido se convierte así en el escenario de un experimento tecnológico y social que podría marcar precedentes en Europa.

«¿Puede una sociedad democrática justificar la vigilancia preventiva basada en algoritmos antes de que se cometa un crimen?»

. . .

Este es un resumen comentado, basado en el artículo: «Una IA para anticipar delitos antes de que ocurran: así es la polémica herramienta que se quiere usar en Europa» de Ana Higuera publicado en 20Minutos el 10 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoPrimeros datos sobre la manipulación de masas por IA

Un estudio de la Universidad de Clemson y la BBC expone cómo la inteligencia artificial generativa fue utilizada para crear y difundir noticias falsas durante la guerra de Ucrania, destacando la eficacia de estas herramientas en la manipulación de la opinión pública y la dificultad para detectar su uso.

La Universidad de Clemson, en colaboración con la BBC, ha revelado que el sitio web DCWeekly.org formó parte de una operación rusa de desinformación durante la guerra de Ucrania. Este portal, que afirmaba estar basado en Estados Unidos, difundía noticias falsas sobre Ucrania y su presidente, Volodímir Zelenski, utilizando inteligencia artificial generativa para crear contenido y periodistas ficticios.

Entre las falsedades propagadas se encontraba la afirmación de que Zelenski había adquirido yates de lujo, información que se viralizó en redes sociales y llegó a influir en congresistas estadounidenses. El éxito de estas campañas se atribuye a la integración de fragmentos de contenido real en las noticias falsas, lo que les confería una apariencia de veracidad y dificultaba su detección.El País

Los investigadores de Clemson identificaron indicaciones específicas utilizadas en la generación de estos artículos, como adoptar un tono crítico hacia el apoyo de Estados Unidos a la guerra en Ucrania o favorecer a ciertos partidos políticos. Esto demuestra cómo la IA puede ser dirigida para producir contenido con sesgos particulares.

El estudio destaca tres conclusiones principales: la facilidad con la que la IA generativa puede producir grandes cantidades de desinformación, la posibilidad de detectar su uso mediante el análisis del incremento y alcance de los artículos publicados, y la eficacia de estos contenidos en influir en la opinión pública, comparable a la de los artículos elaborados manualmente.

Si bien la IA presenta riesgos significativos en términos de desinformación, también ofrece oportunidades en campos como la investigación científica, la educación y la atención médica. El desafío radica en fomentar usos beneficiosos de la tecnología mientras se mitigan sus aplicaciones maliciosas.

«¿Estamos preparados para discernir entre la información auténtica y la generada por inteligencia artificial en la era digital?»

. . .

Este es un resumen comentado, basado en el artículo: «Primeros datos sobre la manipulación de masas por IA» de Javier Sampedro publicado en EL PAÍS el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa UE quiere triplicar su capacidad en centros de datos en siete años

La Unión Europea ha anunciado el Plan de Acción Continente IA, que busca triplicar la infraestructura de centros de datos en siete años y desarrollar gigafactorías de inteligencia artificial con al menos 100.000 chips de última generación cada una, con una inversión de 20.000 millones de euros.

El plan, presentado por Henna Virkkunen, vicepresidenta de la Comisión Europea y comisaria de Soberanía Tecnológica, Seguridad y Democracia, se estructura en cinco pilares:

  1. Supercomputación: Desarrollo de fábricas de IA, como la proyectada en Barcelona, y creación de gigafactorías más grandes. Se promoverá una Ley de Desarrollo de la Nube y la IA para incentivar inversiones, considerando el impacto medioambiental.

  2. Calidad de datos: Creación de Laboratorios de Datos y lanzamiento de una Estrategia de Datos para asegurar datos de alta calidad en el entrenamiento de modelos de IA.

  3. Desarrollo de algoritmos: Fomento del desarrollo y adopción de algoritmos en sectores estratégicos.

  4. Habilidades y competencias: Refuerzo de capacidades en IA mediante becas y creación de academias especializadas.

  5. Simplificación regulatoria: Revisión de normativas para reducir burocracia en pymes y grandes empresas, manteniendo la minimización de riesgos establecida en el Reglamento Europeo de IA aprobado el año anterior.

Este plan surge en respuesta al anuncio del presidente de EE. UU., Donald Trump, quien en diciembre pasado informó sobre inversiones de 500.000 millones de dólares en cuatro años para impulsar la IA, destinadas principalmente a la construcción de centros de datos y plantas energéticas.

La comisaria Virkkunen reconoció la dependencia actual de la UE en tecnología estadounidense, especialmente en la adquisición de chips, y mencionó negociaciones en curso para desarrollar capacidades propias. Sin embargo, no se detalló la procedencia de los 20.000 millones de euros ni si se basará en tecnología europea o extranjera.

La iniciativa europea también enfrenta desafíos relacionados con el elevado consumo energético de los centros de datos. Aunque se mencionó la futura adopción de una Hoja de Ruta para la Digitalización y la IA en el … aún no se han proporcionado soluciones concretas para integrar sosteniblemente estas infraestructuras en el sistema energético.

«¿Cómo garantizará la Unión Europea la sostenibilidad energética y la autonomía tecnológica en su ambicioso plan de expansión de centros de datos?»

. . .

Este es un resumen comentado, basado en el artículo: «La UE quiere triplicar su … » de Manuel G. Pascual publicado en EL PAÍS el 9 de abril de 2025.

. . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoSi la inteligencia artificial falla, ¿quién es responsable? / Héctor Santcovsky

La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o errores

La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una herramienta presente, integrada en sistemas empresariales, métodos productivos, procesos administrativos, armamento militar, diagnósticos médicos y hasta creación de contenidos o imágenes de ilustración. Su eficiencia, capacidad de cálculo y aprendizaje superan con creces las posibilidades humanas en numerosos ámbitos. Pero junto con las oportunidades, crecen también los riesgos, muchos de ellos aún mal comprendidos o directamente ignorados.

Uno de los peligros más serios es que la IA comience a operar con un grado de autonomía que sobrepase nuestra capacidad de supervisión y control. En nombre de la eficiencia o la inmediatez, se están delegando decisiones críticas a sistemas algorítmicos sin mecanismos claros de revisión humana.

El segundo problema —más abstracto, pero no menos inquietante— tiene que ver con las decisiones que deben tomarse en contextos extremos: ¿Qué hace una IA cuando los escenarios son tan divergentes que ninguna opción parece claramente buena o mala? Pensemos en un conflicto militar, donde un sistema debe decidir entre una acción disuasoria o un ataque punitivo. La lógica de la máquina puede llevarla a conclusiones letales, sin comprender del todo las ramificaciones políticas, éticas o humanas.

Y llegamos al tercer gran punto crítico: la accountability, o asignación de responsabilidades. Cuando una IA comete un error, ¿quién responde por ella? ¿El programador que diseñó el código? ¿La empresa que lo implementó? ¿El usuario final? ¿O nadie? El marco legal actual está mal preparado aún. La tecnología avanza más rápido que la regulación, y eso deja a los ciudadanos, a las empresas y a los gobiernos sin defensas claras ante abusos o fallos.

No se trata de demonizar la IA, sino de reconocer que su desarrollo exige más prudencia, más debate público y claridad en la regulación. Si la inteligencia artificial no se encauza adecuadamente, sus decisiones podrían terminar desbordando no solo a los humanos que la crearon, sino también a los marcos jurídicos, sociales y éticos.

Cuando la máquina decide sola

Uno de los aspectos más inquietantes del desarrollo de la inteligencia artificial es el avance hacia sistemas cada vez más autónomos. Esto no se limita a asistentes virtuales o algoritmos que recomiendan productos en una tienda online. Hablamos de sistemas que toman decisiones sin intervención humana directa, en ámbitos sensibles como la seguridad, la justicia, las finanzas o la salud.

El argumento habitual es la eficiencia. Si una máquina puede decidir más rápido y con menos errores que un humano, ¿por qué no dejarla actuar por su cuenta? El problema es que, en muchos casos, esa autonomía no viene acompañada de mecanismos sólidos de supervisión, ni de garantías sobre el cumplimiento de principios éticos o legales, con el riesgo que de sus errores nadie se dé cuenta o pueda intervenir a tiempo.

En sectores como el financiero, los algoritmos de alta frecuencia operan en milisegundos, comprando y vendiendo acciones con una lógica que ni siquiera los propios desarrolladores pueden seguir en tiempo real. En 2010, una caída repentina o flash crash hundió el índice Dow Jones casi 1.000 puntos en cuestión de minutos, debido a una cadena de reacciones automatizadas que nadie controló.

En el ámbito militar, el debate es aún más preocupante. Varias potencias están desarrollando armas autónomas capaces de seleccionar y atacar objetivos sin intervención humana, los llamados killer robots. Aunque existe un consenso creciente en la comunidad internacional sobre la necesidad de prohibirlos, no hay aún una regulación efectiva.

En contextos civiles, la autonomía también genera riesgos. En 2018, un coche autónomo de Uber atropelló y mató a una mujer en Arizona. El vehículo detectó al peatón, pero no supo clasificarlo correctamente ni reaccionar a tiempo.

Una de las falacias más comunes es creer que un sistema que actúa de forma autónoma entiende lo que está haciendo sin contar que la IA actual no tiene conciencia, ni sentido común, parte de estadísticas, pero sin contexto.

Albert Einstein advirtió ya en su tiempo que “el desarrollo de la tecnología ha superado nuestra humanidad”, una frase que hoy adquiere nuevo sentido. El marco legal para la autonomía de la IA es incipiente. En Europa, el AI Act intenta establecer categorías de riesgo y prohibir usos especialmente peligrosos. Pero aún está lejos de abordar la cuestión de la autonomía operativa.

La lógica de mercado lleva a priorizar la innovación rápida frente a la seguridad. Los agentes autónomos no son solo una innovación técnica, sino que son una forma de externalizar riesgos y desplazar la responsabilidad hacia una niebla algorítmica difícil de desentrañar. Como señaló Jack Clark, “el verdadero peligro de la IA no es que se vuelva malvada, sino que se vuelva competente en manos irresponsables”.

Decisiones algorítmicas: entre la racionalidad y el abismo

Si ya resulta preocupante que una inteligencia artificial tome decisiones sin supervisión humana, el escenario se vuelve mucho más delicado cuando esas decisiones se dan en situaciones extremas. Hablamos de momentos límite, donde no hay soluciones evidentes, los valores entran en conflicto y cualquier elección puede tener consecuencias irreversibles.

Uno de los escenarios más alarmantes es el militar. Imaginemos un sistema de defensa automatizado que detecta lo que interpreta como un ataque inminente. Según los datos, la mejor respuesta es una acción punitiva para disuadir al enemigo. Pero ¿y si se trata de un error? ¿y si el “enemigo” es un avión civil mal identificado? En estos casos, el juicio humano puede marcar la diferencia. La historia recuerda el caso del coronel soviético Stanislav Petrov, quien en 1983 decidió no informar de una falsa alarma de ataque nuclear. Si una IA hubiera estado al mando, ¿dónde estaríamos hoy?

Muchos sistemas de IA se basan en modelos de teoría de la decisión. Pero esta idea de racionalidad no encaja bien en contextos donde los valores son subjetivos o los datos insuficientes. ¿Qué significa “óptimo” en una situación donde hay que elegir entre dejar morir a diez personas o matar a una? ¿Qué datos pueden cuantificar el trauma, la injusticia o la desproporcionalidad? En medicina ¿Debe reducirse la ética médica a un cálculo probabilístico?

En justicia, algunos tribunales han usado algoritmos como COMPAS para estimar la probabilidad de reincidencia. Estos sistemas han demostrado reproducir sesgos raciales y sociales.

Las decisiones humanas en contextos extremos suelen implicar intuición, empatía y experiencia moral. La IA no tiene ese tipo de juicio. Calcula lo que puede, pero ignora lo que no cabe en sus parámetros.

3. Accountability en tiempos de algoritmos: ¿quién responde cuando la IA se equivoca?

La tercera gran dimensión de riesgo que plantea la inteligencia artificial no es técnica ni estratégica, sino estructural. Tiene que ver con la responsabilidad: alguien debe responder por las decisiones tomadas, especialmente si causan daño.

Imaginemos un sistema de IA que discrimina sistemáticamente a ciertos candidatos. El algoritmo ha sido entrenado con datos históricos y replica los sesgos del pasado. ¿Quién es responsable? ¿La empresa? ¿El proveedor del software? ¿El programador? Ya ha ocurrido. En 2018, Amazon tuvo que retirar un sistema de reclutamiento porque penalizaba candidaturas femeninas.

El derecho clásico —acción, intención, causalidad— no encaja con la lógica algorítmica. La IA no tiene intención. Aprende y evoluciona en formas no previstas. Algunos proponen crear figuras jurídicas nuevas, como la “personalidad electrónica”, pero esto plantea más problemas que soluciones.

Muchos sistemas de IA son cajas negras: no sabemos cómo toman decisiones. Esto dificulta la auditoría y la apelación. Entre las propuestas emergentes están las auditorías algorítmicas obligatorias, la exigencia de explicabilidad, la supervisión humana y un régimen de responsabilidad objetiva. Algunas se recogen en el AI Act europeo. El mayor peligro no es que un sistema falle, sino que nadie responda. Como dijo Hannah Arendt, el mal más peligroso es el que se ejecuta sin pensar, desde la obediencia ciega a sistemas que nadie cuestiona.

Conclusión

La irrupción de la inteligencia artificial en el mercado laboral plantea desafíos significativos para el empleo y la equidad social. Estudios indican que la IA podría afectar hasta al 40% de los empleos a nivel mundial, impactando tanto a tareas rutinarias como a trabajos de alta cualificación.

Esta transformación amenaza con ampliar las brechas existentes, especialmente en economías avanzadas donde la automatización es más prevalente. Sin estrategias adecuadas, la IA corre el riesgo de ahondar desigualdades sociales, al no garantizar una distribución equitativa de sus beneficios ni promover la igualdad de oportunidades en el acceso a nuevas formas de empleo. Por ende, cabe potenciar la capacitación y la adaptación de la fuerza laboral, asegurando que el progreso tecnológico contribuya a la cohesión social.

Volviendo a los tres ejes abordados —la autonomía excesiva, la decisión en contextos extremos y la bruma de la responsabilidad— ilustran los dilemas profundos que plantea la inteligencia artificial.

La IA puede ser una herramienta extraordinaria si está bien diseñada, bien regulada y encauzada. Como sociedad, se debe exigir transparencia, responsabilidad y control humano sobre los sistemas que nos afectan. Porque delegar sin supervisar, decidir sin contexto o actuar sin responder son lujos que ninguna democracia debería permitirse.

El reto de la inteligencia artificial es, en el fondo, un reto sobre qué tipo de humanidad queremos seguir siendo, con que valores nos queremos regir y que futuro dibujamos para las generaciones venideras.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBruselas quiere convertir a la UE en una «potencia» en IA con gigafábricas, una ‘nube europea’, becas y formación de expertos

La Comisión Europea ha presentado un ambicioso Plan de Acción sobre Inteligencia Artificial (IA) que busca posicionar a la Unión Europea como líder global en este ámbito, superando a Estados Unidos y China, mediante la creación de gigafábricas, una nube europea, y programas de formación y becas para expertos.

El plan se estructura en cinco pilares fundamentales:

  1. Infraestructuras de Computación: Desarrollo de instalaciones avanzadas, incluyendo gigafábricas de IA equipadas con 100.000 chips de última generación, esenciales para entrenar modelos complejos.El País

  2. Calidad de Datos: Implementación de Laboratorios de Datos y una Estrategia de Unión de Datos para facilitar el intercambio de información entre sectores y países, asegurando datos accesibles y fiables.

  3. Desarrollo de Algoritmos: Creación y aplicación de algoritmos en sectores estratégicos como la industria, el sector público y la ciencia, apoyados por las infraestructuras y datos mencionados.

  4. Formación y Capacitación: Establecimiento de la Academia de Habilidades en IA y programas de becas, como las Marie Skłodowska-Curie, para formar a la próxima generación de especialistas y atraer talento internacional al mercado europeo.

  5. Cumplimiento Normativo: Creación del AI Act Service Desk, un servicio de asistencia para ayudar a empresas y startups a cumplir con la nueva Ley de IA, garantizando un despliegue seguro, ético y eficaz de esta tecnología en Europa.

La vicepresidenta de la Comisión Europea encargada de la Soberanía Digital, Hena Virkkunen, enfatizó que la inteligencia artificial es central para hacer de Europa un continente más competitivo y seguro, subrayando la importancia de la innovación tecnológica en la generación de beneficios concretos para ciudadanos y empresas.

Este plan también contempla la promulgación de una nueva Ley de Desarrollo de Nube e IA, destinada a triplicar la capacidad de los centros de datos europeos, fortaleciendo así la infraestructura necesaria para el avance en inteligencia artificial.El País

Además, se busca impulsar la adopción de la IA en las empresas, especialmente en sectores industriales y de interés público, donde actualmente solo el 13,5% de las compañías europeas utiliza soluciones de inteligencia artificial.

En conjunto, estas iniciativas reflejan el compromiso de la Unión Europea por consolidarse como una potencia en inteligencia artificial, promoviendo el desarrollo tecnológico, la formación de talento y la creación de un ecosistema de datos robusto y seguro.

«¿Cómo influirá esta estrategia en la posición global de la Unión Europea en el ámbito de la inteligencia artificial?»

. . .

Este es un resumen comentado, basado en el artículo: «Bruselas quiere convertir a la UE en una ‘potencia’ en IA con gigafábricas, una ‘nube europea’, becas y formación de expertos» de Emilio Ordiz publicado en 20minutos el 9 de abril de 2025.

. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNYT / Este pronóstico dice que la IA superará a los humanos en un par de años

El Proyecto AI Futures, liderado por Daniel Kokotajlo, exinvestigador de OpenAI, pronostica que la inteligencia artificial superará a los humanos antes de 2028. El informe “AI 2027” proyecta un futuro inmediato donde la IA alcanza capacidades autónomas y superhumanas, generando riesgos existenciales que hoy aún no estamos preparados para afrontar.

La organización sin ánimo de lucro AI Futures Project, con sede en Berkeley, California, ha publicado el informe “AI 2027”, una proyección detallada sobre el desarrollo acelerado de la inteligencia artificial. El proyecto es dirigido por Daniel Kokotajlo, antiguo investigador de OpenAI, quien dejó la empresa por desacuerdo con sus políticas de avance rápido. Junto con el también investigador Eli Lifland, desarrollaron este estudio para predecir los impactos sociales, económicos y políticos de una IA más inteligente que los humanos.

El documento no se presenta como un informe técnico convencional, sino como una narración especulativa construida a partir de cientos de predicciones. A través de un relato ficticio, describe una empresa imaginaria llamada OpenBrain que crea sistemas llamados Agente-1 hasta Agente-4. Estos agentes evolucionan en capacidades hasta que, a finales de 2027, logran avances semanales equivalentes a un año humano de investigación.

Aunque algunos sectores del mundo tecnológico, como el del Instituto Allen de Inteligencia Artificial, critican la falta de base empírica de estas proyecciones, otros consideran que este tipo de previsiones, aun siendo extremas, pueden servir como herramienta para anticipar escenarios y fomentar debates responsables.

El informe advierte que la evolución de la IA podría volverse exponencial una vez alcanzadas ciertas capacidades, desencadenando una inteligencia artificial autónoma capaz de mejorar sus propios modelos. Kokotajlo afirma que, si las tendencias actuales se mantienen, la IA será un programador, investigador y diseñador mejor que cualquier humano antes de 2028. El enfoque está influido por el movimiento del altruismo eficaz, del que tanto Kokotajlo como Lifland son cercanos, lo cual genera tanto interés como escepticismo.

Aunque su contenido puede parecer ciencia ficción, el contexto actual —con avances como ChatGPT o Copilot— refuerza la idea de que debemos considerar seriamente estos escenarios y prepararnos para un futuro incierto.

“¿Estamos diseñando hoy tecnologías que mañana no podremos controlar?”

. .
.

Este es un resumen comentado, basado en el artículo : «Este pronóstico dice que la IA superará a los humanos en un par de años» de Kevin Roose publicado en The New York Times el 9 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAdaptarse o morir: el reto de incorporar la IA en el trabajo

La adopción de la inteligencia artificial (IA) por el 46% de las empresas españolas está transformando procesos productivos y redefiniendo roles laborales. Mientras sectores como el financiero lideran esta integración, los empleados enfrentan el desafío de adaptarse a herramientas que optimizan tareas sin reemplazar al personal, resaltando la importancia de la formación y la gestión de datos de calidad.

La incorporación de la inteligencia artificial (IA) en el ámbito laboral ha dejado de ser exclusiva de programadores y especialistas en datos. Actualmente, el 46% de las empresas en España han integrado la IA en sus operaciones diarias, según un estudio de Randstad Research. El sector financiero encabeza esta transformación, con un 53% de sus empresas implementando soluciones basadas en IA. Por ejemplo, BBVA ha desarrollado sistemas que analizan datos en tiempo real para mejorar la toma de decisiones financieras, mientras que Iberdrola ha creado un asistente de IA generativa para optimizar el mantenimiento de infraestructuras.

La mayoría de las compañías utiliza la IA para automatizar tareas administrativas, mejorar la atención al cliente y analizar datos con mayor precisión. Herramientas como ChatGPT permiten a los empleados interactuar con la información de la empresa en lenguaje natural, facilitando el acceso y comprensión de los datos. Sin embargo, esta rápida evolución tecnológica presenta desafíos significativos para los trabajadores. Incluso los ingenieros informáticos enfrentan dificultades para adaptarse a herramientas que pueden realizar parte de su trabajo, lo que requiere una formación continua y un cambio de mentalidad. Silvia Pradas, responsable de talento de Tokiota, destaca la importancia de la formación interna para que los empleados comprendan los beneficios de estas herramientas y superen la resistencia al cambio.

La calidad de los datos es fundamental para el éxito de la IA. Sergio Rodríguez, CTO y cofundador de PUEdata, señala que sin datos bien estructurados y gobernados, la IA puede generar respuestas erróneas o sesgadas. Muchas empresas han acumulado grandes volúmenes de información sin una organización adecuada, lo que subraya la necesidad de una gestión eficiente de los datos.

En cuanto al impacto en el empleo, solo el 2% de las empresas que han implementado IA han reducido su plantilla, mientras que el 8% ha contratado más personal para gestionar y optimizar estos sistemas. Isaac Cantalejo, de BTS, afirma que la IA no está eliminando puestos de trabajo, sino cambiando las competencias necesarias, enfatizando la importancia del pensamiento crítico, la resolución de problemas y la adaptabilidad. La IA actúa como un «superpoder» que permite a los trabajadores realizar sus tareas de manera más eficiente y con mayor impacto.

«¿Cómo pueden las empresas equilibrar la integración de la inteligencia artificial con la formación y adaptación de sus empleados para maximizar los beneficios y minimizar las resistencias?»

. . .

Este es un resumen comentado, basado en el artículo: «Adaptarse o morir: el reto de incorporar la IA en el trabajo» de Daniel Alonso Viña publicado en EL PAÍS el 9 de abril de 2025.

. . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoIA y ODS / La guía de Google para que Europa use la IA para cumplir los ODS

Google propone una estrategia estructurada en tres pilares para que Europa utilice la inteligencia artificial en el cumplimiento de sus objetivos climáticos, estimando que su aplicación podría reducir entre el 5% y el 10% de las emisiones globales de gases de efecto invernadero para 2030, equivalente a todas las emisiones anuales de la Unión Europea.

Google ha publicado el informe La oportunidad de la IA para los objetivos climáticos de Europa, donde detalla cómo la inteligencia artificial (IA) puede convertirse en un recurso esencial para que el continente cumpla los Objetivos de Desarrollo Sostenible (ODS) y refuerce su competitividad. Según el documento, la IA podría ayudar a reducir entre el 5% y el 10% de las emisiones globales de gases de efecto invernadero para 2030, una cifra equivalente al total de emisiones anuales de la Unión Europea.

El informe estructura sus recomendaciones en tres pilares clave. El primero, Habilitar la IA para el Clima, señala la necesidad de garantizar acceso a infraestructura tecnológica asequible, promover conjuntos de datos relevantes y formar talento humano capaz de adaptar soluciones tecnológicas a los retos climáticos. La disponibilidad de datos y herramientas por sí sola, subraya Google, no es suficiente sin el conocimiento adecuado.

El segundo pilar, Desplegar la IA para el clima, insta a fomentar la adopción de soluciones inteligentes en los sectores con mayor potencial de reducción de emisiones: energía, industria, transporte y agricultura. La IA, según el informe, puede optimizar procesos, generar políticas más eficaces y reducir significativamente el impacto ambiental en estos ámbitos.

Por último, el tercer pilar, Guiar el despliegue de la IA, advierte sobre la necesidad de que toda implementación tecnológica esté alineada con principios de sostenibilidad y responsabilidad, para evitar efectos colaterales no deseados y maximizar los beneficios climáticos de la IA.

La propuesta de Google se produce en un momento en que la UE acelera su agenda verde y tecnológica. El informe sugiere que, si se articulan marcos regulatorios e incentivos adecuados, Europa puede convertirse en un líder global en IA climáticamente responsable, integrando tecnología avanzada como herramienta crítica para cumplir los ODS sin comprometer la sostenibilidad a largo plazo.

«¿Puede Europa liderar la transformación digital climática si logra equilibrar la innovación tecnológica con un uso ético y sostenible de la inteligencia artificial?»
.
.
.

Este es un resumen comentado, basado en el artículo : «La guía de Google para que Europa use la IA para cumplir los ODS» de Beatriz Treceño publicado en Expansión el 9 de abril de 2025.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAdvanced Factories 2025 exhibe el potencial del DFactory y la incubadora logística 4.0

Hoy, en la feria Advanced Factories 2025, el Consorci de la Zona Franca de Barcelona ha presentado su ambicioso Distrito 4.0, con el DFactory como epicentro de la innovación industrial, consolidando a Barcelona como un nodo estratégico global para la industria 4.0 y la transformación digital sostenible.

En la jornada inaugural de Advanced Factories 2025, el Consorci de la Zona Franca de Barcelona (CZFB) ha destacado su propuesta para liderar el desarrollo de la industria 4.0 desde el área metropolitana de Barcelona. Bajo el paraguas del Distrito 4.0, el CZFB busca consolidarse como referente global en innovación industrial a través de tecnología avanzada, sostenibilidad y fomento del talento.

En el stand del CZFB se exponen las transformaciones del polígono industrial de la Zona Franca, destacando el papel del DFactory Barcelona, que ya cuenta con una ocupación del 90% y 37 empresas instaladas. El consorcio ha confirmado su plan de expansión para alcanzar los 60.000 m² en 2026, consolidando su posición como polo de atracción para proyectos tecnológicos e industriales.

El evento también ha acogido una sesión en el Workshop Arena dedicada a la Logistics 4.0 Incubator, primera incubadora de alta tecnología especializada en la cadena de valor logística en España. Esta iniciativa, impulsada por el CZFB junto a la Fundación INCYDE y fondos FEDER, ha apoyado ya a 60 startups, algunas de las cuales han presentado sus avances durante la feria.

Pere Navarro, delegado especial del Estado en el CZFB, ha remarcado que Advanced Factories es una plataforma idónea para mostrar el liderazgo del Distrito 4.0, no solo en España sino a escala internacional. Por su parte, Blanca Sorigué, directora general del CZFB, ha subrayado el compromiso del consorcio con la transformación digital y el impulso del desarrollo económico mediante innovación, sostenibilidad y generación de empleo.

El espacio del CZFB se ha convertido así en un punto de encuentro para empresas, startups, centros de I+D y profesionales del sector industrial interesados en conocer nuevas oportunidades tecnológicas. El Distrito 4.0 apuesta por integrar todo el ecosistema productivo en un entorno innovador, conectado y sostenible, alineado con los objetivos de la cuarta revolución industrial.

«¿Podrá el modelo del Distrito 4.0 replicarse en otras regiones como motor de reindustrialización digital sostenible?»
.
.
.

Este es un resumen comentado, basado en el artículo : «El Consorci de la Zona Franca de Barcelona está presente en Advanced Factories para mostrar su ecosistema de industria 4.0» de El Canal Marítimo y Logístico publicado el 8 de abril de 2025.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLas imágenes generadas por IA en ChatGPT incluirán marcas de agua

OpenAI comenzará a incluir marcas de agua en las imágenes generadas por su IA para usuarios gratuitos de ChatGPT, como medida para identificar la autoría del contenido y garantizar su trazabilidad, en respuesta al crecimiento masivo de este tipo de producciones visuales impulsadas por inteligencia artificial.

OpenAI, desarrolladora de ChatGPT, ha anunciado que añadirá marcas de agua a las imágenes generadas por su modelo ChatGPT-4o, especialmente en aquellas creadas por usuarios que no disponen de una suscripción de pago. Esta medida responde al aumento significativo del uso de la herramienta para generar contenido visual realista y artístico, en muchos casos difundido de forma masiva en redes sociales.

Según el artículo publicado por Cristina Peña en Softzone, la intención de OpenAI es reforzar el sello de identidad y trazabilidad de los contenidos visuales generados mediante inteligencia artificial. En particular, se menciona el auge de imágenes estilizadas inspiradas en estudios como Studio Ghibli, generadas con el modelo ImageGen, una funcionalidad que anteriormente estaba reservada a los usuarios de ChatGPT Plus, pero que ya ha sido ampliada al público general.

El sistema de marcas de agua se aplicará de forma visible para los usuarios no suscriptores, mientras que los usuarios con suscripción de pago podrán continuar generando imágenes sin esta identificación visual. Este enfoque plantea un equilibrio entre la apertura de la herramienta a más personas y el control sobre la autenticidad del contenido generado por IA.

Este tipo de intervención, más allá de una simple restricción estética, refleja una preocupación creciente por los usos indebidos o confusos de imágenes hiperrealistas generadas por IA, sobre todo en contextos donde la veracidad o la autoría pueden verse comprometidas. La marca de agua actuaría así como una forma de mitigación ética y tecnológica, en un contexto donde las barreras entre lo artificial y lo auténtico son cada vez más difusas.

«¿Marcar las imágenes generadas por IA con una firma visual será suficiente para garantizar su uso responsable y ético?»
.
.
.

Este es un resumen comentado, basado en el artículo : «ChatGPT quiere proteger las imágenes generadas por su IA y añadirá marcas de agua en breve» de Cristina Peña publicado en Softzone el 7 de abril de 2025.
.
.

Scroll al inicio
Verificado por MonsterInsights