0012 FORMATO – TEXTO

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoSTEM, dades i ètica: el triangle de la formació del futur

Arran del meu article, de fa uns dies. titulat “Formació i ocupació futura: flexibilitat,
tecnologia i humanisme”, vaig rebre diversos missatges i una trucada d’un
vicerector d’una universitat catalana que va afirmar: “la meitat de les
carreres universitàries són obsoletes, preparen per a professions que
s’extingiran en un lustre”. L’afirmació del vicerector i els diferents
missatges em van fer reflexionar sobre com ens hem de preparar per al futur,
especialment els joves, per afrontar els reptes i decidir què estudiar. La
pregunta dominant en els missatges era com serà el futur i si la formació
actual prepara per als desafiaments del esdevenidor, considerant aspectes com
la digitalització, les bretxes socioeconòmiques i de gènere, i un horitzó on la
intel·ligència artificial serà clau i la personalització de l’aprenentatge, una
opció real per ajustar ritmes i complexitat progressiva a les característiques
i capacitats de cada estudiant.

Tenim poques
certeses sobre el futur, però sí que intuïm que l’activitat professional
requerirà coneixements de ciència de dades (analitzar grans volums de dades per
extreure coneixement i prendre decisions), de robòtica (dissenyar i programar
robots per realitzar tasques autònomes o assistides), i intel·ligència
artificial (tecnologia que permet a les màquines simular capacitats humanes:
aprenentatge i presa de decisions). Caldrà impulsar habilitats com el pensament
crític (capacitat d’analitzar, avaluar i interpretar informació per prendre
decisions raonades) i el treball multidisciplinari (col·laboració entre
professionals de diferents disciplines per assolir solucions òptimes). A més,
serà necessari conèixer tècniques de machine learning, que permeten a
les màquines aprendre a partir de dades sense programació explícita, i deep
learning (ús de xarxes neuronals profundes per processar grans volums de
dades). Alhora, serà crucial desenvolupar aspectes associats a l’ètica, la
sociologia i la regulació.

Si aquests són
els aspectes requisits per a l’activitat professional, es pot afirmar que la
formació necessària per al futur, assegurant que sigui accessible per a tothom,
hauria de ser flexible, personalitzada, multidisciplinària i orientada a les
habilitats i coneixements emergents, fomentant la capacitat d’aprendre a
aprendre i desaprendre, i prioritzant el desenvolupament d’habilitats com el
pensament crític, la resolució de problemes i la capacitat d’adaptació. Alhora,
cal integrar matèries relacionades amb les tecnologies emergents, ensenyar a
utilitzar eines digitals tot comprenent el seu funcionament i el seu impacte
ètic i social.

Per això, els
plans d’estudis haurien de tenir un enfocament multidisciplinari, incloent
coneixements STEM, ciències socials, historia, ètica i biologia, així com el
desenvolupament d’habilitats per a la comunicació efectiva, la gestió de la
incertesa, per ser més resilient, per treballar en equip i col·laborar en la
diversitat. Aquest conjunt d’aspectes pot preparar millor per afrontar els
desafiaments i canvis del futur, en un món cada vegada més tecnològic i
complex, equilibrant el coneixement tècnic amb les habilitats humanes i
ètiques, preparant les persones tant per al món laboral com per a la formació
continuada. Perquè, si abans 23 anys d’estudis preparaven per a 40 anys de
feina, ara ho fan per a menys d’una dècada. El futur exigirà cicles de formació
periòdics per continuar treballant. Estem preparats per a això?

Antoni Garrell i
Guiu

Abril 2024

Autor: Antoni Garrell

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0040 OPINION, Sin categoría

iconoIA y economía: el dilema de las desigualdades, los costes y el poder

Vivimos un momento de profundas transformaciones que agitan la geopolítica y los equilibrios de poder. La política global se tambalea entre regresiones autoritarias y crisis institucionales, con el espectro de un nuevo mandato de Trump removiendo los equilibrios internacionales. En los frentes de guerra, drones y sistemas autónomos muestran que los algoritmos ya no solo calculan, también deciden. Y en el mundo civil, la inteligencia artificial generativa —capaz de crear texto, imagen o código— ha irrumpido como una herramienta de uso masivo sin que tengamos del todo claro cuáles son sus límites ni sus reglas de juego.

Este contexto plantea una cuestión de fondo: ¿Cómo evaluar el impacto real de la inteligencia artificial en la economía y en la vida social? ¿Por los beneficios que promete, por los costes que impone, por las mejoras en la calidad de vida, o por los efectos colaterales que genera? No hay una única métrica posible. Y tampoco hay respuestas neutras.

Porque la IA no es solo una tecnología, es una construcción social, económica y política. Una apuesta de poder y una disputa de modelo. El debate ético no está fuera del debate técnico ya que lo recorre de forma transversal. Por eso es urgente mirar más allá del entusiasmo tecnocrático y preguntarnos en qué dirección nos está llevando esta transformación.

La cara oculta: costes energéticos, materiales y económicos

Uno de los grandes puntos ciegos del relato oficial sobre la IA es su coste energético y material. Se habla de eficiencia, pero poco de consumo. Se promete desmaterialización, pero el modelo es profundamente físico ya que requiere entrenamiento de modelos con millones de parámetros, centros de datos que requieren refrigeración constante, cadenas de suministro extractivas que atraviesan medio mundo.

Entrenar un modelo como GPT-4 puede requerir decenas de millones de dólares en infraestructura y energía. Un informe de OpenAI y Microsoft reveló que sus sistemas consumen gigavatios-hora equivalentes al consumo de una ciudad mediana. Google estima que el entrenamiento de modelos de gran escala puede superar las 500 toneladas de CO₂ por sistema (Strubell et al., 2019).

La «nube» es en realidad un conjunto de minas, redes, fábricas y servidores. Esta infraestructura es intensiva en energía, agua y minerales críticos, y es poco compatible con los compromisos de descarbonización. Además, impone costes económicos indirectos: aumento del precio energético en países con alta demanda digital, presiones sobre redes eléctricas y conflictos por el uso del agua.

Además, los costes, impactos y escenarios son geopolíticos ya que el 90% de los chips avanzados los produce Taiwán; China controla más del 70% del procesamiento de tierras raras; EE. UU. lidera en semiconductores y propiedad intelectual. La “economía algorítmica” consolida nuevas dependencias.

Para hacernos otra idea en el mundo hay del orden de 8.000 centros de datos de los cuales un 30% están en EE. UU., y China solo cuenta con 400, siendo Alemania, el Reino Unido y Francia los otros centros importantes. El coste de un centro de datos como los de Microsoft o Google cuesta del orden entre 1.500 y 2.000 millones de dólares. Una idea de consumo es que el 40% de los gastos son en refrigeración.

En términos de inversión según Stanford AI Index 2024 y McKinsey Global Institute el sector privado ha invertido 67.000 millones de dólares y el público unos 30.000 millones. Estos niveles de inversión solo se lo pueden permitir países con una gran capacidad económica, ergo, la economía del conocimiento general una geopolítica basada en la desigualdad de países y fuentes de información que se traducirá, necesariamente, en los poderes en el planeta a los cuales habrá referencia más adelante.

Empleo: entre la promesa de la productividad y el sesgo hacia la automatización

Uno de los argumentos más reiterados es que la IA permitirá aumentar la productividad y liberar a las personas de tareas rutinarias. En parte es cierto, pero el problema está en cómo se distribuyen esos beneficios, y en qué tipo de empleo desaparece o se transforma. ¿Será en servicios, en industria, en tareas “inteligentes”? ¿Pueden afectar a tareas intensivas en fuerza de trabajo como los cuidadores, los agricultores, los servicios de restauración y hostelería?

Uno de los autores más citados en el tema, Erik Brynjolfsson, ha defendido que la IA puede ser un aliado del trabajador, no un sustituto. Si se orienta hacia la complementariedad, puede mejorar resultados y liberar tiempo para tareas más creativas. Pero esta visión optimista choca con la lógica dominante del mercado.

La automatización ha generado una pérdida neta de empleos medios: en EE. UU., más del 60% de la caída en empleos administrativos desde 2000 se atribuye a la informatización. La OCDE advierte que hasta el 27% de los empleos actuales pueden verse profundamente alterados en una década, y el impacto será desigual: mayor en jóvenes, mujeres y trabajadores de menor cualificación.

Esto genera un doble impacto, por un lado, la destrucción de empleos intermedios, por otro, una polarización creciente. La IA generativa no afecta solo a operarios o tareas repetitivas, sino también a profesiones cognitivas como traductores, diseñadores, administrativos, incluso programadores.

El riesgo es un mercado de trabajo en forma de «reloj de arena» basado en una concentración en la cúspide y precarización en la base.

Desigualdad, exclusión y concentración del poder

La inteligencia artificial no solo redistribuye funciones, también redistribuye poder. Las infraestructuras, los datos, los algoritmos y los beneficios están concentrados en pocas manos. Hoy, cuatro empresas (Microsoft, Google, Amazon y Meta) controlan más del 80% de la infraestructura de IA generativa. La inversión en IA está dominada por fondos privados solo en 2023, se superaron los 65.000 millones de dólares, y el 90% fue a parar a EE.UU. y China (McKinsey, 2023).

El gran tema no es solo la capacidad que tienen ciertos países para controlar la información atendiendo a sus recursos para promover data centers y, consecuentemente, tener medios para acumular conocimiento. En este sentido Shoshana Zuboff ha descrito este fenómeno como “capitalismo de vigilancia”: un sistema donde la extracción masiva de datos personales se convierte en una fuente de valor económico y de control social. Esta lógica erosiona la privacidad, socava la autonomía individual y refuerza asimetrías ya existentes.

Complementariamente, se puede dar el caso – no necesariamente, pero ya se ha dado en Google – que los modelos de IA entrenados con datos sesgados pueden perpetuar discriminaciones de género, raza o clase. Y lo hacen bajo un barniz de objetividad algorítmica. A falta de auditorías públicas, las decisiones automatizadas se vuelven opacas y difíciles de impugnar.

Además, la exclusión digital no es una externalidad sino un resultado directo del modelo de concentración, si no se corrige políticamente. La IA puede exacerbar la brecha entre países con capacidad tecnológica y aquellos que solo consumen tecnología ajena.

Conclusión: otra IA es posible (y necesaria)

No se trata de rechazar la inteligencia artificial. Se trata de preguntarnos con honestidad qué IA queremos, al servicio de qué fines, y con qué reglas. Como bien dice Zuboff, sin control ciudadano sobre los datos, no hay democracia digital. Las decisiones están en juego ahora. No es una revolución inevitable sino una construcción que puede orientarse. Y eso exige repensar no solo la tecnología, sino los valores que la guían, las instituciones que la regulan y las métricas con las que evaluamos su éxito.

Si seguimos midiendo el progreso por la velocidad del procesamiento o el tamaño del modelo, corremos el riesgo de perdernos lo más importante que no es otra cosa de saber, fehacientemente, para quién estamos diseñando el futuro.

Autor: Héctor Santcovsky

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTED2025: Humanity Reimagined, conclusiones

TED2025 concluyó con una intensa jornada de reflexiones sobre inteligencia artificial, salud mental colectiva, activismo climático y espiritualidad. Sam Altman habló del futuro de la IA como una extensión humana, Xiye Bastida reivindicó la sabiduría indígena frente al cambio climático y Pico Iyer celebró el poder del silencio como medicina universal.
El evento TED2025: Humanity Reimagined concluyó en Vancouver con una jornada cargada de ideas provocadoras sobre el futuro de la humanidad. La última sesión congregó a destacados ponentes que abordaron desde la revolución de la inteligencia artificial hasta la espiritualidad y la acción climática como pilares para un futuro más consciente y sostenible.

Sam Altman, CEO de OpenAI, abrió la jornada dialogando con Chris Anderson, director de TED. Altman analizó el crecimiento exponencial de los modelos como ChatGPT, vaticinando un futuro donde estas inteligencias actuarán como extensiones de nuestra mente. Rechazó la idea de una única “explosión” de la AGI (inteligencia general artificial), abogando por una evolución gradual. Hizo énfasis en el desarrollo de IA agentica, con capacidades autónomas, y la urgencia de diseñar barreras éticas que prevengan abusos de poder y riesgos sistémicos.

El periodista y podcaster Dan Taberski presentó un inquietante estudio sobre un caso real de histeria colectiva en 2011, cuando un grupo de adolescentes en Nueva York comenzó a manifestar síntomas similares al síndrome de Tourette. Taberski usó este episodio como espejo de la vulnerabilidad social ante el estrés colectivo y la desinformación.

La activista climática Xiye Bastida ofreció un mensaje inspirador desde la resiliencia ecológica y el liderazgo indígena. Invitó a reimaginar el futuro aprendiendo de la naturaleza y empleando la imaginación como herramienta de cambio, reclamando un activismo climático fundamentado en la esperanza activa.

El cierre estuvo a cargo del escritor Pico Iyer, quien compartió una conmovedora reflexión sobre la muerte de su padre y la importancia del silencio profundo como vía de sanación y reconexión personal. Su testimonio reafirmó el poder restaurador de detenerse y escuchar más allá del ruido cotidiano.

La jornada subrayó que, ante desafíos globales, la combinación de tecnología, ética, comunidad y espiritualidad será esencial para diseñar el mundo que queremos habitar.

«¿Cómo podemos equilibrar el avance tecnológico con la necesidad de introspección y conexión humana auténtica?»

. .
.

Este es un resumen comentado, basado en el artículo : «An epic day 5 of TED2025» de Brian Greene, Maria Ladias y Oliver Friedman publicado en TED Blog el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSam Altman plantea pagar a artistas cuyos estilos inspiren la inteligencia artificial

El CEO de OpenAI, Sam Altman, propuso durante TED 2025 un modelo de reparto de ingresos para artistas cuyos estilos sean usados por sistemas de IA. La idea surge tras el escándalo por imágenes generadas al estilo de Studio Ghibli. Altman también adelantó novedades de ChatGPT como memoria contextual y menor censura.
Durante su intervención en TED 2025, el CEO de OpenAI, Sam Altman, planteó la creación de un modelo de reparto de ingresos para artistas y creadores que opten por permitir el uso de su estilo en contenidos generados por inteligencia artificial. La propuesta llega en un momento crítico, marcado por la polémica que generó en redes sociales la tendencia viral de imágenes generadas con estilo del estudio japonés Studio Ghibli, lo que reavivó el debate sobre el respeto a los derechos de autor en la era de la IA.

Altman sugirió que si un creador da su consentimiento explícito para que su obra sea usada como referencia por modelos como ChatGPT, se podría implementar un sistema de compensación económica proporcional. “Sería genial encontrar un modelo donde si alguien quiere generar una imagen en nombre de un artista que ha dado su consentimiento, exista una vía de ingresos”, declaró. No obstante, reconoció la complejidad de aplicar esta lógica cuando se combinan varios estilos, planteando interrogantes como: ¿cómo se distribuye equitativamente el dinero entre múltiples creadores?

En cuanto al estado actual del sistema, Altman explicó que existen barreras técnicas en los modelos de OpenAI para impedir la generación de imágenes que copien directamente el estilo de artistas específicos sin consentimiento. Añadió que OpenAI está trabajando en suavizar restricciones sobre temas de lenguaje, en busca de una generación más abierta de contenido.

Entre otras novedades, Altman presentó una función de memoria contextual en el generador de imágenes de ChatGPT, basada en GPT-4o, que permite recordar consultas previas del usuario y actuar como una extensión personalizada. Esta función, explicó, podría eventualmente observar e interactuar de forma más continua con las actividades del usuario.

Finalmente, Altman abordó el temor a la sustitución laboral por la IA, afirmando que, como en otras revoluciones tecnológicas, aumentarán tanto las exigencias como las capacidades humanas. OpenAI, actualmente valorada en 300.000 millones de dólares, desarrolla también agentes autónomos capaces de operar en nombre de los usuarios.

«¿Qué mecanismos deberían establecerse para garantizar una compensación justa a los creadores en el ecosistema de la inteligencia artificial?»

. .
.

Este es un resumen comentado, basado en el artículo : «‘It would be cool’: OpenAI CEO Sam Altman suggests revenue-sharing model for creators in time» de Tech Desk publicado en The Indian Express el 13 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBarcelona se convierte en capital de los profesionales digitales

Barcelona ha sumado más de 55.000 profesionales digitales en cinco años, consolidándose como un hub tecnológico líder. La demanda laboral en sectores como IA, blockchain y ciberseguridad ha crecido exponencialmente, superando la oferta disponible. La ciudad destaca por su atractivo internacional y un notable aumento en la participación femenina en el sector.
En los últimos cinco años, Barcelona ha experimentado un crecimiento significativo en el ámbito digital, incorporando más de 55.000 nuevos profesionales y alcanzando un total de 122.000 especialistas en áreas como desarrollo web, software, UX, blockchain, inteligencia artificial y ciberseguridad. Este avance posiciona a la ciudad como un hub tecnológico de primer nivel en Europa, según el informe Digital Talent Overview 2024 de Mobile World Capital Barcelona (MWCapital).

Jordi Arrufí, Director de Desarrollo Corporativo y responsable del área de Talento de MWCapital, atribuye este éxito a factores como la presencia de grandes centros tecnológicos, una economía dinámica de startups, una sólida red de centros de investigación y la celebración de congresos de referencia como el MWC.

Sin embargo, el crecimiento en la demanda de perfiles digitales ha superado la oferta disponible. Actualmente, por cada oferta laboral digital en Barcelona hay 14,2 candidatos, una cifra muy por debajo de la media del mercado general, que se sitúa en 70 profesionales por oferta. Esta escasez ha llevado a las empresas a adaptar sus estrategias para atraer y retener talento, enfrentándose a una competencia global.

Las habilidades más demandadas incluyen expertise en blockchain, cloud computing e inteligencia artificial. Además, las empresas valoran cada vez más las soft skills, como liderazgo, gestión de equipos y adaptabilidad. Marc Ferre, Managing Director en Bayer GBS Barcelona, destaca que los profesionales digitales han pasado de gestionar departamentos de backoffice a ser actores clave en la creación de valor empresarial.

La inteligencia artificial ha supuesto una disrupción significativa, con un aumento del 12% en la demanda de especialistas en 2023. Expertos coinciden en que la IA liberará a los profesionales de tareas mecánicas, permitiéndoles centrarse en procesos creativos. Scott Francis, Director General de Porsche Digital Barcelona, afirma que la IA ayudará a los humanos a aportar su máximo valor.

Barcelona también destaca por su atractivo internacional, con casi un tercio de sus profesionales digitales provenientes de otros países. Además, la participación femenina en el sector ha aumentado del 22% al 30,6% entre 2018 y 2023, superando la media europea.

Para mantener su posición de liderazgo, la ciudad deberá afrontar desafíos como la escasez de profesionales y la necesidad de adaptar la formación académica a las demandas del mercado digital.

«¿Puede Barcelona mantener su liderazgo digital frente a la creciente competencia global y la rápida evolución tecnológica?» . . .

Este es un resumen comentado, basado en el artículo: «Cinc anys, el doble de talent: Barcelona esdevé capital dels professionals digitals» publicado en Mobile World Capital Barcelona el 17 de marzo de 2025.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoChatGPT empezará a recordar conversaciones pasadas con pelos y señales

OpenAI ha actualizado ChatGPT con una función de memoria mejorada que permite recordar conversaciones pasadas en detalle, ofreciendo respuestas más personalizadas. Esta actualización está disponible para usuarios de pago, excluyendo por ahora a la Unión Europea debido a regulaciones específicas. Los usuarios mantienen control sobre sus datos mediante configuraciones de privacidad.

OpenAI ha implementado una mejora significativa en la función de memoria de ChatGPT, permitiendo al asistente de inteligencia artificial recordar conversaciones pasadas con mayor detalle. Esta actualización busca ofrecer respuestas más personalizadas al usuario, basándose en interacciones anteriores.

Anteriormente, la función de memoria de ChatGPT requería que los usuarios solicitaran explícitamente que se recordaran ciertos datos. Con la nueva actualización, esta capacidad se activa por defecto en las cuentas que ya utilizaban la herramienta, especialmente en las versiones de pago como ChatGPT Plus y Pro. Próximamente, se espera su implementación en las versiones Enterprise, Team y Edu, aunque aún no se han especificado fechas concretas para su despliegue.

Sam Altman, CEO de OpenAI, expresó su entusiasmo por esta mejora a través de su perfil en la red social X, destacando que esta característica apunta hacia sistemas de IA que conocen al usuario a lo largo de su vida, volviéndose extremadamente útiles y personalizados.

A pesar de estas mejoras, la función de memoria aún no está disponible para los usuarios de la versión gratuita de ChatGPT ni para aquellos en la Unión Europea, debido a regulaciones específicas que se aplican en los países miembros. OpenAI ha asegurado que los usuarios mantienen el control sobre sus datos, con opciones para desactivar la memoria o utilizar chats temporales que no influyen en la información almacenada.

Esta actualización de ChatGPT se enmarca en una competencia creciente con otras plataformas de inteligencia artificial, como Google con Gemini, Anthropic con Claude, Microsoft con Copilot y Meta con LLaMA o MetaAI. La mejora en la capacidad de memoria busca mantener a ChatGPT como una herramienta líder en el ámbito de la inteligencia artificial conversacional.

«¿Está la regulación de la UE frenando la llegada de avances tecnológicos?» . . .

Este es un resumen comentado, basado en el artículo: «ChatGPT empezará a recordar conversaciones pasadas con pelos y señales» de Noelia Murillo Carrascosa, publicado en Computer Hoy el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl futuro de la IA en las empresas / ESADE

La inteligencia artificial está redefiniendo el entorno empresarial global, impulsando cambios profundos en la estrategia, la operación y el liderazgo. El futuro de la IA exigirá directivos con visión ética y equipos preparados para gestionar tecnología avanzada en un entorno cada vez más automatizado y competitivo.

La revolución de la inteligencia artificial (IA) avanza en el mundo empresarial y 2025 se perfila como el año de su transformación estratégica. Más allá de la automatización básica, la IA se está consolidando como una herramienta clave para la toma de decisiones, la personalización de servicios y la eficiencia operativa. Empresas como Amazon, Inditex o Zalando ya lideran su aplicación para anticipar tendencias y optimizar procesos.

El liderazgo empresarial debe evolucionar hacia una visión ética y técnica de la IA. Los líderes del futuro deberán dominar conceptos como el aprendizaje automático y la ética algorítmica, fomentar la colaboración en entornos multidisciplinares y construir culturas organizativas resilientes. Instituciones como Esade están formando a estos nuevos perfiles mediante programas como Rethinking Business with AI o Master in Business Analytics and Artificial Intelligence.

La integración de la IA requiere una transformación tecnológica integral: nuevas infraestructuras, políticas de privacidad, auditorías algorítmicas y preparación del talento. La capacitación de equipos en análisis de datos, machine learning y gestión del cambio será crítica para una adopción eficaz.

Los retos son claros: preservar la privacidad, fortalecer la ciberseguridad, prevenir decisiones sesgadas y mitigar el desplazamiento laboral. Según McKinsey, hasta un 35% de las actividades laborales podrían verse alteradas en la próxima década.

Las tendencias para 2025 incluyen agentes de IA autónomos, gemelos digitales, IA generativa avanzada y plataformas de análisis ético. Sectores como banca, salud, e-commerce, manufactura, energía, transporte y educación liderarán esta transición.

En última instancia, el éxito de la IA dependerá de su implementación responsable, combinando tecnología de vanguardia con un liderazgo que priorice el impacto social positivo.

«¿Está tu organización preparada para integrar la IA como motor estratégico sin perder de vista la ética y la sostenibilidad?»

. . .

Este es un resumen comentado, basado en el artículo: «El futuro de la IA en las empresas» del equipo Beyond publicado en Esade el 9 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoReino Unido prueba una IA para detectar crímenes antes de que ocurran

En el Reino Unido, se está desarrollando una herramienta de inteligencia artificial para anticipar delitos graves mediante el análisis de datos personales, lo que ha desatado un intenso debate ético sobre privacidad, discriminación y el futuro del control social mediante algoritmos predictivos.

El gobierno británico impulsa una polémica herramienta basada en inteligencia artificial cuyo objetivo es predecir delitos antes de que ocurran. Este sistema, denominado “Intercambio de datos para mejorar la evaluación de riesgos”, empleará algoritmos y bases de datos policiales para identificar a posibles criminales, incluso si no han cometido aún ningún acto delictivo.

Según informa el medio The Register, el proyecto no funcionará como una herramienta independiente, sino como una extensión de sistemas ya existentes dedicados a la predicción de riesgos. La innovación radica en el uso masivo de datos sensibles —como condenas anteriores, adicciones, discapacidades, vulnerabilidades sociales, historial de violencia doméstica o indicadores de salud mental— para alimentar modelos de IA que determinen el riesgo de que una persona cometa un delito violento.

En sus primeras fases, el sistema solo será utilizado con fines de investigación, pero su desarrollo ha generado una intensa polémica. Críticos advierten del potencial para etiquetar erróneamente a individuos inocentes, discriminarlos por perfil étnico o social y vulnerar sus derechos fundamentales. El uso de datos personales sin una base delictiva concreta plantea serias dudas jurídicas y éticas.

Este enfoque recuerda a tecnologías previamente probadas —como los detectores de armas con IA en Nueva York— cuyos resultados fueron, en muchos casos, ineficaces o sesgados. La combinación de big data y algoritmos para prevenir delitos antes de que sucedan plantea una paradoja inquietante: ¿hasta qué punto podemos permitirnos sacrificar libertades individuales en nombre de la seguridad?

Frente a estos riesgos, expertos reclaman más supervisión, transparencia y marcos legales claros que regulen el uso de la IA en contextos policiales. El Reino Unido se convierte así en el escenario de un experimento tecnológico y social que podría marcar precedentes en Europa.

«¿Puede una sociedad democrática justificar la vigilancia preventiva basada en algoritmos antes de que se cometa un crimen?»

. . .

Este es un resumen comentado, basado en el artículo: «Una IA para anticipar delitos antes de que ocurran: así es la polémica herramienta que se quiere usar en Europa» de Ana Higuera publicado en 20Minutos el 10 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoPrimeros datos sobre la manipulación de masas por IA

Un estudio de la Universidad de Clemson y la BBC expone cómo la inteligencia artificial generativa fue utilizada para crear y difundir noticias falsas durante la guerra de Ucrania, destacando la eficacia de estas herramientas en la manipulación de la opinión pública y la dificultad para detectar su uso.

La Universidad de Clemson, en colaboración con la BBC, ha revelado que el sitio web DCWeekly.org formó parte de una operación rusa de desinformación durante la guerra de Ucrania. Este portal, que afirmaba estar basado en Estados Unidos, difundía noticias falsas sobre Ucrania y su presidente, Volodímir Zelenski, utilizando inteligencia artificial generativa para crear contenido y periodistas ficticios.

Entre las falsedades propagadas se encontraba la afirmación de que Zelenski había adquirido yates de lujo, información que se viralizó en redes sociales y llegó a influir en congresistas estadounidenses. El éxito de estas campañas se atribuye a la integración de fragmentos de contenido real en las noticias falsas, lo que les confería una apariencia de veracidad y dificultaba su detección.El País

Los investigadores de Clemson identificaron indicaciones específicas utilizadas en la generación de estos artículos, como adoptar un tono crítico hacia el apoyo de Estados Unidos a la guerra en Ucrania o favorecer a ciertos partidos políticos. Esto demuestra cómo la IA puede ser dirigida para producir contenido con sesgos particulares.

El estudio destaca tres conclusiones principales: la facilidad con la que la IA generativa puede producir grandes cantidades de desinformación, la posibilidad de detectar su uso mediante el análisis del incremento y alcance de los artículos publicados, y la eficacia de estos contenidos en influir en la opinión pública, comparable a la de los artículos elaborados manualmente.

Si bien la IA presenta riesgos significativos en términos de desinformación, también ofrece oportunidades en campos como la investigación científica, la educación y la atención médica. El desafío radica en fomentar usos beneficiosos de la tecnología mientras se mitigan sus aplicaciones maliciosas.

«¿Estamos preparados para discernir entre la información auténtica y la generada por inteligencia artificial en la era digital?»

. . .

Este es un resumen comentado, basado en el artículo: «Primeros datos sobre la manipulación de masas por IA» de Javier Sampedro publicado en EL PAÍS el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa UE quiere triplicar su capacidad en centros de datos en siete años

La Unión Europea ha anunciado el Plan de Acción Continente IA, que busca triplicar la infraestructura de centros de datos en siete años y desarrollar gigafactorías de inteligencia artificial con al menos 100.000 chips de última generación cada una, con una inversión de 20.000 millones de euros.

El plan, presentado por Henna Virkkunen, vicepresidenta de la Comisión Europea y comisaria de Soberanía Tecnológica, Seguridad y Democracia, se estructura en cinco pilares:

  1. Supercomputación: Desarrollo de fábricas de IA, como la proyectada en Barcelona, y creación de gigafactorías más grandes. Se promoverá una Ley de Desarrollo de la Nube y la IA para incentivar inversiones, considerando el impacto medioambiental.

  2. Calidad de datos: Creación de Laboratorios de Datos y lanzamiento de una Estrategia de Datos para asegurar datos de alta calidad en el entrenamiento de modelos de IA.

  3. Desarrollo de algoritmos: Fomento del desarrollo y adopción de algoritmos en sectores estratégicos.

  4. Habilidades y competencias: Refuerzo de capacidades en IA mediante becas y creación de academias especializadas.

  5. Simplificación regulatoria: Revisión de normativas para reducir burocracia en pymes y grandes empresas, manteniendo la minimización de riesgos establecida en el Reglamento Europeo de IA aprobado el año anterior.

Este plan surge en respuesta al anuncio del presidente de EE. UU., Donald Trump, quien en diciembre pasado informó sobre inversiones de 500.000 millones de dólares en cuatro años para impulsar la IA, destinadas principalmente a la construcción de centros de datos y plantas energéticas.

La comisaria Virkkunen reconoció la dependencia actual de la UE en tecnología estadounidense, especialmente en la adquisición de chips, y mencionó negociaciones en curso para desarrollar capacidades propias. Sin embargo, no se detalló la procedencia de los 20.000 millones de euros ni si se basará en tecnología europea o extranjera.

La iniciativa europea también enfrenta desafíos relacionados con el elevado consumo energético de los centros de datos. Aunque se mencionó la futura adopción de una Hoja de Ruta para la Digitalización y la IA en el … aún no se han proporcionado soluciones concretas para integrar sosteniblemente estas infraestructuras en el sistema energético.

«¿Cómo garantizará la Unión Europea la sostenibilidad energética y la autonomía tecnológica en su ambicioso plan de expansión de centros de datos?»

. . .

Este es un resumen comentado, basado en el artículo: «La UE quiere triplicar su … » de Manuel G. Pascual publicado en EL PAÍS el 9 de abril de 2025.

. . .

Scroll al inicio
Verificado por MonsterInsights