0012 FORMATO – TEXTO

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLos algoritmos y la IA también se estresan

La inteligencia artificial (IA) se está integrando en el apoyo a la salud mental, pero su exposición a narrativas traumáticas podría generar estrés en los propios algoritmos, planteando desafíos éticos y técnicos.

La Escala de Ansiedad Estado-Rasgo (STAI) es una herramienta utilizada en psicología clínica para medir los niveles de ansiedad en individuos, diferenciando entre ansiedad como rasgo permanente y como estado temporal. Desde su desarrollo en 1983, ha sido ampliamente adoptada por su simplicidad y eficacia.

Recientemente, se ha explorado la posibilidad de aplicar herramientas similares para evaluar el «estado emocional» de los modelos de aprendizaje profundo utilizados en chatbots y otras aplicaciones de IA en el ámbito de la salud mental. Estos sistemas, entrenados con grandes volúmenes de datos, están siendo implementados como herramientas de apoyo en terapias psicológicas, ofreciendo soluciones escalables y accesibles ante la creciente demanda de servicios de salud mental.

Sin embargo, surge la preocupación de que la exposición constante a «narrativas traumáticas» durante su entrenamiento pueda afectar el rendimiento y la «salud» de la propia IA. Aunque las máquinas carecen de conciencia y emociones humanas, la calidad y naturaleza de los datos que procesan pueden influir en su funcionamiento, llevando a resultados no deseados o sesgados.El Español

La crisis global de salud mental ha impulsado la búsqueda de soluciones innovadoras, y la IA se presenta como una alternativa para superar obstáculos como la limitada disponibilidad de terapeutas, los altos costos y el estigma asociado a buscar ayuda psicológica. Los chatbots pueden brindar terapia digital personalizada y están ganando popularidad entre usuarios que buscan apoyo inmediato.

No obstante, la eficacia de estos sistemas depende de su capacidad para manejar situaciones emocionales complejas con sensibilidad. Existen dudas sobre si un chatbot, carente de conciencia, puede responder adecuadamente a emociones humanas profundas. Se han documentado casos de personas que desarrollan vínculos emocionales con chatbots, interpretando sus respuestas como si provinieran de seres humanos reales.

Para abordar estos desafíos, se han realizado experimentos utilizando el STAI para calibrar los estados emocionales de referencia de los chatbots. Por ejemplo, se les ha expuesto a lecturas neutras, como manuales de electrodomésticos, y posteriormente a narrativas traumáticas que describen situaciones de alto estrés, como experiencias de combate o invasiones domiciliarias. Estos estudios buscan entender cómo la naturaleza de los datos procesados puede influir en las respuestas de la IA y su capacidad para brindar apoyo efectivo.

La posibilidad de que los chatbots puedan «estresarse» metafóricamente al procesar información traumática plantea cuestiones éticas y técnicas. Aunque carecen de emociones, su desempeño puede verse afectado por la calidad de los datos que manejan. Además, la difuminación de la línea entre emociones humanas y respuestas generadas por computadoras puede ser éticamente cuestionable, especialmente si los usuarios no son conscientes de que interactúan con una máquina.

La necesidad de soluciones accesibles en salud mental es real, y la IA está llenando vacíos dejados por la falta de profesionales disponibles y asequibles. Sin embargo, es crucial desarrollar sistemas de IA con la resiliencia necesaria para manejar situaciones emocionales difíciles y garantizar que actúen como asistentes en la terapia humana bajo una supervisión cuidadosa. La integración de la IA en la salud mental debe abordarse con precaución, asegurando que se respeten los límites éticos y se mantenga la eficacia en el apoyo a los usuarios.

«¿Es éticamente aceptable que sistemas de inteligencia artificial asuman roles en terapias de salud mental, considerando sus limitaciones para comprender emociones humanas?»

. . .

Este es un resumen comentado, basado en el artículo: «Los algoritmos y la IA también se estresan» de Xavier Borràs publicado en El Español el 22 de marzo de 2025.

. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl futuro de la democracia en la era de la inteligencia artificial

La inteligencia artificial (IA) plantea desafíos significativos para la democracia, afectando la capacidad de los ciudadanos para tomar decisiones informadas y cuestionando la esencia misma del autogobierno.

En su ensayo «Una teoría crítica de la inteligencia artificial», Daniel Innerarity explora cómo la IA influye en las sociedades democráticas y en la capacidad de los ciudadanos para decidir con criterio en las elecciones. La rápida adopción de la IA ha generado debates sobre responsabilidad, privacidad, equidad y ética, aspectos fundamentales para el funcionamiento de una democracia saludable.

Innerarity destaca que, históricamente, las sociedades han buscado mecanismos automáticos para gestionar su complejidad. Desde el imperio de Babilonia hasta la Inglaterra victoriana, se han utilizado formas de administración basadas en la racionalidad algorítmica. Sin embargo, la coyuntura actual es distinta, y la IA plantea preguntas sobre quién toma las decisiones cuando, aparentemente, nadie lo hace.

El autor propone tres posibles respuestas a los desafíos que la IA presenta a la democracia:

  1. Moratoria: Algunos expertos sugieren una pausa en el desarrollo de ciertas aplicaciones de IA para que los legisladores puedan desarrollar marcos regulatorios adecuados que garanticen que la innovación tecnológica esté alineada con los valores humanos y el bienestar social. Sin embargo, esta propuesta es polémica, ya que podría frenar el progreso y la competitividad en campos beneficiosos como la ciencia y la medicina.

  2. Ética: Orientar el desarrollo de la IA en un sentido ético implica no frenar la innovación, sino dirigirla hacia objetivos que beneficien a la sociedad. Esto requiere definir claramente hacia dónde se quiere avanzar con la automatización y cómo se pueden preservar los valores democráticos en este proceso.

  3. Crítica política: Más allá de la ética, es necesario un análisis crítico de las condiciones estructurales que posibilitan o impiden un desarrollo adecuado de la IA. La crítica política busca indagar en las bases que sustentan la relación entre humanos y tecnología, y cómo estas pueden afectar la democracia.

Innerarity enfatiza que la filosofía tiene un papel crucial en este contexto, ya que cualquier circunstancia es una invitación a revisar conceptos fundamentales como democracia y decisión. La IA obliga a repensar estos términos y a cuestionar cómo se pueden adaptar a una realidad donde la automatización y los algoritmos tienen un papel cada vez más predominante.

El ensayo concluye que es necesario encontrar un equilibrio entre el control humano y los beneficios tecnológicos. Esto implica reconocer que la historia humana ha sido una serie de aciertos y errores en la gestión de innovaciones disruptivas. Por ello, se requiere un estudio crítico de la IA y el desarrollo de una filosofía política que sostenga la democracia en la era digital.

«¿Estamos preparados para delegar decisiones fundamentales de nuestra democracia en sistemas algorítmicos?»

. . .

Este es un resumen comentado, basado en el artículo: «¿Sobrevivirán la política y la democracia a la IA?» de Diego Gándara publicado en La Razón el 22 de marzo de 2025.

.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoDe Maragall a Collboni: Barcelona consolida su liderazgo europeo en inteligencia artificial y soberanía tecnológica

Con el legado europeísta de Pasqual Maragall y el impulso actual de Jaume Collboni, Barcelona se posiciona como un actor clave en la nueva estrategia de defensa tecnológica europea, gracias a su ecosistema de innovación en inteligencia artificial, computación cuántica y soberanía digital.

Barcelona siempre ha mostrado un firme compromiso con el proyecto europeo, una vocación que hunde sus raíces en la visión de Pasqual Maragall, quien defendió el papel central de las ciudades en la construcción europea. Ese espíritu vuelve a cobrar fuerza de la mano del actual alcalde, Jaume Collboni, que recientemente participó en una manifestación en Roma en favor de una Europa más fuerte y unida.

En un contexto marcado por la guerra en Ucrania, la retirada estratégica de Estados Unidos y la creciente competencia tecnológica global, Europa redobla su apuesta por la integración, la autonomía estratégica y la defensa común. Este giro requiere, entre otros factores, liderazgo en inteligencia artificial (IA), una tecnología que redefine el equilibrio de poder global y que exige marcos éticos y democráticos.

Barcelona está en una posición privilegiada para contribuir decisivamente a este desafío. La ciudad alberga infraestructuras científicas punteras, como el Barcelona Supercomputing Center, el ICFO y el Sincrotrón Alba. Además, será sede del proyecto ALIA, la primera infraestructura pública europea de IA, y del Valle de la Cuántica, centrado en investigación cuántica. Ambos proyectos son claves para consolidar la soberanía digital europea.

El Ayuntamiento, bajo el liderazgo de Collboni, ha desarrollado una estrategia propia de inteligencia artificial y aspira a que Barcelona sea la futura sede de una agencia europea de soberanía digital, propuesta cada vez más urgente ante la concentración de poder en manos de grandes tecnológicas como Google o Microsoft.

Este ecosistema ha generado un creciente tejido de startups y spin-offs tecnológicas con aplicaciones tanto civiles como defensivas: desde chips, ciberseguridad y comunicaciones satelitales, hasta biomedicina y lucha contra el cambio climático.

El artículo concluye que cuando una ciudad asume estas responsabilidades, también se le abren grandes oportunidades. Barcelona, con su cultura política, sus valores europeos y su potencia científica, está preparada para dar este paso.

«¿Podrán las ciudades europeas liderar, como propone Barcelona, la soberanía digital y la defensa tecnológica del continente en un mundo cada vez más incierto?»

. .
.

Este es un resumen comentado, basado en el artículo: «Europa, Barcelona entre la IA y la defensa» publicado en La Vanguardia el 20 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa computación cuántica se perfila como la próxima gran revolución tecnológica

La computación cuántica, aún en fase experimental, avanza hacia convertirse en la mayor revolución tecnológica del siglo XXI, con el potencial de transformar sectores como la industria, la ciberseguridad, la energía y la inteligencia artificial, aunque todavía enfrenta desafíos técnicos críticos.

Aunque la inteligencia artificial (IA) acapara la atención mediática, expertos coinciden en que será la computación cuántica la que provocará un cambio aún más profundo. Esta tecnología tiene el potencial de revolucionar sectores como las finanzas, defensa, logística, industria farmacéutica o energía, al resolver problemas de cálculo imposibles para la computación tradicional.

Frente al clásico bit, que solo puede ser 0 o 1, la computación cuántica opera con cúbits, capaces de estar en ambos estados a la vez. Esto permite realizar cálculos exponencialmente más complejos y rápidos, con aplicaciones como la optimización combinatoria, clave en rutas de transporte, predicción meteorológica o redes eléctricas.

Carlos Kuchkovsky, fundador de Qcentroid y asesor de la Comisión Europea, y Román Orús, cofundador de Multiverse Computing, destacan el impacto esperado en la IA: desde modelos más eficientes hasta entrenamiento más rápido y reducción del consumo energético. Orús afirma haber logrado comprimir un modelo como ChatGPT en un 90%, permitiendo su uso en dispositivos cotidianos como drones o electrodomésticos.

Uno de los principales desafíos sigue siendo la estabilidad de los ordenadores cuánticos: requieren temperaturas cercanas al cero absoluto y aún sufren altas tasas de error. No obstante, compañías como IBM, Microsoft, Google, Tencent, Alibaba y centros europeos como Quantum Spain en Barcelona trabajan intensamente en superar estas limitaciones. Europa, señalan los expertos, ha invertido de forma competitiva y ya desarrolla hardware propio de alta calidad.

Además del potencial en simulación molecular y materiales, la computación cuántica plantea un riesgo para la seguridad digital actual, ya que podría romper los sistemas de cifrado existentes. Esto impulsa a gobiernos y grandes tecnológicas a anticiparse con protocolos post-cuánticos.

Según Kuchkovsky, el interés institucional está creciendo y anticipa un “boom” en este ámbito en 2026. Orús, por su parte, señala que los actuales algoritmos de IA son ineficientes y que la computación cuántica será su evolución natural: “Es el único camino viable”.

«¿Estamos preparados para una revolución tecnológica que afectará a toda la infraestructura digital del mundo?»

. .
.

Este es un resumen comentado, basado en el artículo: «Todo el mundo habla de IA, pero la computación cuántica promete un salto tecnológico aún mayor» de Luis Enrique Velasco, publicado en EL PAÍS el 21 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0070 Como se hace

iconoLa IA de WhatsApp por fin llega a España

Meta lanza su asistente de inteligencia artificial en WhatsApp en España, permitiendo a los usuarios generar imágenes, redactar textos y acceder a información directamente desde la app. Esta expansión incluye 60 países y marca un nuevo hito en la integración de IA generativa en plataformas sociales.

Meta ha anunciado la llegada de Meta AI, su asistente de inteligencia artificial generativa, a España. Este despliegue forma parte de su expansión más amplia hasta la fecha, que incluye a 60 nuevos países, y permitirá el uso gratuito de esta tecnología en Facebook, Instagram, WhatsApp y Messenger. Su activación en España comenzará durante la semana del 25 de marzo.

Lanzado originalmente en 2023, Meta AI no había estado disponible en la Unión Europea debido a las restricciones normativas sobre inteligencia artificial. Tras los ajustes regulatorios, Meta ha adaptado su tecnología para cumplir con la legislación vigente, facilitando su introducción en el mercado europeo.

Inicialmente, Meta AI estará disponible en formato chat en seis idiomas europeos. En WhatsApp, podrá activarse escribiendo @MetaAI dentro de un grupo o conversación, funcionando como un asistente para resolver dudas, planificar actividades o generar ideas.

Las funcionalidades destacadas de Meta AI incluyen:

  • Respuestas automáticas a preguntas dentro de chats.
  • Generación de contenido e ideas en tiempo real.
  • Creación de imágenes fotorrealistas basadas en descripciones.
  • Búsqueda web integrada para ofrecer datos relevantes.
  • Asistencia para redactar correos electrónicos y documentos formales.
  • Organización de notas y tareas para mejorar la productividad.
  • Resúmenes de noticias y actualizaciones informativas.
  • Búsqueda de contenidos relevantes en redes sociales (Reels, publicaciones, etc.).

El acceso a Meta AI requerirá actualizar la app a la última versión. Una vez hecho, los usuarios de iOS verán un anillo iridiscente junto al icono de la cámara; en Android, este aparecerá sobre el icono de grupo. Pulsando este anillo, se abrirá un chat directo con el asistente de IA.

Con este lanzamiento, Meta busca consolidar su estrategia en IA generativa integrándola profundamente en su ecosistema social, al tiempo que refuerza su presencia en el mercado europeo.

«¿Cómo transformará la integración de la IA en plataformas sociales nuestra forma de comunicarnos y consumir información digital?»

. .
.

Este es un resumen comentado, basado en el artículo: «La IA de WhatsApp por fin llega a España: así es como puedes activarla» de Miguel Terán Haughey, publicado en elEconomista el 20 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0050 ENT NUESTRA GENTE

iconoJordi Marín / La Revolución de la IA: Cómo las Empresas Pueden Adaptarse

Hoy tenemos con nosotros a Jordi Marin, experto en transformación digital e innovación. Jordi, bienvenido. Recientemente participaste en una trobada d’alumni de l’Escola de Consellers d’Iese en la sede de Aenor en Madrid. ¿Qué nos puedes contar sobre eso?

Jordi Marin: Gracias por invitarme. Sí, fue un placer estar allí. Durante mi intervención, profundicé en el impacto de la inteligencia artificial en el entorno empresarial, examinando tanto las estrategias generales como los retos y oportunidades que esta tecnología presenta para las organizaciones. Uno de los puntos centrales fue la nueva regulación europea sobre la IA, el IA Act.

Pregunta: Hablemos de ese IA Act. ¿Qué es exactamente y por qué es tan importante?

Jordi Marin: El IA Act de la Unión Europea es la primera regulación global integral sobre inteligencia artificial. Clasifica los sistemas de IA según sus niveles de riesgo y pone requisitos estrictos para los de alto riesgo. Sectores como la sanidad, el transporte, la banca, los recursos humanos o cualquier aplicación que pueda vulnerar derechos fundamentales serán los más afectados.

Pregunta: ¿Y cómo se clasifican esos niveles de riesgo según el IA Act?

Jordi Marin: Hay cuatro niveles. El riesgo inaceptable incluye sistemas completamente prohibidos por poner en peligro derechos fundamentales, como la manipulación subliminal o la vigilancia masiva. Luego está el alto riesgo, que afecta derechos fundamentales, como la IA en procesos de contratación, crédito bancario o gestión de servicios esenciales. El riesgo limitado exige transparencia, como en asistentes virtuals o reconocimiento facial. Y el riesgo mínimo cubre la mayoría de sistemas, como filtros de correo basura o recomendaciones en plataformas de streaming.

Pregunta: Parece un marco muy detallado. ¿Cuáles son los aspectos principales de esta regulación?

Jordi Marin: Destacaría tres: transparencia y explicabilidad, para que los sistemas sean comprensibles y fáciles de interpretar; supervisión humana, asegurando que haya control humano en decisiones críticas; y gestión de riesgos y seguridad, con medidas para mitigar riesgos y garantizar fiabilidad. Esto marca un antes y un después en cómo las empresas adoptan la IA, estableciendo un marco claro para una gestión responsable.

Pregunta: Hablas de prohibiciones también. ¿Qué aplicaciones están en la mira?

Jordi Marin: Sí, ciertas tecnologías como la vigilancia masiva o la manipulación subliminal están restringidas o directamente prohibidas por su capacidad de vulnerar derechos fundamentales. La idea es proteger a los ciudadanos.

Pregunta: Y si una empresa no cumple con esto, ¿qué pasa?

Jordi Marin: Las sanciones son severas. El incumplimiento puede acarrear multes de hasta el 6% del volumen de negocio global de la empresa. Es una cifra que deja claro lo en serio que va la UE con esto.

Pregunta: Hay quienes dicen que Europa regula demasiado pronto. ¿Qué opinas de ese debate?

Jordi Marin: Más allá de si es excesivo o si había que esperar, la realidad es que la regulación ya está aquí y las empresas deben adaptarse. Muchos de sus elementos son de sentido común en la gestión diaria: transparencia, seguridad, protección de derechos. Además, en un mercado cambiante, cumplir con esto puede ser un valor diferencial y mejorar la competitividad.

Pregunta: Durante la trobada, mencionaste a Aenor. ¿Qué papel juega en este contexto?

Jordi Marin: Aenor está desarrollando certificaciones específicas para garantizar que las empresas cumplan con los principios éticos y normativos del IA Act. Por ejemplo, ofrecen la certificación ISO/IEC 42001:2023, que da un marco para gestionar riesgos y oportunidades de la IA, y el curso S-39, ‘Fonaments per a una Intel·ligència Artificial responsable’, que enseña a adoptar una IA ética y cumplir con la normativa europea.

Pregunta: ¿Cómo ayudan estas certificaciones a las empresas?

Jordi Marin: Permiten demostrar un compromiso con una IA fiable y segura, reforzando la confianza de clientes y socios. En un mercado cada vez más regulado, esto también mejora la reputación.

Pregunta: Cerramos con una reflexión tuya que aparece en el artículo: «A mesura que la IA continua avançant, és fonamental que les empreses es preparin per garantir el seu ús ètic i transparent». ¿Por qué es tan clave este mensaje?

Jordi Marin: Porque el desarrollo y la implementación de la IA deben hacerse con responsabilidad. Cumplir con normativas como el IA Act y asegurar una gestión ética no solo evita sanciones, sino también impactos económicos y reputacionales negativos. Es fundamental preparar a las empresas para este nuevo escenario y mantener la confianza de los usuarios.

Jordi, muchas gracias por explicarnos cómo navegar los riesgos de la IA en las empresas. ¡Un placer tenerte aquí!

Jordi Marin: El placer es mío. Gracias.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNueva normativa española exige etiquetar contenidos generados por inteligencia artificial

El Gobierno español ha aprobado un anteproyecto de ley que obliga a etiquetar los contenidos generados por inteligencia artificial (IA), establece restricciones al uso del reconocimiento facial en tiempo real y contempla sanciones de hasta 35 millones de euros por incumplimiento.

El Consejo de Ministros presentó recientemente el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la Inteligencia Artificial, con el objetivo de regular la aplicación práctica de esta tecnología en España. Este documento desarrolla y adapta al ordenamiento jurídico español lo establecido en el Reglamento Europeo de Inteligencia Artificial, aprobado en marzo de 2024.

La normativa clasifica las aplicaciones de IA en función del riesgo que suponen para la sociedad:

  • Riesgo inaceptable: Sistemas prohibidos que trascienden la conciencia de una persona, técnicas manipuladoras deliberadas, aquellos que explotan vulnerabilidades o infieren emociones, raza u opiniones políticas.

  • Alto riesgo: Sistemas que requieren supervisión constante, como la identificación biométrica remota en diferido, categorización biométrica, reconocimiento de emociones, aplicaciones que afectan a la seguridad de infraestructuras críticas, educación, empleo, prestación de servicios públicos esenciales, aplicación de la ley o gestión de la migración.

  • Bajo riesgo: Aplicaciones que se pueden manejar sin restricciones específicas.

Una de las medidas destacadas es la obligación de etiquetar los contenidos generados por IA. Cuando los sistemas de IA produzcan contenido sintético de audio, imagen, video o texto, se deberá marcar claramente su naturaleza artificial. Aunque la ley no especifica el formato exacto de este etiquetado, su ausencia se considerará una infracción grave.

En cuanto al reconocimiento facial en tiempo real en espacios públicos, la normativa lo prohíbe salvo en casos excepcionales, como la búsqueda de víctimas de secuestro, prevención de amenazas inminentes para la seguridad o la identificación de sospechosos de delitos graves. Para su uso, las autoridades deberán obtener una autorización específica que detalle los motivos de urgencia, las personas a identificar y el ámbito geográfico y temporal de la operación.El País

La Agencia Española de Supervisión de Inteligencia Artificial (Aesia) será la encargada de centralizar la vigilancia de los algoritmos y garantizar el cumplimiento de la normativa. Además, la Agencia Española de Protección de Datos (AEPD) gestionará el tratamiento de datos biométricos, la Junta Electoral Central supervisará los sistemas de IA que puedan afectar a la democracia y el Consejo General del Poder Judicial se ocupará de aquellos que incidan en la aplicación de la justicia.El País

El régimen sancionador establece multas proporcionales a la gravedad de la infracción:Escura | Abogados y Economistas

  • Infracciones muy graves: Multas de entre 7,5 y 35 millones de euros, o entre el 2% y el 7% del volumen de negocios anual mundial.

  • Infracciones graves: Multas de entre 7,5 y 15 millones de euros, o entre el 2% y el 3% del volumen de negocios anual mundial.

  • Infracciones leves: Multas de entre 6.000 y 500.000 euros, o entre el 0,5% y el 1% del volumen de negocios anual mundial.

Las infracciones muy graves incluyen el uso de tecnologías prohibidas o sistemas de identificación biométrica en tiempo real no autorizados. Las graves abarcan la falta de etiquetado de contenidos generados por IA, la resistencia a aplicar medidas provisionales impuestas por las autoridades o la introducción en el mercado de aplicaciones de alto riesgo sin registro previo. Las leves se refieren a la provisión de información incompleta, inexacta o engañosa cuando las autoridades lo requieran.

Se espera que la ley entre en vigor en la primera mitad de este año, con la obligación de publicar informes anuales sobre el uso de sistemas de identificación biométrica remota en tiempo real o en diferido antes del 31 de diciembre de 2025. La Aesia deberá emitir un primer informe antes del 2 de agosto sobre el estado de los recursos financieros y humanos de las autoridades nacionales competentes.

«¿Cómo afectará la obligatoriedad de etiquetar contenidos generados por IA a la confianza del público en la información digital?»

.

.

.

Este es un resumen comentado, basado en el artículo: «¿Hay que etiquetar los vídeos generados con IA? ¿Qué pasa si no lo hago? Preguntas y respuestas sobre la nueva normativa española» de Manuel G. Pascual publicado en EL PAÍS el 20 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0052 ENT GRAUSTIC

iconoEntrevista sobre la nueva normativa en IA con Luismi Roura

La inteligencia artificial avanza a gran velocidad, y con ella surgen nuevos retos regulatorios. La Unión Europea ha implementado el Reglamento de Inteligencia Artificial (RIA), vigente desde el 1 de agosto de 2024, con el objetivo de establecer un marco legal claro y garantizar un desarrollo responsable de esta tecnología. Para entender mejor sus implicaciones, hablamos con Luismi Roura, experto en tecnología y regulación digital, quien nos explica los puntos clave de esta nueva normativa y su impacto en las empresas.

Pregunta: ¿Qué prácticas prohíbe la normativa en IA?

Luismi Roura:

La normativa establece que algunas aplicaciones de inteligencia artificial no son aceptables porque suponen un riesgo inasumible para los derechos fundamentales. Entre ellas está el reconocimiento facial en espacios públicos sin el consentimiento explícito de las personas, salvo en casos muy concretos, como la lucha contra el terrorismo o la búsqueda de personas desaparecidas, siempre con autorización previa. También se prohíben los sistemas de puntuación social que clasifiquen a las personas en función de su comportamiento o características personales, al estilo de lo que ocurre en China, ya que pueden fomentar la discriminación y la exclusión social.

Además, quedan vetadas las aplicaciones que manipulen el comportamiento de los usuarios de manera subliminal o que exploten vulnerabilidades de personas en situación de especial fragilidad, como menores de edad o personas con discapacidad. Otro punto importante es la prohibición del reconocimiento de emociones en lugares de trabajo o en centros educativos, salvo que tenga un fin médico o de seguridad claramente justificado. La normativa también pone freno a la creación de bases de datos de reconocimiento facial obtenidas de manera masiva y sin consentimiento, como a través del scraping de imágenes en internet. Estas restricciones buscan garantizar que la IA se desarrolle de manera ética y respetuosa con los derechos de las personas.

Pregunta: ¿Quién controlará su cumplimiento?

Luismi Roura:

La supervisión de esta normativa no recaerá en un solo organismo, sino que se ha diseñado una estructura multinivel para garantizar su correcta aplicación. A nivel nacional, cada país de la Unión Europea deberá designar autoridades específicas encargadas de vigilar el cumplimiento de la regulación dentro de su territorio. Estas entidades se encargarán de realizar inspecciones, recibir denuncias y sancionar a aquellas empresas o instituciones que no cumplan con la normativa.

En el ámbito europeo, se ha creado la Oficina Europea de Inteligencia Artificial, un organismo central que coordinará esfuerzos y emitirá directrices para garantizar una aplicación homogénea en toda la UE. También se establecerá el Consejo Europeo de IA, formado por representantes de los distintos Estados miembros, que tendrá un papel consultivo y estratégico. Además, habrá un Comité Científico y un Foro Consultivo, que proporcionarán apoyo técnico y asesoramiento experto sobre la evolución de la IA y los posibles riesgos que pueda generar. Todo este sistema de control busca evitar vacíos legales y asegurar que las reglas se cumplan de manera efectiva en todos los países.

Pregunta: ¿Cuáles serán las sanciones?

Luismi Roura:

Las sanciones establecidas en la normativa son bastante contundentes y buscan disuadir cualquier intento de incumplimiento. Para las infracciones más graves, como el uso de prácticas prohibidas, las multas pueden alcanzar hasta 35 millones de euros o el 7% del volumen de negocios global de la empresa, lo que sea mayor. Esto significa que las grandes tecnológicas no podrán eludir la regulación con simples penalizaciones económicas.

Para aquellas empresas que no cumplan con los requisitos de transparencia, seguridad o supervisión en los sistemas de IA de alto riesgo, las sanciones pueden llegar a los 15 millones de euros o el 3% del volumen de negocios anual. Por otro lado, si una compañía proporciona información inexacta a las autoridades reguladoras, la multa será de hasta 7,5 millones de euros o el 1,5% de su facturación global. La normativa también contempla sanciones más reducidas y proporcionales para startups y pymes, con el objetivo de no frenar la innovación en el sector. Las multas comenzarán a aplicarse a partir de agosto de 2025, lo que da un margen de tiempo a las empresas para adaptarse a las nuevas reglas.

Pregunta: ¿Qué pasa con la IA de alto riesgo?

Luismi Roura:

Los sistemas de inteligencia artificial considerados de alto riesgo no están prohibidos, pero sí estarán sujetos a una regulación más estricta. Este grupo incluye las IA que se utilizan en sectores críticos como la salud, la educación, el empleo, las infraestructuras esenciales o la justicia, ya que cualquier fallo o sesgo en estos sistemas puede tener consecuencias graves en la vida de las personas.

Para poder operar en la Unión Europea, estos sistemas deberán cumplir con varios requisitos. Se exigirá que pasen una evaluación de riesgos continua, garantizando que los datos utilizados en su entrenamiento sean de alta calidad para evitar sesgos y decisiones discriminatorias. Además, deberán contar con supervisión humana en todo momento, de manera que las decisiones importantes no queden únicamente en manos de una máquina. También se impondrá la obligación de proporcionar documentación técnica detallada y de asegurar la trazabilidad de los procesos de IA, para que cualquier decisión tomada por estos sistemas pueda ser revisada y explicada.

Otro punto clave es que todas las IA de alto riesgo deberán obtener un marcado CE antes de poder comercializarse en la UE, lo que certificará que cumplen con la normativa. Además, las empresas que las utilicen tendrán que evaluar su impacto en los derechos fundamentales y garantizar que sus empleados reciben formación adecuada para trabajar con ellas. Estas medidas comenzarán a aplicarse en su totalidad a partir de agosto de 2026.

Pregunta: ¿Cómo afecta esto a las empresas?

Luismi Roura:

Para las empresas, esta normativa representa un reto importante, pero también una oportunidad. En primer lugar, todas aquellas que desarrollen o utilicen inteligencia artificial en la UE tendrán que hacer una auditoría interna para revisar sus sistemas y asegurarse de que cumplen con la normativa. Esto significa identificar si alguna de sus IA entra dentro de las categorías de alto riesgo o prohibidas y tomar medidas antes de que las sanciones comiencen a aplicarse.

Además, las empresas tendrán que invertir en formación para sus empleados, ya que la normativa exige que cualquier persona que trabaje con IA entienda cómo funcionan estos sistemas y los posibles riesgos que implican. También deberán establecer mecanismos de control para garantizar la transparencia y la seguridad en el uso de estas tecnologías. Otro aspecto relevante es que, para poder operar en la UE, las compañías deberán asegurarse de que sus proveedores tecnológicos también cumplen con la normativa, lo que podría generar cambios en sus alianzas estratégicas.

Si bien es cierto que la regulación añade una carga administrativa y operativa, también puede convertirse en una ventaja competitiva. Las empresas que adopten IA de manera ética y responsable tendrán una posición privilegiada en el mercado, ya que los consumidores y las instituciones cada vez valoran más la transparencia y la seguridad en el uso de la tecnología. En definitiva, aquellas compañías que se adapten rápidamente no solo evitarán sanciones, sino que podrán diferenciarse en un entorno donde la confianza en la IA será clave para el éxito.

Conclusión

El Reglamento de Inteligencia Artificial de la Unión Europea marca un antes y un después en la regulación de esta tecnología. Con un enfoque basado en la seguridad, la transparencia y la supervisión, la normativa busca equilibrar la innovación con la protección de los derechos fundamentales.

Como señala Luismi Roura, «las empresas que se preparen a tiempo no solo evitarán riesgos legales, sino que podrán aprovechar esta regulación para posicionarse como referentes en el desarrollo de una IA responsable».

Seguiremos atentos a la evolución de esta normativa y su impacto en la industria tecnológica.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa falta de control sobre la IA generativa expone a las empresas a riesgos de seguridad

Un informe de Palo Alto Networks y Omdia revela que el 65% de las empresas carecen de control sobre los datos compartidos en herramientas de IA generativa, lo que incrementa el riesgo de fuga de información y vulnerabilidades en ciberseguridad. Además, el 95% de las organizaciones ha sufrido ataques en navegadores en el último año.

El informe «The State of Workforce Security: Key Insights for IT and Security Leaders», elaborado por Palo Alto Networks en colaboración con Omdia, advierte sobre los crecientes riesgos de ciberseguridad en el entorno laboral moderno. Factores como el trabajo híbrido, el uso de dispositivos personales (BYOD) y la proliferación de herramientas de IA generativa han aumentado la exposición de las empresas a ataques informáticos.

Uno de los principales hallazgos del informe es que el 65% de las empresas no tiene visibilidad sobre los datos compartidos en aplicaciones de IA generativa, lo que plantea riesgos significativos de fuga de información y problemas de cumplimiento normativo. Asimismo, el 90% de las organizaciones permiten el acceso a datos corporativos desde dispositivos personales, una tendencia que, aunque mejora la flexibilidad laboral, también incrementa la vulnerabilidad ante ataques.

El informe destaca que el navegador web se ha convertido en un vector de ataque crítico, ya que el 85% de las tareas empresariales se realizan a través de él. En consecuencia, el 95% de las empresas encuestadas ha experimentado ataques en el navegador, mientras que el 94% ha sido víctima de phishing en el último año. Además, el 64% del tráfico cifrado no es inspeccionado, lo que oculta amenazas potenciales como malware o filtraciones de datos.

Para mitigar estos riesgos, el informe recomienda la adopción de arquitecturas de Seguridad en el Acceso a la Nube (SASE) y el uso de navegadores seguros, como Prisma Access Browser, que ofrecen protección en dispositivos BYOD, reducen la exposición a aplicaciones SaaS no autorizadas y mejoran la visibilidad del tráfico cifrado sin comprometer la productividad.

Las estrategias clave de protección incluyen:

  • Aplicación de políticas de acceso granular mediante soluciones SASE.
  • Supervisión del tráfico y control del uso de aplicaciones SaaS para detectar anomalías.
  • Prevención de exfiltración de datos en herramientas de IA generativa no autorizadas.

El estudio deja en evidencia la necesidad de reforzar la ciberseguridad en el entorno laboral moderno, especialmente ante el crecimiento del uso de la IA generativa y la falta de controles efectivos sobre los datos compartidos por los empleados.

«¿Están las empresas preparadas para gestionar los riesgos de seguridad asociados al uso de IA generativa en el entorno laboral?»

.
.Para acceder al informe completo, visita este enlace.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoControversia en la industria cripto por las políticas de Trump

La propuesta del presidente Trump de crear una «Reserva Estratégica de Criptomonedas» ha generado críticas dentro de la comunidad cripto, que cuestiona la utilización de fondos públicos para respaldar activos digitales volátiles y la inclusión de tokens menos conocidos con posibles conflictos de interés.

El presidente Donald Trump ha anunciado la creación de una «Reserva Estratégica de Criptomonedas», que incluirá bitcoin, ethereum, XRP, solana y cardano, con el objetivo de posicionar a Estados Unidos como líder en la industria cripto. Esta iniciativa ha sorprendido a la comunidad cripto, generando reacciones mixtas.

Algunos líderes del sector tecnológico y cripto han manifestado su preocupación por el uso de fondos públicos para respaldar activos digitales de naturaleza especulativa y con valor subyacente limitado. Por ejemplo, el empresario tecnológico Joe Lonsdale, defensor de las criptomonedas y de la administración Trump, expresó en redes sociales su desacuerdo con la idea de utilizar impuestos para respaldar «esquemas cripto». Asimismo, Michael Bentley, ejecutivo de Euler Labs en el Reino Unido, calificó la propuesta como un «gran error», argumentando que la selección de tokens podría indicar una falta de comprensión sobre el valor real de bitcoin y otros activos digitales.

La inclusión de tokens menos conocidos, como solana, XRP y cardano, ha suscitado interrogantes sobre los criterios de selección y posibles conflictos de interés. En particular, el nombramiento de David Sacks como encargado de la política cripto de la Casa Blanca ha sido objeto de escrutinio debido a sus inversiones previas en estos tokens. Sacks ha negado cualquier conflicto de interés, afirmando que vendió todas sus participaciones en criptomonedas antes de asumir su cargo y que proporcionará una actualización al finalizar el proceso de ética.

La falta de detalles en el anuncio de Trump ha generado incertidumbre en los mercados. Inicialmente, los precios de las criptomonedas experimentaron un aumento, pero posteriormente registraron caídas. El bitcoin, que recientemente superó la barrera de los $100,000, sufrió una disminución de más del 9% tras el anuncio de nuevas tarifas del 25% a Canadá y México, y la declaración de que no hay espacio para más negociaciones.

La propuesta de una reserva estratégica de criptomonedas plantea dudas sobre su propósito y eficacia. A diferencia de reservas estratégicas de recursos limitados y esenciales, como el petróleo, las criptomonedas carecen de valor intrínseco y su precio está determinado únicamente por la oferta y la demanda. Expertos, como la profesora de derecho Hilary Allen de la American University, advierten que la compra gubernamental de bitcoin podría inflar artificialmente su precio y que la eventual venta de estos activos podría provocar una caída abrupta en su valor.

En resumen, la iniciativa de establecer una reserva estratégica de criptomonedas ha generado escepticismo tanto por su viabilidad como por los posibles conflictos de interés y riesgos financieros asociados. La comunidad cripto y los inversores están a la espera de más detalles y claridad sobre la implementación y gestión de esta propuesta.

«¿Es prudente que el gobierno utilice fondos públicos para respaldar activos digitales volátiles sin valor intrínseco?»

. .
.

Este es un resumen comentado, basado en el artículo : «Even Crypto Holders Don’t Like Trump’s Crypto Policies» de Allison Morrow publicado en CNN el 4 de marzo de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights