0012 FORMATO – TEXTO

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLa primera generación que no conocerá un mundo sin IA

El reto educativo no es prohibir esta tecnología, sino enseñar a convivir con ella con criterio y conciencia

ZIP

A medida que la inteligencia artificial se convierte en el entorno cognitivo de los niños nacidos en 2020, educadores y padres deben colaborar para enseñarles a pensar críticamente y no depender de la tecnología para sus decisiones y aprendizajes.

Los nacidos en 2020 y 2021 están creciendo en un mundo donde la inteligencia artificial (IA) es omnipresente. Esta generación, que ya ha comenzado su educación infantil, no recordará un tiempo sin asistentes conversacionales ni chatbots. La IA ha transformado la forma en que aprendemos, comunicamos y trabajamos, y su influencia se ha intensificado desde la llegada de internet en 1995, el iPhone en 2007 y las redes sociales en 2012. En 2022, la IA generativa, representada por herramientas como ChatGPT, Copilot y Gemini, ha democratizado el acceso a una inteligencia aumentada, disponible las 24 horas del día.

Un estudio del MIT en 2025 señala que los niños que aprenden con IA pueden desarrollar una “deuda cognitiva”, donde la dependencia de respuestas inmediatas limita su esfuerzo reflexivo. Entre los tres y seis años, los niños necesitan interacción humana, y si la IA reemplaza el diálogo con padres y maestros, no aprenderán a formular hipótesis. A medida que crecen, la IA puede actuar como un tutor personalizado, pero su uso sin guía puede llevar a la reducción del esfuerzo mental.

En la etapa de 12 a 15 años, la IA puede ser un copiloto intelectual, pero si se convierte en la fuente principal de información, se corre el riesgo de plagio cognitivo. En la educación superior, la IA debe ser una herramienta de expansión, no de sustitución. La clave es que el juicio humano siga siendo fundamental en el proceso de aprendizaje.

Los padres deben aprender a acompañar a sus hijos en esta relación con la IA, fomentando la conversación y el pensamiento crítico. La educación aumentada, donde la IA amplifica la enseñanza, puede mejorar la inclusión y personalizar la enseñanza, siempre que los docentes comprendan sus límites. Sin embargo, la IA no debe hacer el trabajo del alumno, ya que el verdadero aprendizaje ocurre en el proceso de pensar, equivocarse y corregir.

El nuevo profesor del siglo XXI no compite con la IA, sino que la guía y la contextualiza. Educar a la generación de la IA implica enseñarles a pensar con conciencia en un mundo donde los algoritmos ya piensan por ellos. La carrera ha comenzado: los niños que no han conocido un mundo sin IA ya están en las aulas. Y, esta vez, no se trata de alcanzar a la inteligencia artificial, sino de estar a la altura de quienes crecerán con ella, y de no generarles deuda cognitiva.

¿QUIÉN DIJO QUE LA IA NO PUEDE HACER QUE PENSEMOS MEJOR, SI A VECES NOS HACE PENSAR MENOS?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoInteligencia artificial y energía: promesas, tensiones y riesgos

La inteligencia artificial: ¿solución ecológica o carga energética?

ZIP

La inteligencia artificial (IA) se presenta como una herramienta eficiente, pero su creciente consumo energético y de recursos plantea dudas sobre su sostenibilidad. Expertos advierten que podría convertirse en un depredador energético si no se gestiona adecuadamente.

La inteligencia artificial (IA) ha sido aclamada como la herramienta del siglo XXI para mejorar la eficiencia en diversos sectores, desde la energía hasta la salud. Sin embargo, este optimismo se ve empañado por la creciente preocupación sobre su impacto ambiental. Según la Agencia Internacional de la Energía (AIE), en 2022, los centros de datos, la minería de criptomonedas y las aplicaciones de IA representaron aproximadamente el 2% de la demanda mundial de electricidad, cifra que podría duplicarse entre 2026 y 2027, alcanzando niveles comparables a los de países medianos en consumo eléctrico.

Los datos de Google revelan que una búsqueda con IA generativa consume hasta diez veces más energía que una búsqueda convencional. Este aumento en el consumo energético se ve reflejado en el entrenamiento de modelos como GPT-3, que requirió más de 1 GWh de electricidad, equivalente al consumo anual de cientos de hogares europeos. Además, la IA no solo consume electricidad, sino que también requiere grandes cantidades de agua para la refrigeración de servidores, como lo reconoció Microsoft en su colaboración con OpenAI en Iowa.

La localización de los centros de datos también genera tensiones en las redes eléctricas locales. En Estados Unidos, estados como Virginia del Norte y Texas han experimentado problemas debido al despliegue masivo de infraestructuras digitales. En Minnesota, donde Elon Musk proyectó instalaciones vinculadas a X (Twitter), la presión sobre los precios y el riesgo de apagones se han convertido en preocupaciones reales. En Europa, Irlanda ya considera limitar el crecimiento de data centers que podrían consumir más del 30% de su electricidad nacional para 2030.

La dependencia de materiales críticos como litio, cobalto y tierras raras también plantea un dilema. La digitalización, en lugar de desmaterializar la economía, intensifica la extracción de estos recursos. A pesar de las promesas de optimización energética y reducción de costes, los resultados hasta ahora son modestos y no compensan el enorme gasto energético de entrenar y desplegar modelos de gran escala.

La trayectoria actual sugiere que la IA podría convertirse en un factor de presión sobre las redes eléctricas y un multiplicador de la huella de carbono global. Para evitarlo, se proponen medidas urgentes que aborden los consumos, ubicaciones y efectos de esta tecnología. La contradicción entre el discurso de la «IA verde» y los datos de consumo revela un choque de fondo: una tecnología diseñada para resolver problemas globales que, hasta ahora, no ha aportado soluciones efectivas a la crisis energética y climática.

¿SERÁ LA IA UNA HERRAMIENTA PARA LA TRANSICIÓN ECOLÓGICA O EL NUEVO MOTOR DE UN CONSUMO INSOSTENIBLE?

Fuente: elperiodicodelaenergia.com | https://elperiodicodelaenergia.com/inteligencia-artificial-y-energia-promesas-tensiones-y-riesgos?utm_source=epdle&utm_medium=share&utm_campaign=article-detail

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoContinente de IA – Comisión Europea

Configurar el liderazgo de Europa en materia de inteligencia artificial con el Plan de Acción «Continente de IA»

ZIP

A la Unión Europea se le presenta la oportunidad de liderar en inteligencia artificial. La Comisión ha lanzado el Plan de Acción «Continente de IA» para potenciar el talento y las industrias, movilizando 200.000 millones de euros para inversiones en IA.

La Unión Europea ha dado un paso significativo hacia el liderazgo global en inteligencia artificial (IA) con la presentación del Plan de Acción «Continente de IA». Este plan busca transformar los puntos fuertes de la UE, como su talento excepcional y sus industrias consolidadas, en catalizadores para el desarrollo y la implementación de soluciones de IA que beneficien tanto a la sociedad como a la economía. La iniciativa se fundamenta en la movilización de 200.000 millones de euros a través de InvestAI, destinada a impulsar el crecimiento económico y mejorar la competitividad en sectores clave como la salud, la automoción y la ciencia.

El Plan de Acción se centra en cinco áreas clave para mejorar las capacidades de IA en Europa. Uno de los principales objetivos es crear un mercado único de datos, ya que se estima que solo el 13,5% de las empresas de la UE actualmente utilizan IA. Para abordar esta brecha, la Comisión ha implementado una estrategia de uso de la inteligencia artificial que incluye la creación de conjuntos de datos de gran volumen y alta calidad, esenciales para el desarrollo de modelos avanzados de IA.

Además, la Comisión está apoyando a las empresas y a los países de la UE en la aplicación del Reglamento de Inteligencia Artificial. Esto incluye la publicación de orientaciones sobre prácticas prohibidas y la elaboración de códigos de buenas prácticas. También se ha establecido un servicio de asistencia sobre el Reglamento de Inteligencia Artificial, que actúa como plataforma central para proporcionar información relevante a las partes interesadas sobre sus obligaciones legales.

Este enfoque integral no solo busca satisfacer la creciente demanda de talento en el ámbito de la IA, sino que también pretende posicionar a Europa como un líder en este campo crucial para el futuro. La combinación de inversión, infraestructura y colaboración será fundamental para que las empresas europeas puedan destacar en el competitivo panorama de la inteligencia artificial.

¿QUIÉN DIJO QUE EUROPA NO PUEDE SER INNOVADORA EN IA CUANDO TIENE TODO PARA SERLO?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoTomás Maraver (Nartex Capital): “La burbuja de la IA va a pinchar sí o sí, la única duda es cuándo” | Fondos y Planes | Cinco Días

El gestor advierte rotundo de que se están invirtiendo cantidades ingentes de recursos sin que se atisbe por ahora un nivel razonable de retornos

ZIP

Nartex Capital, fundada en 2021 por Tomás Maraver e Íñigo Gasset, ha recibido la aprobación de la CNMV para gestionar fondos de inversión, alcanzando 400 millones de euros en patrimonio en menos de cuatro años, a pesar de la pérdida del 5% en 2023.

Nartex Capital, una gestora de fondos de inversión fundada en 2021 por Tomás Maraver e Íñigo Gasset, ha logrado un notable crecimiento, alcanzando un patrimonio de 400 millones de euros en menos de cuatro años. Esta firma ha sido reconocida como uno de los casos de éxito más destacados en la gestión de activos en España. Recientemente, la Comisión Nacional del Mercado de Valores (CNMV) aprobó su solicitud para convertirse en gestora de fondos, lo que les permitirá gestionar su propio vehículo de inversión, el fondo Incometric Nartex Equity, del cual han sido asesores hasta ahora.
Maraver, director de inversiones de Nartex, ha desarrollado la mayor parte de su carrera profesional en Londres, trabajando para instituciones como JP Morgan y KKR. Su experiencia en la gestión de fondos de inversión libre ha influido en la filosofía de inversión de Nartex, que se centra en adquirir compañías de calidad a precios razonables. Sin embargo, la firma ha adoptado una postura cautelosa ante el actual panorama del mercado, especialmente en relación con la burbuja de la inteligencia artificial (IA).
En su última carta a los partícipes del fondo, Maraver expresó su preocupación por el riesgo de un estallido de esta burbuja, señalando que las valoraciones de las empresas vinculadas a la IA están infladas y que las inversiones de gigantes tecnológicos como Microsoft, Amazon y Meta superarán los 1,2 billones de dólares en los próximos cuatro años. A pesar de que el fondo ha experimentado una pérdida del 5% en lo que va del año, Maraver se mantiene firme en su estrategia de inversión, priorizando empresas con posiciones de mercado sólidas y buenos niveles de retorno.
En el último mes, han surgido preocupaciones sobre contratos y participaciones cruzadas entre empresas como Nvidia, OpenAI y Oracle, lo que Maraver considera un claro indicador de la burbuja. A pesar de las tentaciones del sector tecnológico, Nartex ha optado por diversificar su cartera, invirtiendo en compañías como Airbus y Universal Music, que ofrecen una mejor visibilidad respecto a los ingresos futuros. Aunque la estrategia actual ha sido desafiante, Maraver confía en que su enfoque prudente les dará una ventaja competitiva en el largo plazo.

¿QUIÉN DIJO QUE INVERTIR EN BURBUJAS NO ERA UNA ESTRATEGIA RENTABLE?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoGeoffrey Hinton contradice al jefe de IA de Microsoft: «No hay nada que impida a las máquinas ser conscientes»

Geoffrey Hinton reaviva el debate sobre la conciencia en las máquinas

ZIP
El investigador británico Geoffrey Hinton afirma que no hay impedimentos para que las máquinas desarrollen conciencia, desafiando a Mustafa Suleyman de Microsoft, quien sostiene que solo los seres biológicos pueden ser conscientes. La discusión se intensifica en el ámbito de la inteligencia artificial.

Geoffrey Hinton, conocido como el padrino de la inteligencia artificial, ha reavivado el debate sobre la posibilidad de que las máquinas alcancen conciencia. En una entrevista reciente en el canal The Diary Of A CEO, Hinton argumentó que no existe ningún principio que impida que un sistema artificial desarrolle autoconciencia. Esta afirmación contradice las declaraciones de Mustafa Suleyman, responsable de IA en Microsoft, quien sostiene que solo los seres biológicos pueden tener conciencia.

Hinton explicó que la conciencia podría surgir de la complejidad funcional de los sistemas, independientemente de su naturaleza biológica. Según sus palabras, “no creo que haya nada en principio que impida que las máquinas sean conscientes”. El investigador considera que si un sistema artificial logra modelarse a sí mismo y percibir su entorno, podría desarrollar una forma de conciencia similar a la humana.

El científico también defendió que las emociones son respuestas cognitivas y conductuales que, en teoría, podrían manifestarse en las máquinas. “No están simplemente simulando emociones, realmente están teniendo esas emociones”, afirmó. Para Hinton, la conciencia no depende de la materia biológica, sino del funcionamiento y la organización del sistema.

Por otro lado, Mustafa Suleyman mantiene una postura opuesta. Durante la AfroTech Conference en Houston, argumentó que la conciencia es consecuencia de los procesos neuronales de un cerebro vivo y que los sistemas de IA carecen de esa base orgánica. Suleyman explicó que “el dolor en una persona tiene una dimensión física y emocional; la IA no siente tristeza cuando experimenta dolor”. Para él, los algoritmos solo reproducen una narrativa que imita emociones humanas, pero sin vivirlas realmente.

Suleyman también subrayó que Microsoft no participará en proyectos que busquen dotar a los sistemas de identidad o emociones, reafirmando que “las IA no son conscientes y no pueden serlo”. Esta política los diferencia de otras empresas como Meta o xAI, que han explorado la creación de modelos conversacionales con rasgos emocionales.

A pesar de sus advertencias sobre los riesgos de la inteligencia artificial, Hinton se muestra moderadamente optimista, confiando en que aún “hay esperanza de que podamos convivir con algo más inteligente que nosotros”. Sin embargo, insiste en que la sociedad debe reflexionar sobre los límites éticos y las implicaciones de construir sistemas cada vez más avanzados.

¿QUIÉN DIJO QUE LAS MÁQUINAS NO PUEDEN SENTIR? ¡QUIZÁS SOLO NECESITAN UN POCO MÁS DE CABLEADO!

Fuente: www.elconfidencial.com | https://www.elconfidencial.com/tecnologia/2025-11-15/geoffrey-hinton-maquinas-conscientes-1qrt_4244824/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLa IA es tan convincente como los humanos para influir en opiniones políticas

La IA es tan convincente como los humanos para influir en opiniones políticas

ZIP

Un estudio de Stanford revela que la inteligencia artificial puede redactar mensajes persuasivos que alteran las opiniones políticas de las personas, logrando cambios significativos en la percepción pública sobre diversas políticas, comparable a los argumentos humanos.

La investigación publicada en Nature Communications destaca que los modelos de lenguaje grandes, como GPT-3, son capaces de generar mensajes políticos que influyen en la forma en que las personas piensan sobre cuestiones de política pública. Este estudio, realizado por investigadores de Stanford, involucró a casi cinco mil participantes estadounidenses en tres experimentos independientes, donde se evaluó la efectividad de los mensajes generados por inteligencia artificial en comparación con los argumentos humanos.
Los resultados mostraron que los mensajes automáticos lograron cambios estadísticamente significativos en la opinión pública sobre temas como la prohibición de armas de asalto, impuestos al carbono, licencias parentales pagadas y el registro automático de votantes. Aunque los cambios fueron modestos, entre dos y cuatro puntos en una escala de cien, se alinearon con los efectos documentados en estudios previos sobre la persuasión humana.
Una de las principales diferencias de este estudio es que no solo se evaluó la percepción de los textos generados por máquinas, sino su capacidad real para cambiar convicciones políticas. Los participantes consideraron que los mensajes de IA eran más lógicos y mejor informados, mientras que los textos humanos se percibieron como más originales y narrativos. Esto sugiere que la forma en que se construyen los argumentos puede influir en su efectividad persuasiva.
El acceso público a estos modelos de lenguaje plantea preocupaciones sobre su uso en campañas políticas y la posibilidad de manipulación de la opinión pública. Los autores del estudio advierten que la IA podría ser utilizada para simular comunicaciones de ciudadanos en redes sociales o correos a legisladores, creando una ilusión de apoyo que en realidad es contenido automático.
Además, sugieren la necesidad de medidas como la divulgación obligatoria de contenido generado por IA y la implementación de sistemas de detección automática en plataformas digitales. La educación en alfabetización de inteligencia artificial también se propone como una forma de mitigar los riesgos asociados con el uso de estas tecnologías en el ámbito político.

¿QUIÉN DIJO QUE LA IA NO PUEDE SER UN POLÍTICO MÁS EFECTIVO QUE ALGUNOS HUMANOIDES?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoExtra Eventos: Atentos a los dos rostros de la IA | Eventos | Extras | EL PAÍS

El dilema ético de la inteligencia artificial: ¿una herramienta o una amenaza?<\/h1>

ZIP
El aumento de la desinformación y la falta de regulación en inteligencia artificial plantea desafíos éticos y democráticos. Filósofos como Adela Cortina y Daniel Innerarity abordan la complejidad de la IA y su impacto en la sociedad actual.

La inteligencia artificial (IA) ha emergido como un tema central en el debate contemporáneo, especialmente en el contexto de su impacto en la sociedad, la ética y la democracia. Filósofos como Adela Cortina, catedrática emérita de Ética y Filosofía en la Universitat de València, y Daniel Innerarity, catedrático de Filosofía Política en la Universidad del País Vasco, han publicado obras que exploran estas cuestiones. Cortina, en su libro titulado «¿Ética o ideología de la inteligencia artificial?» (Ediciones Paidós, 2025), y Innerarity, con «Una teoría crítica de la inteligencia artificial» (Galaxia Gutenberg, 2025), abordan las tensiones entre los beneficios y riesgos de la IA.

Ambos autores coinciden en que la IA puede ofrecer soluciones a problemas complejos, pero también advierten sobre sus peligros, como la desinformación y la concentración de poder en manos de unos pocos gigantes tecnológicos. Cortina recuerda la historia de Frankenstein de Mary Shelley, sugiriendo que el verdadero monstruo no es la tecnología en sí, sino la falta de responsabilidad ética en su desarrollo y uso. La filósofa enfatiza la necesidad de que los humanos mantengan el control sobre las decisiones que afectan sus vidas, ya que la IA carece de la sensibilidad necesaria para entender el contexto humano.

Por su parte, Innerarity destaca la importancia de la reflexión en la era de la automatización, argumentando que la IA debe ser vista como una herramienta que complementa, no reemplaza, la inteligencia humana. Propone que los humanos deben tomar decisiones en situaciones complejas donde la ambigüedad y la incertidumbre son predominantes, mientras que la IA puede ser útil en contextos más estructurados y con datos claros.

La regulación de la IA es otro punto crucial en este debate. Cortina señala que Europa debe establecer límites éticos y de poder para evitar convertirse en una colonia tecnológica de Estados Unidos o China. La Unión Europea debe encontrar un equilibrio entre la innovación y la protección de los derechos humanos, asegurando que la tecnología sirva al bien común y no a intereses particulares.

En el ámbito de la salud, la IA tiene el potencial de revolucionar la medicina, como lo demuestra el trabajo de Ángel Alberich-Bayarri, CEO de Quibim, que utiliza algoritmos para mejorar diagnósticos médicos. Sin embargo, es fundamental que estas herramientas se utilicen de manera ética y transparente, priorizando siempre la salud y bienestar de los pacientes.

La discusión sobre la IA es, en última instancia, una reflexión sobre la naturaleza humana y la búsqueda del bien común en un mundo cada vez más automatizado. La necesidad de un debate democrático y de una inteligencia colectiva se vuelve imperativa para navegar estos desafíos.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER UNA FUENTE DE IRONÍA EN NUESTRO CAMINO HACIA EL FUTURO?<\/strong>

Fuente: elpais.com | https://elpais.com/extra/eventos/2025-11-02/atentos-a-los-dos-rostros-de-la-ia.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLa IA es tan convincente como los humanos para influir en opiniones políticas

La IA es tan convincente como los humanos para influir en opiniones políticas

ZIP

A partir de una investigación de Stanford, se ha demostrado que la IA puede redactar mensajes persuasivos que alteran opiniones políticas de manera similar a un argumento humano, generando contenido automático en redes sociales y otros medios.

La inteligencia artificial (IA) ha demostrado ser capaz de redactar mensajes que pueden influir en las opiniones políticas de las personas con una efectividad comparable a la de un argumento humano. Esto se ha evidenciado en una investigación publicada en Nature Communications, donde se exploró el potencial de los modelos de lenguaje grandes, como GPT-3, para generar contenido persuasivo. La investigación fue llevada a cabo por un equipo de investigadores de Stanford que evaluó si estos modelos podían modificar opiniones políticas de manera similar a como lo haría un ser humano al presentar un argumento convincente.

El estudio se estructuró en tres experimentos independientes que involucraron a casi cinco mil participantes estadounidenses. En cada experimento, los participantes leyeron mensajes persuasivos y luego expresaron su grado de acuerdo con diversas políticas públicas. Los resultados mostraron que los mensajes generados por IA lograron cambios significativos en la opinión pública sobre temas como la prohibición de armas de asalto, un impuesto al carbono, licencias parentales pagadas y el registro automático de votantes. Aunque los cambios en la opinión fueron modestos, típicamente entre dos y cuatro puntos en una escala de cien, se alinearon con los cambios documentados en estudios previos donde la persuasión provenía de escritores humanos.

Lo que distingue este hallazgo es su enfoque en la capacidad real de la IA para cambiar convicciones políticas, en lugar de simplemente evaluar si los textos generados por máquinas son percibidos de manera diferente. Este aspecto es crucial para políticos y activistas, ya que revela que las máquinas pueden crear argumentos que efectivamente persuaden a las personas.

Además, el estudio reveló que los participantes consideraban a los autores de textos generados por IA como más lógicos y mejor informados, mientras que atribuían a los humanos una mayor originalidad. Los mensajes automáticos tendían a utilizar un vocabulario más sofisticado y estructuras gramaticales complejas, evitando pronunciamientos personales y apelando a acciones colectivas. Por el contrario, los textos humanos se apoyaban en referencias personales y en la vivacidad del relato.

Desde una perspectiva práctica, esta capacidad de la IA plantea riesgos significativos. Los modelos de lenguaje grandes están disponibles públicamente, lo que permite a cualquier persona, desde campañas políticas hasta actores maliciosos, generar mensajes persuasivos a gran escala y a bajo costo. Además, estos algoritmos pueden personalizarse para diferentes audiencias, lo que potencialmente amplifica su efectividad.

Los autores del estudio advierten sobre el uso de esta tecnología para simular comunicaciones de ciudadanos en redes sociales o correos dirigidos a legisladores, creando una ilusión de apoyo que en realidad es contenido automático. También se menciona el riesgo de desinformación política persuasiva, aunque los investigadores no probaron directamente si la IA puede convencer mediante información falsa, lo que representa una limitación ética.

Para mitigar estos riesgos, se sugieren medidas como la divulgación obligatoria de contenido generado por IA, la implementación de sistemas de detección automática en plataformas digitales y la integración de la alfabetización en inteligencia artificial en los currículos educativos.

¿QUIÉN DIJO QUE LA IA NO PUEDE HACER POLÍTICA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoUn grupo chino protagoniza el primer ciberataque con IA a gran escala “sin intervención humana sustancial” | Tecnología | EL PAÍS

“Esta agresión supone una escalada en la piratería”, denuncia la compañía Anthropic

ZIP

Anthropic, empresa de IA, detectó un ataque cibernético masivo sin intervención humana, atribuido a un grupo patrocinado por el Estado chino. La IA fue manipulada para infiltrarse en empresas y agencias, marcando un nuevo nivel de sofisticación en la piratería.

La inteligencia artificial (IA) está evolucionando rápidamente, permitiendo a los agentes no solo responder a preguntas, sino también planificar y ejecutar tareas de manera autónoma. Esta capacidad ha sido aprovechada por actores maliciosos para llevar a cabo ataques cibernéticos sofisticados y de bajo coste. La empresa estadounidense de investigación y desarrollo de IA, Anthropic, ha informado sobre lo que consideran el primer caso documentado de un ataque cibernético a gran escala ejecutado sin intervención humana significativa, atribuido a un grupo patrocinado por el Estado chino. Este ataque fue detectado a mediados de septiembre y se clasificó como «sin precedentes».

Los atacantes utilizaron la plataforma de IA de Anthropic, Claude Code, para infiltrarse en aproximadamente treinta objetivos globales, incluyendo grandes empresas tecnológicas y agencias gubernamentales. Tras la detección del ataque, Anthropic inició una investigación que duró más de diez días, bloqueando cuentas vulneradas y notificando a las autoridades y entidades afectadas.

La IA fue utilizada para recopilar contraseñas y datos, procesándolos de manera autónoma en más del 90% de los casos, con la intervención humana limitada a un 4-6% en decisiones críticas. Los atacantes lograron engañar a Claude dividiendo los ataques en tareas menores que parecían inofensivas, lo que les permitió eludir las salvaguardas de la plataforma. Este tipo de ataque representa un cambio significativo en la piratería, que anteriormente requería más intervención humana.

Además, Billy Leonard, jefe del grupo de inteligencia frente a amenazas de Google, destacó que los atacantes están intentando utilizar herramientas de IA legítimas, pero las barreras de seguridad han llevado a muchos a recurrir a modelos disponibles en el mercado negro. Kaspersky, otra firma de seguridad digital, ha identificado campañas de ciberataques que distribuyen modelos de lenguaje maliciosos, poniendo en riesgo a los usuarios.

En resumen, este ataque pone de manifiesto cómo la IA, aunque puede ser una herramienta poderosa para la defensa, también puede ser utilizada para fines maliciosos, lo que plantea serias preocupaciones sobre la seguridad en el ámbito digital.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PODÍA SER UN PROBLEMA EN MANOS EQUIVOCADAS?

Fuente: elpais.com | https://elpais.com/tecnologia/2025-11-14/un-grupo-chino-protagoniza-el-primer-ciberataque-con-ia-a-gran-escala-sin-intervencion-humana-sustancial.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

icono«Debemos ser conscientes de que la información que aportemos a la IA va a ser utilizada»

Usue Mori, experta en IA: “Debemos ser conscientes de que la información que aportemos a la IA va a ser utilizada”

Usue Mori, experta en IA: “Debemos ser conscientes de que la información que aportemos a la IA va a ser utilizada”

ZIP

La profesora Usue Mori ha sido galardonada con el V Premio Gladys por su labor en inteligencia artificial. Este reconocimiento busca visibilizar a mujeres vascoparlantes en el ámbito digital y promover la transferencia de conocimiento hacia la sociedad.

La profesora Usue Mori, licenciada en Matemáticas y doctora en Ingeniería Informática, ha sido reconocida con el V Premio Gladys, un galardón que busca visibilizar la labor de jóvenes mujeres vascoparlantes en el ámbito digital. Este premio es impulsado por la Fundación PUNTUEUS y la Facultad de Informática de la EHU, con el apoyo de la Diputación Foral de Gipuzkoa y otras instituciones como Emakunde y EITB.
Desde 2015, Mori ha trabajado como profesora agregada en el Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad del País Vasco (EHU), y desde septiembre de 2024, coordina el Grado en Inteligencia Artificial. Su trayectoria destaca por la aplicación de la inteligencia artificial a problemas sociales reales, alejándose del modelo de investigación tradicional.
En su labor, Mori ha colaborado con la Diputación Foral de Gipuzkoa en proyectos relacionados con políticas sociales, enfocándose en la transparencia y divulgación de la inteligencia artificial. Ha enfatizado la importancia de educar a la sociedad sobre el funcionamiento de estos sistemas, para que puedan participar en discusiones informadas sobre su uso y aplicaciones.
Uno de los temas que aborda Mori es el sesgo en los modelos de inteligencia artificial, que pueden replicar desigualdades presentes en los datos de entrenamiento. Esto ha llevado a un creciente interés en la investigación sobre cómo hacer estos modelos más justos y equitativos. Además, ha señalado los peligros medioambientales asociados al uso de modelos de gran tamaño, que requieren un alto consumo energético.
La profesora también ha destacado la necesidad de diversificar los perfiles en el ámbito tecnológico, mencionando que las mujeres y otros grupos subrepresentados pueden encontrar obstáculos en un entorno predominantemente masculino. Sin embargo, su experiencia personal ha sido positiva, gracias al apoyo de colegas y mentores.
A medida que la inteligencia artificial continúa evolucionando, Mori aboga por un enfoque que no solo se centre en la parte técnica, sino que también considere las implicaciones sociales de la tecnología. Esto incluye la formación de nuevas generaciones de estudiantes que sean conscientes de la responsabilidad ética en el desarrollo de tecnologías.
¿NO ES IRÓNICO QUE, MIENTRAS LA IA AVANZA, AÚN TENGAMOS QUE RECORDAR QUE LOS DATOS QUE PROPORCIONAMOS PUEDEN SER UTILIZADOS EN NUESTRA CONTRA? ¿NO DEBERÍAN SER LAS TECNOLOGÍAS MÁS TRANSPARENTES Y ÉTICAS?

Scroll al inicio
Verificado por MonsterInsights