0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLas grandes tecnológicas se lanzan al negocio de la guerra: así se militariza Silicon Valley | Tecnología | EL PAÍS

¿LAS TECNOLÓGICAS SE VAN A LA GUERRA? TRAS AÑOS EVITANDO VÍNCULOS, LAS BIG TECH FIRMAN CONTRATOS CON EL EJÉRCITO. TRUMP QUIERE MODERNIZAR LAS FUERZAS ARMADAS CON IA. EMPRESAS COMO OPENAI Y GOOGLE YA OBTUVIERON CONTRATOS MILLONARIOS. ¿QUÉ IMPLICA ESTA ALIANZA ENTRE SILICON VALLEY Y EL PENTÁGONO?

FUENTE: EL PAÍS

https://elpais.com/tecnologia/2025-07-21/las-grandes-tecnologicas-se-lanzan-al-negocio-de-la-guerra-asi-se-militariza-silicon-valley.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿La IA nos vuelve más estúpidos?

¿LA IA HACE QUE DISMINUYA LA ACTIVIDAD CEREBRAL? ¿DEBERÍAMOS PREOCUPARNOS POR LOS EFECTOS DE SU USO?

Algunos estudios sugieren que el uso de la inteligencia artificial (IA) puede reducir la actividad cerebral en áreas asociadas con la creatividad y el pensamiento crítico. Investigadores del MIT encontraron que los usuarios de IA mostraron menor actividad neuronal y tuvieron dificultades para proporcionar citas precisas. Otros estudios también han revelado que el uso excesivo de la IA puede llevar a una disminución en la capacidad de pensamiento crítico y creatividad. A pesar de los beneficios a corto plazo, como la productividad y eficiencia mejoradas, existe la preocupación de que la dependencia excesiva de la IA genere una «descarga cognitiva» que debilite el cerebro a largo plazo.

La investigación plantea preguntas importantes sobre los posibles efectos negativos de la IA en la capacidad mental y la competitividad de las personas. Se sugiere limitar el papel de la IA a un asistente y fomentar el pensamiento crítico guiando a los usuarios paso a paso hacia soluciones. Sin embargo, las estrategias para contrarrestar los efectos negativos de la IA pueden tener sus propios costos y desafíos. Es necesario evaluar los beneficios y costos a largo plazo de la IA en la sociedad y considerar cómo mantener activo el cerebro de las personas en un entorno tecnológico en constante evolución.

FUENTE: The Economist

https://www.lavanguardia.com/vida/20250721/10901671/ia-vuelve-mas-estupidos.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoInteligencia artificial en Suiza: novedades para 2025  – SWI swissinfo.ch

¿CÓMO ESTÁ REGULANDO SUIZA LA INTELIGENCIA ARTIFICIAL EN LA SOCIEDAD Y LA VIDA COTIDIANA? ¿CUÁLES SON LOS CAMBIOS LEGALES Y TECNOLÓGICOS MÁS RELEVANTES EN EL PAÍS ALPINO? ¿QUÉ RETOS Y OPORTUNIDADES PLANTEA LA IA PARA EL FUTURO?

EL DESARROLLO DE LA IA SE ACELERÓ EN SUIZA EL AÑO PASADO, CON EL GOBIERNO SUIZO COMPROMETIDO A POSICIONAR AL PAÍS COMO LÍDER EN IA RESPONSABLE. SE PLANTEA UNA PROPUESTA NORMATIVA PARA MINIMIZAR RIESGOS COMO LA DISCRIMINACIÓN Y LA VIGILANCIA. SE INTRODUCIRÁ UNA LEY SOBRE PLATAFORMAS DIGITALES PARA COMBATIR LA DESINFORMACIÓN Y REFORZAR LOS DERECHOS DE LOS USUARIOS. SE APRUEBA EL USO DE VEHÍCULOS AUTÓNOMOS EN LAS CARRETERAS SUIZAS. EL GOBIERNO Y LOS INSTITUTOS DE TECNOLOGÍA DESARROLLAN MODELOS LINGÜÍSTICOS PARA SECTORES ESTRATÉGICOS. SE PREVÉ UNA PROPUESTA LEGISLATIVA PARA REGULAR LA IA, AUNQUE HAY RETRASOS. LAS PLATAFORMAS SOCIALES DEBERÁN CUMPLIR NORMAS MÁS ESTRICTAS PARA FAVORECER UN DEBATE PÚBLICO CONSTRUCTIVO. EL USO DE LA IA EN VEHÍCULOS AUTÓNOMOS SE EXTIENDE EN SUIZA, AUNQUE AÚN CON LIMITACIONES. EXISTEN RETOS EN LA SOSTENIBILIDAD DEL SALTO TECNOLÓGICO DE SUIZA. EL PAÍS BUSCA DESARROLLAR MODELOS LINGÜÍSTICOS ESPECIALIZADOS PARA APLICACIONES EN DIVERSOS CAMPOS. LA INICIATIVA SUIZA DE IA BUSCA IMPULSAR EL DESARROLLO TECNOLÓGICO EN ÁREAS CLAVE.

FUENTE: SWI SWISSINFO.CH

https://www.swissinfo.ch/spa/ia-suiza/inteligencia-artificial-en-suiza-novedades-para-2025/88784301

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa fiscal de Barcelona pide la IA para agilizar juicios

¿ES NECESARIA LA IMPLEMENTACIÓN DE INTELIGENCIA ARTIFICIAL EN LOS JUZGADOS? NEUS PUJAL ADVIERTE SOBRE EL DÉFICIT DE FUNCIONARIOS EN EL MINISTERIO PÚBLICO Y LA IMPORTANCIA DE AGILIZAR LOS PROCESOS JUDICIALES CON RECURSOS ADICIONALES. ¿CÓMO AFECTARÁN LOS JUICIOS RÁPIDOS A LA SATURACIÓN DE LOS TRIBUNALES?

Neus Pujal, fiscal en jefe de Barcelona, solicita una herramienta de inteligencia artificial para agilizar la comprobación de antecedentes penales y reducir la carga de trabajo en los tribunales. Esta medida podría disminuir el número de juicios inmediatos por delitos leves y mejorar la eficiencia en la administración de justicia. Sin embargo, Pujal también destaca la falta de recursos humanos en el ministerio público y la necesidad de aumentar el personal para hacer frente a la ampliación de juzgados y al aumento de juicios rápidos.

La implementación de la calculadora electrónica de la multirreincidencia permitiría identificar rápidamente a los multirreincidentes y agilizar el proceso de juzgamiento. Esta herramienta sería de gran utilidad para los fiscales y jueces, liberando recursos y reduciendo los retrasos en los tribunales. A pesar de los avances tecnológicos, Pujal reconoce que el sistema judicial sigue enfrentando desafíos como la saturación de los tribunales y la falta de personal.

La fiscal en jefe de Barcelona destaca la importancia de mejorar la coordinación entre fiscales y magistrados para garantizar una administración de justicia eficiente. Aunque se han creado áreas especializadas y se han asignado más recursos, la carga de trabajo sigue siendo un problema en los juzgados. Pujal advierte sobre la necesidad de reforzar los equipos judiciales para hacer frente al aumento de juicios rápidos y evitar un atasco en los juzgados de ejecutorias.

En conclusión, la implementación de herramientas tecnológicas como la calculadora electrónica de la multirreincidencia puede ser beneficiosa para agilizar los procesos judiciales, pero es necesario contar con recursos humanos suficientes para garantizar una administración de justicia eficaz y equitativa.

FUENTE: La Vanguardia

https://www.totbarcelona.cat/es/sociedad/la-fiscal-en-jefe-de-barcelona-pide-usar-la-ia-para-frenar-la-multirreincidencia-640413/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLos ‘lobbies’ tecnológicos quieren frenar la aplicación de la ley europea de inteligencia artificial

¿LA UE DEBE POSTERGAR LA APLICACIÓN DEL REGLAMENTO EUROPEO DE INTELIGENCIA ARTIFICIAL? UNA DECISIÓN QUE PODRÍA AFECTAR SU LIDERAZGO MUNDIAL EN LA REGULACIÓN DE LA IA. ¿ESTÁ EUROPA PERDIENDO SU VISIÓN DIGITAL?

En las últimas semanas, la Comisión Europea está considerando una pausa en la aplicación del Reglamento Europeo de Inteligencia Artificial (RIA) debido a presiones externas. Sin embargo, esto podría significar una pérdida de liderazgo en un momento crucial para Europa.

El RIA es una normativa clave para la regulación de la IA en la UE, diseñada para garantizar la seguridad y la confianza en la innovación tecnológica centrada en las personas. Postergar su aplicación enviaría un mensaje de falta de ambición y confianza en las propias regulaciones europeas.

A pesar de los desafíos técnicos y de supervisión que enfrenta la implementación del RIA, es fundamental que la UE mantenga su compromiso con la regulación de la IA. España, por ejemplo, ha establecido una agencia de supervisión de la IA y está liderando iniciativas para fomentar buenas prácticas en el sector.

La UE no debería ceder a presiones geopolíticas para detener la aplicación del RIA, ya que ello podría socavar su autonomía jurídica y su compromiso con los valores fundamentales. En lugar de retroceder, la Comisión debería fortalecer su apoyo a las pymes y desarrollar una estrategia integral para la industria digital.

La integración europea ha enfrentado desafíos en el pasado, pero ha salido fortalecida. Es momento de que Europa tome el liderazgo en la regulación y la innovación tecnológica, construyendo una infraestructura digital soberana y marcando el rumbo en el desarrollo de las tecnologías del futuro.

FUENTE: THE CONVERSATION ES

https://theconversation.com/los-lobbies-tecnologicos-quieren-frenar-la-aplicacion-de-la-ley-europea-de-inteligencia-artificial-260475

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoChatGPT evoluciona: ahora es un agente de IA que hace el trabajo por ti | Lifestyle | SmartLife | Cinco Días

¿HA EVOLUCIONADO CHATGPT DE ASISTENTE A COLABORADOR AUTÓNOMO CAPAZ DE EJECUTAR TAREAS COMPLEJAS POR SÍ MISMO? OPENAI PRESENTA SU PRIMER AGENTE DE IA, TRANSFORMANDO POR COMPLETO LA FORMA DE INTERACTUAR CON LA INTELIGENCIA ARTIFICIAL.

OpenAI ha presentado su primer agente de IA, que transforma a ChatGPT en un colaborador autónomo capaz de ejecutar tareas complejas. Este agente, que unifica herramientas como Operator y Deep Research, puede resolver problemas complejos utilizando múltiples recursos digitales. Aunque aún se encuentra en fase de despliegue público, ha demostrado ser capaz de realizar tareas multietapa sin la necesidad de integrar varias plataformas por separado. Este nuevo agente actúa en un entorno virtual similar al de un ordenador, permitiendo al usuario supervisar el proceso en tiempo real y requerir confirmación para acciones críticas. OpenAI ha implementado medidas de protección para garantizar la seguridad de los usuarios, como la autorización explícita para acciones importantes y un modo de observación para tomar el control manual si es necesario. Con este avance, OpenAI consolida a ChatGPT como líder en IA generativa y marca el inicio de una nueva era de agentes autónomos capaces de realizar tareas reales y útiles.

FUENTE: Xataka

https://cincodias.elpais.com/smartlife/lifestyle/2025-07-18/chatgpt-agente-ia-trabaja-por-ti.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoMiles de despidos en las grandes empresas de tecnología por la IA, destruyen los trabajos con el que muchos soñaron – Infobae

### Despidos masivos en tecnología: la IA como factor clave

En julio de 2025, Microsoft y Intel anuncian el despido de miles de empleados, sumándose a una tendencia de recortes de empleo en el sector tecnológico desde 2022. La inteligencia artificial (IA) se señala como el principal factor detrás de esta ola de despidos, con gigantes como Meta, Google y Amazon reajustando sus plantillas para incorporar más automatización. Esta transformación no solo afecta a quienes pierden sus empleos, sino que también modifica las condiciones laborales para los trabajadores que se mantienen empleados, con salarios a la baja y mayor precariedad en el empleo tech.

FUENTE: El País

https://www.infobae.com/tecno/2025/07/19/miles-de-despidos-en-las-grandes-empresas-de-tecnologia-por-la-ia-destruyen-los-trabajos-con-el-que-muchos-sonaron/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono

### Desafíos éticos y políticos de la inteligencia artificial en la guerra

El uso de la inteligencia artificial en conflictos armados plantea nuevos desafíos éticos y políticos, con potenciales consecuencias mortales si no se regula adecuadamente. Diversos actores internacionales, como EE.UU., Rusia, Israel, China y la Unión Europea, tienen posturas divergentes sobre el control de las armas autónomas. Mientras algunos países defienden su desarrollo como parte de la seguridad nacional, otros abogan por una regulación internacional más estricta, similar al Tratado de No Proliferación Nuclear. El conflicto en Ucrania ha servido como campo de pruebas para sistemas autónomos, con drones capaces de actuar de forma independiente en combate. China y Rusia, por su parte, ven en la IA militar una herramienta fundamental para su superioridad en futuros conflictos. La necesidad de establecer un marco ético y legal internacional para regular la IA en la guerra es urgente, antes de que la tecnología escape al control humano y genere consecuencias irreversibles.

**FUENTE:** LA VOZ DE GALICIA S.A.

https://www.lavozdegalicia.es/noticia/opinion/2025/07/19/bellum-ia-autonoma/0003_202507G19P14991.htm

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoQué pruebas usamos para medir lo «inteligente» que es una IA | WIRED

### La jungla de los modelos de lenguaje: evaluación de grandes modelos de IA

En el mundo de los modelos de lenguaje de inteligencia artificial, la variedad y la complejidad son abrumadoras. La evaluación de estos modelos se ha vuelto crucial para comprender su eficacia y su capacidad para resolver problemas. Los puntos de referencia, pruebas estandarizadas que evalúan el rendimiento de los modelos en tareas específicas, son clave para medir su verdadera capacidad. Sin embargo, existen limitaciones en estos puntos de referencia, ya que los modelos pueden ser entrenados específicamente para destacar en una prueba concreta, lo que puede llevar a resultados engañosos. La inclusión de seres humanos en el proceso de evaluación, como en el caso de LMArena, puede ser una solución para obtener una evaluación más precisa y realista de los modelos de lenguaje. En última instancia, la evaluación de los modelos de IA se vuelve cada vez más compleja a medida que estos se vuelven más sofisticados, y los humanos pueden tener un papel fundamental en determinar hasta qué punto las inteligencias artificiales se acercan a la inteligencia humana.

**FUENTE: WIRED Italia**

https://es.wired.com/articulos/que-pruebas-usamos-para-medir-lo-inteligente-que-es-una-ia

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿Los modelos de lenguaje realmente piensan? | WIRED

La ilusión del pensamiento en la inteligencia artificial: un estudio de Apple revela que los modelos de IA no razonan, sino que simulan razonamiento con patrones estadísticos. Esto plantea interrogantes sobre la comprensión real de estos sistemas.

En un estudio titulado «The Illusion of Thinking», Apple cuestiona la idea de que los modelos de inteligencia artificial actualmente existentes sean capaces de razonar. A través de un análisis detallado, Apple demuestra que incluso los modelos más avanzados, como GPT-4o de OpenAI, Claude de Anthropic o Gemini de Google, fallan de manera sistemática y radical cuando se enfrentan a tareas que requieren un razonamiento más complejo. El estudio no solo resalta los errores de rendimiento, sino que también critica la forma en que las empresas presentan sus modelos al público, sugiriendo que lo que se percibe como «razonamiento» en realidad es una simulación de razonamiento basada en asociaciones probables sin comprensión real ni sentido del contexto.

Durante el último año, los modelos de lenguaje han sido aclamados por su capacidad para realizar tareas complejas que van desde la generación de código hasta la resolución de problemas. Sin embargo, el estudio de Apple revela que estas metáforas son engañosas, ya que los modelos de IA no son capaces de realizar un razonamiento genuino cuando se enfrentan a tareas que requieren múltiples pasos de inferencia lógica.

La advertencia del estudio es clara: si se siguen construyendo expectativas en torno a la idea de que los modelos de IA actuales son capaces de pensar, se corre el riesgo de enfrentar desilusiones que podrían tener consecuencias reales, como diagnósticos errados o decisiones automatizadas injustas. A pesar de su capacidad para generar texto convincente y realizar diversas tareas, los modelos de lenguaje actuales no poseen la capacidad de comprensión real ni la autoconciencia necesaria para pensar de manera genuina.

En resumen, el estudio de Apple pone en duda la idea de que los modelos de IA actuales son capaces de razonar, destacando la importancia de no confundir el desempeño de estos sistemas con una comprensión real. Aunque la inteligencia artificial ha avanzado significativamente en la generación de contenido y la resolución de tareas específicas, todavía queda un largo camino por recorrer en términos de desarrollar una verdadera inteligencia artificial que sea capaz de pensar y comprender de manera similar a los seres humanos.

FUENTE: WIRED EN ESPAÑOL

https://es.wired.com/articulos/los-modelos-de-lenguaje-realmente-piensan

Scroll al inicio
Verificado por MonsterInsights