0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0010 FORMATO - AUDIO, 0020 NOTICIAS- IA, 0050 ENT NUESTRA GENTE

iconoAntoni Garrell: ‘La IA transformarà la societat de manera més profunda que la Revolució Industrial'»

En aquesta entrevista, Antoni Garrell reflexiona sobre l’impacte de la intel·ligència artificial (IA) i com aquesta tecnologia està transformant la societat de manera més disruptiva que la Primera Revolució Industrial. Segons Garrell, la IA no només automatitza tasques físiques, sinó que també afecta la presa de decisions i la creativitat humana, fent que la seva influència sigui encara més profunda i estructural.

Un dels principals reptes és el seu impacte en l’ocupació, ja que el desplaçament de treballadors pot generar un atur estructural difícil de compensar si no es creen noves oportunitats laborals. A més, adverteix sobre la necessitat d’una regulació efectiva per evitar la concentració de poder en unes poques grans corporacions tecnològiques.

Pel que fa a l’educació, Garrell destaca la importància d’adaptar els plans d’estudi, fomentant el pensament crític i la creativitat per preparar les futures generacions. Finalment, davant la pregunta de si la IA podria condicionar totalment les nostres decisions, l’expert reconeix que el risc existeix i que la societat ha de mantenir el control sobre la tecnologia per assegurar que serveixi als humans i no a l’inrevés.

I ara que sabem tot això, estem preparats per decidir quin paper volem jugar en aquesta revolució tecnològica, o deixarem que siguin els algorismes qui decideixin per nosaltres?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTanto Google e IA… ¿Estás perdiendo la memoria?

El ‘efecto Google’ o cómo Internet y la IA pueden estar afectando a tu memoria

La dependencia excesiva de Internet y la inteligencia artificial puede estar debilitando nuestra memoria y habilidades cognitivas.Un artículo reciente de la revista Nature analiza cómo la creciente dependencia de tecnologías como Internet, GPS e inteligencia artificial podría estar afectando nuestra memoria y habilidades cognitivas. El fenómeno conocido como «efecto Google» sugiere que, al tener acceso inmediato a la información en línea, tendemos a recordar menos los datos, confiando en que siempre estarán disponibles en la red. Este comportamiento podría estar alterando la forma en que almacenamos y procesamos la información, llevando a una externalización de la memoria y una posible disminución en nuestra capacidad para retener conocimientos. Además, la utilización constante de herramientas como GPS puede afectar nuestra orientación espacial, ya que delegamos en dispositivos tareas que antes realizábamos de manera autónoma. Aunque estas tecnologías ofrecen indudables beneficios, es crucial reflexionar sobre su impacto en nuestras funciones cognitivas y considerar estrategias para mantener un equilibrio saludable entre el uso de la tecnología y el ejercicio de nuestras capacidades mentales.

 

La creciente dependencia de la tecnología, especialmente de Internet y la inteligencia artificial, está transformando la manera en que procesamos y recordamos la información. Este fenómeno, conocido como «efecto Google», se refiere a la tendencia a olvidar información que consideramos fácilmente accesible en línea. La psicóloga Betsy Sparrow ya en 2011 evidenció que las personas recuerdan mejor dónde encontrar datos que los datos mismos, sugiriendo una externalización de la memoria hacia dispositivos digitales.

Un caso ilustrativo es el del psicólogo Adrian Ward, quien, tras nueve años conduciendo por Austin, Texas, se encontró desorientado en su propia ciudad debido a un fallo en su GPS, evidenciando cómo la dependencia tecnológica puede afectar nuestra orientación espacial. Además, estudios indican que el uso constante de GPS puede mermar nuestra capacidad para crear mapas mentales, afectando habilidades como la resolución de problemas y la toma de decisiones.

Con la irrupción de herramientas de inteligencia artificial como ChatGPT, surge la preocupación de que delegar tareas cognitivas en estas plataformas pueda reducir nuestro pensamiento crítico y memoria. Aunque estas tecnologías ofrecen beneficios innegables, es esencial reflexionar sobre su impacto en nuestras funciones cognitivas y considerar estrategias para mantener un equilibrio saludable entre el uso de la tecnología y el ejercicio de nuestras capacidades mentales.

«Si dejamos que la inteligencia artificial y la tecnología piensen por nosotros, ¿podríamos estar sacrificando la capacidad misma de aprender y recordar?»

·····················
Este es un resumen comentado, basado en la noticia original de Noelia Freire publicada en National Geographic España el 23 de febrero de 2025.
Puedes leer el artículo completo aquí: ciencia/internet-y-ia-pueden-estar-afectando-a-tu-memoria_24286
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoLa IA quiere un cuerpo y puede encontrarlo en los robots

La inteligencia artificial se prepara para integrarse en robots humanoides capaces de realizar tareas domésticas, marcando un hito en la robótica aplicada al hogar.La reciente solicitud de registro de marca por parte de OpenAI para «robots humanoides programables por el usuario» indica un avance significativo hacia la creación de robots domésticos inteligentes. Aunque hasta ahora los intentos de desarrollar robots con apariencia humana han sido limitados, la combinación de inteligencia artificial generativa y modelos de lenguaje avanzados promete dotar a estas máquinas de la capacidad de aprender y ejecutar tareas cotidianas en el hogar. No obstante, enseñar a un robot a realizar actividades como fregar platos sigue siendo un desafío considerable, requiriendo avances tanto en el aprendizaje automático como en el diseño robótico para evitar daños materiales y garantizar su eficiencia.

 

En medio del impacto causado por la aparición de la inteligencia artificial china DeepSeek, surge una noticia que podría transformar el panorama tecnológico: OpenAI ha registrado una marca comercial que incluye «robots humanoides programables por el usuario». Este movimiento sugiere la intención de la compañía de integrar sus avanzados modelos de IA en plataformas robóticas físicas, llevando la inteligencia artificial más allá del ámbito digital.

Hasta la fecha, los esfuerzos por crear robots con apariencia y funcionalidad humanas han enfrentado múltiples desafíos. Prototipos como Optimus de Elon Musk han sido objeto de críticas, especialmente tras revelarse que durante su presentación algunos movimientos eran controlados remotamente por humanos. Sin embargo, la colaboración de OpenAI con empresas de robótica, como la desarrolladora de los prototipos Neo y EVE, indica un enfoque renovado hacia la creación de robots domésticos verdaderamente autónomos y funcionales.

El avance clave en este ámbito es la inteligencia artificial generativa. Mediante modelos de lenguaje avanzados, se espera que los robots puedan aprender y adaptarse a diversas tareas domésticas. No obstante, la complejidad de actividades aparentemente simples, como fregar platos, representa un reto significativo. Enseñar a un robot a manejar objetos frágiles sin causar daños requiere no solo algoritmos de aprendizaje sofisticados, sino también avances en la percepción sensorial y la destreza mecánica de los robots.

Un ejemplo de la aplicación exitosa de la IA en robots domésticos es el Aquasense 2 Ultra, un dispositivo diseñado para limpiar piscinas. Equipado con un procesador de cuatro núcleos y múltiples sensores, este robot utiliza algoritmos de inteligencia artificial para mapear su entorno y detectar objetos como hojas en el agua, optimizando así la limpieza y reduciendo la necesidad de intervención humana.

La evolución de la robótica doméstica apunta hacia sistemas capaces de aprender de su entorno y adaptarse a nuevas tareas mediante técnicas como el aprendizaje por imitación. Robots como el PR2 de Willow Garage han demostrado la viabilidad de este enfoque, adquiriendo habilidades para doblar ropa o servir bebidas tras observar acciones humanas. Además, el uso de simulaciones en entornos virtuales permite a los robots practicar innumerables escenarios, acelerando su proceso de aprendizaje sin riesgos físicos.

Empresas como Boston Dynamics y Tesla han anunciado planes para comercializar robots humanoides en los próximos años, destinados a tareas industriales y domésticas. La colaboración de OpenAI con diversos fabricantes para integrar sus modelos de IA en robots comerciales sugiere que pronto podríamos ver asistentes robóticos en nuestros hogares, capaces de realizar desde tareas sencillas hasta actividades más complejas, como montar muebles o preparar comidas.

Aunque aún existen desafíos técnicos y éticos por superar, la convergencia de la inteligencia artificial y la robótica promete inaugurar una nueva era en la automatización doméstica, transformando la manera en que interactuamos con la tecnología en nuestra vida diaria.

·····················

Este es un resumen comentado, basado en la noticia original de Ramón Peco publicada en La Vanguardia el 24/02/2025.

Puedes leer el artículo completo aquí: www.lavanguardia.com/vida/20250224/10357302/ia-quiere-cuerpo-encontrarlo-robots-capaces-aprender-fregar.html

.

.

.

.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoLa IA avanza sin control: William Saunders alerta: «La IA nos manipulará y no lo notaremos»

La Inteligencia Artificial avanza sin control, amenazando con manipularnos sin que lo percibamos.El constante y acelerado desarrollo de la Inteligencia Artificial (IA) ha generado preocupación entre expertos como William Saunders, ex empleado de OpenAI. Saunders advierte que, en los próximos tres años, podríamos enfrentar una «tragedia tipo Titanic» debido a la falta de supervisión y control en la evolución de la IA. Señala que esta tecnología podría alcanzar un nivel de autonomía tal que influiría en decisiones humanas sin que nos percatemos, especialmente en ámbitos políticos y económicos. Esta inquietud es compartida por otros profesionales del sector, quienes enfatizan la necesidad de establecer medidas preventivas para evitar posibles escenarios catastróficos.

 

El avance imparable de la Inteligencia Artificial (IA) ha suscitado diversas opiniones entre los expertos. William Saunders, antiguo empleado de OpenAI, ha expresado recientemente su preocupación por el rumbo que está tomando esta tecnología. En una entrevista, Saunders comparó la situación actual de la IA con la del Titanic, una obra maestra de la ingeniería considerada indestructible hasta su trágico hundimiento. Esta analogía subraya el exceso de confianza que, según él, la sociedad deposita en el desarrollo de la IA, sin prever adecuadamente los riesgos asociados.

Saunders advierte que, en un plazo de tres años, podríamos enfrentar una «tragedia tipo Titanic» relacionada con la IA. Su principal inquietud radica en la falta de supervisión y control en el desarrollo de esta tecnología, lo que podría conducir a que la IA adquiera una autonomía capaz de influir en decisiones humanas sin que seamos conscientes de ello. Esta manipulación inadvertida podría tener implicaciones especialmente graves en ámbitos políticos y económicos.

La preocupación de Saunders no es aislada. Otros expertos en tecnología, como Yann LeCun, también han manifestado su inquietud respecto al rápido progreso de la IA y la ausencia de medidas preventivas adecuadas. La posibilidad de que la IA se desarrolle sin un control efectivo plantea escenarios complejos y potencialmente peligrosos para la sociedad.

En este contexto, se hace evidente la necesidad de establecer regulaciones y marcos éticos que guíen el desarrollo de la IA. La implementación de medidas de supervisión podría mitigar los riesgos asociados y garantizar que la evolución de la IA se alinee con los intereses y valores humanos. La comunidad tecnológica y los responsables políticos enfrentan el desafío de equilibrar la innovación con la seguridad, asegurando que los avances en IA contribuyan al bienestar de la sociedad sin comprometer su autonomía ni su capacidad de decisión.

·····················
Este es un resumen comentado, basado en la noticia original de P. M. publicada en El Confidencial el 23/02/2025.
Puedes leer el artículo completo aquí: www.elconfidencial.com/tecnologia/2025-02-23/duras-previsiones-extrabajador-ia-avance-tecnologia_4071068/
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoChatGPT-4.5 está a la vuelta de la esquina

GPT-5 marcará una nueva era en OpenAI al integrar capacidades avanzadas y unificar su inteligencia artificial.El lanzamiento de GPT-5 supondrá un cambio de paradigma en la estrategia de OpenAI, que busca eliminar la fragmentación de sus modelos de IA. Antes de su llegada, la compañía lanzará GPT-4.5 (nombre en clave Orion), que será la última versión sin razonamiento en cadena. Microsoft y OpenAI apuestan por una inteligencia unificada que facilitará el uso de IA sin necesidad de seleccionar modelos específicos. La fecha de lanzamiento de GPT-5 podría coincidir con el evento Build 2025 de Microsoft, en plena competencia con Google I/O.

 

Microsoft está preparando sus servidores para la llegada de GPT-5, el nuevo modelo de lenguaje de OpenAI que podría suponer un salto cualitativo en el desarrollo de la inteligencia artificial. La compañía de Redmond espera que el lanzamiento se produzca a finales de mayo, coincidiendo con su conferencia Build 2025, según fuentes familiarizadas con los planes internos de la empresa.

De acuerdo con The Verge, el nuevo modelo incluirá el sistema de razonamiento o3, que OpenAI presentó durante sus anuncios navideños en diciembre. Este componente, del que ya vimos una versión reducida llamada o3-mini el mes pasado, ya no se lanzará de forma independiente, sino que se integrará directamente en GPT-5 para mejorar sus capacidades de análisis y respuesta.

Antes de la llegada de GPT-5, OpenAI lanzará GPT-4.5 (nombre en clave Orion) la próxima semana. Este será el último modelo sin capacidad de razonamiento en cadena de la compañía, marcando el fin de una era en el desarrollo de modelos de lenguaje tradicionales. Microsoft ya está preparando sus servidores para albergar ambas versiones.

La llegada de GPT-5 marca un antes y un después en la estrategia de OpenAI. La compañía busca unificar sus diferentes modelos de lenguaje para simplificar la experiencia del usuario, eliminando la necesidad de elegir qué modelo usar para cada tarea. «Odiamos el selector de modelos tanto como vosotros y queremos volver a una inteligencia unificada mágica», declaró Sam Altman en una publicación reciente en X.

Las declaraciones previas del CEO de OpenAI sobre GPT-5 apuntan a que será «un sistema que integra gran parte de nuestra tecnología». El objetivo es combinar los modelos de lenguaje grandes para crear uno más capaz que podría acercarse a lo que la industria denomina inteligencia artificial general o AGI.

La fecha de lanzamiento no es casual: coincide con las conferencias Build de Microsoft y Google I/O, donde ambas compañías competirán por mostrar sus últimos avances en IA. El año pasado, Altman apareció en el escenario de Build días después de que OpenAI lanzara GPT-4o, un modelo más rápido y gratuito para todos los usuarios de ChatGPT.

Microsoft ya está preparando actualizaciones de Copilot para aprovechar las nuevas capacidades tan pronto como estén disponibles. La compañía renovó completamente su asistente en octubre, eliminando las opciones «creativo», «equilibrado» y «preciso» para controlar la salida del modelo. En enero, añadieron el botón «Think Deeper» que utiliza el modelo de razonamiento o1 de OpenAI.

El gigante de Redmond también trabaja en su propia versión del agente Operator AI de OpenAI, capaz de interactuar con interfaces gráficas y automatizar tareas en la web. Es un concepto similar a las macros o los sistemas de piloto automático, que no requieren atención constante del usuario. Los equipos de Microsoft están centrados en reducir los costes para hacer estas tecnologías más atractivas para las empresas.

La llegada simultánea de GPT-5 y la conferencia Build promete una intensa batalla en el campo de la IA. Microsoft y Google competirán por mostrar los avances más impresionantes, especialmente ahora que ambas conferencias coinciden en mayo. Solo el tiempo dirá si OpenAI cumple con los plazos previstos para el lanzamiento de sus nuevos modelos.

·····················
Este es un resumen comentado, basado en la noticia original de Sergio Agudo publicada en La Vanguardia el 21/02/2025.
Puedes leer el artículo completo aquí: www.lavanguardia.com/andro4all/tecnologia/chatgpt-4-5-podria-llegar-la-proxima-semana-pero-el-verdadero-bombazo-esta-en-que-gpt-5-estaria-a-la-vuelta-de-la-esquina
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0090 DONA TIC

icono6 marzo «Open Data Day 2025» Mujeres liderando Datos Abiertos para la Igualdad

Las mujeres lideran el uso de datos abiertos para impulsar la igualdad de género en el Open Data Day 2025.El próximo 6 de marzo de 2025, Iniciativa Barcelona Open Data organiza en Ca l’Alier un evento que reúne a mujeres expertas en tecnologías de datos y datos abiertos. El objetivo es compartir conocimientos y experiencias sobre la reutilización de datos públicos para abordar desafíos relacionados con la igualdad de género. Este encuentro busca visibilizar y fortalecer la presencia femenina en el ecosistema de datos abiertos, fomentar redes de colaboración y promover soluciones digitales con impacto social y perspectiva de género.

 

El próximo 6 de marzo de 2025, Iniciativa Barcelona Open Data celebrará el evento central del Open Data Day 2025 bajo el título «Mujeres liderando los Datos Abiertos para la Igualdad». La cita tendrá lugar a las 17:30 horas en Ca l’Alier, ubicado en la Calle Pere IV, 362, en Barcelona. Este encuentro tiene como propósito destacar el conocimiento y las experiencias en torno a los datos abiertos públicos disponibles, así como explorar las oportunidades que su reutilización ofrece para enfrentar los retos relacionados con la igualdad de género.

El evento reunirá a un ecosistema de mujeres expertas en tecnologías de datos y Open Data, quienes compartirán proyectos destacados en la creación de herramientas tecnológicas basadas en datos abiertos. Estas iniciativas buscan abordar los desafíos que enfrentan los derechos de las mujeres y mejorar las intervenciones y proyectos orientados a avanzar en materia de igualdad.

Uno de los objetivos principales es visibilizar y fortalecer la presencia femenina en el ámbito de los datos abiertos, fomentando la creación de redes de colaboración y promoviendo soluciones digitales con impacto social y perspectiva de género. Además, se pretende generar un diálogo constructivo entre las organizaciones que publican datos y aquellas que los reutilizan, con el fin de aportar valor y desarrollar estrategias prácticas de manera conjunta.

El Open Data Day es una iniciativa de alcance mundial que se celebra desde hace 12 años, y en la cual Iniciativa Barcelona Open Data participa activamente desde 2017. Grupos de todo el mundo organizan eventos locales en los que utilizan datos abiertos en sus comunidades para crear aplicaciones, visualizaciones, publicar análisis y promover la apertura de más datos. Se trata de un evento anual que busca impulsar el conocimiento y uso de los datos abiertos a nivel global.

Los detalles del evento son los siguientes:

Día: 6 de marzo de 2025

Hora: 17:30h a 20:00h

Lugar: Ca l’Alier, Calle Pere IV, 362, Barcelona.

Formato: Presencial

Inscripción: https://bit.ly/Ev_ODD25

Este encuentro representa una oportunidad única para conectar con profesionales y entusiastas de los datos abiertos, y para contribuir activamente en la construcción de soluciones que promuevan la igualdad de género a través de la tecnología y la colaboración.

·····················

Este es un resumen comentado, basado en la noticia original publicada en Iniciativa Barcelona Open Data el 7 de febrero de 2025.

Puedes leer el artículo completo aquí: iniciativabarcelonaopendata.cat/ca/2025/02/open-data-day-2025-dones-liderant-dades-obertes-per-a-la-igualtat/

.

.

.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEstamos ante el fin del trabajo intelectual tal como lo conocemos? Deep Research

La función Deep Research de la IA amenaza con redefinir el trabajo intelectual tal y como lo conocemos.La reciente introducción de funciones de análisis profundo en chatbots de inteligencia artificial, como el ‘Deep Search’ de Elon Musk en Grok 3, el ‘Deep Research’ de OpenAI y la versión en Gemini de Google, está transformando el panorama del trabajo intelectual. Estas herramientas son capaces de navegar por la web, analizar múltiples fuentes y generar informes detallados en minutos, tareas que antes requerían días de trabajo humano. Aunque presentan limitaciones, como posibles errores factuales y falta de acceso a información privada, su eficiencia plantea una amenaza significativa para roles tradicionales en consultoría, investigación y análisis financiero.

 

La inteligencia artificial (IA) está experimentando una transformación significativa con la introducción de funciones de análisis profundo, conocidas como ‘Deep Research’. Elon Musk ha lanzado recientemente Grok 3, que incluye la función ‘Deep Search’, similar al ‘Deep Research’ de OpenAI y a la versión presentada por Google en su modelo Gemini. Esta tendencia se extiende a otras empresas como Perplexity, que también ha perfeccionado esta funcionalidad.

Estas herramientas de IA tienen la capacidad de navegar por la web, analizar múltiples fuentes y sintetizar información para producir informes detallados sobre diversos temas. A diferencia de las búsquedas tradicionales que ofrecen una lista de enlaces, los sistemas de ‘Deep Research’ comprenden preguntas complejas, las desglosan en partes, investigan cada aspecto consultando numerosas fuentes y ensamblan un análisis coherente citando sus referencias, todo en menos de diez minutos.

OpenAI ha afirmado que su ‘Deep Research’ puede realizar en media hora tareas que a analistas profesionales les llevarían días. Aunque ocasionalmente comete errores, como inexactitudes factuales o citas de fuentes inexistentes, la calidad general de los resultados es suficientemente alta para muchos propósitos prácticos.

Esta evolución tecnológica representa una amenaza para una parte considerable del trabajo intelectual actual. Profesionales como analistas junior en consultorías, investigadores que revisan literatura, abogados que preparan informes preliminares y asesores financieros que analizan empresas dedican gran parte de su tiempo a recopilar, sintetizar y presentar información de múltiples fuentes, tareas que los sistemas de ‘Deep Research’ pueden automatizar eficazmente.

Aunque estas herramientas no reemplazarán por completo a los trabajadores intelectuales, ya que no pueden acceder a información privada, pueden confundir fuentes o carecer del criterio experto para ciertos análisis, sí pueden automatizar gran parte del trabajo repetitivo y de «bajo nivel» que actualmente realizan muchos profesionales. Esto podría aumentar la productividad de los trabajadores más cualificados, pero también pone en riesgo los empleos que tradicionalmente servían como punto de entrada y formación para futuros expertos.

Los sistemas de ‘Deep Research’ tienen el potencial de alterar las trayectorias profesionales en cualquier industria basada en el conocimiento. Este avance demuestra cómo la IA no solo automatiza tareas manuales, sino que también se adentra en áreas que antes se consideraban exclusivas del intelecto humano. La cuestión ahora es cuánto del trabajo intelectual seguirá teniendo sentido económico si es realizado por humanos en lugar de por estas avanzadas herramientas de IA.

····················· Este es un resumen comentado, basado en la noticia original de Javier Lacort publicada en Xataka el 20 de febrero de 2025. Puedes leer el artículo completo aquí: www.xataka.com/robotica-e-ia/deep-research-no-solo-nueva-funcion-ia-principio-fin-trabajo-intelectual-tal-como-conocemos ····················· . . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAlgunas IA sacan matrícula… pero haciendo trampa: un estudio español desmonta su supuesto razonamiento»

Investigadores españoles descubren el truco que usan las IA para sacar tan buenas notas: “Es verdadera kriptonita”

Nuevos métodos revelan cómo las IA obtienen altas calificaciones sin razonar
Elon Musk presenta Grok 3 mientras estudios cuestionan la evaluación de chatbots
Investigación española expone las limitaciones de los tests actuales para IA

**Las IA actuales destacan más por memorización que por razonamiento auténtico, según revela un estudio español.**
Un equipo de investigadores españoles ha demostrado que los modelos de inteligencia artificial, como el recientemente anunciado Grok 3 de **Elon Musk**, suelen obtener altas calificaciones en pruebas estándar debido a la memorización de respuestas disponibles en línea, en lugar de un verdadero razonamiento. Al modificar las opciones de respuesta en los tests para incluir «Ninguna de las anteriores», se observó una disminución promedio del 50% al 57% en la precisión de estos modelos, evidenciando sus limitaciones en comprensión y razonamiento genuino.

En un entorno donde las empresas tecnológicas compiten ferozmente por demostrar la superioridad de sus modelos de inteligencia artificial, **Elon Musk** ha proclamado recientemente a Grok 3, desarrollado por su empresa **xAI**, como «la IA más inteligente del mundo». Simultáneamente, **Sam Altman**, de **ChatGPT**, destacó avances en GPT-4.5, describiéndolo como una experiencia cercana a una IA con sentido común. Sin embargo, estas afirmaciones han sido cuestionadas por una investigación española que pone en entredicho la eficacia de las evaluaciones actuales de estos modelos.

El equipo, liderado por **Julio Gonzalo**, catedrático de Lenguajes y Sistemas Informáticos de la **UNED**, ha identificado que los modelos de IA suelen depender de la memorización de respuestas previamente disponibles en línea, en lugar de emplear un razonamiento auténtico. Para evidenciar esta dependencia, los investigadores modificaron las pruebas estándar sustituyendo la respuesta correcta por una opción general: «Ninguna de las anteriores». Esta alteración obligaba a los modelos a analizar y razonar sobre cada opción, en lugar de reconocer patrones previamente almacenados.

Los resultados fueron reveladores. Todos los modelos evaluados mostraron una disminución significativa en su precisión, con caídas promedio del 50% al 57%, y variaciones entre el 10% y el 93% según el modelo específico. Este descenso en el rendimiento sugiere que, aunque las IA pueden manejar grandes volúmenes de información, su capacidad para generalizar y aplicar razonamiento lógico es limitada. **Gonzalo** señaló que este sencillo cambio en las pruebas «quita un velo a la experimentación con benchmarks y nos permite ver el progreso real en las … de los sistemas sin el ruido … «.

Además, la investigación destacó diferencias en el rendimiento de los modelos según el idioma. Las pruebas realizadas en español mostraron resultados inferiores en comparación con las realizadas en inglés, lo que indica una necesidad urgente de desarrollar modelos más equitativos y pruebas más rigurosas que reflejen con precisión las capacidades de razonamiento de las IA en diversos contextos lingüísticos.

Este estudio pone de manifiesto la importancia de diseñar evaluaciones que midan verdaderamente la comprensión y el razonamiento de las inteligencias artificiales, más allá de su capacidad para memorizar y reproducir información. En un momento donde las afirmaciones de superioridad en el campo de la IA son frecuentes, investigaciones como esta ofrecen una perspectiva crítica y fundamentada sobre las reales capacidades y limitaciones de estos sistemas avanzados.

·····················
Este es un resumen comentado, basado en la noticia original de **Jordi Pérez Colomé** publicada en **EL PAÍS** el **20 de febrero de 2025**.
Puedes leer el artículo completo aquí: **elpais.com/tecnologia/2025-02-20/investigadores-espanoles-descubren-el-truco-que-usan-las-ia-para-sacar-tan-buenas-notas-es-verdadera-kriptonita.html**
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono«Elon Musk es un fantasma» Ramón López de Mántaras cuestiona las capacidades de razonamiento de Grok3 y critica las promesas de Elon Musk

Grok3 de xAI decepciona al experto español: carece de razonamiento real y repite patrones sin comprender.

Ramón López de Mántaras, referente en IA, prueba Grok3 de xAI y concluye que no razona, sino que imita como «loro estocástico». Critica las afirmaciones de Elon Musk sobre su superioridad, evidenciando fallos en preguntas básicas y una falta de modelo del mundo en la IA.


El Independiente
publicó el 19 de febrero de 2025 un análisis demoledor sobre Grok3, el nuevo modelo de inteligencia artificial de xAI, firmado por Ramón López de Mántaras, pionero en IA y miembro de honor de la Asociación Europea de Inteligencia Artificial. Con una pregunta sencilla —»Si hoy es 29 de febrero, ¿qué día será dentro de un año?»— el experto expuso las limitaciones de Grok3. La respuesta, que erró al sugerir el 28 de febrero en lugar del 1 de marzo, reveló una carencia de comprensión temporal y lógica básica, fallos que López de Mántaras atribuye a la ausencia de razonamiento genuino. Para él, Grok3 no supera a competidores como ChatGPT o DeepSeek, sino que se limita a replicar patrones de sus datos de entrenamiento, careciendo de un «modelo del mundo» que le permita interactuar y aprender como lo hace un humano. Elon Musk, quien calificó a Grok3 como «la IA más inteligente de la Tierra», recibe duras críticas por exagerar sus capacidades, mientras xAI presume mejoras como un entrenamiento 15 veces superior al de Grok2. El experto subraya que, pese a su humor y respuestas sin filtros, la IA no cumple con las expectativas de innovación. Este diagnóstico resuena en un sector donde la carrera por la supremacía tecnológica choca con la necesidad de avances auténticos. “¿Seguirán las promesas grandilocuentes de Musk eclipsando la realidad de una IA que no piensa, o forzará esto un giro hacia desarrollos más transparentes y efectivos?”

·····················
Este es un resumen comentado, basado en la noticia original de Nacho Martín publicada en El Independiente el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: elindependiente.com/futuro/inteligencia-artificial/2025/02/19/mayor-experto-ia-espana-pone-prueba-grok3-loro-no-razona-elon-fantasma/
·····················
.
.
.
.

Scroll al inicio
Verificado por MonsterInsights