20 de febrero de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAlgunas IA sacan matrícula… pero haciendo trampa: un estudio español desmonta su supuesto razonamiento»

Investigadores españoles descubren el truco que usan las IA para sacar tan buenas notas: “Es verdadera kriptonita”

Nuevos métodos revelan cómo las IA obtienen altas calificaciones sin razonar
Elon Musk presenta Grok 3 mientras estudios cuestionan la evaluación de chatbots
Investigación española expone las limitaciones de los tests actuales para IA

**Las IA actuales destacan más por memorización que por razonamiento auténtico, según revela un estudio español.**
Un equipo de investigadores españoles ha demostrado que los modelos de inteligencia artificial, como el recientemente anunciado Grok 3 de **Elon Musk**, suelen obtener altas calificaciones en pruebas estándar debido a la memorización de respuestas disponibles en línea, en lugar de un verdadero razonamiento. Al modificar las opciones de respuesta en los tests para incluir «Ninguna de las anteriores», se observó una disminución promedio del 50% al 57% en la precisión de estos modelos, evidenciando sus limitaciones en comprensión y razonamiento genuino.

En un entorno donde las empresas tecnológicas compiten ferozmente por demostrar la superioridad de sus modelos de inteligencia artificial, **Elon Musk** ha proclamado recientemente a Grok 3, desarrollado por su empresa **xAI**, como «la IA más inteligente del mundo». Simultáneamente, **Sam Altman**, de **ChatGPT**, destacó avances en GPT-4.5, describiéndolo como una experiencia cercana a una IA con sentido común. Sin embargo, estas afirmaciones han sido cuestionadas por una investigación española que pone en entredicho la eficacia de las evaluaciones actuales de estos modelos.

El equipo, liderado por **Julio Gonzalo**, catedrático de Lenguajes y Sistemas Informáticos de la **UNED**, ha identificado que los modelos de IA suelen depender de la memorización de respuestas previamente disponibles en línea, en lugar de emplear un razonamiento auténtico. Para evidenciar esta dependencia, los investigadores modificaron las pruebas estándar sustituyendo la respuesta correcta por una opción general: «Ninguna de las anteriores». Esta alteración obligaba a los modelos a analizar y razonar sobre cada opción, en lugar de reconocer patrones previamente almacenados.

Los resultados fueron reveladores. Todos los modelos evaluados mostraron una disminución significativa en su precisión, con caídas promedio del 50% al 57%, y variaciones entre el 10% y el 93% según el modelo específico. Este descenso en el rendimiento sugiere que, aunque las IA pueden manejar grandes volúmenes de información, su capacidad para generalizar y aplicar razonamiento lógico es limitada. **Gonzalo** señaló que este sencillo cambio en las pruebas «quita un velo a la experimentación con benchmarks y nos permite ver el progreso real en las … de los sistemas sin el ruido … «.

Además, la investigación destacó diferencias en el rendimiento de los modelos según el idioma. Las pruebas realizadas en español mostraron resultados inferiores en comparación con las realizadas en inglés, lo que indica una necesidad urgente de desarrollar modelos más equitativos y pruebas más rigurosas que reflejen con precisión las capacidades de razonamiento de las IA en diversos contextos lingüísticos.

Este estudio pone de manifiesto la importancia de diseñar evaluaciones que midan verdaderamente la comprensión y el razonamiento de las inteligencias artificiales, más allá de su capacidad para memorizar y reproducir información. En un momento donde las afirmaciones de superioridad en el campo de la IA son frecuentes, investigaciones como esta ofrecen una perspectiva crítica y fundamentada sobre las reales capacidades y limitaciones de estos sistemas avanzados.

·····················
Este es un resumen comentado, basado en la noticia original de **Jordi Pérez Colomé** publicada en **EL PAÍS** el **20 de febrero de 2025**.
Puedes leer el artículo completo aquí: **elpais.com/tecnologia/2025-02-20/investigadores-espanoles-descubren-el-truco-que-usan-las-ia-para-sacar-tan-buenas-notas-es-verdadera-kriptonita.html**
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono«Elon Musk es un fantasma» Ramón López de Mántaras cuestiona las capacidades de razonamiento de Grok3 y critica las promesas de Elon Musk

Grok3 de xAI decepciona al experto español: carece de razonamiento real y repite patrones sin comprender.

Ramón López de Mántaras, referente en IA, prueba Grok3 de xAI y concluye que no razona, sino que imita como «loro estocástico». Critica las afirmaciones de Elon Musk sobre su superioridad, evidenciando fallos en preguntas básicas y una falta de modelo del mundo en la IA.


El Independiente
publicó el 19 de febrero de 2025 un análisis demoledor sobre Grok3, el nuevo modelo de inteligencia artificial de xAI, firmado por Ramón López de Mántaras, pionero en IA y miembro de honor de la Asociación Europea de Inteligencia Artificial. Con una pregunta sencilla —»Si hoy es 29 de febrero, ¿qué día será dentro de un año?»— el experto expuso las limitaciones de Grok3. La respuesta, que erró al sugerir el 28 de febrero en lugar del 1 de marzo, reveló una carencia de comprensión temporal y lógica básica, fallos que López de Mántaras atribuye a la ausencia de razonamiento genuino. Para él, Grok3 no supera a competidores como ChatGPT o DeepSeek, sino que se limita a replicar patrones de sus datos de entrenamiento, careciendo de un «modelo del mundo» que le permita interactuar y aprender como lo hace un humano. Elon Musk, quien calificó a Grok3 como «la IA más inteligente de la Tierra», recibe duras críticas por exagerar sus capacidades, mientras xAI presume mejoras como un entrenamiento 15 veces superior al de Grok2. El experto subraya que, pese a su humor y respuestas sin filtros, la IA no cumple con las expectativas de innovación. Este diagnóstico resuena en un sector donde la carrera por la supremacía tecnológica choca con la necesidad de avances auténticos. “¿Seguirán las promesas grandilocuentes de Musk eclipsando la realidad de una IA que no piensa, o forzará esto un giro hacia desarrollos más transparentes y efectivos?”

·····················
Este es un resumen comentado, basado en la noticia original de Nacho Martín publicada en El Independiente el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: elindependiente.com/futuro/inteligencia-artificial/2025/02/19/mayor-experto-ia-espana-pone-prueba-grok3-loro-no-razona-elon-fantasma/
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoHay que bajarse de la nube? / Repatriación a la nube: el movimiento que está ahorrando millones a las empresas

De 10.000 euros anuales a 500: así es como las empresas aprovechan la repatriación a la nube para ahorrarse una verdadera fortuna

Empresas españolas reducen costes migrando de AWS y Azure a infraestructuras propias más económicas
La repatriación a la nube permite a las empresas disminuir drásticamente sus gastos en infraestructura
Cómo abandonar los gigantes de la nube y ahorrar hasta un 95% en costos operativos

**La repatriación a la nube emerge como una estrategia eficaz para que las empresas reduzcan significativamente sus costos operativos en infraestructura tecnológica.** Empresas españolas están optando por migrar de servicios en la nube como AWS y Azure a infraestructuras locales propias, logrando ahorros de hasta un 95% en sus gastos anuales. Esta tendencia, conocida como repatriación a la nube, se basa en la premisa de que, en ciertos casos, gestionar servidores propios resulta más rentable que depender de soluciones en la nube de terceros. No obstante, esta estrategia requiere un análisis detallado para asegurar su viabilidad y éxito en cada organización.

 

En los últimos años, gigantes tecnológicos como Amazon, Microsoft y Google han dominado el mercado de servicios en la nube, ofreciendo soluciones que prometen resolver múltiples desafíos empresariales. Sin embargo, una nueva tendencia denominada «repatriación a la nube» está ganando terreno. Esta estrategia implica que las empresas trasladan sus servicios y datos desde plataformas en la nube a infraestructuras locales propias, con el objetivo principal de reducir costos operativos.

Jerónimo Palacios, experto en metodologías ágiles y desarrollo organizacional, compartió su experiencia al respecto. En su empresa, inicialmente dependían completamente de servicios en la nube, lo que les garantizaba un servicio sin interrupciones y sin preocupaciones relacionadas con la infraestructura. No obstante, con el tiempo, observaron un incremento significativo en los costos, llegando a pagar más del doble de lo que desembolsaban al inicio. Ante esta situación, decidieron explorar alternativas más económicas.

Tras una investigación exhaustiva, optaron por migrar a un servidor VPS con un costo anual de 70 euros, complementado con el servicio Edge Professional de Cloudflare por 250 euros. Esta combinación les permitió obtener un ahorro cercano al 90%. Además, al trasladar servicios desde proveedores como AWS y Azure a servidores en Hetzner, lograron reducir una factura anual de 10.000 euros a apenas 500 euros, lo que representa una disminución del 95% en sus gastos de infraestructura.

Esta tendencia no es exclusiva de pequeñas empresas. Según Palacios, compañías medianas y grandes, incluyendo algunas cotizadas en el IBEX35, están considerando seriamente si mantener toda su infraestructura en plataformas como Google Cloud, AWS y Azure. Incluso contemplando los costos asociados a la gestión de infraestructura propia, estas empresas estiman una reducción mínima del 80% al migrar de soluciones PaaS a servidores propios o gestionados.

Un factor adicional que impulsa esta migración es la nueva normativa bancaria DORA sobre resiliencia. Esta regulación obliga a las grandes corporaciones a alojar sus datos en servidores propios para garantizar la continuidad operativa en caso de interrupciones en los servicios en la nube. Esta obligación legal se ha convertido en una oportunidad para que las empresas reconsideren sus estrategias de infraestructura y, al mismo tiempo, reduzcan costos.

Aunque la repatriación a la nube ofrece beneficios económicos significativos, no es una solución universal. Cada organización debe evaluar detalladamente sus necesidades específicas, recursos disponibles y capacidades técnicas antes de emprender una migración de este tipo. La planificación y el análisis exhaustivo son esenciales para garantizar que esta estrategia sea efectiva y sostenible a largo plazo.

·····················
Este es un resumen comentado, basado en la noticia original de Javier Pastor publicada en Xataka el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: www.xataka.com/servicios/10-000-euros-anuales-a-500-asi-como-empresas-aprovechan-repatriacion-a-nube-para-ahorrarse-verdadera-fortuna
·····················

. . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoDeepSeek no es código abierto

La falta de transparencia en los modelos de inteligencia artificial obstaculiza el progreso científico y erosiona la confianza pública.
La ciencia abierta promueve la transparencia y accesibilidad en todas las etapas del proceso científico, permitiendo la reproducibilidad y colaboración para avanzar en el conocimiento. Sin embargo, en el ámbito de la inteligencia artificial, muchas empresas tecnológicas desarrollan modelos cerrados, como DeepSeek, que no comparten su código fuente, limitando la comprensión y mejora por parte de la comunidad científica. Esta opacidad dificulta el progreso y afecta negativamente la confianza en la investigación en IA.

 

A principios de los años ochenta, **Víctor Etxebarria Ecenarro**, catedrático de la **Universidad del País Vasco / Euskal Herriko Unibertsitatea**, se inició en la informática con un ordenador doméstico conectado al televisor. Publicaba programas sencillos en revistas especializadas, compartiendo el código fuente para que otros pudieran reproducir y modificar su trabajo. Este enfoque representa los principios de la ciencia abierta, donde la transparencia y accesibilidad son fundamentales para el avance del conocimiento.

La ciencia abierta implica que todas las etapas del proceso científico sean transparentes y accesibles, incluyendo la publicación de artículos, datos, métodos y herramientas necesarias para replicar investigaciones. En el campo de la inteligencia artificial, este enfoque es esencial para garantizar la reproducibilidad y transparencia, permitiendo un progreso coherente y beneficioso para la sociedad.

No obstante, muchas empresas tecnológicas desarrollan modelos de IA como cajas negras, sin explicar su funcionamiento interno ni proporcionar acceso al código fuente. Un ejemplo es **DeepSeek**, que, aunque se promociona como «open source», solo ofrece el código compilado, impidiendo que los investigadores comprendan o mejoren el programa. Esta falta de apertura contrasta con iniciativas como **Rosetta** y **AlphaFold**, que, aunque han enfrentado críticas por restricciones en la disponibilidad de su código, representan esfuerzos hacia una mayor transparencia en la investigación científica.

La opacidad en los modelos de IA no solo dificulta el progreso científico, sino que también erosiona la confianza pública en estas tecnologías. Para fomentar un desarrollo ético y efectivo de la inteligencia artificial, es crucial que las empresas adopten prácticas de ciencia abierta, compartiendo sus avances y permitiendo la colaboración global en beneficio de toda la humanidad.

**»Si la inteligencia artificial es una herramienta con potencial transformador para toda la sociedad, ¿por qué su desarrollo sigue estando en manos de unos pocos privilegiados?»**

·····················
Este es un resumen comentado, basado en la noticia original de **Víctor Etxebarria Ecenarro** publicada en **The Conversation** el **17 de febrero de 2025**.
Puedes leer el artículo completo aquí: **theconversation.com/inteligencia-artificial-abierta-para-todos-o-cerrada-para-beneficio-de-unos-pocos-249399**
·····················
.
.
.
.

Scroll al inicio
Verificado por MonsterInsights