Catalunya, port digital de la Mediterrània: una aposta per la sobirania tecnològica i l’impuls econòmic
Autor: Jordi Marín
Autor: Jordi Marín
Un estudio revela que GPT-4.5 de OpenAI ha superado el test de Turing con una tasa de éxito del 73%, convenciendo más veces que humanos reales. Sin embargo, los expertos insisten: imitar el lenguaje humano no significa poseer inteligencia o consciencia, sino que muestra el avance de la sustituibilidad tecnológica.
La prueba ideada por Alan Turing en 1950 —el célebre “juego de imitación”— proponía que una máquina es inteligente si puede engañar a un humano haciéndole creer que también lo es. Este test se ha convertido en un símbolo del desarrollo de la inteligencia artificial, aunque su valor es más perceptivo que científico. Ahora, un nuevo estudio realizado por Cameron R. Jones y Benjamin K. Bergen, de la Universidad de California en San Diego, demuestra que varios modelos actuales de IA pueden pasar esta prueba con éxito.
El experimento evaluó cuatro sistemas conversacionales: el histórico ELIZA, el nuevo LLaMa-3.1-405B de Meta, GPT-4o y GPT-4.5 de OpenAI. Durante cinco minutos de conversación, los interrogadores —sin saber si interactuaban con un humano o una máquina— consideraron a GPT-4.5 como humano en el 73% de los casos, superando incluso al participante humano real. LLaMa-3.1 alcanzó un 56%, ELIZA un 23% y GPT-4o solo un 21%.
Los autores del estudio aclaran que superar esta prueba no significa haber alcanzado la inteligencia general artificial. El test mide sustituibilidad: la capacidad de un sistema para reemplazar funciones sociales o económicas sin ser detectado como máquina. Por tanto, se encienden señales de alerta sobre el impacto en empleos, relaciones humanas y la confianza digital.
La historia recuerda el caso de Eugene Goostman, un chatbot que pasó el test en 2014 simulando ser un niño ucraniano de 13 años, estrategia que suavizaba sus limitaciones. Hoy, con tecnologías mucho más sofisticadas, los expertos alertan de los riesgos que conlleva no saber si interactuamos con una máquina o una persona real, incluso para investigadores expertos.
Este fenómeno puede tener profundas implicaciones éticas, sociales y económicas. La capacidad de una IA para hacerse pasar por humano sin ser detectada plantea nuevos retos en la transparencia, la regulación y la protección frente a la manipulación y desinformación.
«¿Estamos preparados para un mundo en el que no sepamos si hablamos con una persona o una máquina?»
. .
.
Este es un resumen comentado, basado en el artículo : «La IA pasa el test de Turing (no corran todavía)» de Francesc Bracero publicado en La Vanguardia el 16/04/2025.
. .
El investigador Ramon López de Mántaras critica el entusiasmo acrítico hacia la IA generativa y defiende que la inteligencia y la consciencia solo pueden darse en seres vivos. Subraya que sin cuerpo ni comprensión del mundo, los sistemas como ChatGPT no suponen avances científicos reales y representan riesgos éticos y sociales relevantes.
Con medio siglo dedicado a la inteligencia artificial, Ramon López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial del CSIC, se muestra escéptico ante el impacto científico de herramientas como ChatGPT o Copilot. Considera que la fascinación por estos sistemas, basados en arquitectura Transformer, responde a una ilusión: la percepción de inteligencia que generan al producir textos coherentes y persuasivos, aunque en esencia no comprendan lo que dicen.
En su nuevo libro 100 cosas que hay que saber sobre inteligencia artificial, el científico catalán argumenta que la verdadera inteligencia requiere consciencia, y esta solo puede emerger de organismos vivos, con una base biológica —química del carbono—, distinta de la lógica binaria del silicio. Distingue radicalmente entre los procesos neuronales humanos y el procesamiento computacional, que califica de incomparable.
Crítico con la idea de una IA consciente, cree que esta afirmación debe demostrarse, no asumirse. Para él, dotar de cuerpo a la IA es una vía necesaria para acercarse al entendimiento del mundo físico y al sentido común, como proponen científicos como Demis Hassabis o Yann LeCun, aunque matiza que ni siquiera eso garantiza la aparición de consciencia.
Además, advierte sobre los riesgos del despliegue apresurado de estas tecnologías, sin pruebas suficientes ni regulaciones sólidas. Cita consecuencias ya conocidas, como suicidios relacionados con interacciones con chatbots, y apela a la prudencia y la responsabilidad ética. Apoya el enfoque regulador de la Unión Europea, aunque critica su excesiva burocratización y omisiones clave, como las armas autónomas.
«¿Estamos confundiendo complejidad algorítmica con comprensión real del mundo?»
. .
.
Este es un resumen comentado, basado en el artículo : «Ramon López de Mántaras, experto en IA: “La consciencia y la inteligencia solo se pueden dar en seres vivos”» de Manuel G. Pascual publicado en El País el 16/04/2025.
.
Meta ha integrado su inteligencia artificial en WhatsApp, generando inquietudes sobre privacidad, concentración y uso ético. Aunque no se puede eliminar del todo, se puede ocultar. Expertos advierten sobre cinco riesgos clave, como distracción, información imprecisa y alto consumo energético, promoviendo la desactivación parcial de esta función.
La implementación de Meta IA en WhatsApp, representada por un icono azul en la lista de chats, ha despertado tanto interés como preocupación. Aunque su propósito oficial es mejorar la experiencia del usuario mediante respuestas automatizadas, generación de imágenes y asistencia digital, un creciente número de expertos y usuarios cuestionan su impacto, especialmente en relación con la privacidad.
Desde Meta se asegura que esta IA no accede al contenido de las conversaciones privadas, pero el solo hecho de tenerla presente como una opción dentro de la aplicación resulta incómodo o invasivo para muchos. Por ello, varios usuarios están buscando la manera de eliminarla o reducir su visibilidad. Aunque no es posible desinstalarla por completo, se puede ocultar su acceso directo eliminando el chat correspondiente, lo cual evita interacciones no deseadas, aunque sigue disponible desde la barra de búsqueda.
Especialistas citan cinco motivos principales para considerar su desactivación. El primero es el impacto ambiental, ya que los modelos de IA consumen grandes cantidades de energía; incluso, generar una imagen podría equivaler al consumo de media carga de un teléfono móvil. El segundo es la inexactitud de la información: las respuestas generadas pueden contener errores o directamente ser invenciones. El tercero se refiere a la distracción constante, lo cual afecta negativamente la productividad. En cuarto lugar, se señala la limitación creativa, ya que la IA tiende a ofrecer respuestas estandarizadas. Por último, se menciona la reducción de la curiosidad: obtener respuestas inmediatas podría disminuir la capacidad crítica y el interés por investigar, especialmente entre estudiantes.
El uso de herramientas como Meta IA debe ser una elección informada. Para muchos, controlar su visibilidad es un primer paso hacia una interacción digital más segura, privada y consciente.
«¿Estamos cediendo demasiado control por la comodidad de una respuesta instantánea?»
. .
.
Este es un resumen comentado, basado en el artículo : «Un experto recomienda desactivar Meta IA en WhatsApp: podrías poner en riesgo tu privacidad» de RD Tododisca publicado en Tododisca el 15/04/2025.
. .
Hoy quiero viajar desde el siglo I a.C. hasta nuestros días, en un recorrido por el amor al Ego, la autocomplacencia, la veneración de uno mismo y el narcisista deleite de sentirse irresistible.
¿Quién no conoce la leyenda de Narciso? Ese joven griego, espectacularmente bello, que, enamorado de su propia imagen, se acercaba cada día a un lago y se quedaba extasiado contemplando su imagen reflejada en su superficie. Tan perfecto se percibía, tan hipnótica le resultaba la visión de sí mismo, que fue incapaz de apartarse de ella. Y así, absorto en su imagen, olvidó el mundo, el tiempo, el hambre y la sed… hasta que murió. Murió no por un castigo de los dioses, sino por algo más trágico: por no poder dejar de mirarse. Por quedar atrapado en su ilusión de perfección, preso de un amor imposible: el amor por sí mismo.
Hasta aquí, lo que nos cuenta la leyenda griega, que circulaba ya en el siglo I a.C., y su posterior versión romana, del poeta Ovidio, quien la inmortalizó en el año 8 d.C., en sus célebres Metamorfosis.
Lo que ya no tantos conocen es el remate a la leyenda que le dio Oscar Wilde en 1894, en su brevísimo cuento El discípulo: un giro de esos tan suyos, donde la ironía y la belleza se mezclan con una dosis de veneno. Wilde no se entretiene en contarnos el drama del muchacho y su reflejo. En lugar de eso, nos sitúa directamente en el momento posterior a su muerte. Las ninfas del bosque lloran su pérdida, claro… pero lo que sorprende es que la laguna también llora, llora desconsoladamente. Intrigadas, las ninfas le preguntan al lago:
—¿Por qué lloras tú, tanto amabas a Narciso?
Y la laguna responde:
—¿Por Narciso?, no, que va!
—Lloro por mí… porque cuando él se inclinaba sobre mí, yo veía reflejada en sus ojos mi propia belleza. Y ahora -sin Narciso- ya nunca más podré contemplar mi exquisita hermosura.
Mira por dónde: la vanidad no tiene límites. Y el amor, o más bien la idolatría al Ego, parece ser una pulsión que va más allá de los humanos… y alcanza incluso a la naturaleza.
Cuando acabé de leer es pasaje de Wilde pensé: esto es exactamente lo que ocurre hoy en las redes sociales.
Instagram, TikTok, X, Facebook… no son lagunas, pero funcionan de la misma manera. Cuando accedemos y nos sumergimos en ellas no buscamos mirar al mundo, buscamos vernos reflejados. No nos asomamos a ellas para conocer a otros, sino para comprobar si los otros nos devuelven una imagen que nos guste de nosotros mismos.
Publicamos una foto, un pensamiento, una frase ingeniosa, un vídeo: y nos quedamos esperando. Esperando likes, corazones, fueguitos, aplausos virtuales. Lo que en apariencia es compartir, muchas veces es solo una forma de preguntarnos: ¿cómo me ven? ¿cómo me reflejo en los ojos ajenos?
Y ahí está el riesgo. Como Narciso, corremos el peligro de quedar atrapados en nuestro propio reflejo digital. Alimentamos una imagen que nos parece perfecta, pero que exige alimnetarla con filtros, narrativa, validación… Creamos una versión de nosotros mismos que, si no recibe atención, se apaga. Y con ella, se apaga también parte de nuestra autoestima.
Pero no somos nosotros los único ‘malos’, como en el cuento de Wilde, quienes nos miran —el público, los seguidores— buscan su propia belleza en nuestros ojos. Nos siguen, sí, pero porque les devolvemos algo de lo que ellos quieren ver. Y así, en un circuito infinito de espejos, cada cual busca su reflejo en el otro… sin llegar a mirar nunca de verdad.
Las redes, que prometían conexión, se convierten entonces en una galería de reflejos, donde la imagen ha desplazado al encuentro, y el ego al diálogo.
Y quizá no muramos de hambre o sed, como Narciso. Pero sí podemos morir de algo parecido: de no ver más allá de nosotros mismos.
Así que cuidado.
El mito de Narciso no es solo una advertencia sobre la vanidad, sino sobre el riesgo de confundir una imagen con la realidad. Cuando vivimos pendientes del reflejo que los demás nos devuelven —ya sea aprobación, admiración o envidia—, dejamos de mirar hacia fuera y empezamos a girar en círculo. Todo lo que no nos refleja, nos molesta o nos aburre. Todo lo que no alimenta el ego, lo ignoramos.
—Dios!.
Y así, poco a poco, dejamos de ver al otro como es. Dejamos de escucharlo. De estar presentes para seguir mirándonos indefinida e inútilmente el propio ombligo.
El mayor peligro no es mirarse demasiado, sino dejar de ver el mundo más allá del espejo.
Y hoy, ese espejo ya no es un lago, es un apantalla u tiene wifi.
—Hala!
Tomás Cascante