0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA pasa el test de Turing (no corran todavía)

Un estudio revela que GPT-4.5 de OpenAI ha superado el test de Turing con una tasa de éxito del 73%, convenciendo más veces que humanos reales. Sin embargo, los expertos insisten: imitar el lenguaje humano no significa poseer inteligencia o consciencia, sino que muestra el avance de la sustituibilidad tecnológica.

La prueba ideada por Alan Turing en 1950 —el célebre “juego de imitación”— proponía que una máquina es inteligente si puede engañar a un humano haciéndole creer que también lo es. Este test se ha convertido en un símbolo del desarrollo de la inteligencia artificial, aunque su valor es más perceptivo que científico. Ahora, un nuevo estudio realizado por Cameron R. Jones y Benjamin K. Bergen, de la Universidad de California en San Diego, demuestra que varios modelos actuales de IA pueden pasar esta prueba con éxito.

El experimento evaluó cuatro sistemas conversacionales: el histórico ELIZA, el nuevo LLaMa-3.1-405B de Meta, GPT-4o y GPT-4.5 de OpenAI. Durante cinco minutos de conversación, los interrogadores —sin saber si interactuaban con un humano o una máquina— consideraron a GPT-4.5 como humano en el 73% de los casos, superando incluso al participante humano real. LLaMa-3.1 alcanzó un 56%, ELIZA un 23% y GPT-4o solo un 21%.

Los autores del estudio aclaran que superar esta prueba no significa haber alcanzado la inteligencia general artificial. El test mide sustituibilidad: la capacidad de un sistema para reemplazar funciones sociales o económicas sin ser detectado como máquina. Por tanto, se encienden señales de alerta sobre el impacto en empleos, relaciones humanas y la confianza digital.

La historia recuerda el caso de Eugene Goostman, un chatbot que pasó el test en 2014 simulando ser un niño ucraniano de 13 años, estrategia que suavizaba sus limitaciones. Hoy, con tecnologías mucho más sofisticadas, los expertos alertan de los riesgos que conlleva no saber si interactuamos con una máquina o una persona real, incluso para investigadores expertos.

Este fenómeno puede tener profundas implicaciones éticas, sociales y económicas. La capacidad de una IA para hacerse pasar por humano sin ser detectada plantea nuevos retos en la transparencia, la regulación y la protección frente a la manipulación y desinformación.

«¿Estamos preparados para un mundo en el que no sepamos si hablamos con una persona o una máquina?»

. .
.

Este es un resumen comentado, basado en el artículo : «La IA pasa el test de Turing (no corran todavía)» de Francesc Bracero publicado en La Vanguardia el 16/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

icono“La consciencia y la inteligencia solo se pueden dar en seres vivos / Ramon López de Mántaras

El investigador Ramon López de Mántaras critica el entusiasmo acrítico hacia la IA generativa y defiende que la inteligencia y la consciencia solo pueden darse en seres vivos. Subraya que sin cuerpo ni comprensión del mundo, los sistemas como ChatGPT no suponen avances científicos reales y representan riesgos éticos y sociales relevantes.

Con medio siglo dedicado a la inteligencia artificial, Ramon López de Mántaras, fundador del Instituto de Investigación de Inteligencia Artificial del CSIC, se muestra escéptico ante el impacto científico de herramientas como ChatGPT o Copilot. Considera que la fascinación por estos sistemas, basados en arquitectura Transformer, responde a una ilusión: la percepción de inteligencia que generan al producir textos coherentes y persuasivos, aunque en esencia no comprendan lo que dicen.

En su nuevo libro 100 cosas que hay que saber sobre inteligencia artificial, el científico catalán argumenta que la verdadera inteligencia requiere consciencia, y esta solo puede emerger de organismos vivos, con una base biológica —química del carbono—, distinta de la lógica binaria del silicio. Distingue radicalmente entre los procesos neuronales humanos y el procesamiento computacional, que califica de incomparable.

Crítico con la idea de una IA consciente, cree que esta afirmación debe demostrarse, no asumirse. Para él, dotar de cuerpo a la IA es una vía necesaria para acercarse al entendimiento del mundo físico y al sentido común, como proponen científicos como Demis Hassabis o Yann LeCun, aunque matiza que ni siquiera eso garantiza la aparición de consciencia.

Además, advierte sobre los riesgos del despliegue apresurado de estas tecnologías, sin pruebas suficientes ni regulaciones sólidas. Cita consecuencias ya conocidas, como suicidios relacionados con interacciones con chatbots, y apela a la prudencia y la responsabilidad ética. Apoya el enfoque regulador de la Unión Europea, aunque critica su excesiva burocratización y omisiones clave, como las armas autónomas.

«¿Estamos confundiendo complejidad algorítmica con comprensión real del mundo?»

. .
.

Este es un resumen comentado, basado en el artículo : «Ramon López de Mántaras, experto en IA: “La consciencia y la inteligencia solo se pueden dar en seres vivos”» de Manuel G. Pascual publicado en El País el 16/04/2025.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿Es segura la IA en WhatsApp? Lo que debes saber antes de usarla

Meta ha integrado su inteligencia artificial en WhatsApp, generando inquietudes sobre privacidad, concentración y uso ético. Aunque no se puede eliminar del todo, se puede ocultar. Expertos advierten sobre cinco riesgos clave, como distracción, información imprecisa y alto consumo energético, promoviendo la desactivación parcial de esta función.

La implementación de Meta IA en WhatsApp, representada por un icono azul en la lista de chats, ha despertado tanto interés como preocupación. Aunque su propósito oficial es mejorar la experiencia del usuario mediante respuestas automatizadas, generación de imágenes y asistencia digital, un creciente número de expertos y usuarios cuestionan su impacto, especialmente en relación con la privacidad.

Desde Meta se asegura que esta IA no accede al contenido de las conversaciones privadas, pero el solo hecho de tenerla presente como una opción dentro de la aplicación resulta incómodo o invasivo para muchos. Por ello, varios usuarios están buscando la manera de eliminarla o reducir su visibilidad. Aunque no es posible desinstalarla por completo, se puede ocultar su acceso directo eliminando el chat correspondiente, lo cual evita interacciones no deseadas, aunque sigue disponible desde la barra de búsqueda.

Especialistas citan cinco motivos principales para considerar su desactivación. El primero es el impacto ambiental, ya que los modelos de IA consumen grandes cantidades de energía; incluso, generar una imagen podría equivaler al consumo de media carga de un teléfono móvil. El segundo es la inexactitud de la información: las respuestas generadas pueden contener errores o directamente ser invenciones. El tercero se refiere a la distracción constante, lo cual afecta negativamente la productividad. En cuarto lugar, se señala la limitación creativa, ya que la IA tiende a ofrecer respuestas estandarizadas. Por último, se menciona la reducción de la curiosidad: obtener respuestas inmediatas podría disminuir la capacidad crítica y el interés por investigar, especialmente entre estudiantes.

El uso de herramientas como Meta IA debe ser una elección informada. Para muchos, controlar su visibilidad es un primer paso hacia una interacción digital más segura, privada y consciente.

«¿Estamos cediendo demasiado control por la comodidad de una respuesta instantánea?»

. .
.

Este es un resumen comentado, basado en el artículo : «Un experto recomienda desactivar Meta IA en WhatsApp: podrías poner en riesgo tu privacidad» de RD Tododisca publicado en Tododisca el 15/04/2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0080 CRÓNICAS AZOTEA

iconoNarciso 2.0 La era del Yo hipnótico

Hoy quiero viajar desde el siglo I a.C. hasta nuestros días, en un recorrido por el amor al Ego, la autocomplacencia, la veneración de uno mismo y el narcisista deleite de sentirse irresistible.

¿Quién no conoce la leyenda de Narciso? Ese joven griego, espectacularmente bello, que, enamorado de su propia imagen, se acercaba cada día a un lago y se quedaba extasiado contemplando su imagen reflejada en su superficie. Tan perfecto se percibía, tan hipnótica le resultaba la visión de sí mismo, que fue incapaz de apartarse de ella. Y así, absorto en su imagen, olvidó el mundo, el tiempo, el hambre y la sed… hasta que murió. Murió no por un castigo de los dioses, sino por algo más trágico: por no poder dejar de mirarse. Por quedar atrapado en su ilusión de perfección, preso de un amor imposible: el amor por sí mismo.

Hasta aquí, lo que nos cuenta la leyenda griega, que circulaba ya en el siglo I a.C., y su posterior versión romana, del poeta Ovidio, quien la inmortalizó en el año 8 d.C., en sus célebres Metamorfosis.

Lo que ya no tantos conocen es el remate a la leyenda que le dio Oscar Wilde en 1894, en su brevísimo cuento El discípulo: un giro de esos tan suyos, donde la ironía y la belleza se mezclan con una dosis de veneno. Wilde no se entretiene en contarnos el drama del muchacho y su reflejo. En lugar de eso, nos sitúa directamente en el momento posterior a su muerte. Las ninfas del bosque lloran su pérdida, claro… pero lo que sorprende es que la laguna también llora, llora desconsoladamente. Intrigadas, las ninfas le preguntan al lago:

—¿Por qué lloras tú, tanto amabas a Narciso?

Y la laguna responde:

—¿Por Narciso?, no, que va!

—Lloro por mí… porque cuando él se inclinaba sobre mí, yo veía reflejada en sus ojos mi propia belleza. Y ahora -sin Narciso- ya nunca más podré contemplar mi exquisita hermosura.

Mira por dónde: la vanidad no tiene límites. Y el amor, o más bien la idolatría al Ego, parece ser una pulsión que va más allá de los humanos… y alcanza incluso a la naturaleza.

Cuando acabé de leer es pasaje de Wilde pensé: esto es exactamente lo que ocurre hoy en las redes sociales.

Instagram, TikTok, X, Facebook… no son lagunas, pero funcionan de la misma manera. Cuando accedemos y nos sumergimos en ellas no buscamos mirar al mundo, buscamos vernos reflejados. No nos asomamos a ellas para conocer a otros, sino para comprobar si los otros nos devuelven una imagen que nos guste de nosotros mismos.

Publicamos una foto, un pensamiento, una frase ingeniosa, un vídeo: y nos quedamos esperando. Esperando likes, corazones, fueguitos, aplausos virtuales. Lo que en apariencia es compartir, muchas veces es solo una forma de preguntarnos: ¿cómo me ven? ¿cómo me reflejo en los ojos ajenos?

Y ahí está el riesgo. Como Narciso, corremos el peligro de quedar atrapados en nuestro propio reflejo digital. Alimentamos una imagen que nos parece perfecta, pero que exige alimnetarla con filtros, narrativa, validación… Creamos una versión de nosotros mismos que, si no recibe atención, se apaga. Y con ella, se apaga también parte de nuestra autoestima.

Pero no somos nosotros los único ‘malos’, como en el cuento de Wilde, quienes nos miran —el público, los seguidores— buscan su propia belleza en nuestros ojos. Nos siguen, sí, pero porque les devolvemos algo de lo que ellos quieren ver. Y así, en un circuito infinito de espejos, cada cual busca su reflejo en el otro… sin llegar a mirar nunca de verdad.

Las redes, que prometían conexión, se convierten entonces en una galería de reflejos, donde la imagen ha desplazado al encuentro, y el ego al diálogo.

Y quizá no muramos de hambre o sed, como Narciso. Pero sí podemos morir de algo parecido: de no ver más allá de nosotros mismos.

Así que cuidado.

El mito de Narciso no es solo una advertencia sobre la vanidad, sino sobre el riesgo de confundir una imagen con la realidad. Cuando vivimos pendientes del reflejo que los demás nos devuelven —ya sea aprobación, admiración o envidia—, dejamos de mirar hacia fuera y empezamos a girar en círculo. Todo lo que no nos refleja, nos molesta o nos aburre. Todo lo que no alimenta el ego, lo ignoramos.

—Dios!.

Y así, poco a poco, dejamos de ver al otro como es. Dejamos de escucharlo. De estar presentes para seguir mirándonos indefinida e inútilmente el propio ombligo.

El mayor peligro no es mirarse demasiado, sino dejar de ver el mundo más allá del espejo.

Y hoy, ese espejo ya no es un lago, es un apantalla u tiene wifi.

—Hala!

Tomás Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenAI lanza GPT-4.1 y amplía su arsenal de modelos para desarrolladores

OpenAI ha presentado GPT-4.1, GPT-4.1 mini y GPT-4.1 nano, una nueva familia de modelos de lenguaje más eficientes, precisos y adaptados a usos reales, que superan a sus predecesores y estarán disponibles exclusivamente mediante API, no en ChatGPT. Destacan por su ventana de contexto de hasta un millón de tokens y precios escalonados según capacidad.

OpenAI ha dado un paso clave en su hoja de ruta tecnológica con la presentación de tres nuevos modelos de lenguaje: GPT-4.1, GPT-4.1 mini y GPT-4.1 nano. Estas versiones, orientadas específicamente a desarrolladores, están disponibles únicamente a través de la API de OpenAI, lo que marca una clara estrategia de producto centrada en aplicaciones y servicios profesionales.

Los modelos superan a GPT-4o y GPT-4o mini, y según la propia OpenAI, incluso mejoran aspectos del reciente GPT-4.5. Entre las principales novedades destaca una ventana de contexto de hasta un millón de tokens, lo que permite trabajar con textos mucho más extensos de una sola vez. También se ha actualizado la base de conocimiento hasta junio de 2024, lo que mejora la relevancia y actualidad de sus respuestas.

En pruebas de rendimiento (benchmarks), GPT-4.1 lidera en tres frentes: programación (54,6% en SWE-bench Verified), capacidad de seguir instrucciones (38,3% en MultiChallenge) y comprensión de contextos largos (72% en Video-MME sin subtítulos), superando ampliamente a modelos anteriores.

Los precios varían en función del modelo y su potencia: el GPT-4.1 cuesta 2 $ por millón de tokens de entrada y 8 $ por millón de salida; GPT-4.1 mini baja a 0,40 $ y 1,60 $, y el más liviano, GPT-4.1 nano, se ofrece por apenas 0,10 $ y 0,40 $ respectivamente. Esta escalabilidad en coste y rendimiento permite elegir el modelo óptimo según presupuesto y necesidad.

Aunque no estarán disponibles en ChatGPT, su integración en productos es inmediata. OpenAI busca mantener el liderazgo en un contexto cada vez más competitivo, donde rivales como Google avanzan con propuestas potentes. Además, Sam Altman anticipó el lanzamiento de dos nuevos modelos este año: o3 y o4-mini, aunque su desarrollo está en pausa.

«¿Debería la evolución de modelos de lenguaje priorizar benchmarks o utilidad en escenarios reales?»

. .
.

Este es un resumen comentado, basado en el artículo : «OpenAI pisa el acelerador: presenta GPT-4.1 junto a otros dos modelos de lenguaje para seguir marcando el ritmo de la IA» de Javier Marquez publicado en Xataka el 14 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTED2025: Humanity Reimagined, conclusiones

TED2025 concluyó con una intensa jornada de reflexiones sobre inteligencia artificial, salud mental colectiva, activismo climático y espiritualidad. Sam Altman habló del futuro de la IA como una extensión humana, Xiye Bastida reivindicó la sabiduría indígena frente al cambio climático y Pico Iyer celebró el poder del silencio como medicina universal.
El evento TED2025: Humanity Reimagined concluyó en Vancouver con una jornada cargada de ideas provocadoras sobre el futuro de la humanidad. La última sesión congregó a destacados ponentes que abordaron desde la revolución de la inteligencia artificial hasta la espiritualidad y la acción climática como pilares para un futuro más consciente y sostenible.

Sam Altman, CEO de OpenAI, abrió la jornada dialogando con Chris Anderson, director de TED. Altman analizó el crecimiento exponencial de los modelos como ChatGPT, vaticinando un futuro donde estas inteligencias actuarán como extensiones de nuestra mente. Rechazó la idea de una única “explosión” de la AGI (inteligencia general artificial), abogando por una evolución gradual. Hizo énfasis en el desarrollo de IA agentica, con capacidades autónomas, y la urgencia de diseñar barreras éticas que prevengan abusos de poder y riesgos sistémicos.

El periodista y podcaster Dan Taberski presentó un inquietante estudio sobre un caso real de histeria colectiva en 2011, cuando un grupo de adolescentes en Nueva York comenzó a manifestar síntomas similares al síndrome de Tourette. Taberski usó este episodio como espejo de la vulnerabilidad social ante el estrés colectivo y la desinformación.

La activista climática Xiye Bastida ofreció un mensaje inspirador desde la resiliencia ecológica y el liderazgo indígena. Invitó a reimaginar el futuro aprendiendo de la naturaleza y empleando la imaginación como herramienta de cambio, reclamando un activismo climático fundamentado en la esperanza activa.

El cierre estuvo a cargo del escritor Pico Iyer, quien compartió una conmovedora reflexión sobre la muerte de su padre y la importancia del silencio profundo como vía de sanación y reconexión personal. Su testimonio reafirmó el poder restaurador de detenerse y escuchar más allá del ruido cotidiano.

La jornada subrayó que, ante desafíos globales, la combinación de tecnología, ética, comunidad y espiritualidad será esencial para diseñar el mundo que queremos habitar.

«¿Cómo podemos equilibrar el avance tecnológico con la necesidad de introspección y conexión humana auténtica?»

. .
.

Este es un resumen comentado, basado en el artículo : «An epic day 5 of TED2025» de Brian Greene, Maria Ladias y Oliver Friedman publicado en TED Blog el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSam Altman plantea pagar a artistas cuyos estilos inspiren la inteligencia artificial

El CEO de OpenAI, Sam Altman, propuso durante TED 2025 un modelo de reparto de ingresos para artistas cuyos estilos sean usados por sistemas de IA. La idea surge tras el escándalo por imágenes generadas al estilo de Studio Ghibli. Altman también adelantó novedades de ChatGPT como memoria contextual y menor censura.
Durante su intervención en TED 2025, el CEO de OpenAI, Sam Altman, planteó la creación de un modelo de reparto de ingresos para artistas y creadores que opten por permitir el uso de su estilo en contenidos generados por inteligencia artificial. La propuesta llega en un momento crítico, marcado por la polémica que generó en redes sociales la tendencia viral de imágenes generadas con estilo del estudio japonés Studio Ghibli, lo que reavivó el debate sobre el respeto a los derechos de autor en la era de la IA.

Altman sugirió que si un creador da su consentimiento explícito para que su obra sea usada como referencia por modelos como ChatGPT, se podría implementar un sistema de compensación económica proporcional. “Sería genial encontrar un modelo donde si alguien quiere generar una imagen en nombre de un artista que ha dado su consentimiento, exista una vía de ingresos”, declaró. No obstante, reconoció la complejidad de aplicar esta lógica cuando se combinan varios estilos, planteando interrogantes como: ¿cómo se distribuye equitativamente el dinero entre múltiples creadores?

En cuanto al estado actual del sistema, Altman explicó que existen barreras técnicas en los modelos de OpenAI para impedir la generación de imágenes que copien directamente el estilo de artistas específicos sin consentimiento. Añadió que OpenAI está trabajando en suavizar restricciones sobre temas de lenguaje, en busca de una generación más abierta de contenido.

Entre otras novedades, Altman presentó una función de memoria contextual en el generador de imágenes de ChatGPT, basada en GPT-4o, que permite recordar consultas previas del usuario y actuar como una extensión personalizada. Esta función, explicó, podría eventualmente observar e interactuar de forma más continua con las actividades del usuario.

Finalmente, Altman abordó el temor a la sustitución laboral por la IA, afirmando que, como en otras revoluciones tecnológicas, aumentarán tanto las exigencias como las capacidades humanas. OpenAI, actualmente valorada en 300.000 millones de dólares, desarrolla también agentes autónomos capaces de operar en nombre de los usuarios.

«¿Qué mecanismos deberían establecerse para garantizar una compensación justa a los creadores en el ecosistema de la inteligencia artificial?»

. .
.

Este es un resumen comentado, basado en el artículo : «‘It would be cool’: OpenAI CEO Sam Altman suggests revenue-sharing model for creators in time» de Tech Desk publicado en The Indian Express el 13 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBarcelona se convierte en capital de los profesionales digitales

Barcelona ha sumado más de 55.000 profesionales digitales en cinco años, consolidándose como un hub tecnológico líder. La demanda laboral en sectores como IA, blockchain y ciberseguridad ha crecido exponencialmente, superando la oferta disponible. La ciudad destaca por su atractivo internacional y un notable aumento en la participación femenina en el sector.
En los últimos cinco años, Barcelona ha experimentado un crecimiento significativo en el ámbito digital, incorporando más de 55.000 nuevos profesionales y alcanzando un total de 122.000 especialistas en áreas como desarrollo web, software, UX, blockchain, inteligencia artificial y ciberseguridad. Este avance posiciona a la ciudad como un hub tecnológico de primer nivel en Europa, según el informe Digital Talent Overview 2024 de Mobile World Capital Barcelona (MWCapital).

Jordi Arrufí, Director de Desarrollo Corporativo y responsable del área de Talento de MWCapital, atribuye este éxito a factores como la presencia de grandes centros tecnológicos, una economía dinámica de startups, una sólida red de centros de investigación y la celebración de congresos de referencia como el MWC.

Sin embargo, el crecimiento en la demanda de perfiles digitales ha superado la oferta disponible. Actualmente, por cada oferta laboral digital en Barcelona hay 14,2 candidatos, una cifra muy por debajo de la media del mercado general, que se sitúa en 70 profesionales por oferta. Esta escasez ha llevado a las empresas a adaptar sus estrategias para atraer y retener talento, enfrentándose a una competencia global.

Las habilidades más demandadas incluyen expertise en blockchain, cloud computing e inteligencia artificial. Además, las empresas valoran cada vez más las soft skills, como liderazgo, gestión de equipos y adaptabilidad. Marc Ferre, Managing Director en Bayer GBS Barcelona, destaca que los profesionales digitales han pasado de gestionar departamentos de backoffice a ser actores clave en la creación de valor empresarial.

La inteligencia artificial ha supuesto una disrupción significativa, con un aumento del 12% en la demanda de especialistas en 2023. Expertos coinciden en que la IA liberará a los profesionales de tareas mecánicas, permitiéndoles centrarse en procesos creativos. Scott Francis, Director General de Porsche Digital Barcelona, afirma que la IA ayudará a los humanos a aportar su máximo valor.

Barcelona también destaca por su atractivo internacional, con casi un tercio de sus profesionales digitales provenientes de otros países. Además, la participación femenina en el sector ha aumentado del 22% al 30,6% entre 2018 y 2023, superando la media europea.

Para mantener su posición de liderazgo, la ciudad deberá afrontar desafíos como la escasez de profesionales y la necesidad de adaptar la formación académica a las demandas del mercado digital.

«¿Puede Barcelona mantener su liderazgo digital frente a la creciente competencia global y la rápida evolución tecnológica?» . . .

Este es un resumen comentado, basado en el artículo: «Cinc anys, el doble de talent: Barcelona esdevé capital dels professionals digitals» publicado en Mobile World Capital Barcelona el 17 de marzo de 2025.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoChatGPT empezará a recordar conversaciones pasadas con pelos y señales

OpenAI ha actualizado ChatGPT con una función de memoria mejorada que permite recordar conversaciones pasadas en detalle, ofreciendo respuestas más personalizadas. Esta actualización está disponible para usuarios de pago, excluyendo por ahora a la Unión Europea debido a regulaciones específicas. Los usuarios mantienen control sobre sus datos mediante configuraciones de privacidad.

OpenAI ha implementado una mejora significativa en la función de memoria de ChatGPT, permitiendo al asistente de inteligencia artificial recordar conversaciones pasadas con mayor detalle. Esta actualización busca ofrecer respuestas más personalizadas al usuario, basándose en interacciones anteriores.

Anteriormente, la función de memoria de ChatGPT requería que los usuarios solicitaran explícitamente que se recordaran ciertos datos. Con la nueva actualización, esta capacidad se activa por defecto en las cuentas que ya utilizaban la herramienta, especialmente en las versiones de pago como ChatGPT Plus y Pro. Próximamente, se espera su implementación en las versiones Enterprise, Team y Edu, aunque aún no se han especificado fechas concretas para su despliegue.

Sam Altman, CEO de OpenAI, expresó su entusiasmo por esta mejora a través de su perfil en la red social X, destacando que esta característica apunta hacia sistemas de IA que conocen al usuario a lo largo de su vida, volviéndose extremadamente útiles y personalizados.

A pesar de estas mejoras, la función de memoria aún no está disponible para los usuarios de la versión gratuita de ChatGPT ni para aquellos en la Unión Europea, debido a regulaciones específicas que se aplican en los países miembros. OpenAI ha asegurado que los usuarios mantienen el control sobre sus datos, con opciones para desactivar la memoria o utilizar chats temporales que no influyen en la información almacenada.

Esta actualización de ChatGPT se enmarca en una competencia creciente con otras plataformas de inteligencia artificial, como Google con Gemini, Anthropic con Claude, Microsoft con Copilot y Meta con LLaMA o MetaAI. La mejora en la capacidad de memoria busca mantener a ChatGPT como una herramienta líder en el ámbito de la inteligencia artificial conversacional.

«¿Está la regulación de la UE frenando la llegada de avances tecnológicos?» . . .

Este es un resumen comentado, basado en el artículo: «ChatGPT empezará a recordar conversaciones pasadas con pelos y señales» de Noelia Murillo Carrascosa, publicado en Computer Hoy el 11 de abril de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl futuro de la IA en las empresas / ESADE

La inteligencia artificial está redefiniendo el entorno empresarial global, impulsando cambios profundos en la estrategia, la operación y el liderazgo. El futuro de la IA exigirá directivos con visión ética y equipos preparados para gestionar tecnología avanzada en un entorno cada vez más automatizado y competitivo.

La revolución de la inteligencia artificial (IA) avanza en el mundo empresarial y 2025 se perfila como el año de su transformación estratégica. Más allá de la automatización básica, la IA se está consolidando como una herramienta clave para la toma de decisiones, la personalización de servicios y la eficiencia operativa. Empresas como Amazon, Inditex o Zalando ya lideran su aplicación para anticipar tendencias y optimizar procesos.

El liderazgo empresarial debe evolucionar hacia una visión ética y técnica de la IA. Los líderes del futuro deberán dominar conceptos como el aprendizaje automático y la ética algorítmica, fomentar la colaboración en entornos multidisciplinares y construir culturas organizativas resilientes. Instituciones como Esade están formando a estos nuevos perfiles mediante programas como Rethinking Business with AI o Master in Business Analytics and Artificial Intelligence.

La integración de la IA requiere una transformación tecnológica integral: nuevas infraestructuras, políticas de privacidad, auditorías algorítmicas y preparación del talento. La capacitación de equipos en análisis de datos, machine learning y gestión del cambio será crítica para una adopción eficaz.

Los retos son claros: preservar la privacidad, fortalecer la ciberseguridad, prevenir decisiones sesgadas y mitigar el desplazamiento laboral. Según McKinsey, hasta un 35% de las actividades laborales podrían verse alteradas en la próxima década.

Las tendencias para 2025 incluyen agentes de IA autónomos, gemelos digitales, IA generativa avanzada y plataformas de análisis ético. Sectores como banca, salud, e-commerce, manufactura, energía, transporte y educación liderarán esta transición.

En última instancia, el éxito de la IA dependerá de su implementación responsable, combinando tecnología de vanguardia con un liderazgo que priorice el impacto social positivo.

«¿Está tu organización preparada para integrar la IA como motor estratégico sin perder de vista la ética y la sostenibilidad?»

. . .

Este es un resumen comentado, basado en el artículo: «El futuro de la IA en las empresas» del equipo Beyond publicado en Esade el 9 de abril de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights