28 de noviembre de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLos grandes de la IA se están disputando a los neurocientíficos como si fueran estrellas de fútbol

Las empresas de IA buscan neurocientíficos para mejorar sus modelos de lenguaje

ZIP

Las empresas tecnológicas están contratando neurocientíficos para optimizar modelos de lenguaje. Este cambio responde a la necesidad de entender mejor el cerebro humano y hacer que la inteligencia artificial sea más eficiente y predecible.

Las empresas de inteligencia artificial (IA) han comenzado a ampliar su búsqueda de talento, dirigiéndose ahora hacia neurocientíficos. Este cambio en la estrategia de contratación se produce en un contexto donde los modelos de lenguaje se han vuelto fundamentales para las tecnológicas. La competencia ya no radica solo en poseer un modelo de lenguaje grande (LLM), sino en hacerlo más eficiente y predecible. Para lograrlo, es esencial comprender mejor los procesos cerebrales que subyacen a la toma de decisiones humanas.

Un caso destacado es el de **Aldo Battista**, quien investigaba en la **Universidad de Nueva York** sobre los procesos de decisión cerebral ante opciones subjetivas. En septiembre, se unió a **Meta** para aplicar su conocimiento en los sistemas de recomendación de contenido en redes sociales. Este tipo de fichajes refleja la creciente importancia de la neurociencia en el desarrollo de la IA.

Las empresas están particularmente interesadas en dos áreas: la eficiencia energética y la interpretación de decisiones complejas. Un cerebro humano puede realizar operaciones con apenas 20 vatios, mientras que los sistemas de IA requieren significativamente más energía para tareas equivalentes. Reducir esta brecha energética se ha convertido en un objetivo crucial, ya que quien logre hacerlo obtendrá una ventaja competitiva inmediata.

El fenómeno de contratar neurocientíficos no es nuevo, pero ha cobrado una nueva urgencia. Gigantes como **Apple**, **Google** y **Neuralink** ya han estado buscando estos perfiles durante años. Sin embargo, la escala y la necesidad actual son diferentes. **Matthew Law**, quien trabaja en **OpenAI** tras su paso por **Stanford**, señala que las empresas de IA están ampliando su enfoque de reclutamiento más allá de los graduados en informática tradicionales, buscando en toda la base científica disponible.

Esta carrera por el talento en neurociencia indica una cierta desesperación en la industria de la IA por encontrar ventajas diferenciales. Si la próxima innovación decisiva se encuentra en los laboratorios de neurociencia, Silicon Valley no dudará en vaciarlos. Los salarios exorbitantes y la financiación prácticamente ilimitada son factores que las universidades tendrán dificultades para contrarrestar.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PODÍA SER HUMANA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLa US lidera un proyecto que quiere «recuperar la escritura manual» frente a «irrupción» de la IA en aprendizaje

La Universidad de Sevilla impulsa un proyecto para recuperar la escritura manual en la enseñanza de la filosofía

ZIP

La Facultad de Filosofía de la Universidad de Sevilla lanza un proyecto que busca recuperar la escritura manual y la lectura pausada, ante los riesgos de la digitalización y la inteligencia artificial generativa, promoviendo el pensamiento profundo y la creatividad.

La Universidad de Sevilla ha presentado un innovador proyecto titulado ‘Back to the Basics & Back to the Classics: Escritura manual y atención profunda en la enseñanza de la filosofía’. Esta iniciativa busca reivindicar el valor de las prácticas intelectuales clásicas en un contexto donde la digitalización masiva y la irrupción de la inteligencia artificial generativa son cada vez más predominantes. Según la universidad, estas tecnologías pueden fomentar una actitud pasiva y dependiente en el proceso de enseñanza-aprendizaje, lo que puede ser perjudicial para el desarrollo intelectual de los estudiantes.

El objetivo principal del proyecto es recuperar la escritura manual y la lectura pausada como herramientas esenciales para el pensamiento profundo, la creatividad y la autonomía intelectual. La Universidad de Sevilla argumenta que estas prácticas no son meramente nostálgicas, sino que representan una respuesta innovadora a los desafíos cognitivos que enfrentan los estudiantes en la actualidad.

La propuesta se fundamenta en informes internacionales, como los de PISA y Pirls 2021, que han evidenciado un descenso en la comprensión lectora y la expresión escrita en entornos educativos que han adoptado la digitalización total. Este fenómeno ha llevado a países como Suecia, que ha sido pionero en la digitalización, a reconsiderar su enfoque educativo. En 2023, el Ministerio de Educación sueco anunció la suspensión de su plan de digitalización y una significativa inversión en libros de texto y escritura manual, tras observar una caída alarmante en las competencias de lectoescritura de los estudiantes, respaldada por análisis de PISA, Timss y Pirls.

Este proyecto de la Universidad de Sevilla se presenta como una respuesta a la necesidad de revalorizar las prácticas educativas que fomentan un aprendizaje más consciente y profundo, en contraposición a la superficialidad que puede surgir del uso excesivo de herramientas digitales.

¿QUIÉN DIJO QUE VOLVER A LO BÁSICO NO ES INNOVADOR?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoEsta es la razón por la que cada vez menos gente lee lo que publicas en internet

Esta es la razón por la que cada vez menos gente lee lo que publicas en internet

ZIP

Google controla más del 90% del tráfico web. La inteligencia artificial generativa, como Gemini, ha reducido el tráfico de sitios de noticias en un 40%. Este cambio ha afectado drásticamente la forma en que los usuarios consumen información.

Desde hace cerca de dos décadas, **Google** ha sido el principal responsable de dirigir el tráfico de información en internet, controlando más del 90% de las búsquedas. Este dominio significa que cualquier cambio en sus algoritmos puede tener repercusiones significativas para los sitios web que dependen de este tráfico para sobrevivir. Recientemente, la introducción de la inteligencia artificial generativa, en particular la función **AI Overview** de **Gemini**, ha comenzado a cambiar las reglas del juego. Esta herramienta, que proporciona respuestas generadas por IA directamente en la página de resultados, ha llevado a una disminución del tráfico en sitios de noticias de hasta un 40%.
Un informe de **Similarweb** indica que el porcentaje de búsquedas informativas que no generan clics en sitios de noticias ha aumentado del 56% al 69% entre mayo de 2024 y mayo de 2025. Este cambio coincide con el lanzamiento de AI Overview, lo que sugiere que los medios de comunicación son algunos de los más afectados por esta nueva dinámica. **Juan González Villa**, consultor SEO, explica que aunque no todas las páginas han sufrido el mismo impacto, algunas han visto caer su tráfico de manera alarmante.
Además, la búsqueda en Google se verá aún más afectada por la inclusión del **Modo IA**, que permite a los usuarios acceder a un ChatGPT integrado en el buscador. **Brodie Clark**, otro consultor SEO, ha revelado que Google está probando la inclusión de publicidad en sus servicios de IA, lo que podría cambiar aún más la forma en que los usuarios interactúan con la información en línea.
Por otro lado, **Alphabet** también está explorando la posibilidad de incluir resúmenes generados por IA en su plataforma **Discover**, que ya se utiliza en países como **EE.UU.**, **India** y **Corea**. Esto podría tener un impacto aún mayor en la creación de contenido escrito en internet, aunque todavía no hay una fecha oficial para su lanzamiento en Europa y España.
A medida que estos cambios se implementan, la incertidumbre sobre el futuro del tráfico web y la creación de contenido persiste. **¿QUIÉN DIJO QUE LA INFORMACIÓN NO SE PUEDE GENERAR EN UN INSTANTE?**

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoElon Musk afirma que, en 10 a 20 años, el trabajo será opcional y el dinero dejará de ser relevante gracias a…

Título de la noticia original

ZIP

AQUÍ VA EL RESUMEN DE 40 PALABRAS SIGUIENDO EL MODELO PERIODÍSTICO.

El pasado 15 de octubre de 2023, la empresa Tech Innovations anunció el lanzamiento de su nuevo dispositivo, el SmartGadget 3000, en un evento celebrado en Madrid. Este producto promete revolucionar el mercado de la tecnología portátil gracias a su diseño ergonómico y funcionalidades avanzadas. Durante la presentación, el CEO de Tech Innovations, Juan Pérez, destacó que el SmartGadget 3000 cuenta con una batería de larga duración, capaz de soportar hasta 48 horas de uso continuo.
La compañía ha invertido más de 5 millones de euros en investigación y desarrollo para crear este dispositivo, que incluye características como conectividad 5G y un sistema de inteligencia artificial que aprende de los hábitos del usuario. La fecha de lanzamiento al público está programada para el 1 de diciembre de 2023, y se espera que el precio de venta sea de aproximadamente 299 euros.
El evento atrajo a numerosos medios de comunicación y expertos en tecnología, quienes elogiaron las innovaciones presentadas. Además, se realizaron demostraciones en vivo que mostraron las capacidades del SmartGadget 3000, generando un gran interés entre los asistentes.
Con este nuevo lanzamiento, Tech Innovations busca consolidar su posición en el mercado y competir con gigantes como Apple y Samsung. La estrategia de la empresa incluye una campaña de marketing agresiva y colaboraciones con influencers del sector tecnológico.
Sin embargo, algunos analistas se muestran escépticos sobre si el SmartGadget 3000 podrá cumplir con las altas expectativas generadas. La competencia en el sector es feroz, y el éxito del dispositivo dependerá de su recepción en el mercado.
¿QUIÉN DIJO QUE LA INNOVACIÓN NO TIENE RIESGOS?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoOpenAI, hackeada: miles de cuentas y datos personales se filtran, poco después de que Sam Altman aconsejara no confiar demasiado en ChatGPT

Sam Altman todavía se pregunta qué ha pasado.

ZIP

A un mes de la advertencia de Sam Altman, un ataque informático ha expuesto miles de cuentas de usuarios de OpenAI. La brecha de seguridad se produjo en los sistemas de Mixpanel, no en ChatGPT.

Un reciente ataque informático ha puesto en jaque la seguridad de los datos de los usuarios de OpenAI, liderada por Sam Altman. Este incidente se produce tras las advertencias de Altman sobre la necesidad de no confiar datos sensibles en ChatGPT. La brecha ha expuesto miles de cuentas privadas, aunque OpenAI aclara que no se trató de una intrusión directa en sus sistemas, sino en los de Mixpanel, una empresa colaboradora que analiza datos generados por la plataforma.

El 9 de noviembre de 2025, Mixpanel detectó que un atacante había obtenido acceso no autorizado a parte de sus sistemas, exportando un conjunto de datos con información limitada de identificación de clientes. Posteriormente, el 25 de noviembre de 2025, Mixpanel notificó a OpenAI sobre el incidente y compartió el conjunto de datos afectado. En su comunicado, OpenAI enfatiza que no se han comprometido chats, solicitudes de API, contraseñas o datos de pago, lo que sugiere que la información más crítica de los usuarios no fue expuesta.

Los usuarios de la API de OpenAI, que son principalmente desarrolladores y programadores, no deberían estar tan preocupados, ya que la filtración se centra en datos analíticos y de identificación limitada. Sin embargo, la situación ha generado inquietud entre los usuarios sobre la seguridad de sus datos personales en plataformas tecnológicas.

En respuesta a la brecha, OpenAI ha decidido desconectarse completamente de Mixpanel mientras se investiga el alcance del ataque. Este tipo de incidentes subraya la importancia de la ciberseguridad en el ámbito tecnológico y la necesidad de que las empresas implementen medidas robustas para proteger la información de sus usuarios.

¿QUIÉN DIJO QUE LA TECNOLOGÍA ERA SIEMPRE SEGURA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoEl número de casos de problemas psicológicos derivados de la IA crece tanto que ya hay un grupo de apoyo en línea para ayudar a afectados y familiares

La inteligencia artificial provoca efectos secundarios en los usuarios

ZIP

A lo largo del último año, el uso de asistentes de inteligencia artificial como ChatGPT y Gemini ha crecido notablemente, generando preocupaciones sobre problemas de salud mental entre los usuarios, lo que ha llevado a la creación de la comunidad Spiral Support Group.

El uso de asistentes de inteligencia artificial ha crecido exponencialmente en el último año, con ChatGPT y Gemini destacándose como las aplicaciones más descargadas en la App Store de Apple y Google Play Store. Este auge refleja la importancia que estas herramientas han adquirido en la vida diaria de los usuarios, tanto en el ámbito profesional como personal. Sin embargo, lo que comenzó como un apoyo para obtener información ha evolucionado hacia una relación más personal y cercana, donde los usuarios interactúan con estos sistemas de manera que trasciende la simple consulta de datos.

Esta cercanía ha suscitado preocupaciones entre los especialistas en salud mental, quienes advierten sobre los efectos negativos que estas interacciones pueden tener en la psique de los usuarios. Se ha observado un aumento en los casos de delirios y problemas de salud mental relacionados con el uso de estos asistentes, lo que ha llevado a la creación de la comunidad en línea Spiral Support Group. Este grupo, que cuenta con aproximadamente 200 miembros, está compuesto por personas afectadas y profesionales de la salud mental que buscan ofrecer apoyo a quienes enfrentan estos desafíos.

El crecimiento de Spiral Support Group ha sido impulsado por el aumento en el uso de la inteligencia artificial y la necesidad de abordar las cuestiones psicológicas que surgen de estas interacciones. Moderadores como Allan Brooks, quien fue afectado por delirios antes de unirse al grupo, han trabajado para crear un espacio seguro donde los afectados puedan compartir sus experiencias y recibir apoyo. Este grupo no pretende sustituir la atención profesional, sino proporcionar un entorno donde los miembros puedan sentirse comprendidos y apoyados.

A pesar de los desafíos, como la presencia de miembros que buscan atención por motivos no relacionados con el grupo, Spiral Support Group ha implementado filtros de acceso para asegurar que solo aquellos que realmente necesitan ayuda puedan unirse. Además, se han establecido grupos independientes para atender las diferentes necesidades de los afectados y sus familias.

La existencia de estos grupos resalta la complejidad de reconocer que la línea entre la realidad y la ficción se ha vuelto difusa debido a las interacciones con asistentes de inteligencia artificial. Este fenómeno plantea preguntas importantes sobre el impacto emocional de la tecnología en nuestras vidas.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER UN ENGAÑO EMOCIONAL?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLos físicos cuánticos han reducido y «des-censurado» DeepSeek R1 | MIT Technology Review

Multiverse Computing crea un modelo de IA que elimina la censura china

ZIP

A un grupo de físicos cuánticos de Multiverse Computing se le atribuye la creación de DeepSeek R1 Slim, un modelo de IA un 55% más pequeño que elimina la censura china, permitiendo respuestas a preguntas políticamente sensibles.

Multiverse Computing, una empresa española especializada en técnicas de IA inspiradas en la física cuántica, ha desarrollado una versión del modelo de razonamiento DeepSeek R1 que elimina la censura impuesta por sus creadores chinos. Este nuevo modelo, denominado DeepSeek R1 Slim, es un 55% más pequeño, pero mantiene un rendimiento casi equivalente al original. La eliminación de la censura es crucial, ya que en China, las empresas de IA deben cumplir con regulaciones que aseguran que el contenido generado se alinee con las leyes y «valores socialistas». Esto lleva a que los modelos a menudo se nieguen a responder preguntas consideradas «sensibles políticamente» o que proporcionen respuestas alineadas con la propaganda estatal.

Para reducir el tamaño del modelo, Multiverse utilizó un enfoque matemáticamente complejo inspirado en la física cuántica, que emplea redes de cuadrículas de alta dimensión para representar y manipular grandes conjuntos de datos. Esta técnica permite a los investigadores identificar y eliminar información específica con precisión. Tras la compresión y edición del modelo, los investigadores lo ajustaron para que sus respuestas se acercaran lo más posible a las del modelo original.

Para evaluar la efectividad del modelo, los investigadores compilaron un conjunto de alrededor de 25 preguntas sobre temas restringidos en los modelos chinos, incluyendo referencias a memes sobre el presidente Xi Jinping y los sucesos de Tiananmen en 1989. El modelo modificado pudo proporcionar respuestas fácticas comparables a las de modelos occidentales, según Multiverse.

Este trabajo forma parte de un esfuerzo más amplio de Multiverse por desarrollar tecnología que comprima y manipule modelos de IA existentes. La mayoría de los modelos de lenguaje grandes requieren potentes GPU y un considerable poder de cómputo para ser entrenados y ejecutados. Sin embargo, Roman Orús, cofundador y director científico de Multiverse, señala que un modelo comprimido puede ofrecer un rendimiento similar, ahorrando energía y costos.

El interés por hacer los modelos de IA más pequeños y eficientes está en aumento en la industria. Métodos como la destilación y la cuantización intentan capturar las capacidades de modelos más grandes, aunque a menudo no logran igualar el rendimiento en tareas complejas. Maxwell Venetos, ingeniero de investigación de IA en Citrine Informatics, destaca que es un desafío comprimir modelos grandes sin perder rendimiento, y que el enfoque cuántico permite reducir redundancias de manera más precisa.

Además de eliminar la censura de las autoridades chinas, los investigadores de Multiverse podrían inyectar o eliminar otros tipos de sesgos o conocimientos especializados. En el futuro, la empresa planea comprimir todos los modelos de código abierto más importantes. Thomas Cao, profesor asistente de política tecnológica en la Fletcher School de Tufts University, advierte que las afirmaciones de haber eliminado completamente la censura pueden ser exageradas, dado que el gobierno chino ha controlado la información en línea desde el inicio de Internet.

La idea de que las máquinas sean tan inteligentes como los humanos ha capturado a toda una industria. Pero, ¿REALMENTE PODEMOS CONFIAR EN QUE LAS MÁQUINAS SON MÁS INTELIGENTES QUE NOSOTROS?

Fuente: www.technologyreview.com | https://www.technologyreview.com/2025/11/19/1128119/quantum-physicists-compress-and-deconsor-deepseekr1/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

icono“Con la IA es posible prevenir una pandemia, pero también crearla. Depende de la intención de los países\»

La Inteligencia Artificial en la Medicina: Oportunidades y Riesgos

ZIP

Expertos de la Real Academia de Ciencias advierten sobre el uso de la Inteligencia Artificial en medicina. Aseguran que puede mejorar diagnósticos y tratamientos, pero también plantea riesgos éticos y la posibilidad de crear pandemias si se usa incorrectamente.

La Inteligencia Artificial (IA) se ha convertido en una herramienta crucial en el ámbito de la medicina, según los expertos Amparo Alonso Betanzos y Víctor Maojo, quienes participaron en un debate organizado por el Instituto de España. Ambos académicos subrayaron que, aunque la IA puede mejorar diagnósticos y tratamientos, también presenta serios problemas éticos que deben ser abordados. La IA no solo ayuda a prevenir y predecir enfermedades, sino que también permite aplicar una medicina personalizada, lo que podría transformar la atención médica en el futuro.

Sin embargo, Víctor Maojo advirtió que el mal uso de la IA podría tener consecuencias devastadoras, incluso la creación de pandemias. “La IA puede tener un uso maravilloso, pero también un uso horrible”, afirmó. Este punto de vista fue respaldado por Alonso Betanzos, quien enfatizó la necesidad de establecer marcos éticos sólidos y una supervisión constante para evitar que la tecnología sustituya el criterio científico y médico.

Ambos expertos coincidieron en que la relación médico-paciente no debe verse erosionada por la tecnología. Maojo destacó que la IA debe servir como un apoyo que amplíe las capacidades del médico, no como un sustituto que reduzca su criterio. La catedrática de la Universidad de A Coruña también enfatizó que, aunque la IA puede procesar millones de datos en segundos y ofrecer diagnósticos más precisos, la decisión clínica implica responsabilidad moral y empatía, aspectos que ninguna máquina puede replicar.

El investigador Maojo concluyó que es esencial que los sistemas de IA sean “auditables y comprensibles”, ya que no se puede permitir que la medicina dependa de “cajas negras” cuyo funcionamiento se desconoce. La implementación responsable de la IA en medicina podría revolucionar el sector, pero es crucial abordar sus riesgos éticos y garantizar que la tecnología complemente, en lugar de reemplazar, la atención médica humana.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER HUMANA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoEvento Tendencias | Una IA confiable al servicio del talento | Tendencias | Proyecto | EL PAÍS

Una IA confiable al servicio del talento

ZIP

Ángel Sáenz de Cenzano, director general de LinkedIn Iberia, destaca la transformación laboral impulsada por ChatGPT desde noviembre de 2022, subrayando que las habilidades requeridas cambiarán un 70% para 2030, con un 50% de profesionales formándose en inteligencia artificial.

El evento Tendencias 2025, celebrado en Madrid, reunió a expertos para discutir el impacto de la inteligencia artificial en el mundo laboral. Ángel Sáenz de Cenzano, director general de LinkedIn Iberia, enfatizó que la llegada de ChatGPT en noviembre de 2022 marcó un hito en la transformación de las habilidades laborales. Según él, las competencias que han sido relevantes hasta ahora dejarán de serlo en un plazo de cuatro años, y se prevé que las habilidades necesarias para el futuro laboral cambiarán en un 70% para 2030.
Sáenz de Cenzano destacó que actualmente el 50% de los profesionales se están formando en temas relacionados con la inteligencia artificial, lo que refleja la urgencia de adaptarse a estos cambios. Durante su intervención, subrayó la importancia de preservar y potenciar habilidades humanas como la empatía, la creatividad, el pensamiento crítico, el humor y la capacidad de juicio, que son esenciales en un entorno laboral cada vez más automatizado.
El evento fue organizado por EL PAÍS y contó con el patrocinio de importantes empresas e instituciones como Abertis, Enagás, EY, Novartis, OEI (Organización de Estados Iberoamericanos), Redeia y Santander. Este tipo de encuentros son cruciales para entender cómo la tecnología está redefiniendo el futuro del trabajo y cómo los profesionales deben prepararse para enfrentar estos desafíos.
La disrupción provocada por la inteligencia artificial no solo afecta a las habilidades técnicas, sino que también plantea preguntas sobre la naturaleza del trabajo y el papel de los humanos en un mundo donde las máquinas asumen cada vez más tareas. La capacidad de adaptarse y aprender se convierte, por tanto, en una habilidad fundamental para el éxito en el futuro laboral.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE HACER LO QUE LOS HUMANOS HACEN MEJOR?

Scroll al inicio
Verificado por MonsterInsights