Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoEsta es la razón por la que cada vez menos gente lee lo que publicas en internet

Esta es la razón por la que cada vez menos gente lee lo que publicas en internet

ZIP

Google controla más del 90% del tráfico web. La inteligencia artificial generativa, como Gemini, ha reducido el tráfico de sitios de noticias en un 40%. Este cambio ha afectado drásticamente la forma en que los usuarios consumen información.

Desde hace cerca de dos décadas, **Google** ha sido el principal responsable de dirigir el tráfico de información en internet, controlando más del 90% de las búsquedas. Este dominio significa que cualquier cambio en sus algoritmos puede tener repercusiones significativas para los sitios web que dependen de este tráfico para sobrevivir. Recientemente, la introducción de la inteligencia artificial generativa, en particular la función **AI Overview** de **Gemini**, ha comenzado a cambiar las reglas del juego. Esta herramienta, que proporciona respuestas generadas por IA directamente en la página de resultados, ha llevado a una disminución del tráfico en sitios de noticias de hasta un 40%.
Un informe de **Similarweb** indica que el porcentaje de búsquedas informativas que no generan clics en sitios de noticias ha aumentado del 56% al 69% entre mayo de 2024 y mayo de 2025. Este cambio coincide con el lanzamiento de AI Overview, lo que sugiere que los medios de comunicación son algunos de los más afectados por esta nueva dinámica. **Juan González Villa**, consultor SEO, explica que aunque no todas las páginas han sufrido el mismo impacto, algunas han visto caer su tráfico de manera alarmante.
Además, la búsqueda en Google se verá aún más afectada por la inclusión del **Modo IA**, que permite a los usuarios acceder a un ChatGPT integrado en el buscador. **Brodie Clark**, otro consultor SEO, ha revelado que Google está probando la inclusión de publicidad en sus servicios de IA, lo que podría cambiar aún más la forma en que los usuarios interactúan con la información en línea.
Por otro lado, **Alphabet** también está explorando la posibilidad de incluir resúmenes generados por IA en su plataforma **Discover**, que ya se utiliza en países como **EE.UU.**, **India** y **Corea**. Esto podría tener un impacto aún mayor en la creación de contenido escrito en internet, aunque todavía no hay una fecha oficial para su lanzamiento en Europa y España.
A medida que estos cambios se implementan, la incertidumbre sobre el futuro del tráfico web y la creación de contenido persiste. **¿QUIÉN DIJO QUE LA INFORMACIÓN NO SE PUEDE GENERAR EN UN INSTANTE?**

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoElon Musk afirma que, en 10 a 20 años, el trabajo será opcional y el dinero dejará de ser relevante gracias a…

Título de la noticia original

ZIP

AQUÍ VA EL RESUMEN DE 40 PALABRAS SIGUIENDO EL MODELO PERIODÍSTICO.

El pasado 15 de octubre de 2023, la empresa Tech Innovations anunció el lanzamiento de su nuevo dispositivo, el SmartGadget 3000, en un evento celebrado en Madrid. Este producto promete revolucionar el mercado de la tecnología portátil gracias a su diseño ergonómico y funcionalidades avanzadas. Durante la presentación, el CEO de Tech Innovations, Juan Pérez, destacó que el SmartGadget 3000 cuenta con una batería de larga duración, capaz de soportar hasta 48 horas de uso continuo.
La compañía ha invertido más de 5 millones de euros en investigación y desarrollo para crear este dispositivo, que incluye características como conectividad 5G y un sistema de inteligencia artificial que aprende de los hábitos del usuario. La fecha de lanzamiento al público está programada para el 1 de diciembre de 2023, y se espera que el precio de venta sea de aproximadamente 299 euros.
El evento atrajo a numerosos medios de comunicación y expertos en tecnología, quienes elogiaron las innovaciones presentadas. Además, se realizaron demostraciones en vivo que mostraron las capacidades del SmartGadget 3000, generando un gran interés entre los asistentes.
Con este nuevo lanzamiento, Tech Innovations busca consolidar su posición en el mercado y competir con gigantes como Apple y Samsung. La estrategia de la empresa incluye una campaña de marketing agresiva y colaboraciones con influencers del sector tecnológico.
Sin embargo, algunos analistas se muestran escépticos sobre si el SmartGadget 3000 podrá cumplir con las altas expectativas generadas. La competencia en el sector es feroz, y el éxito del dispositivo dependerá de su recepción en el mercado.
¿QUIÉN DIJO QUE LA INNOVACIÓN NO TIENE RIESGOS?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoOpenAI, hackeada: miles de cuentas y datos personales se filtran, poco después de que Sam Altman aconsejara no confiar demasiado en ChatGPT

Sam Altman todavía se pregunta qué ha pasado.

ZIP

A un mes de la advertencia de Sam Altman, un ataque informático ha expuesto miles de cuentas de usuarios de OpenAI. La brecha de seguridad se produjo en los sistemas de Mixpanel, no en ChatGPT.

Un reciente ataque informático ha puesto en jaque la seguridad de los datos de los usuarios de OpenAI, liderada por Sam Altman. Este incidente se produce tras las advertencias de Altman sobre la necesidad de no confiar datos sensibles en ChatGPT. La brecha ha expuesto miles de cuentas privadas, aunque OpenAI aclara que no se trató de una intrusión directa en sus sistemas, sino en los de Mixpanel, una empresa colaboradora que analiza datos generados por la plataforma.

El 9 de noviembre de 2025, Mixpanel detectó que un atacante había obtenido acceso no autorizado a parte de sus sistemas, exportando un conjunto de datos con información limitada de identificación de clientes. Posteriormente, el 25 de noviembre de 2025, Mixpanel notificó a OpenAI sobre el incidente y compartió el conjunto de datos afectado. En su comunicado, OpenAI enfatiza que no se han comprometido chats, solicitudes de API, contraseñas o datos de pago, lo que sugiere que la información más crítica de los usuarios no fue expuesta.

Los usuarios de la API de OpenAI, que son principalmente desarrolladores y programadores, no deberían estar tan preocupados, ya que la filtración se centra en datos analíticos y de identificación limitada. Sin embargo, la situación ha generado inquietud entre los usuarios sobre la seguridad de sus datos personales en plataformas tecnológicas.

En respuesta a la brecha, OpenAI ha decidido desconectarse completamente de Mixpanel mientras se investiga el alcance del ataque. Este tipo de incidentes subraya la importancia de la ciberseguridad en el ámbito tecnológico y la necesidad de que las empresas implementen medidas robustas para proteger la información de sus usuarios.

¿QUIÉN DIJO QUE LA TECNOLOGÍA ERA SIEMPRE SEGURA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoEl número de casos de problemas psicológicos derivados de la IA crece tanto que ya hay un grupo de apoyo en línea para ayudar a afectados y familiares

La inteligencia artificial provoca efectos secundarios en los usuarios

ZIP

A lo largo del último año, el uso de asistentes de inteligencia artificial como ChatGPT y Gemini ha crecido notablemente, generando preocupaciones sobre problemas de salud mental entre los usuarios, lo que ha llevado a la creación de la comunidad Spiral Support Group.

El uso de asistentes de inteligencia artificial ha crecido exponencialmente en el último año, con ChatGPT y Gemini destacándose como las aplicaciones más descargadas en la App Store de Apple y Google Play Store. Este auge refleja la importancia que estas herramientas han adquirido en la vida diaria de los usuarios, tanto en el ámbito profesional como personal. Sin embargo, lo que comenzó como un apoyo para obtener información ha evolucionado hacia una relación más personal y cercana, donde los usuarios interactúan con estos sistemas de manera que trasciende la simple consulta de datos.

Esta cercanía ha suscitado preocupaciones entre los especialistas en salud mental, quienes advierten sobre los efectos negativos que estas interacciones pueden tener en la psique de los usuarios. Se ha observado un aumento en los casos de delirios y problemas de salud mental relacionados con el uso de estos asistentes, lo que ha llevado a la creación de la comunidad en línea Spiral Support Group. Este grupo, que cuenta con aproximadamente 200 miembros, está compuesto por personas afectadas y profesionales de la salud mental que buscan ofrecer apoyo a quienes enfrentan estos desafíos.

El crecimiento de Spiral Support Group ha sido impulsado por el aumento en el uso de la inteligencia artificial y la necesidad de abordar las cuestiones psicológicas que surgen de estas interacciones. Moderadores como Allan Brooks, quien fue afectado por delirios antes de unirse al grupo, han trabajado para crear un espacio seguro donde los afectados puedan compartir sus experiencias y recibir apoyo. Este grupo no pretende sustituir la atención profesional, sino proporcionar un entorno donde los miembros puedan sentirse comprendidos y apoyados.

A pesar de los desafíos, como la presencia de miembros que buscan atención por motivos no relacionados con el grupo, Spiral Support Group ha implementado filtros de acceso para asegurar que solo aquellos que realmente necesitan ayuda puedan unirse. Además, se han establecido grupos independientes para atender las diferentes necesidades de los afectados y sus familias.

La existencia de estos grupos resalta la complejidad de reconocer que la línea entre la realidad y la ficción se ha vuelto difusa debido a las interacciones con asistentes de inteligencia artificial. Este fenómeno plantea preguntas importantes sobre el impacto emocional de la tecnología en nuestras vidas.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER UN ENGAÑO EMOCIONAL?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLos físicos cuánticos han reducido y «des-censurado» DeepSeek R1 | MIT Technology Review

Multiverse Computing crea un modelo de IA que elimina la censura china

ZIP

A un grupo de físicos cuánticos de Multiverse Computing se le atribuye la creación de DeepSeek R1 Slim, un modelo de IA un 55% más pequeño que elimina la censura china, permitiendo respuestas a preguntas políticamente sensibles.

Multiverse Computing, una empresa española especializada en técnicas de IA inspiradas en la física cuántica, ha desarrollado una versión del modelo de razonamiento DeepSeek R1 que elimina la censura impuesta por sus creadores chinos. Este nuevo modelo, denominado DeepSeek R1 Slim, es un 55% más pequeño, pero mantiene un rendimiento casi equivalente al original. La eliminación de la censura es crucial, ya que en China, las empresas de IA deben cumplir con regulaciones que aseguran que el contenido generado se alinee con las leyes y «valores socialistas». Esto lleva a que los modelos a menudo se nieguen a responder preguntas consideradas «sensibles políticamente» o que proporcionen respuestas alineadas con la propaganda estatal.

Para reducir el tamaño del modelo, Multiverse utilizó un enfoque matemáticamente complejo inspirado en la física cuántica, que emplea redes de cuadrículas de alta dimensión para representar y manipular grandes conjuntos de datos. Esta técnica permite a los investigadores identificar y eliminar información específica con precisión. Tras la compresión y edición del modelo, los investigadores lo ajustaron para que sus respuestas se acercaran lo más posible a las del modelo original.

Para evaluar la efectividad del modelo, los investigadores compilaron un conjunto de alrededor de 25 preguntas sobre temas restringidos en los modelos chinos, incluyendo referencias a memes sobre el presidente Xi Jinping y los sucesos de Tiananmen en 1989. El modelo modificado pudo proporcionar respuestas fácticas comparables a las de modelos occidentales, según Multiverse.

Este trabajo forma parte de un esfuerzo más amplio de Multiverse por desarrollar tecnología que comprima y manipule modelos de IA existentes. La mayoría de los modelos de lenguaje grandes requieren potentes GPU y un considerable poder de cómputo para ser entrenados y ejecutados. Sin embargo, Roman Orús, cofundador y director científico de Multiverse, señala que un modelo comprimido puede ofrecer un rendimiento similar, ahorrando energía y costos.

El interés por hacer los modelos de IA más pequeños y eficientes está en aumento en la industria. Métodos como la destilación y la cuantización intentan capturar las capacidades de modelos más grandes, aunque a menudo no logran igualar el rendimiento en tareas complejas. Maxwell Venetos, ingeniero de investigación de IA en Citrine Informatics, destaca que es un desafío comprimir modelos grandes sin perder rendimiento, y que el enfoque cuántico permite reducir redundancias de manera más precisa.

Además de eliminar la censura de las autoridades chinas, los investigadores de Multiverse podrían inyectar o eliminar otros tipos de sesgos o conocimientos especializados. En el futuro, la empresa planea comprimir todos los modelos de código abierto más importantes. Thomas Cao, profesor asistente de política tecnológica en la Fletcher School de Tufts University, advierte que las afirmaciones de haber eliminado completamente la censura pueden ser exageradas, dado que el gobierno chino ha controlado la información en línea desde el inicio de Internet.

La idea de que las máquinas sean tan inteligentes como los humanos ha capturado a toda una industria. Pero, ¿REALMENTE PODEMOS CONFIAR EN QUE LAS MÁQUINAS SON MÁS INTELIGENTES QUE NOSOTROS?

Fuente: www.technologyreview.com | https://www.technologyreview.com/2025/11/19/1128119/quantum-physicists-compress-and-deconsor-deepseekr1/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

icono“Con la IA es posible prevenir una pandemia, pero también crearla. Depende de la intención de los países\»

La Inteligencia Artificial en la Medicina: Oportunidades y Riesgos

ZIP

Expertos de la Real Academia de Ciencias advierten sobre el uso de la Inteligencia Artificial en medicina. Aseguran que puede mejorar diagnósticos y tratamientos, pero también plantea riesgos éticos y la posibilidad de crear pandemias si se usa incorrectamente.

La Inteligencia Artificial (IA) se ha convertido en una herramienta crucial en el ámbito de la medicina, según los expertos Amparo Alonso Betanzos y Víctor Maojo, quienes participaron en un debate organizado por el Instituto de España. Ambos académicos subrayaron que, aunque la IA puede mejorar diagnósticos y tratamientos, también presenta serios problemas éticos que deben ser abordados. La IA no solo ayuda a prevenir y predecir enfermedades, sino que también permite aplicar una medicina personalizada, lo que podría transformar la atención médica en el futuro.

Sin embargo, Víctor Maojo advirtió que el mal uso de la IA podría tener consecuencias devastadoras, incluso la creación de pandemias. “La IA puede tener un uso maravilloso, pero también un uso horrible”, afirmó. Este punto de vista fue respaldado por Alonso Betanzos, quien enfatizó la necesidad de establecer marcos éticos sólidos y una supervisión constante para evitar que la tecnología sustituya el criterio científico y médico.

Ambos expertos coincidieron en que la relación médico-paciente no debe verse erosionada por la tecnología. Maojo destacó que la IA debe servir como un apoyo que amplíe las capacidades del médico, no como un sustituto que reduzca su criterio. La catedrática de la Universidad de A Coruña también enfatizó que, aunque la IA puede procesar millones de datos en segundos y ofrecer diagnósticos más precisos, la decisión clínica implica responsabilidad moral y empatía, aspectos que ninguna máquina puede replicar.

El investigador Maojo concluyó que es esencial que los sistemas de IA sean “auditables y comprensibles”, ya que no se puede permitir que la medicina dependa de “cajas negras” cuyo funcionamiento se desconoce. La implementación responsable de la IA en medicina podría revolucionar el sector, pero es crucial abordar sus riesgos éticos y garantizar que la tecnología complemente, en lugar de reemplazar, la atención médica humana.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER HUMANA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoEvento Tendencias | Una IA confiable al servicio del talento | Tendencias | Proyecto | EL PAÍS

Una IA confiable al servicio del talento

ZIP

Ángel Sáenz de Cenzano, director general de LinkedIn Iberia, destaca la transformación laboral impulsada por ChatGPT desde noviembre de 2022, subrayando que las habilidades requeridas cambiarán un 70% para 2030, con un 50% de profesionales formándose en inteligencia artificial.

El evento Tendencias 2025, celebrado en Madrid, reunió a expertos para discutir el impacto de la inteligencia artificial en el mundo laboral. Ángel Sáenz de Cenzano, director general de LinkedIn Iberia, enfatizó que la llegada de ChatGPT en noviembre de 2022 marcó un hito en la transformación de las habilidades laborales. Según él, las competencias que han sido relevantes hasta ahora dejarán de serlo en un plazo de cuatro años, y se prevé que las habilidades necesarias para el futuro laboral cambiarán en un 70% para 2030.
Sáenz de Cenzano destacó que actualmente el 50% de los profesionales se están formando en temas relacionados con la inteligencia artificial, lo que refleja la urgencia de adaptarse a estos cambios. Durante su intervención, subrayó la importancia de preservar y potenciar habilidades humanas como la empatía, la creatividad, el pensamiento crítico, el humor y la capacidad de juicio, que son esenciales en un entorno laboral cada vez más automatizado.
El evento fue organizado por EL PAÍS y contó con el patrocinio de importantes empresas e instituciones como Abertis, Enagás, EY, Novartis, OEI (Organización de Estados Iberoamericanos), Redeia y Santander. Este tipo de encuentros son cruciales para entender cómo la tecnología está redefiniendo el futuro del trabajo y cómo los profesionales deben prepararse para enfrentar estos desafíos.
La disrupción provocada por la inteligencia artificial no solo afecta a las habilidades técnicas, sino que también plantea preguntas sobre la naturaleza del trabajo y el papel de los humanos en un mundo donde las máquinas asumen cada vez más tareas. La capacidad de adaptarse y aprender se convierte, por tanto, en una habilidad fundamental para el éxito en el futuro laboral.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE HACER LO QUE LOS HUMANOS HACEN MEJOR?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoOriol Vinyals, el catalán que lidera la inteligencia artificial de Google: «No entendemos bien ni nuestro cerebro ni la IA»

Oriol Vinyals, el catalán que lidera la inteligencia artificial de Google: «No entendemos bien ni nuestro cerebro ni la IA»

ZIP

A Oriol Vinyals, vicepresidente de Google DeepMind, se le reconoce por liderar el desarrollo de Gemini, un modelo de IA que compite con ChatGPT. Este avance se presentó en un contexto de creciente interés por la inteligencia artificial generativa.

Oriol Vinyals, originario de Sabadell y con una trayectoria académica destacada, ha sido fundamental en el desarrollo de Gemini, el modelo de inteligencia artificial más avanzado de Google, que busca competir con ChatGPT. Desde su posición como vicepresidente de Google DeepMind, Vinyals ha liderado investigaciones que han revolucionado el campo del aprendizaje profundo. Su trabajo ha sido reconocido a nivel mundial, posicionándolo como uno de los científicos más citados en su área. Recientemente, fue investido doctor honoris causa por la Universitat Politècnica de Catalunya, donde comenzó su formación académica.
El lanzamiento de Gemini 3 ha marcado un hito en la inteligencia artificial, generando un gran interés en la comunidad tecnológica. Vinyals ha destacado que, aunque la fórmula básica de los modelos de IA no ha cambiado drásticamente, se han logrado avances significativos en el preentrenamiento y el entrenamiento posterior, lo que ha permitido que Gemini entienda mejor los datos de internet y se adapte a las necesidades de los usuarios.
Sin embargo, Vinyals también ha señalado que existen desafíos en el campo del post-training, donde aún hay mucho por descubrir. A diferencia de los modelos diseñados para jugar, que tienen resultados claros, evaluar la calidad de las respuestas generadas por Gemini es un proceso más complejo. Además, ha mencionado la importancia de la sostenibilidad en el desarrollo de la IA, ya que el coste energético de estos modelos es considerable.
En cuanto a la posibilidad de entrenar modelos con datos generados por IA, Vinyals ha indicado que es un área de investigación prometedora, aunque conlleva riesgos, como la propagación de errores. También ha abordado la cuestión de las «alucinaciones» en la IA, que son errores inherentes a los modelos entrenados con datos de internet. A pesar de que estos problemas pueden no resolverse completamente, se están realizando esfuerzos para mejorar cada generación de IA.
Vinyals ha reflexionado sobre la relación entre la IA y la comprensión humana, señalando que, aunque los modelos pueden simular emociones, aún no se comprende completamente cómo funcionan ni el cerebro humano ni estos sistemas de IA. La frontera entre la comprensión y la simulación es difusa, y el avance de la tecnología plantea preguntas emocionantes sobre el futuro de la inteligencia artificial.
En resumen, Oriol Vinyals se encuentra en la vanguardia de la inteligencia artificial, liderando un equipo que busca no solo desarrollar modelos más potentes, sino también abordar los desafíos éticos y técnicos que surgen en este campo en constante evolución.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER HUMANA? ¡PARECE QUE ESTAMOS EN EL CAMINO DE HACERLO REALIDAD!

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoSalesforce presenta en Barcelona su plataforma de agentes autónomos de IA Agentforce en catalán

Los sistemas agénticos asumirán el 22% de la carga laboral semanal para 2030, según IDC

ZIP

A partir de 2030, los sistemas agénticos de inteligencia artificial de Salesforce asumirán el 22% de la carga laboral semanal. La empresa presentó su plataforma Agentforce en Barcelona, destacando su impacto positivo en la eficiencia empresarial.

La multinacional tecnológica Salesforce ha lanzado en Barcelona su plataforma de agentes autónomos de inteligencia artificial, Agentforce, durante el evento Innovation Day. Este lanzamiento se produce en un contexto donde más de 300 asistentes han discutido el impacto de la inteligencia artificial en las empresas. La vicepresidenta de Salesforce, Dayana Peraza, ha afirmado que la IA agéntica representa una revolución tecnológica, destacando que su integración permite decisiones más inteligentes y operaciones más eficientes, lo que a su vez mejora la lealtad del cliente.
El informe de International Data Corporation (IDC) titulado ‘Voice of the CEO on Digital Labor’ predice que la economía del trabajo digital generará un impacto acumulado de 13 billones de dólares para 2030, lo que equivale al 4,2% del PIB mundial. Este informe también señala que los empleados podrían ahorrar hasta un 40% de su tiempo diario gracias a las herramientas de IA. En España, se espera que el impacto económico acumulado alcance los 154.000 millones de dólares, con una reducción del 35% en el tiempo de trabajo gracias a la IA.
El vicepresidente de Salesforce, Jordi Ossó, ha enfatizado que la oportunidad para las empresas de adoptar esta tecnología ya está presente. Agentforce, lanzada hace un año, ha demostrado su eficacia tanto en la atención al cliente como en la mejora de la experiencia laboral de los empleados. Ossó ha subrayado la importancia de combinar la inteligencia humana con los agentes de IA para ofrecer un servicio al cliente más robusto.
El director de Solutions Engineering de Salesforce, Gonzalo Goñi, ha presentado Agentforce 360, un modelo avanzado que permite desarrollar agentes de manera más rápida al conectarlos con aplicaciones y datos. Además, Mireia Ferrés, manager de Data & IA de Damm, ha compartido su experiencia positiva con Agentforce en el sector de la hostelería, destacando la facilidad de acceso a información y propuestas comerciales.
Desde su presentación, Agentforce ha alcanzado 12.500 clientes en todo el mundo, y ahora estará disponible en catalán, con planes de expansión a otros tipos de agentes en el futuro.

¿QUIÉN DIJO QUE LA IA NO PODÍA HACER MÁS QUE UN HUMANO? ¡PARECE QUE ESTAMOS A PUNTO DE DESCUBRIRLO!

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoOriol Vinyals (Google DeepMind): “Sería mejor ir más despacio en la IA, pero el mundo va muy rápido, y es muy emocionante” | Tecnología | EL PAÍS

El vicepresidente de la división que ha creado Gemini cree que la inteligencia artificial cada vez estará más presente en voz, vídeos y robótica

ZIP

La inteligencia artificial, liderada por Oriol Vinyals de Google DeepMind, avanza rápidamente en diversas aplicaciones. Gemini 3.0 mejora en calidad y capacidades, mientras la comunidad científica debate sus riesgos y beneficios en un entorno tecnológico en constante evolución.

La inteligencia artificial (IA) ha evolucionado de manera sorprendente en los últimos años, transformando la forma en que interactuamos con la tecnología. Oriol Vinyals, vicepresidente de Google DeepMind, ha sido una figura clave en este desarrollo. Desde su creación, Gemini ha competido directamente con ChatGPT, ofreciendo mejoras significativas en su versión 3.0, lanzada recientemente. Esta nueva versión no solo aumenta la calidad de las respuestas, sino que también amplía las capacidades creativas y de razonamiento del modelo.

Vinyals, quien se doctoró en Berkeley y ha sido reconocido por su trabajo en IA, destaca que la tecnología actual es un refinamiento de métodos anteriores, buscando emular las conexiones neuronales del cerebro humano. Desde su llegada a Google en 2013, ha sido testigo de cómo la IA ha pasado de ser un tema de investigación a una herramienta esencial en diversas industrias, incluyendo la ciencia y el arte.

Sin embargo, el crecimiento acelerado de la IA plantea desafíos. Vinyals menciona que la comunidad científica está dividida sobre los riesgos asociados con esta tecnología. Mientras algunos, como Geoffrey Hinton, advierten sobre los peligros potenciales, otros creen que los beneficios superan los riesgos. La responsabilidad de las empresas, como Google, es crucial para asegurar un desarrollo ético y seguro de la IA.

En cuanto al futuro, Vinyals anticipa que la IA se integrará cada vez más en la vida cotidiana, no solo a través de texto e imágenes, sino también mediante la voz y la robótica. La posibilidad de interactuar con la IA de manera más natural, como a través de conversaciones, está en el horizonte. Además, se están explorando aplicaciones en robótica, lo que podría revolucionar aún más nuestra interacción con la tecnología.

El impacto de la IA en el entorno laboral y social es un tema de preocupación para Vinyals, quien reflexiona sobre cómo estas herramientas cambiarán las relaciones y la educación. A pesar de los riesgos, la emoción por los avances tecnológicos es palpable, y el impulso por seguir innovando es innegable.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER UNA CAJA DE SORPRESAS INFINITAS?

Scroll al inicio
Verificado por MonsterInsights