Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl plan de Trump para la IA: discurso completo

Donald Trump presentó un plan de acción de 28 páginas para impulsar el liderazgo global de EE UU en inteligencia artificial, centrado en eliminar regulaciones estatales y federales que incluyan DEI o sesgos ideológicos, acelerar la construcción de centros de datos y promover exportaciones de IA a países aliados.

Donald Trump presentó su AI Action Plan, un documento de políticas de 28 páginas, durante la cumbre “Winning the AI Race” el 23 de julio de 2025. La estrategia se articula en tres pilares fundamentales:

  1. Acelerar la innovación en IA, eliminando regulaciones federales y estatales consideradas excesivas, especialmente aquellas que incluyan referencias a desinformación, cambio climático o políticas de diversidad, equidad e inclusión (DEI). Los modelos de inteligencia artificial adquiridos por el gobierno federal deberán demostrar neutralidad ideológica y veracidad científica, imponiendo estándares de objetividad en los sistemas que interactúan con información pública.

  2. Construir infraestructura tecnológica estadounidense, agilizando los permisos para la creación de centros de datos y fábricas de semiconductores. También se prevé la liberalización de normativas ambientales y el uso de terrenos federales para facilitar el desarrollo de infraestructuras estratégicas. El plan contempla incentivos para garantizar el suministro energético a estas instalaciones, con énfasis en acelerar la ejecución de proyectos.

  3. Liderar la diplomacia y la seguridad global en IA, mediante la exportación de tecnología completa —hardware, modelos, software, estándares— a países aliados. A su vez, se endurecen los controles de exportación para evitar que tecnologías avanzadas lleguen a potencias rivales, en particular China, reforzando la estrategia geopolítica de contención tecnológica.

El mismo día del anuncio, Trump firmó tres órdenes ejecutivas que operacionalizan esta visión: una para agilizar la aprobación de centros de datos, otra para promover exportaciones tecnológicas, y una tercera para prohibir el uso de “IA woke” en el gobierno federal. Silicon Valley ha respaldado la iniciativa, considerándola una palanca clave para una nueva era de crecimiento tecnológico, aunque organizaciones de derechos civiles han expresado preocupación sobre el papel del Estado al definir los estándares de objetividad e imparcialidad en la IA. También surgen dudas sobre el impacto ambiental del aumento en consumo energético debido a la expansión de infraestructuras digitales.

El documento nace de la orden ejecutiva EO 14179 firmada en enero de 2025, que derogó las directrices anteriores y definió un plazo de 180 días para presentar esta nueva estrategia nacional.

«¿Puede EE UU consolidar su liderazgo en IA sin comprometer estándares éticos y garantías democráticas?»
.
.
.

RESUMEN BASADO EN EL ARTÍCULO: “EL PLAN DE TRUMP PARA LA IA: DISCURSO COMPLETO” DE LE GRAND CONTINENT, PUBLICADO EN 24 DE JULIO DE 2025.
https://legrandcontinent.eu/es/2025/07/24/el-plan-de-trump-para-la-ia-discurso-completo/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSam Altman, CEO de OpenAI: “El escenario que más miedo me da es que la IA esté tan arraigada en la sociedad que no la entendamos y que, incluso sin maldad, tomemos una dirección rara”

OPENAI ADVIERTE DE LOS RIESGOS DE LA INTELIGENCIA ARTIFICIAL

**El CEO de OpenAI, Sam Altman, alerta sobre los riesgos de la inteligencia artificial, mencionando posibles escenarios de uso malicioso, pérdida de control y la influencia imperceptible en la sociedad.**

El director ejecutivo de OpenAI, Sam Altman, ha expuesto los riesgos que, según él, implica el avance de la inteligencia artificial. Altman señaló tres posibles escenarios preocupantes. En primer lugar, destacó la posibilidad de un uso malicioso de la IA por parte de individuos antes de que exista una tecnología equivalente para contrarrestarlo. En segundo lugar, mencionó el riesgo de «pérdida de control», donde la IA tomaría decisiones autónomas y resistiría ser desconectada. Por último, planteó la inquietante posibilidad de que la inteligencia artificial, sin intenciones maliciosas, termine moldeando la sociedad de forma incontrolable. Altman advierte que la velocidad del avance tecnológico supera la comprensión actual de sus implicaciones.

.

.

.

**»¿Qué medidas podrían tomarse para garantizar un desarrollo seguro y ético de la inteligencia artificial ante los riesgos planteados por OpenAI?»**

https://www.lavanguardia.com/neo/sociedad-neo/20250724/10920007/sam-altman-ceo-openai-escenario-mas-miedo-me-da-ia-este-arraigada-sociedad-entendamos-maldad-tomemos-direccion-rara-pmv.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA sacude al sector público: “En algunas administraciones locales se está utilizando ChatGPT a mansalva, sin control alguno” | Tecnología | EL PAÍS

EL PAIS

**La inteligencia artificial transforma la Administración Pública en España, generando ahorro de tiempo pero también preocupación por la falta de formación y regulación en su uso.**

La implantación de sistemas de inteligencia artificial en la Administración Pública española ha permitido ahorros de tiempo significativos en la redacción de informes y la agilización de trámites. Sin embargo, la falta de formación y regulación en el uso de esta tecnología plantea preocupaciones sobre posibles riesgos y malas prácticas. El Ministerio de Función Pública ha anunciado la implementación de una plataforma de IA para simplificar procesos administrativos, pero profesionales del sector advierten sobre la necesidad de una estrategia clara y una formación adecuada para evitar posibles problemas, como el uso irresponsable de datos personales o la toma de decisiones automatizadas sin control. Expertos señalan la importancia de un marco normativo sólido y una alfabetización en IA para garantizar un uso ético y transparente de esta tecnología en la Administración Pública. A pesar de los avances, la falta de control y formación sigue siendo un desafío en la implementación de sistemas de IA en el sector público.

.

.

.

**»¿Cómo puede la Administración Pública española garantizar un uso ético y transparente de la inteligencia artificial en sus procesos?»**

https://elpais.com/tecnologia/2025-07-25/la-ia-sacude-al-sector-publico-en-algunas-administraciones-locales-se-esta-utilizando-chatgpt-a-mansalva-sin-control-alguno.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNo, Meta no usa tus grupos de WhatsApp para entrenar su IA: una cadena de confusión con la nueva privacidad | Tecnología | EL PAÍS

**WhatsApp: por qué la privacidad avanzada en chats grupales no permite a Meta acceder a tus mensajes**

Una cadena de mensajes erróneos alerta sobre la privacidad en WhatsApp, sugiriendo que Meta podría acceder a conversaciones si no se desactiva la configuración de privacidad avanzada en chats grupales. En realidad, esta opción protege tus mensajes de ser utilizados por la inteligencia artificial de la compañía. La privacidad avanzada del chat, introducida en abril de 2025, permite evitar que otros usuarios exporten chats, descarguen archivos multimedia o utilicen mensajes para funciones de IA. Aunque la IA de Meta puede leer mensajes directamente enviados a ella, los mensajes personales están cifrados de extremo a extremo, manteniéndolos privados.

La cadena de mensajes que circula en redes sociales ha generado preocupaciones sobre la privacidad en WhatsApp, alertando sobre la posibilidad de que Meta acceda a los mensajes si no se desactiva la configuración avanzada en chats grupales. Sin embargo, la realidad es que esta opción protege la privacidad de los usuarios, evitando que otros puedan exportar conversaciones, descargar multimedia o utilizar mensajes para funciones de inteligencia artificial. La privacidad avanzada del chat, implementada en algunos países en abril de 2025 incluyendo España, asegura que los mensajes personales permanezcan cifrados y fuera del alcance de la IA de Meta, a menos que se envíen directamente a la asistente virtual. Aunque la función de Meta AI es opcional, no se puede eliminar por completo de la aplicación, permitiendo a los usuarios mantener sus conversaciones privadas y seguras.

**»¿Cómo afecta la privacidad avanzada en chats grupales de WhatsApp a la protección de los mensajes de los usuarios?»**

.

.

.

https://elpais.com/tecnologia/2025-07-24/no-meta-no-usa-tus-grupos-de-whatsapp-para-entrenar-su-ia-una-cadena-de-confusion-con-la-nueva-privacidad.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNuevas directrices para proveedores de modelos de IA de propósito general de la Unión Europea

**La Comisión Europea publica directrices para proveedores de modelos de inteligencia artificial de propósito general en el marco de la Ley de IA de la Unión Europea.**

La Comisión Europea ha publicado unas directrices sobre las obligaciones de los proveedores de modelos de inteligencia artificial (IA) de propósito general, en el marco de la Ley de IA de la Unión Europea. Estas pautas pretenden ofrecer seguridad jurídica y una mayor claridad a los actores de toda la cadena de valor sobre cuándo y cómo deben cumplir con estas exigencias. Las directrices, que complementan el Código de Prácticas de IA de propósito general, forman parte de un paquete más amplio vinculado a la inminente entrada en vigor, el próximo 2 de agosto, de las normas europeas para proveedores de modelos de IA de propósito general. Estos modelos tienen un rol estratégico en el impulso a la innovación tecnológica y la aplicación de la inteligencia artificial en diferentes sectores. Se caracterizan por su flexibilidad para cubrir diversas tareas e integrarse en una amplia gama de sistemas de IA.
Entre las obligaciones, destaca la necesidad de proporcionar información a los proveedores de sistemas de IA interesados en integrar el modelo en sus propias plataformas y establecer políticas en materia de derechos de autor. Existen obligaciones de evaluación y mitigación adicionales para los proveedores cuyos modelos de IA de propósito general sean considerados de alto impacto o riesgo sistémico. Estos riesgos incluyen posibles afectaciones a derechos fundamentales, cuestiones de seguridad o la eventual pérdida de control sobre el funcionamiento del modelo. La guía publicada detalla los criterios para determinar el alcance de las obligaciones y a quiénes van dirigidas. Así, aclara que se consideran modelos de IA de propósito general aquellos entrenados con recursos de computación superiores a 10^23 operaciones de punto flotante y con capacidad para generar contenido de texto, audio, imagen o vídeo. Además, describe el concepto de proveedor y de comercialización, así como especifica cuándo un actor que realiza modificaciones sobre el modelo original adquiere la condición de proveedor.
Por otra parte, las directrices aclaran las circunstancias bajo las cuales los proveedores que distribuyan modelos de IA de propósito general bajo licencias abiertas o software libre, y cumplan con criterios de transparencia, podrían beneficiarse de exenciones en algunas de sus obligaciones. Por último, abordan las implicaciones para los proveedores de modelos de IA de propósito general que opten por adherirse al Código de Prácticas de IA de propósito general, y describen las expectativas de la Comisión Europea con respecto al cumplimiento a partir del 2 de agosto. Desde el 2 de agosto, los proveedores de modelos de IA de propósito general que comercialicen sus sistemas en el mercado europeo deberán ajustarse a los requerimientos definidos por la Ley de IA. Aquellos que operen modelos considerados de riesgo sistémico tendrán la obligación adicional de notificarlo a la Oficina de IA de la UE. Durante el primer año de vigencia, la Oficina de IA mantendrá una colaboración estrecha con las empresas y organizaciones, en particular con aquellas que adopten el Código de Prácticas, para facilitar la transición normativa. Las competencias de supervisión y aplicación de sanciones por parte de la Comisión serán efectivas a partir del 2 de agosto de 2026. Asimismo, las empresas que ya ofrezcan modelos de IA de propósito general en el mercado antes del 2 de agosto de 2025 tendrán hasta el 2 de agosto de 2027 para adaptar sus operaciones a las disposiciones de la Ley de IA.

«¿Cuáles son las implicaciones de las nuevas directrices de la Comisión Europea para los proveedores de modelos de inteligencia artificial de propósito general?»

.

.

.

https://www.esmartcity.es/2025/07/24/directrices-proveedores-modelos-ia-proposito-general-union-europea

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0090 DONA TIC

iconoNeix DONADIGITAL, una plataforma inclusiva per impulsar el talent femení TIC alineada amb l’Agenda 2030

El proper 9 de setembre es presentarà a la Cambra de Comerç de Barcelona la plataforma DONADIGITAL, una nova iniciativa estratègica -fruit d’un any i mig de treball intens i planificació- que neix per combatre la bretxa de gènere al sector tecnològic català. El projecte, alineat amb la Agenda 2030 i els Objectius de Desenvolupament Sostenible (ODS), busca enfortir la competitivitat del país impulsant les vocacions digitals entre les dones.

Inscripció gratuïta: https://donadigital.cat/9s2/

L’estratègia de DONADIGITAL actua sobre un eix intergeneracional, treballant en tres nivells: inspirar noies adolescents, connectar estudiants de carreres TIC com a mentores i visibilitzar dones professionals ja consolidades per crear nous referents. Per aconseguir-ho, compta amb un potent ecosistema de mitjans propis com el diari digital BARCELONADOT i la plataforma d’esdeveniments TERTÚLIA DIGITAL.

L’acte de presentació serà una trobada de primer nivell que comptarà amb la participació de Karina Gibert, Gonçal Bonhome, Josep Ramon Ferrer i  Tomàs Cascante presidenta i presidents de COEINF, Telecos.cat, GrausTIC i Tertúlia Digital , i una taula rodona amb figures tan destacades com Núria CastellAnna Navarro (Schlegel), Karina Gibert i Montse Guardia. El moment central serà la presentació de la «Llista LaIA 2025», un reconeixement a 50 dones i estudiants que ja són referents en el món digital.

Anna Navarro
Executiva i fundadora de plataformes TIC i ONGs

Karina Gibert Degana del COEINF

Montse Guardia
Presidenta del Consell Social de la UPC

Núria Castell
ExDegana de la Facultat d’Informàtica de Barcelona

Gonçal Bonhome
President Telecos.cat

Josep Ramon Ferrer
President GrausTIC

Tomàs Cascante
President Tertúlia Digital

Inscripció gratuïta: https://donadigital.cat/9s2/

L’estratègia de DONADIGITAL actua sobre un eix intergeneracional, treballant en tres nivells: inspirar noies adolescents, connectar estudiants de carreres TIC com a mentores i visibilitzar dones professionals ja consolidades per crear nous referents. Per aconseguir-ho, compta amb un potent ecosistema de mitjans propis com el diari digital BARCELONADOT i la plataforma d’esdeveniments TERTÚLIA DIGITAL.

L’acte de presentació serà una trobada de primer nivell que comptarà amb la participació de Karina Gibert, Gonçal Bonhome, Josep Ramon Ferrer i  Tomàs Cascante degana i presidents de COEINF, Telecos.cat, GrausTIC i Tertúlia Digital , i una taula rodona amb figures tan destacades com Núria CastellAnna Navarro (Schlegel), Karina Gibert i Montse Guardia. El moment central serà la presentació de la «Llista LaIA 2025», un reconeixement a 50 dones i estudiants que ja són referents en el món digital.

Inscripció gratuïta: https://donadigital.cat/9s2

PROGRAMA – Presentació de la Plataforma DONADIGITAL

Data: 9 de setembre de 2025
Lloc: Cambra de Comerç de Barcelona – Auditori Àgora (Diagonal 452)

17:30 h – Acreditacions i cafè de benvinguda
18:00 h – Inauguració institucional (personalitat pendent de confirmar)
18:20 h – Conversa amb representants de les principals plataformes TIC catalanes:

    Amb: Gonçal Bonhome (Telecos.cat), Josep Ramon Ferrer (GrausTIC), Karina Gibert (COEINF) i Tomàs Cascante (Tertúlia Digital)

18:40 h – Taula rodona: El món digital: oportunitats per a les dones
 Amb: Anna Navarro, Karina Gibert, Montse Guardia i Núria Castell

19:25 h – Diàleg amb dues estudiants (pendents de seleccionar)
19:35 h – Presentació de la Llista LaIA 2025:
 - Introducció a càrrec de Núria Castell
 - Projecció de vídeo amb fragments de 50 entrevistes
 - Lliurament de certificats a les 30 dones referents TIC i 20 estudiants
 - Foto de grup amb l’equip DONADIGITAL

20:00 h – Cloenda institucional
A continuació: Còctel i espai de networking

Inscripció gratuïta: https://donadigital.cat/9s2/

.

.DONADIGITAL és una plataforma de comunicació independent que treballa per superar un dels grans reptes per a la competitivitat de Catalunya: la bretxa de gènere en el sector tecnològic. Amb una visió sistèmica i intergeneracional, el projecte actua en tres àmbits clau —inspirar adolescents, connectar estudiants i visibilitzar referents professionals— amb l’objectiu de construir un ecosistema de talent femení sòlid i sostenible.

DONADIGITAL Disposa d’una infraestructura comunicativa pròpia i potent: el diari digital BARCELONADOT, el programa de ràdio EL MÓN ÉS DIGITAL i la plataforma d’esdeveniments presencials TERTÚLIA DIGITAL, que asseguren un gran impacte mediàtic i una alineació estratègica amb l’Agenda 2030 i els Objectius de Desenvolupament Sostenible (ODS).

Inscripció gratuïta: https://donadigital.cat/9s2/

.

.

.

.

 

 

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿Más peligrosa que la bomba nuclear? Mira Murati, la mujer que creó ChatGPT, se ha puesto el reto de salvarnos de la IA: “Será la última y más importante tecnología que construyamos”

**Mira Murati, CEO de Thinking Machines Lab, busca crear una IA transparente y ética.**

Mira Murati, ex CTO de OpenAI y creadora de ChatGPT, dejó la compañía para fundar Thinking Machines Lab en 2025. Su objetivo es resolver los problemas de opacidad y riesgos éticos de la IA, construyendo sistemas más comprensibles y seguros. Murati recluta talentos de primer nivel y promueve un debate público sobre el impacto de la IA. Su visión busca conciliar la innovación con la responsabilidad social.

El CEO de Thinking Machines Lab y ex CTO de OpenAI, Mira Murati, ha dejado su cargo en OpenAI para fundar una nueva empresa en 2025. Su objetivo es abordar los problemas de opacidad y riesgos éticos asociados con la Inteligencia Artificial (IA), buscando construir sistemas más transparentes, personalizables y seguros. Murati reclutó a talentos de primer nivel, como John Schulman, cofundador de OpenAI, para su proyecto. Su visión busca promover un debate público sobre el impacto de la IA, involucrando a reguladores y gobiernos en el proceso. A través de Thinking Machines Lab, Murati pretende cerrar la brecha entre las capacidades actuales de los modelos de IA y la comprensión científica de su funcionamiento, fomentando avances tecnológicos desde una base ética y segura. A pesar de su prominencia, Murati ha enfrentado críticas y polémicas, como sugerir la eliminación de trabajos creativos por parte de la IA, generando controversia en la comunidad artística. Su enfoque en la transparencia y el debate abierto sobre la IA destaca su compromiso con la responsabilidad social y ética en el desarrollo tecnológico. Su salida de OpenAI estuvo rodeada de especulaciones, pero Murati la justificó como una oportunidad para explorar nuevos horizontes en el campo de la IA. Su trayectoria desde la creación de ChatGPT hasta la fundación de Thinking Machines Lab refleja su búsqueda por conciliar la innovación tecnológica con la responsabilidad social, promoviendo una nueva era de IA más transparente, segura y ética.

**»¿Cómo puede Mira Murati conciliar la innovación tecnológica sin límites con la responsabilidad ética y social en el desarrollo de la Inteligencia Artificial?»**

.

.

.

https://www.lavanguardia.com/neo/ia/20250724/10908335/mas-peligrosa-bomba-nuclear-mira-murati-mujer-creo-chatgpt-puesto-reto-salvarnos-ia-sera-ultima-mas-importante-tecnologia-construyamos.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoHumanos superan a la IA en Olimpiada de Matemáticas – DW – 22/07/2025

Cinco jóvenes obtuvieron puntuaciones perfectas en la Olimpiada Internacional de Matemáticas IMO 2025, superando a los modelos de inteligencia artificial de Google y OpenAI que alcanzaron puntajes de oro por primera vez. Los organizadores no pudieron verificar la cantidad de cómputo utilizada ni si hubo participación humana.

La Olimpiada Internacional de Matemáticas IMO 2025 concluyó con cinco jóvenes logrando puntuaciones perfectas, mientras que los modelos de inteligencia artificial de Google y OpenAI obtuvieron puntajes de nivel oro. A pesar de ello, los humanos superaron a la inteligencia artificial en esta competencia anual en la que participan jóvenes menores de 20 años. Los organizadores del concurso no pudieron verificar la cantidad de cómputo utilizada por los modelos de IA ni confirmar si hubo participación humana en sus respuestas. La IMO, en un comunicado, citó a su presidente, Gregor Dolinar, quien resaltó la importancia de las demostraciones matemáticas correctas, independientemente de su origen. Google informó que su chatbot Gemini resolvió cinco de los seis problemas matemáticos propuestos durante la competencia, obteniendo un puntaje de 35 sobre 42 y una medalla de oro. OpenAI también logró un nivel de oro con su modelo de razonamiento experimental, obteniendo 35 puntos en la prueba. La IMO contó con la participación de 641 estudiantes de 112 países, de los cuales alrededor del 10% recibió medallas de oro y cinco obtuvieron puntuaciones perfectas. Además, se inauguró el Premio de la Olimpiada Matemática de IA, ganado por NemoSkills de NvidiaAI, que facilita la implementación de procesos de entrenamiento e inferencia en modelos de IA de código abierto. Por primera vez, empresas de IA participaron en un evento paralelo de la IMO, presentando sus avances a los estudiantes y realizando pruebas privadas de modelos de IA de código cerrado para los problemas planteados en la competencia.

**»¿Qué implicaciones tiene el desempeño de los modelos de inteligencia artificial en competiciones matemáticas como la IMO 2025?»**

https://www.dw.com/es/humanos-superan-a-la-ia-en-olimpiada-internacional-de-matem%C3%A1ticas/a-73366103

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenAI lanza ChatGPT Agent, una IA que ya no solo responde, sino que actúa por ti – Infobae

OpenAI presenta ChatGPT Agent, un sistema autónomo que combina funciones de Operator, razonamiento web y ChatGPT para ofrecer una experiencia integrada a los usuarios Pro, Plus y Team, permitiendo la interacción con la web, el razonamiento y la ejecución de acciones de forma independiente.

La inteligencia artificial da un paso adelante con el lanzamiento de ChatGPT Agent por parte de OpenAI. Esta herramienta autónoma está diseñada para transformar la interacción en la web y la gestión de tareas cotidianas y profesionales. ChatGPT Agent combina las funciones de Operator, el razonamiento web en múltiples pasos y el modelo conversacional de ChatGPT en un sistema integrado. Hasta ahora, las capacidades de Operator y el razonamiento web operaban de manera separada, pero con ChatGPT Agent se unen para ofrecer una experiencia más completa a los usuarios de los planes Pro, Plus y Team.

El funcionamiento de ChatGPT Agent se basa en un navegador visual integrado que interactúa con la web a través de una interfaz gráfica de usuario. Además, incorpora un navegador basado en texto para consultas que requieren razonamiento y acceso directo a la API, lo que amplía su rango de acción y flexibilidad. Todas las acciones se ejecutan desde el ordenador de ChatGPT, manteniendo el contexto relevante a lo largo de la tarea.

Para garantizar eficiencia, velocidad y precisión, ChatGPT Agent utiliza un modelo específico desarrollado para estas funciones. El sistema aprende durante la ejecución de las tareas y optimiza su enfoque, seleccionando las herramientas más eficaces para cada paso. Además, el agente puede filtrar resultados de manera inteligente, consultar al usuario cuando sea necesario iniciar sesión de forma segura en sitios web, ejecutar código y generar documentos editables como presentaciones y hojas de cálculo.

La versatilidad de ChatGPT Agent se refleja en la variedad de tareas que puede realizar de manera autónoma, como consultar calendarios, analizar empresas competidoras o planificar compras en línea. La herramienta cuenta con medidas de seguridad que protegen al usuario, solicitando permiso antes de acciones importantes y rechazando tareas de alto riesgo o solicitudes dañinas. OpenAI ha confirmado que planea expandir el lanzamiento de ChatGPT Agent a España, aunque no ha especificado una fecha concreta.

**»¿Cómo podría ChatGPT Agent impactar la forma en que las personas gestionan tareas cotidianas y profesionales en la web?»**

.

.

.

https://www.infobae.com/tecno/2025/07/20/openai-lanza-chatgpt-agent-una-ia-que-ya-no-solo-responde-sino-que-actua-por-ti/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNetflix ya está utilizando IA generativa para crear películas y series | Smart TV | Smartlife | Cinco Días

NETFLIX UTILIZA IA GENERATIVA PARA CREAR ESCENAS DE EL ETERNAUTA

**Netflix** está comenzando a utilizar inteligencia artificial generativa para crear escenas clave de sus producciones originales, como en la serie de ciencia ficción El Eternauta. Según el codirector ejecutivo **Ted Sarandos**, esta tecnología ha permitido completar una secuencia de efectos visuales diez veces más rápido y a un costo mucho menor en comparación con métodos tradicionales. Este avance marca un hito en la industria audiovisual y podría revolucionar la forma en que se producen contenidos en plataformas de streaming y cine. La IA generativa se perfila como una herramienta clave para ahorrar costos y tiempo en la creación de contenido audiovisual, lo que sugiere que su uso se expandirá en el futuro cercano.

«¿Cómo impactará la IA generativa en la producción de contenidos audiovisuales y en la industria del entretenimiento en general?»

.

.

.

NETFLIX

https://cincodias.elpais.com/smartlife/smart-tv/2025-07-21/netflix-ya-esta-utilizando-ia-generativa-para-crear-peliculas-y-series.html

Scroll al inicio
Verificado por MonsterInsights