0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA sacude al sector público: “En algunas administraciones locales se está utilizando ChatGPT a mansalva, sin control alguno” | Tecnología | EL PAÍS

EL PAIS

**La inteligencia artificial transforma la Administración Pública en España, generando ahorro de tiempo pero también preocupación por la falta de formación y regulación en su uso.**

La implantación de sistemas de inteligencia artificial en la Administración Pública española ha permitido ahorros de tiempo significativos en la redacción de informes y la agilización de trámites. Sin embargo, la falta de formación y regulación en el uso de esta tecnología plantea preocupaciones sobre posibles riesgos y malas prácticas. El Ministerio de Función Pública ha anunciado la implementación de una plataforma de IA para simplificar procesos administrativos, pero profesionales del sector advierten sobre la necesidad de una estrategia clara y una formación adecuada para evitar posibles problemas, como el uso irresponsable de datos personales o la toma de decisiones automatizadas sin control. Expertos señalan la importancia de un marco normativo sólido y una alfabetización en IA para garantizar un uso ético y transparente de esta tecnología en la Administración Pública. A pesar de los avances, la falta de control y formación sigue siendo un desafío en la implementación de sistemas de IA en el sector público.

.

.

.

**»¿Cómo puede la Administración Pública española garantizar un uso ético y transparente de la inteligencia artificial en sus procesos?»**

https://elpais.com/tecnologia/2025-07-25/la-ia-sacude-al-sector-publico-en-algunas-administraciones-locales-se-esta-utilizando-chatgpt-a-mansalva-sin-control-alguno.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNo, Meta no usa tus grupos de WhatsApp para entrenar su IA: una cadena de confusión con la nueva privacidad | Tecnología | EL PAÍS

**WhatsApp: por qué la privacidad avanzada en chats grupales no permite a Meta acceder a tus mensajes**

Una cadena de mensajes erróneos alerta sobre la privacidad en WhatsApp, sugiriendo que Meta podría acceder a conversaciones si no se desactiva la configuración de privacidad avanzada en chats grupales. En realidad, esta opción protege tus mensajes de ser utilizados por la inteligencia artificial de la compañía. La privacidad avanzada del chat, introducida en abril de 2025, permite evitar que otros usuarios exporten chats, descarguen archivos multimedia o utilicen mensajes para funciones de IA. Aunque la IA de Meta puede leer mensajes directamente enviados a ella, los mensajes personales están cifrados de extremo a extremo, manteniéndolos privados.

La cadena de mensajes que circula en redes sociales ha generado preocupaciones sobre la privacidad en WhatsApp, alertando sobre la posibilidad de que Meta acceda a los mensajes si no se desactiva la configuración avanzada en chats grupales. Sin embargo, la realidad es que esta opción protege la privacidad de los usuarios, evitando que otros puedan exportar conversaciones, descargar multimedia o utilizar mensajes para funciones de inteligencia artificial. La privacidad avanzada del chat, implementada en algunos países en abril de 2025 incluyendo España, asegura que los mensajes personales permanezcan cifrados y fuera del alcance de la IA de Meta, a menos que se envíen directamente a la asistente virtual. Aunque la función de Meta AI es opcional, no se puede eliminar por completo de la aplicación, permitiendo a los usuarios mantener sus conversaciones privadas y seguras.

**»¿Cómo afecta la privacidad avanzada en chats grupales de WhatsApp a la protección de los mensajes de los usuarios?»**

.

.

.

https://elpais.com/tecnologia/2025-07-24/no-meta-no-usa-tus-grupos-de-whatsapp-para-entrenar-su-ia-una-cadena-de-confusion-con-la-nueva-privacidad.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNuevas directrices para proveedores de modelos de IA de propósito general de la Unión Europea

**La Comisión Europea publica directrices para proveedores de modelos de inteligencia artificial de propósito general en el marco de la Ley de IA de la Unión Europea.**

La Comisión Europea ha publicado unas directrices sobre las obligaciones de los proveedores de modelos de inteligencia artificial (IA) de propósito general, en el marco de la Ley de IA de la Unión Europea. Estas pautas pretenden ofrecer seguridad jurídica y una mayor claridad a los actores de toda la cadena de valor sobre cuándo y cómo deben cumplir con estas exigencias. Las directrices, que complementan el Código de Prácticas de IA de propósito general, forman parte de un paquete más amplio vinculado a la inminente entrada en vigor, el próximo 2 de agosto, de las normas europeas para proveedores de modelos de IA de propósito general. Estos modelos tienen un rol estratégico en el impulso a la innovación tecnológica y la aplicación de la inteligencia artificial en diferentes sectores. Se caracterizan por su flexibilidad para cubrir diversas tareas e integrarse en una amplia gama de sistemas de IA.
Entre las obligaciones, destaca la necesidad de proporcionar información a los proveedores de sistemas de IA interesados en integrar el modelo en sus propias plataformas y establecer políticas en materia de derechos de autor. Existen obligaciones de evaluación y mitigación adicionales para los proveedores cuyos modelos de IA de propósito general sean considerados de alto impacto o riesgo sistémico. Estos riesgos incluyen posibles afectaciones a derechos fundamentales, cuestiones de seguridad o la eventual pérdida de control sobre el funcionamiento del modelo. La guía publicada detalla los criterios para determinar el alcance de las obligaciones y a quiénes van dirigidas. Así, aclara que se consideran modelos de IA de propósito general aquellos entrenados con recursos de computación superiores a 10^23 operaciones de punto flotante y con capacidad para generar contenido de texto, audio, imagen o vídeo. Además, describe el concepto de proveedor y de comercialización, así como especifica cuándo un actor que realiza modificaciones sobre el modelo original adquiere la condición de proveedor.
Por otra parte, las directrices aclaran las circunstancias bajo las cuales los proveedores que distribuyan modelos de IA de propósito general bajo licencias abiertas o software libre, y cumplan con criterios de transparencia, podrían beneficiarse de exenciones en algunas de sus obligaciones. Por último, abordan las implicaciones para los proveedores de modelos de IA de propósito general que opten por adherirse al Código de Prácticas de IA de propósito general, y describen las expectativas de la Comisión Europea con respecto al cumplimiento a partir del 2 de agosto. Desde el 2 de agosto, los proveedores de modelos de IA de propósito general que comercialicen sus sistemas en el mercado europeo deberán ajustarse a los requerimientos definidos por la Ley de IA. Aquellos que operen modelos considerados de riesgo sistémico tendrán la obligación adicional de notificarlo a la Oficina de IA de la UE. Durante el primer año de vigencia, la Oficina de IA mantendrá una colaboración estrecha con las empresas y organizaciones, en particular con aquellas que adopten el Código de Prácticas, para facilitar la transición normativa. Las competencias de supervisión y aplicación de sanciones por parte de la Comisión serán efectivas a partir del 2 de agosto de 2026. Asimismo, las empresas que ya ofrezcan modelos de IA de propósito general en el mercado antes del 2 de agosto de 2025 tendrán hasta el 2 de agosto de 2027 para adaptar sus operaciones a las disposiciones de la Ley de IA.

«¿Cuáles son las implicaciones de las nuevas directrices de la Comisión Europea para los proveedores de modelos de inteligencia artificial de propósito general?»

.

.

.

https://www.esmartcity.es/2025/07/24/directrices-proveedores-modelos-ia-proposito-general-union-europea

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿Más peligrosa que la bomba nuclear? Mira Murati, la mujer que creó ChatGPT, se ha puesto el reto de salvarnos de la IA: “Será la última y más importante tecnología que construyamos”

**Mira Murati, CEO de Thinking Machines Lab, busca crear una IA transparente y ética.**

Mira Murati, ex CTO de OpenAI y creadora de ChatGPT, dejó la compañía para fundar Thinking Machines Lab en 2025. Su objetivo es resolver los problemas de opacidad y riesgos éticos de la IA, construyendo sistemas más comprensibles y seguros. Murati recluta talentos de primer nivel y promueve un debate público sobre el impacto de la IA. Su visión busca conciliar la innovación con la responsabilidad social.

El CEO de Thinking Machines Lab y ex CTO de OpenAI, Mira Murati, ha dejado su cargo en OpenAI para fundar una nueva empresa en 2025. Su objetivo es abordar los problemas de opacidad y riesgos éticos asociados con la Inteligencia Artificial (IA), buscando construir sistemas más transparentes, personalizables y seguros. Murati reclutó a talentos de primer nivel, como John Schulman, cofundador de OpenAI, para su proyecto. Su visión busca promover un debate público sobre el impacto de la IA, involucrando a reguladores y gobiernos en el proceso. A través de Thinking Machines Lab, Murati pretende cerrar la brecha entre las capacidades actuales de los modelos de IA y la comprensión científica de su funcionamiento, fomentando avances tecnológicos desde una base ética y segura. A pesar de su prominencia, Murati ha enfrentado críticas y polémicas, como sugerir la eliminación de trabajos creativos por parte de la IA, generando controversia en la comunidad artística. Su enfoque en la transparencia y el debate abierto sobre la IA destaca su compromiso con la responsabilidad social y ética en el desarrollo tecnológico. Su salida de OpenAI estuvo rodeada de especulaciones, pero Murati la justificó como una oportunidad para explorar nuevos horizontes en el campo de la IA. Su trayectoria desde la creación de ChatGPT hasta la fundación de Thinking Machines Lab refleja su búsqueda por conciliar la innovación tecnológica con la responsabilidad social, promoviendo una nueva era de IA más transparente, segura y ética.

**»¿Cómo puede Mira Murati conciliar la innovación tecnológica sin límites con la responsabilidad ética y social en el desarrollo de la Inteligencia Artificial?»**

.

.

.

https://www.lavanguardia.com/neo/ia/20250724/10908335/mas-peligrosa-bomba-nuclear-mira-murati-mujer-creo-chatgpt-puesto-reto-salvarnos-ia-sera-ultima-mas-importante-tecnologia-construyamos.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoHumanos superan a la IA en Olimpiada de Matemáticas – DW – 22/07/2025

Cinco jóvenes obtuvieron puntuaciones perfectas en la Olimpiada Internacional de Matemáticas IMO 2025, superando a los modelos de inteligencia artificial de Google y OpenAI que alcanzaron puntajes de oro por primera vez. Los organizadores no pudieron verificar la cantidad de cómputo utilizada ni si hubo participación humana.

La Olimpiada Internacional de Matemáticas IMO 2025 concluyó con cinco jóvenes logrando puntuaciones perfectas, mientras que los modelos de inteligencia artificial de Google y OpenAI obtuvieron puntajes de nivel oro. A pesar de ello, los humanos superaron a la inteligencia artificial en esta competencia anual en la que participan jóvenes menores de 20 años. Los organizadores del concurso no pudieron verificar la cantidad de cómputo utilizada por los modelos de IA ni confirmar si hubo participación humana en sus respuestas. La IMO, en un comunicado, citó a su presidente, Gregor Dolinar, quien resaltó la importancia de las demostraciones matemáticas correctas, independientemente de su origen. Google informó que su chatbot Gemini resolvió cinco de los seis problemas matemáticos propuestos durante la competencia, obteniendo un puntaje de 35 sobre 42 y una medalla de oro. OpenAI también logró un nivel de oro con su modelo de razonamiento experimental, obteniendo 35 puntos en la prueba. La IMO contó con la participación de 641 estudiantes de 112 países, de los cuales alrededor del 10% recibió medallas de oro y cinco obtuvieron puntuaciones perfectas. Además, se inauguró el Premio de la Olimpiada Matemática de IA, ganado por NemoSkills de NvidiaAI, que facilita la implementación de procesos de entrenamiento e inferencia en modelos de IA de código abierto. Por primera vez, empresas de IA participaron en un evento paralelo de la IMO, presentando sus avances a los estudiantes y realizando pruebas privadas de modelos de IA de código cerrado para los problemas planteados en la competencia.

**»¿Qué implicaciones tiene el desempeño de los modelos de inteligencia artificial en competiciones matemáticas como la IMO 2025?»**

https://www.dw.com/es/humanos-superan-a-la-ia-en-olimpiada-internacional-de-matem%C3%A1ticas/a-73366103

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenAI lanza ChatGPT Agent, una IA que ya no solo responde, sino que actúa por ti – Infobae

OpenAI presenta ChatGPT Agent, un sistema autónomo que combina funciones de Operator, razonamiento web y ChatGPT para ofrecer una experiencia integrada a los usuarios Pro, Plus y Team, permitiendo la interacción con la web, el razonamiento y la ejecución de acciones de forma independiente.

La inteligencia artificial da un paso adelante con el lanzamiento de ChatGPT Agent por parte de OpenAI. Esta herramienta autónoma está diseñada para transformar la interacción en la web y la gestión de tareas cotidianas y profesionales. ChatGPT Agent combina las funciones de Operator, el razonamiento web en múltiples pasos y el modelo conversacional de ChatGPT en un sistema integrado. Hasta ahora, las capacidades de Operator y el razonamiento web operaban de manera separada, pero con ChatGPT Agent se unen para ofrecer una experiencia más completa a los usuarios de los planes Pro, Plus y Team.

El funcionamiento de ChatGPT Agent se basa en un navegador visual integrado que interactúa con la web a través de una interfaz gráfica de usuario. Además, incorpora un navegador basado en texto para consultas que requieren razonamiento y acceso directo a la API, lo que amplía su rango de acción y flexibilidad. Todas las acciones se ejecutan desde el ordenador de ChatGPT, manteniendo el contexto relevante a lo largo de la tarea.

Para garantizar eficiencia, velocidad y precisión, ChatGPT Agent utiliza un modelo específico desarrollado para estas funciones. El sistema aprende durante la ejecución de las tareas y optimiza su enfoque, seleccionando las herramientas más eficaces para cada paso. Además, el agente puede filtrar resultados de manera inteligente, consultar al usuario cuando sea necesario iniciar sesión de forma segura en sitios web, ejecutar código y generar documentos editables como presentaciones y hojas de cálculo.

La versatilidad de ChatGPT Agent se refleja en la variedad de tareas que puede realizar de manera autónoma, como consultar calendarios, analizar empresas competidoras o planificar compras en línea. La herramienta cuenta con medidas de seguridad que protegen al usuario, solicitando permiso antes de acciones importantes y rechazando tareas de alto riesgo o solicitudes dañinas. OpenAI ha confirmado que planea expandir el lanzamiento de ChatGPT Agent a España, aunque no ha especificado una fecha concreta.

**»¿Cómo podría ChatGPT Agent impactar la forma en que las personas gestionan tareas cotidianas y profesionales en la web?»**

.

.

.

https://www.infobae.com/tecno/2025/07/20/openai-lanza-chatgpt-agent-una-ia-que-ya-no-solo-responde-sino-que-actua-por-ti/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoNetflix ya está utilizando IA generativa para crear películas y series | Smart TV | Smartlife | Cinco Días

NETFLIX UTILIZA IA GENERATIVA PARA CREAR ESCENAS DE EL ETERNAUTA

**Netflix** está comenzando a utilizar inteligencia artificial generativa para crear escenas clave de sus producciones originales, como en la serie de ciencia ficción El Eternauta. Según el codirector ejecutivo **Ted Sarandos**, esta tecnología ha permitido completar una secuencia de efectos visuales diez veces más rápido y a un costo mucho menor en comparación con métodos tradicionales. Este avance marca un hito en la industria audiovisual y podría revolucionar la forma en que se producen contenidos en plataformas de streaming y cine. La IA generativa se perfila como una herramienta clave para ahorrar costos y tiempo en la creación de contenido audiovisual, lo que sugiere que su uso se expandirá en el futuro cercano.

«¿Cómo impactará la IA generativa en la producción de contenidos audiovisuales y en la industria del entretenimiento en general?»

.

.

.

NETFLIX

https://cincodias.elpais.com/smartlife/smart-tv/2025-07-21/netflix-ya-esta-utilizando-ia-generativa-para-crear-peliculas-y-series.html

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa Comisión Europea emite directrices para nuevas reglas de IA a partir de agosto | European Newsroom

La Comisión Europea ha publicado directrices para que los proveedores de modelos de IA de propósito general cumplan con la Ley de IA a partir del 2 de agosto de 2025, obligándoles a transparentar datos de entrenamiento, evaluar riesgos sistémicos y preparar documentación técnica; el control se extenderá escalonadamente hasta 2027.

En Bruselas, la Comisión Europea ha presentado directrices destinadas a guiar a los proveedores de modelos de inteligencia artificial de propósito general en la entrada en vigor de obligaciones clave de la Ley de IA, que cobra plena vigencia desde el 2 de agosto de 2025 Cadena SER+15European Newsroom+15DPL News+15Estrategia Digital Europea+1Computerworld.es+1. Estos criterios aclaran qué modelos están sujetos a la normativa —aquellos entrenados con más de 10^23 operaciones de coma flotante y capaces de generar texto, audio, imágenes o vídeo— y cuándo deja de ser relevante la condición de «proveedor», incluso en casos de modificaciones a modelos existentes CASADOMO+2Estrategia Digital Europea+2Computerworld.es+2.

Las directrices exigen transparencia por parte de los proveedores, quienes deben documentar el diseño y funcionamiento interno de sus sistemas, los datasets utilizados y sus mecanismos de gestión de riesgos European Newsroom+1DPL News+1. En escenarios de mayor impacto —riesgos sistémicos relacionados con derechos fundamentales o seguridad— las empresas deberán además implementar evaluaciones y medidas de mitigación específicas, y comunicar sin demora estas situaciones a la Oficina de IA European Newsroom+2Estrategia Digital Europea+2CASADOMO+2.

Aunque las obligaciones surgen el 2 de agosto de 2025, el control reglamentario será progresivo: la futura Agencia de IA de la UE comenzará a revisar nuevos modelos en 2026, y en 2027 abarcará también los modelos ya existentes Computerworld.es+5European Newsroom+5CASADOMO+5. Paralelamente, los proveedores deben adherirse al Código de Buenas Prácticas de IA de Propósito General, publicado el 10 de julio, que complementa las directrices aunque no es jurídicamente vinculante El País+6Estrategia Digital Europea+6Cinco Días+6.

Las sanciones por incumplimiento pueden ser severas, con multas que van desde 7,5 millones de euros o el 1,5 % de la facturación, hasta un máximo de 35 millones o el 7 % de ingresos anuales Computerworld.es+1Cinco Días+1. La Comisión ha diseñado un periodo de transición, ofreciendo asistencia técnica durante el primer año para apoyar a los proveedores en la adaptación profesional y alineada con valores europeístas Estrategia Digital Europea+1Computerworld.es+1.

Estas medidas suponen un paso decisivo hacia una IA más segura y transparente en la UE. Al clarificar obligaciones legales y garantizar plazos razonables, la Comisión busca compaginar innovación con protección de derechos fundamentales y confianza pública.

https://europeannewsroom.com/es/la-comision-europea-emite-directrices-para-nuevas-reglas-de-ia-a-partir-de-agosto/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLas grandes tecnológicas se lanzan al negocio de la guerra: así se militariza Silicon Valley | Tecnología | EL PAÍS

Las grandes tecnológicas de Silicon Valley (OpenAI, Google, Microsoft, Meta, xAI, Amazon…) han firmado contratos millonarios con el Pentágono y ejércitos como el de Israel para aplicar inteligencia artificial en armamento, vigilancia y ciberdefensa. Bajo la nueva presidencia de Donald Trump, que planea invertir un billón de dólares en modernización militar, estas empresas han suprimido restricciones éticas para atender las demandas del sector bélico.

En una fase histórica, gigantes tecnológicos han transitado desde una posición de rechazo a la militarización, planteada hace años por protestas internas (como en Google por el Proyecto Maven), hacia una etapa de plena colaboración con el complejo militar-tecnológico Engadget+15El País+15Facebook+15Wikipedia. Esta transformación ha sido impulsada por la narrativa de la seguridad nacional, que les permite eludir regulaciones y consolidar poder político y económico El País.

La catedrática Heidy Khlaaf, del AI Now Institute, sostiene que estas asociaciones justifican prácticas cuestionables y potencian el dominio corporativo: “Presentarse como protagonistas de una cruzada casi civilizatoria… protege a las tecnológicas de fricciones regulatorias” El País+1Cinco Días+1. Esta estrategia refuerza su posición como agentes estratégicos “demasiado grandes para fracasar”.

Sin embargo, esta simbiosis plantea riesgos concretos: los sistemas de IA, como GPT‑4 o LLaMA, generando vectores de ataque cibernético y posibilitando manipulaciones mediante la “envenenación” de datos El País. Además, se emplean datos personales sin consentimiento en sistemas de inteligencia, vigilancia y reconocimiento de objetivos (ISTAR), lo que ha encendido alarmas sobre vulneración de derechos y privacidad El País.

Estas acciones han desencadenado disrupciones internas: protestas de empleados, renuncias y despidos en Google – vinculadas al contrato Nimbus con Israel por 1.200 millones de dólares – y el reproche de que la colaboración se impone sin suficiente debate social El País.

La tensión entre disrupción tecnológica y consenso ético emerge con fuerza. Se intensifica la reflexión sobre si la narrativa de la seguridad nacional legitima a Silicon Valley para eludir controles sociales, concentrar poder y redefinir las fronteras entre innovación civil y militar.

«¿Hasta qué punto las grandes tecnológicas deberían participar en la industria militar sin cuestionar su responsabilidad ética?»
.
.
.

RESUMEN BASADO EN EL ARTÍCULO: “LAS GRANDES TECNOLÓGICAS SE LANZAN AL NEGOCIO DE LA GUERRA: ASÍ SE MILITARIZA SILICON VALLEY” DE MANUEL G. PASCUAL, PUBLICADO EN EL PAÍS EL 21 JULIO 2025.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoElon Musk anuncia la creación de Baby Grok, una aplicación de su empresa de IA con contenido para niños

¿ELON MUSK DESARROLLARÁ UNA APLICACIÓN INFANTIL LLAMADA BABY GROK? ¿QUÉ DETALLES HA REVELADO SOBRE EL PROYECTO? ¿CUÁL ES EL CONTEXTO DE ESTE ANUNCIO?

El multimillonario Elon Musk ha anunciado que su empresa de Inteligencia Artificial (IA) desarrollará una nueva aplicación dedicada al contenido infantil llamada Baby Grok, poco después del lanzamiento de Grok 4. Musk comunicó esta noticia en una publicación en redes sociales sin ofrecer más detalles. La compañía xAI presentó Grok 4 como la «IA más inteligente del mundo», capaz de superar el nivel de doctorado. Este anuncio llega tras un incidente en el que la empresa tuvo que disculparse por la publicación de contenido inapropiado que achacaron a un error en la actualización del bot.

FUENTE: 20 MINUTOS EDITORA, S.L.

https://www.20minutos.es/tecnologia/elon-musk-anuncia-creacion-baby-grok-una-aplicacion-su-empresa-ia-con-contenido-para-ninos-5732907/

Scroll al inicio
Verificado por MonsterInsights