0000 NOTICIA VISIBLE

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoJon Hernández, divulgador de IA: «2025 será el año en que todos nos demos cuenta de que la IA nos afecta directamente»

Según el divulgador español Jon Hernández, 2025 marcará el momento en que la sociedad tomará plena conciencia del impacto directo de la inteligencia artificial en todos los ámbitos de la vida, desde el trabajo hasta la toma de decisiones cotidianas, con la llegada de agentes inteligentes autónomos.

El divulgador Jon Hernández, una de las voces más influyentes sobre inteligencia artificial en España, considera que el año 2025 será un punto de inflexión. En una entrevista publicada en La Razón, afirma que este año marcará el momento en que «todos nos demos cuenta de que la IA nos afecta directamente». La reflexión nace en el marco de la newsletter Algoritmo Diferente, impulsada por Saúl Gordillo, donde varios expertos han compartido sus predicciones sobre el futuro inmediato de esta tecnología.

Para Hernández, el cambio fundamental no será solo de percepción, sino funcional: 2025 será «el año de los agentes inteligentes», sistemas capaces no solo de responder preguntas, sino de actuar autónomamente para ejecutar tareas complejas. Este salto cualitativo transformará el modo en que interactuamos con la tecnología, y con ello, los hábitos, empleos y procesos sociales.

El artículo destaca que no hace falta proyectarse a un futuro lejano para constatar el peso creciente de la IA. Grandes tecnológicas como Microsoft, Apple y Telefónica ya la integran profundamente en sus servicios. A nivel individual, millones de personas la usan para trabajar, resolver dudas o incluso planificar sus vacaciones, lo que evidencia una presencia cada vez más arraigada en lo cotidiano.

El artículo también contrasta las promesas del progreso acelerado con las advertencias de ciertos expertos. Entre ellos, Elon Musk, quien en tono apocalíptico sugiere que en una década la civilización humana podría sucumbir ante sistemas autónomos mal controlados. No obstante, Hernández apuesta por un escenario optimista y gestionable, aunque subraya la necesidad urgente de asumir la responsabilidad tecnológica de forma colectiva.

Este tipo de visiones refuerzan la idea de que la IA no es ya una curiosidad tecnológica, sino una fuerza estructural que redefine el presente.

«¿Qué haremos como sociedad cuando dejemos de preguntarnos si la IA es útil, y empecemos a asumir que ya decide por nosotros?»

. .
.

Este es un resumen comentado, basado en el artículo: «Jon Hernández, divulgador de IA: ‘2025 será el año en que todos nos demos cuenta de que la IA nos afecta directamente'» de Pablo Hernando, publicado en La Razón el 29 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoCuando el confidente de tu hijo es la IA: «Corren el riesgo de vivir en una realidad paralela»

Uno de cada tres adolescentes ya acude a la inteligencia artificial para tratar asuntos personales, lo que preocupa a psicólogos, educadores y familias ante el riesgo de perder habilidades sociales y vivir en una realidad emocionalmente desconectada del entorno humano.

La rápida adopción de herramientas de inteligencia artificial entre menores ha hecho saltar las alarmas en la comunidad educativa y psicológica. Según un informe de Empantallados y GAD3, uno de cada tres jóvenes de entre 14 y 17 años recurre a la IA para hablar de temas personales o tomar decisiones importantes. Este fenómeno, que va en aumento, plantea el riesgo de que los adolescentes sustituyan el vínculo humano por una relación con una tecnología que, aunque eficaz para brindar información, carece de conexión emocional.

La directora de Empantallados, Elena Martínez, advierte que esta tendencia puede llevar a los adolescentes a vivir en una “realidad paralela” y a perder competencias esenciales como la empatía, la introspección y la interacción social. La solución, dice, pasa por fomentar el pensamiento crítico y recordar que la IA no es un amigo, sino una herramienta.

A pesar de que el 85% de los adolescentes ya utiliza IA al menos una vez por semana, seis de cada diez profesores y alumnos consideran insuficiente la formación sobre el uso adecuado de estas tecnologías en el entorno escolar. Los expertos ven paralelismos con los errores cometidos en el auge inicial de las redes sociales y alertan que es ahora cuando se puede actuar preventivamente, antes de que se consolide una dependencia tecnológica perjudicial.

La psicóloga Silvia Álava destaca que en la adolescencia se forma la personalidad, y que esa construcción necesita tiempo, errores y relaciones humanas reales. Delegar decisiones emocionales en la IA puede afectar ese desarrollo. La IA “no da abrazos”, dice Álava, y los adolescentes necesitan apoyo afectivo real para procesar sus emociones.

También el académico José Luis Guillén, de la Universidad Francisco de Vitoria, advierte del peligro de perder habilidades sociales clave y aboga por una educación que combine tecnología con valores humanos. A largo plazo, dicen los expertos, esto puede vincularse con problemas de soledad no deseada, salud mental y despersonalización.

«¿Estamos delegando en la inteligencia artificial el acompañamiento emocional que solo los vínculos humanos pueden ofrecer?»

. .
.

Este es un resumen comentado, basado en el artículo: «Cuando el confidente de tu hijo es la IA: ‘Corren el riesgo de vivir en una realidad paralela'» de Elena Omedes, publicado en 20 Minutos el 31 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa inteligencia artificial ya no es una caja negra

Investigadores están logrando que la inteligencia artificial deje de ser una caja negra ininteligible. Nuevas técnicas permiten analizar cómo razonan los modelos de lenguaje, revelando patrones y estructuras que ayudan a entender por qué toman ciertas decisiones, un avance crucial para su uso seguro y ético.

Durante años, los modelos de inteligencia artificial, especialmente los grandes modelos de lenguaje como GPT-4, han sido considerados «cajas negras»: sistemas cuyo funcionamiento interno era opaco, incluso para sus propios creadores. Sabíamos lo que producían, pero no por qué llegaban a ciertas respuestas. Esta falta de transparencia ha generado desconfianza y ha sido una barrera importante para la adopción ética de estas tecnologías.

Sin embargo, un equipo de investigación vinculado a Anthropic, una de las empresas emergentes más relevantes en IA, ha logrado avances significativos en el análisis interno de estos modelos. Han identificado que ciertos grupos de neuronas artificiales, llamados “features”, actúan como detectores de conceptos, desde estructuras gramaticales hasta temas complejos como estilos literarios o relaciones causa-efecto. Este descubrimiento abre la posibilidad de mapear el pensamiento de la IA.

En vez de estudiar las conexiones entre millones de neuronas individuales, el equipo se enfoca en estos features, que actúan como bloques conceptuales. Para visualizar cómo funcionan, entrenaron redes de menor escala capaces de interpretar los activadores de estos features, generando imágenes asociadas o textos explicativos. Este proceso, conocido como «mapeo interpretativo«, permite a los investigadores observar cómo el modelo asocia ciertos patrones con conceptos semánticos, desde «interrogaciones indirectas» hasta «tragedias shakesperianas».

El avance no solo permite entender mejor las salidas del modelo, sino también identificar errores, alucinaciones o sesgos. Esta línea de trabajo apunta a una IA más transparente, segura y confiable, especialmente para aplicaciones críticas como medicina, justicia o educación.

Aunque aún es temprano, el objetivo es que los modelos futuros no solo generen contenido, sino también expliquen el porqué de sus decisiones, inaugurando una era de inteligencia artificial explicable.

«¿Podemos confiar en una IA cuyas decisiones no comprendemos del todo, o la transparencia será la clave de su aceptación futura?»

. .
.

Este es un resumen comentado, basado en el artículo: «La IA era una gran caja negra que nos impedía saber cómo pensaba por dentro. Ya no.» publicado en Xataka el 28 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTERTULIA DIGITAL – 16 abril – ¿Qué hacer cuando todo cambIA? Esteve Almirall

Tertulia Digital · 16 de abril · 09:30 h

KIMbcn · Cambra de Comerç de Barcelona · Diagonal 452
Invotado: Esteve Almirall

La Tertulia Digital es un evento presencial forganizado por KIMBCN y BARCELONADOT. Es un encuentro único por su formato: solo 15 personas compartiendo mesa con un invitado de primer nivel, en un ambiente informal y cercano.

En esta edición contamos con Esteve Almirall, una de las voces más lúcidas en Europa sobre innovación, tecnología e inteligencia artificial. En solo 10 minutos nos presentará los conceptos clave de su nuevo libro:

¿Qué hacer cuando todo cambia?

Un ensayo que transforma la inquietud en oportunidad y nos invita a mirar con lucidez el presente acelerado que vivimos.
La irrupción de la inteligencia artificial ha desatado preguntas urgentes:
– ¿Qué papel le queda al ser humano?
– ¿Qué es “ser competente” en un mundo donde la IA lo sabe todo?
– ¿Estamos cerca del colapso o del renacimiento?

Habrá café, conversación libre y pensamiento crítico.

👉 SOLO 15 PLAZAS · INSCRIPCIÓN AQUÍ.

.

.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoH&M replicará a 30 de sus modelos con IA, una decisión polémica entre trabajadores de la industria

H&M ha decidido sustituir a 30 modelos humanos por réplicas digitales creadas con inteligencia artificial para sus campañas publicitarias, generando un fuerte debate en la industria de la moda sobre empleo, derechos de imagen y el impacto de la automatización en la creatividad y la diversidad.

La cadena sueca H&M ha anunciado que utilizará gemelos digitales —réplicas creadas con inteligencia artificial de 30 modelos reales— en sus futuras campañas para redes sociales. Esta medida busca reducir costos y optimizar procesos creativos en medio de un contexto de desaceleración financiera. No obstante, ha generado controversia entre profesionales del sector, que advierten sobre sus implicaciones laborales y éticas.

La tecnología detrás de esta decisión permite clonar digitalmente modelos mediante la captura de imágenes estáticas y en movimiento desde múltiples ángulos. Los algoritmos aprenden sus gestos, expresiones y movimientos para crear versiones fotorrealistas capaces de ser utilizadas de forma autónoma en contenidos digitales. Este desarrollo ha sido posible gracias a la colaboración con la empresa tecnológica Uncut, y se prevé que el proyecto se complete antes de fin de año.

Jörgen Andersson, director creativo de H&M, ha defendido la iniciativa como un paso para abrir el diálogo sobre el papel de la IA en la moda, asegurando que mantendrán un enfoque centrado en el ser humano. A su vez, un informe de la BBC afirma que los modelos conservarán derechos sobre sus réplicas digitales y podrán negociar su uso comercial.

El trasfondo económico es significativo. En el primer trimestre fiscal, H&M apenas creció un 3% en ingresos, mientras que sus costos aumentaron más del 8%, reduciendo su beneficio neto a la mitad. Esto ha impulsado a la marca a buscar estrategias de ahorro, pero también ha desatado críticas. La modelo Morgan Riddle expresó en redes sociales que estas prácticas amenazan la creatividad y los empleos de fotógrafos, estilistas y técnicos del sector.

Otros precedentes como los de Levi’s o Mango muestran una tendencia creciente hacia el uso de IA en moda. Aunque las marcas argumentan que estas tecnologías permiten mayor diversidad e inclusión visual, los expertos advierten que la masificación de gemelos digitales podría transformar radicalmente las dinámicas laborales del sector.

«¿Estamos preparados para un mundo donde los cuerpos digitales reemplacen la autenticidad y el trabajo humano en la industria creativa?»

. .
.

Este es un resumen comentado, basado en el artículo: «H&M replicará a 30 de sus modelos con IA, una decisión polémica entre trabajadores de la industria» de Fernanda González, publicado en WIRED en Español el 28 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoRedefiniendo el liderazgo: cómo la IA desafía los modelos tradicionales de gestión

La inteligencia artificial está redefiniendo el liderazgo empresarial, exigiendo a los líderes adaptarse a sistemas complejos y fomentar una cultura de curiosidad y responsabilidad para integrar eficazmente la IA en la toma de decisiones estratégicas.

La irrupción de la inteligencia artificial (IA) en el ámbito empresarial está transformando los paradigmas tradicionales de liderazgo. La abundancia de datos y las recomendaciones generadas por sistemas complejos obligan a los líderes a reevaluar su papel, equilibrando la intuición humana con las sugerencias automatizadas. Este nuevo entorno demanda un liderazgo que valore la curiosidad y promueva un diálogo abierto sobre la implementación de tecnologías de IA, fomentando la transparencia y la responsabilidad en la toma de decisiones estratégicas.

En la era actual, la velocidad en la toma de decisiones y el volumen de información han cambiado drásticamente. Los líderes tradicionales, acostumbrados a basar sus decisiones en experiencia y lógica, se enfrentan a sistemas de IA que generan recomendaciones basadas en algoritmos complejos, a menudo incomprensibles. Esto puede llevar a decisiones apresuradas si no se cuestiona adecuadamente la validez de dichas recomendaciones.

Cultivar la curiosidad se convierte en un atributo esencial del liderazgo moderno. Preguntas como “¿Qué falta en este modelo?” o “¿Quién lo entrenó y con qué datos?” ayudan a identificar puntos ciegos y a construir una cultura de responsabilidad dentro del equipo. La curiosidad no solo es clave para resolver problemas, sino que también fomenta un ambiente donde se cuestionan los resultados incorrectos.

A medida que los sistemas de IA evolucionan, presentan desafíos significativos, especialmente cuando no ofrecen explicaciones claras. Esto es problemático para ejecutivos que prefieren decisiones basadas en lógica y datos interpretables. Aceptar recomendaciones de la IA sin cuestionamiento puede ser tentador por el ahorro de tiempo, pero este enfoque puede ser engañoso. Los líderes no necesitan ser programadores, pero sí comprender las limitaciones de las herramientas que utilizan. Según un estudio de Deloitte, un tercio de los ejecutivos encuestados mencionó desafíos relacionados con datos, como la calidad y la integración. La falta de supervisión clara y de entendimiento sobre cómo se toman las decisiones puede obstaculizar el éxito de la IA en las organizaciones.

La confianza juega un papel crucial en este nuevo entorno. Cuando los empleados perciben que las recomendaciones de la máquina tienen prioridad sobre sus opiniones, pueden ser menos propensos a expresar inquietudes. Esto también afecta a los clientes, que pueden cuestionar la equidad y transparencia de los procesos impulsados por algoritmos. Es esencial que los líderes sean transparentes en cuanto al uso de la IA y en la evaluación de decisiones, incluyendo una honestidad sobre sus limitaciones. Invitar al diálogo sobre el papel de la IA fortalece la confianza entre el equipo, fomentando una relación más fuerte y transparente entre empleados y tecnología.

Las organizaciones pueden invertir en herramientas de IA, pero sin un cambio cultural adecuado, esto puede ser infructuoso. La cultura determina si un equipo cuestiona los resultados o se conforma. Un ambiente de seguridad psicológica es fundamental para que los empleados se sientan cómodos al expresar sus observaciones. Sin este componente, se pueden presentar dificultades en la implementación de tecnologías innovadoras.

Los líderes deben comenzar a hacerse preguntas que reflejen una comprensión profunda de su responsabilidad:

  • ¿Qué decisiones estamos automatizando y comprendemos completamente el porqué?

  • ¿Quién es responsable de los resultados generados por la IA?

  • ¿Cómo estamos preparando a nuestros equipos para cuestionar e interpretar resultados?

  • ¿Estamos estableciendo un tono que valore la velocidad más que el escrutinio?

  • ¿Nuestros sistemas reflejan los valores que declaramos?

Estas preguntas deben ocupar un lugar en las juntas directivas y en las sesiones de desarrollo ejecutivo. El impacto de la inteligencia artificial no dependerá únicamente de la sofisticación de la tecnología, sino de la sabiduría con la que se utilice.

«¿Estamos preparados para liderar en un mundo donde la inteligencia artificial es una herramienta clave en la toma de decisiones?»

. .
.

Este es un resumen comentado, basado en el artículo: «Cómo la inteligencia artificial está redefiniendo el liderazgo frente a resultados complejos de los sistemas» publicado en IA España el 29 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono“La IA creará 97 millones de empleos este año” Laia Grassi

Laia Grassi, directora creativa y experta en inteligencia artificial generativa, afirmó en el foro Tecnológica Santa Cruz que la IA generará 97 millones de empleos en 2025. Rechazó el alarmismo, defendiendo la IA como una revolución creativa que amplifica capacidades humanas y no como una amenaza laboral.

Durante su ponencia en el foro Tecnológica Santa Cruz, celebrado en el MUNA, Laia Grassi reivindicó una visión optimista y realista sobre la inteligencia artificial. La reconocida publicista, con casi 20 años de trayectoria en innovación tecnológica para grandes marcas como Coca Cola, Google, Audi y Skoda, aseguró que estamos ante “la gran revolución de la humanidad”, comparable con el descubrimiento del fuego o la máquina de vapor.

Citando datos del Foro Económico Mundial, Grassi sostuvo que en 2025 la IA creará 97 millones de nuevos empleos, frente a los 85 millones que desaparecerán, generando un saldo neto de 12 millones de empleos. Para ella, estos cambios son parte de cualquier evolución tecnológica, por lo que no deben ser vistos con miedo, sino con preparación y creatividad.

Subrayó que la IA no es una amenaza sino una herramienta vacía, sin alma ni intuición, que necesita de personas para dotarla de emoción y dirección. “La creatividad sigue siendo humana, y la IA solo la amplifica”, afirmó. Esta perspectiva coincide con su trabajo en campañas emblemáticas, como la de los osos polares de Coca Cola, y en desarrollos creativos generados con IA.

El foro también fue una plataforma para visibilizar el papel de las mujeres en la ciencia y la tecnología. La consejera Carmen Pérez, la presidenta del Cabildo Rosa Dávila y el alcalde José Manuel Bermúdez destacaron la relevancia de contar con siete ponentes femeninas en esta edición, posicionando a Tecnológica como un referente para futuras generaciones de mujeres científicas.

Grassi alentó a no temer esta etapa de transformación, sino a abrazarla con mirada crítica y entusiasmo, poniendo la creatividad humana en el centro del proceso. Las actividades del evento continuarán con TecnoPlay, dedicado a videojuegos, cultura asiática y arte digital.

“¿Y si en lugar de temer a la IA, comenzamos a diseñar el mundo laboral que queremos con ella?”

. .
.

Este es un resumen comentado, basado en el artículo : «Laia Grassi, en Tenerife: ‘La IA creará 97 millones de empleos este año'» de Mónica Ledesma publicado en Diario de Avisos el 28 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoJoan Fontcuberta: la inteligencia artificial y el fin de la inocencia visual

El fotógrafo Joan Fontcuberta reflexiona sobre cómo la inteligencia artificial ha desmontado la confianza ciega en la fotografía. Para él, la IA no destruye la imagen, sino que la desenmascara. Sostiene que la fotografía siempre fue una construcción subjetiva y que ahora la tecnología obliga a asumir esa conciencia crítica.

Joan Fontcuberta, Premio Nacional de Fotografía y de Ensayo, así como galardonado con el prestigioso Hasselblad, impartió una conferencia en el Centre Catany bajo el título La fotografia, de l’alquímia a l’algoritme, donde analizó cómo la inteligencia artificial ha transformado nuestra relación con la imagen. Con décadas de experiencia trabajando con sistemas algorítmicos, Fontcuberta ha anticipado muchas de las tensiones actuales en torno a la veracidad y legitimidad de las imágenes generadas artificialmente.

El autor de la exposición Nemotipos, compuesta por obras realizadas con herramientas algorítmicas, defiende que la fotografía nunca fue un reflejo fiel de la realidad, sino una construcción interpretativa. Afirma que durante años creímos ciegamente en lo que veíamos a través de la lente, pero la IA ha revelado la fragilidad de esa confianza, mostrando que la imagen es también una ficción.

Su mirada parte del periodismo y no de las bellas artes, lo que le da una sensibilidad especial hacia la responsabilidad ética del creador de imágenes. Sostiene que la cámara no es más que una herramienta, y que la ética proviene del autor, no del dispositivo. En el caso de la IA, ocurre lo mismo: la responsabilidad recae en quien la usa.

Frente a la polémica sobre los contenidos falsos —como los vídeos hiperrealistas de Trump en Gaza o montajes como La isla de las corrupciones—, Fontcuberta denuncia su uso ideológico como armas visuales, cada vez más sofisticadas, que amenazan con distorsionar la percepción pública. Sin embargo, ve en los errores actuales de la IA (el «loro estocástico») un campo de juego creativo que aún no domina del todo al autor.

Por último, advierte que, en un mundo saturado de imágenes, la función del artista es enfocar aquellas que aún faltan. La IA, más que una amenaza, es un catalizador para renovar el pensamiento crítico en torno a la imagen.

“¿Estamos preparados para asumir que toda imagen es una interpretación, incluso cuando parece objetiva?”

. .
.

Este es un resumen comentado, basado en el artículo : «El fotógrafo Joan Fontcuberta: ‘Creíamos a ciegas en la imagen pero la IA nos ha quitado la venda de los ojos'» de Raquel Galán publicado en Diario de Mallorca el 28 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0070 Como se hace

iconoIA: Cómo convertir mis fotos en estilo Ghibli en ChatGPT; Paso a paso

La inteligencia artificial permite ahora transformar fotografías personales en imágenes animadas al estilo Studio Ghibli. La función, accesible desde ChatGPT, aprovecha modelos generativos de OpenAI para recrear escenas en la estética del cine japonés de los 80 y 90. Esta tendencia se ha viralizado en redes sociales, democratizando el arte visual animado.

Una nueva función disponible en ChatGPT ha captado la atención de miles de usuarios: la posibilidad de convertir cualquier fotografía en una imagen al estilo del universo animado de Studio Ghibli. La tendencia, que se ha vuelto viral en plataformas como Facebook, Instagram y X, une la potencia de la inteligencia artificial con el encanto visual del estudio fundado por Hayao Miyazaki e Isao Takahata.

A pesar de que Miyazaki ha sido históricamente crítico del uso de IA en el arte, esta herramienta de OpenAI permite reinterpretar imágenes reales en clave animada. El proceso es sencillo: el usuario debe subir su imagen a ChatGPT y usar instrucciones como “haz una versión en estilo de caricatura de esta imagen” o “ajusta esta imagen al estilo de animación japonesa tradicional, como en películas del Studio Ghibli o de los años 80 y 90”.

Estas indicaciones activan modelos generativos que transforman la imagen, devolviéndola con una apariencia nostálgica y caricaturizada. Aunque se trata de una creación digital automatizada, el resultado final puede reflejar una alta calidad artística, evocando filmes como Mi vecino Totoro o El viaje de Chihiro.

La tendencia forma parte de una ola más amplia de experimentación visual con IA, donde personajes históricos, celebridades o fotografías cotidianas son reinterpretadas en estilos artísticos específicos. Esta popularidad demuestra cómo los modelos generativos están abriendo nuevos caminos para la expresión creativa accesible a cualquier usuario, sin conocimientos técnicos de edición.

Más allá del entretenimiento, este fenómeno plantea preguntas sobre la autoría, el estilo y los límites del arte creado con asistencia de algoritmos. Mientras tanto, sigue creciendo el interés por esta experiencia estética inmersiva, especialmente entre fans de la animación japonesa y usuarios de herramientas de IA creativa.

“¿Puede considerarse arte legítimo una creación generada por IA cuando emula estilos consagrados como el de Studio Ghibli?”

. .
.

Este es un resumen comentado, basado en el artículo : «IA: Cómo convertir mis fotos en estilo Ghibli en ChatGPT; Paso a paso» de LW publicado en Marca el 27 de marzo de 2025.
. .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl impacto transformador de la IA en el periodismo moderno

La inteligencia artificial generativa está transformando radicalmente el periodismo, automatizando tareas, optimizando la producción y distribución de contenidos, pero también generando incertidumbres éticas, legales y profesionales. Aunque no sustituye al periodista, redefine su rol y plantea un futuro inmediato donde la supervisión humana será clave frente a la automatización creciente.

La irrupción de la inteligencia artificial generativa (IAG) en las redacciones ha marcado un antes y un después en la industria periodística. Herramientas como ChatGPT han democratizado el acceso a tecnologías avanzadas, permitiendo automatizar tareas como redacción, resumen, traducción y producción audiovisual. Esta disrupción ha generado una reacción inmediata en la cadena de valor de los medios, que ya integran soluciones IAG en sus procesos productivos.

Según el Informe Anual de la Profesión Periodística 2023 de la Asociación de la Prensa de Madrid, el 84% de los periodistas cree que estas herramientas se usarán ampliamente, el 97% advierte de implicaciones éticas y el 91% teme que puedan fomentar la desinformación. No obstante, solo el 31% las usa actualmente, principalmente para funciones técnicas o mecánicas.

La IA está empezando a transformar todos los soportes: desde los cibermedios hasta la televisión, radio y streaming, incluyendo la creación de avatares, locuciones artificiales, edición de vídeo y generación de imágenes. Su aplicación es multitransversal, y afecta desde la producción hasta la gestión de contenidos. Las redacciones ya desarrollan APIs que conectan CMS con motores generativos para elaborar artículos, titulares, ladillos y material multimedia.

Aunque la IA puede crear contenidos que imitan el estilo humano, no genera el hecho noticioso: la noticia sigue siendo una construcción humana. El riesgo, señala el autor Juan Pablo Mateos Abarca, reside en que los contenidos automatizados desplacen al periodismo de calidad. A nivel legal, la regulación es incipiente; la Ley de IA de la UE de 2024 representa un primer marco, pero persisten zonas grises como la propiedad intelectual y la trazabilidad de los contenidos.

El futuro próximo incluirá más automatización, incluso IA capaces de realizar análisis editoriales o construir realidades virtuales noticiosas. Pese a los avances, la labor periodística, sobre todo en contextos complejos, críticos o éticamente sensibles, seguirá requiriendo juicio, creatividad y presencia humana.

“¿Cómo pueden los medios equilibrar la eficiencia que ofrece la inteligencia artificial con la necesidad de mantener la calidad y ética periodística?”

. .
.

Este es un resumen comentado, basado en el artículo : «La IA y el periodismo: una nueva era de cambios operativos y productivos» de Juan Pablo Mateos Abarca publicado en Cuadernos de Periodistas el 22 de enero de 2025.
. .

Scroll al inicio
Verificado por MonsterInsights