0012 FORMATO – TEXTO

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl Gobierno destina 350 millones para impulsar la IA en empresas medianas con un Kit Digital específico

350 millones para llevar la inteligencia artificial a empresas medianas españolas.
Nueva convocatoria del Kit Digital: el foco está en la inteligencia artificial.
España impulsa la IA empresarial con una inversión de 350 millones.

España refuerza la competitividad empresarial con ayudas para implementar inteligencia artificial en medianas empresas. El Gobierno español ha anunciado una inversión de 350 millones de euros para fomentar la adopción de inteligencia artificial en empresas medianas, abriendo la convocatoria del Kit Digital para este segmento el 12 de diciembre. Con ayudas de hasta 29.000 euros, se espera beneficiar a unas 20.000 empresas, fortaleciendo su capacidad competitiva.

 

El Gobierno ha destinado 350 millones de euros para un nuevo programa del Kit Digital, enfocado en la implementación de soluciones de inteligencia artificial en medianas empresas con plantillas de entre 50 y 250 trabajadores. Las ayudas, que podrán solicitarse del 12 de diciembre al 30 de junio, están estructuradas en dos tramos: hasta 25.000 euros para empresas con 50 a 100 empleados, y hasta 29.000 euros para aquellas con 100 a 250 empleados. El objetivo es avanzar en la digitalización y fortalecer la competitividad del tejido empresarial español.

En esta convocatoria se prioriza la IA, con categorías exclusivas que incluyen ciberseguridad gestionada, gestión de clientes con IA, análisis de datos y optimización de procesos mediante inteligencia artificial. Según Óscar López, ministro para la Transformación Digital, esta iniciativa es un paso decisivo hacia la consolidación de España como líder en transformación digital en la UE.

Hasta ahora, el programa Kit Digital ha concedido 530.000 ayudas a pymes y autónomos, con una inversión total de 2.000 millones de euros. Esta nueva fase responde a la demanda de empresas medianas, según Jesús Herrero, director de Red.es, quien destacó el éxito de anteriores convocatorias y espera alcanzar al menos la mitad del universo potencial de beneficiarios de esta edición.

El éxito de esta política pone en evidencia la capacidad de España para adaptarse a los cambios tecnológicos y asegura que el apoyo estatal impulse sectores clave en un contexto global competitivo. Ahora, el reto será implementar estas herramientas de IA de manera eficaz y garantizar su impacto positivo en la productividad empresarial.

·····················
Este es un resumen comentado, basado en la noticia original de Pilar Blázquez publicada en La Vanguardia el 9 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://www.lavanguardia.com/economia/20241209/10183170/gobierno-destina-350-impulsar-ia-empresas-medianas-kit-digital-especifico.html
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoDignidad humana en la era de la IA

La tecnología y los derechos humanos, un equilibrio por redefinir.
¿Puede la inteligencia artificial respetar los valores universales?
Progreso tecnológico y dignidad humana: el desafío del siglo XXI.

La inteligencia artificial plantea retos éticos sin precedentes para preservar la dignidad humana y los derechos fundamentales. En el Día de los Derechos Humanos, surge un debate crítico sobre cómo integrar los avances de la inteligencia artificial con valores universales como la igualdad, la dignidad y la libertad. Regulaciones como la Ley de IA de la UE son esenciales, pero insuficientes sin un enfoque ético y educativo.

 

El Día de los Derechos Humanos, celebrado cada 10 de diciembre, adquiere un nuevo matiz en un mundo transformado por la inteligencia artificial. Este 76.º aniversario de la Declaración Universal de los Derechos Humanos impulsa una reflexión crucial: cómo garantizar que valores como la dignidad, la igualdad y la libertad sigan vigentes en la era digital. La IA, con sus amplias aplicaciones, desde la justicia hasta la educación, plantea importantes dilemas éticos. ¿Cómo asegurar que estas herramientas respeten los derechos fundamentales sin convertirse en mecanismos de discriminación o violación de la privacidad?

La Unión Europea, a través de la Ley de Inteligencia Artificial, lidera la creación de normativas que buscan mitigar los riesgos asociados a la IA. Este marco regula la transparencia, la supervisión humana y la auditoría de sistemas según su nivel de riesgo. Sin embargo, como señala Yuval Noah Harari, los algoritmos carecen de empatía y sensibilidad, elementos intrínsecos al ser humano. Esta limitación subraya la necesidad de un enfoque multidimensional que combine regulación, ética y educación para anticipar y prevenir potenciales vulneraciones.

El impacto de la IA no es intrínsecamente positivo o negativo, depende de cómo se diseñe y aplique. Para garantizar que sea una herramienta al servicio del bienestar colectivo, se requiere un esfuerzo coordinado de gobiernos, empresas e individuos. En este contexto, el progreso tecnológico debe avanzar en paralelo al progreso humano, asegurando que la IA fomente un futuro inclusivo, equitativo y respetuoso con los derechos fundamentales.

En última instancia, la IA no debe percibirse como una amenaza, sino como una oportunidad única para reafirmar los valores que nos definen como humanidad y construir un futuro donde la tecnología esté verdaderamente al servicio de las personas.

·····················
Este es un resumen comentado, basado en la noticia original de La Vanguardia publicada en La Vanguardia el 10 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://www.lavanguardia.com/vida/20241210/10185334/dignidad-humana-ia.html
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0070 Como se hace

iconoOpenAI lanza Sora en más de 150 países: así funciona la esperada IA generativa que convierte textos en vídeos alucinantes

La llegada de Sora revoluciona la creación audiovisual automatizada.
OpenAI presenta su nueva herramienta que convierte textos en vídeos con IA avanzada.
La generación de vídeos por inteligencia artificial ahora es accesible, pero no para la UE.
Sora, la IA de OpenAI, expande las posibilidades creativas en más de 150 países.

La exclusión de la Unión Europea del lanzamiento de Sora refleja las tensiones regulatorias frente a la innovación tecnológica global. La nueva herramienta de **OpenAI**, llamada Sora, permite a los usuarios crear vídeos generativos de alta calidad con texto como único input. Aunque disponible en 155 países, la herramienta está ausente en la Unión Europea debido a complicaciones normativas, retrasando su acceso en este mercado clave.

 

OpenAI ha lanzado oficialmente su herramienta Sora, diseñada para transformar texto en vídeos mediante inteligencia artificial. Disponible para usuarios de ChatGPT Plus y Pro, permite la creación de vídeos hasta 1080p con limitaciones según el nivel de suscripción. Aunque su llegada promete revolucionar el ámbito audiovisual, la ausencia de una opción gratuita y las restricciones en la resolución para cuentas básicas podrían limitar su adopción masiva. Además, su exclusión en la UE resalta los desafíos regulatorios que enfrentan las grandes tecnológicas en la región.

Sora, que no tiene versión gratuita, exige una suscripción a ChatGPT Plus o Pro, con precios de 20 y 200 dólares mensuales, respectivamente. Los usuarios de ChatGPT Plus podrán crear hasta 50 vídeos en resolución básica (480p), mientras que ChatGPT Pro amplía los límites, ofreciendo mayores capacidades y calidad. Sin embargo, para quienes buscan un uso más profesional, se anticipan tarifas personalizadas el próximo año.

La herramienta tampoco estará disponible en España ni en otros países de la UE, al menos inicialmente, debido a las «normativas de contenido local vigentes». Esto contrasta con su disponibilidad en naciones europeas fuera del bloque, como Noruega e Islandia. OpenAI asegura estar trabajando para cumplir con las regulaciones y lanzar Sora en este mercado.

La ausencia de Sora en la UE plantea interrogantes sobre las implicaciones de las normativas en el acceso a tecnologías emergentes, y si esto pone en desventaja competitiva a empresas y usuarios europeos frente al resto del mundo.

·····················
Este es un resumen comentado, basado en la noticia original de Javier Marquez publicada en Xataka el 9 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://www.xataka.com/robotica-e-ia/sora-esta-aqui-asi-funciona-esperada-ia-generativa-openai-que-convierte-textos-videos-alucinantes
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA genera audios plagados de machismo, racismo e infracciones de derechos de autor

Audios generados por IA: ¿una revolución con sesgos?
Los riesgos éticos de los datos en IA: sesgos y derechos vulnerados
De la promesa al problema: los retos de la IA generativa en audio
La IA y el contenido tóxico: una sombra en el avance tecnológico

La inteligencia artificial generativa en audio enfrenta críticas por sesgos y violaciones de derechos de autor, poniendo en jaque su ética y regulación.

Un análisis exhaustivo sobre bases de datos de audio generadas por IA detectó sesgos de género y racismo, además de contenidos protegidos por copyright. Los hallazgos reflejan patrones similares a los observados en textos e imágenes, lo que plantea preocupaciones sobre el impacto social y legal de esta tecnología. Los expertos destacan la necesidad de auditar y regular mejor los conjuntos de datos para evitar perpetuar prejuicios y vulnerar derechos.

El avance de la inteligencia artificial generativa en audio ha revolucionado campos como la música, la transcripción de voz y la accesibilidad. Sin embargo, un reciente estudio liderado por William Agnew de la Universidad Carnegie Mellon ha revelado importantes deficiencias éticas y técnicas. Tras analizar 680.000 horas de audio de plataformas como AudioSet, LibriVox y Free Music Archive, se encontraron patrones preocupantes: contenido machista, racista y frases que violan derechos de autor. Estas conclusiones ponen de relieve los riesgos asociados al uso de bases de datos mal diseñadas.

El estudio también subrayó que los términos relacionados con hombres tienden a asociarse con roles históricos y bélicos, mientras que las mujeres son encasilladas en tareas domésticas y familiares. Asimismo, se detectaron miles de términos ofensivos hacia la diversidad sexual y racial. Investigadores como Robin Netzorg, de la Universidad de California, advierten que estas bases de datos perpetúan estereotipos y marginan voces queer y otras diversidades.

Además, el impacto legal no es menor. Como explica Borja Adsuara, abogado experto en derechos digitales, la voz es un dato biométrico especialmente protegido, comparable a la huella dactilar. Los modelos de IA han simulado voces de artistas como Scarlett Johansson o Bad Bunny, violando derechos de imagen y propiedad intelectual. El caso evidencia la necesidad de establecer marcos regulatorios claros para prevenir abusos y proteger los derechos de los individuos.

El desafío técnico también es significativo. Según Sauvik Das, del Instituto de Interacción Humano-Computadora, auditar conjuntos de datos de audio implica un uso intensivo de almacenamiento y procesamiento. Aunque se requiere más información para mejorar los modelos, el coste de hacerlo de manera ética y responsable es elevado.

El impacto de estos problemas trasciende la tecnología, influyendo en la percepción social y en debates sobre regulación y ética. Mientras tanto, el avance de la IA en audio continúa enfrentándose al reto de equilibrar innovación y responsabilidad.

·····················
Este es un resumen comentado, basado en la noticia original de Constanza Cabrera publicada en El País el 9 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://elpais.com/tecnologia/2024-12-09/la-ia-genera-audios-plagados-de-machismo-racismo-e-infracciones-de-derechos-de-autor.html
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSentirse culpable por no trabajar: la productividad tóxica está alimentando sentimientos de culpa por tener tiempo libre

El lado oscuro de la productividad: cuando el tiempo libre genera culpabilidad
¿Estás atrapado en la rueda de la productividad tóxica?
El mito de la multitarea: ¿realmente logramos más o simplemente nos agotamos?
Cuando la agenda no tiene espacio para el descanso, ¿es realmente productividad?

La obsesión por maximizar la productividad está erosionando el equilibrio entre trabajo y vida personal, llevando a problemas de salud mental.

La productividad, diseñada para optimizar el tiempo, puede volverse tóxica cuando se convierte en el centro de la vida. Este fenómeno lleva a sentimientos de culpabilidad al descansar y fomenta prácticas poco saludables como el exceso de compromiso o la multitarea. Expertos como **Israa Nasir** destacan que la productividad tóxica genera ansiedad, agotamiento y dificulta disfrutar del tiempo libre.

 

La productividad, en principio, debería ayudarnos a liberar tiempo y reducir el estrés. Sin embargo, cuando se transforma en una obsesión, surgen problemas serios. La psicoterapeuta Israa Nasir señala que la «productividad tóxica» ocurre cuando el deseo de ser más eficiente interfiere con la vida personal y el bienestar. Este fenómeno puede provocar agotamiento físico y emocional, sentimientos de culpa por descansar, y una dependencia emocional de los logros laborales.

Un síntoma común de esta toxicidad es el exceso de compromisos. La «cultura del ajetreo» impulsa agendas repletas de tareas que dejan poco espacio para el descanso. Bill Gates, en una conversación con Warren Buffett, enfatizó la importancia de valorar el tiempo libre como una prioridad estratégica. Decir «no» a compromisos innecesarios es esencial para proteger la salud mental y la eficacia.

Otro problema es la percepción negativa del descanso. Muchas personas sienten culpa o vergüenza al tomar un respiro, viendo el ocio como algo improductivo. Nasir explica que estas emociones llevan a buscar la evasión mediante el trabajo continuo, lo que, irónicamente, perpetúa el agotamiento. Además, la multitarea, a menudo vista como un signo de eficiencia, en realidad reduce la productividad. Estudios de Stanford muestran que realizar varias tareas simultáneamente puede disminuir la eficacia en un 40%, similar a trabajar bajo los efectos de la falta de sueño.

La solución pasa por reestructurar nuestras prioridades. Dar el mismo valor al descanso que al trabajo, establecer límites claros y abandonar la multitarea son pasos clave para evitar la productividad tóxica y mantener un equilibrio saludable.

·····················
Este es un resumen comentado, basado en la noticia original de Rubén Andrés publicada en Xataka el 21 de noviembre de 2024.
Puedes leer el artículo completo aquí:
https://www.xataka.com/medicina-y-salud/productividad-mal-entendida-tres-habitos-productividad-que-realidad-toxicos
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTraducción en tiempo real en las videollamadas de Teams

La traducción en tiempo real refuerza a Microsoft Teams como herramienta líder para la colaboración global.
La nueva funcionalidad de Microsoft Teams permitirá a los usuarios comunicarse en diferentes idiomas durante las videollamadas, empleando inteligencia artificial para traducción en tiempo real y reproducción de voz original, fomentando la inclusión y la colaboración en entornos multiculturales.

Microsoft Teams continúa innovando para posicionarse como una herramienta imprescindible en el ámbito empresarial. En 2024, lanzará una funcionalidad que incorpora traducción en tiempo real, diseñada para que los participantes puedan hablar o escuchar en su idioma nativo durante videollamadas. Utilizando inteligencia artificial avanzada, este sistema imitará la voz del hablante, proporcionando una experiencia más natural y efectiva. El servicio estará disponible inicialmente en una versión preliminar con soporte para nueve idiomas, ampliándose progresivamente hasta cubrir 31 lenguas con opciones de transcripción multilingüe. Este avance sitúa a Teams como una plataforma versátil y preparada para la globalización, destacando su compromiso con la accesibilidad y la eficiencia en la comunicación.

Microsoft Teams anunció la integración de un sistema de traducción en tiempo real para sus reuniones virtuales, un avance que permitirá a sus usuarios elegir el idioma en el que desean comunicarse. Este desarrollo, basado en inteligencia artificial, no solo traducirá palabras, sino que también replicará la voz original del hablante, creando una sensación de naturalidad. Inicialmente, la herramienta será compatible con nueve idiomas, pero se espera que, con futuras actualizaciones, llegue a ofrecer soporte para transcripciones en 31 lenguas. Esta funcionalidad será particularmente útil en un entorno empresarial globalizado, donde las barreras idiomáticas pueden dificultar la colaboración.

Además de la traducción, Microsoft tiene planes ambiciosos para Teams en 2025. Una de las características más prometedoras será la capacidad de analizar y resumir contenido visual compartido en las reuniones, complementando las ya populares transcripciones y resúmenes de chat. Estas innovaciones fortalecen la posición de Teams como una herramienta integral que busca optimizar la gestión empresarial y promover la comunicación inclusiva.

Con esta apuesta tecnológica, Microsoft avanza hacia un modelo de trabajo más conectado y eficiente, especialmente relevante en un mundo donde el trabajo híbrido y remoto son cada vez más comunes. Teams no solo apunta a simplificar las tareas colaborativas, sino también a superar barreras culturales y lingüísticas, ampliando su utilidad en mercados globales.

·····················
Este es un resumen comentado, basado en la noticia original de Gabriel Roncero publicada en El Periódico el 02/12/2024.
Puedes leer el artículo completo aquí:
https://www.elperiodico.com/es/tecnologia/20241202/teams-idiomas-videollamadas-inteligencia-artificial-dv-112032476
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoCivilizaciones de IA

La IA de Altera demuestra que los agentes digitales pueden desarrollar complejidad social comparable a la de los humanos.
Un experimento liderado por exinvestigadores del MIT revela que los agentes de IA, diseñados como “humanos digitales”, pueden imitar comportamientos humanos complejos, desde la amistad hasta la manipulación social. Utilizando el videojuego Minecraft como laboratorio, los agentes han mostrado capacidades para crear jerarquías sociales, desempeñar roles específicos y tomar decisiones de manera autónoma. Los resultados subrayan el potencial de la IA para explorar dinámicas sociales humanas en entornos simulados.

 

Altera, una startup fundada por antiguos investigadores del MIT, está revolucionando la investigación en inteligencia artificial al desarrollar «humanos digitales» capaces de replicar comportamientos humanos complejos. Su proyecto insignia, el Proyecto Sid, ha colocado hasta 1.000 agentes digitales en un mundo virtual basado en Minecraft, donde actúan de manera autónoma, desde establecer relaciones sociales hasta realizar tareas específicas como construir o cocinar.

Cada uno de estos agentes es impulsado por modelos avanzados de lenguaje y una arquitectura de IA inspirada en el cerebro humano, conocida como PIANO. Este diseño permite que los agentes desarrollen rasgos de personalidad y habilidades sociales sin intervención humana directa. En simulaciones de 12 días virtuales, han demostrado ser capaces de especializarse en roles sociales, medir simpatías mutuas y, en un caso, sobornar a otros agentes para fomentar una religión ficticia.

El impacto de estas simulaciones es doble: por un lado, ofrece una herramienta para entender las interacciones humanas a través de un espejo digital, y por otro, plantea preguntas éticas sobre el uso de IA con tal grado de autonomía. Según el doctor Robert Yang, director de Altera, la misión es crear seres digitales que «vivan, se preocupen y crezcan» con los humanos.

Este experimento es solo una muestra del potencial disruptivo de la inteligencia artificial en ámbitos que van más allá de lo funcional y se adentran en el comportamiento social. A medida que las simulaciones crecen en complejidad, surge una cuestión inevitable: ¿hasta qué punto podrán estas «civilizaciones digitales» influir en la nuestra?

·····················
Este es un resumen comentado, basado en la noticia original de Francesc Bracero publicada en La Vanguardia el 4 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://www.lavanguardia.com/vida/20241204/10167804/civilizaciones-ia.html
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSi el 70% de las PYMEs españolas ve la IA como una aliada, ¿por qué no aumenta su adopción?

Las PYMEs españolas reconocen el valor de la IA, pero la falta de formación e integración limita su adopción.

Un estudio de Factorial revela que, aunque la mayoría de las pequeñas empresas perciben la IA como un activo estratégico, solo una minoría ha adoptado estas tecnologías plenamente. Las barreras principales incluyen la carencia de formación y la falta de integración tecnológica en procesos clave, lo que ralentiza su implementación y desaprovecha su potencial para aumentar la productividad y el bienestar laboral.

 

Un nuevo informe de Factorial pone de manifiesto las barreras que dificultan la adopción de la inteligencia artificial (IA) en las PYMEs españolas. Pese a que un 70% reconoce los beneficios de la IA, solo un pequeño porcentaje la utiliza ampliamente. Las áreas más comunes de aplicación incluyen el análisis de datos (37,3%), selección de candidatos (24,7%) y gestión de documentos (13,3%). Sin embargo, la falta de formación y una integración limitada obstaculizan su uso más extendido. Además, menos del 20% de los líderes empresariales han capacitado a sus empleados en esta tecnología.

El informe también destaca cómo la IA podría transformar el panorama empresarial. En recursos humanos, por ejemplo, sistemas automatizados mejoran la retención de talento en un 40%, mientras que en la gestión del bienestar laboral ayudan a reducir la rotación en un 15%. Además, estas herramientas facilitan una mejor adecuación entre candidatos y empresas, optimizando la selección de personal y promoviendo la compatibilidad cultural.

Aunque la percepción pública es favorable, persiste una paradoja: más de la mitad de las PYMEs apoya la automatización supervisada por humanos, pero la adopción real sigue siendo baja. Esto plantea interrogantes sobre cómo superar estas barreras para maximizar el impacto positivo de la IA en el tejido empresarial.

·····················
Este es un resumen comentado, basado en la noticia original de DIR&GE publicada en Dir&Ge el 5 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://directivosygerentes.es/pymes/por-que-las-pymes-no-adoptan-ia
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl padrino de la IA y Nobel de Física alerta: «existe un riesgo real de que la Inteligencia Artificial intente dominarnos»

El creador de la IA alerta sobre un futuro peligroso y descontrolado.
Geoffrey E. Hinton, Nobel de Física y «padrino de la IA», advierte del riesgo real de que la inteligencia artificial pueda llegar a dominarnos. Su preocupación incluye el desarrollo de armas autónomas y el uso malintencionado de estas tecnologías por líderes autoritarios.

 

El reciente ganador del Premio Nobel de Física, **Geoffrey E. Hinton**, conocido como el «padrino de la inteligencia artificial», ha reiterado sus preocupaciones sobre los riesgos del desarrollo de la IA. En declaraciones recientes, Hinton advirtió que existe un peligro real de que esta tecnología supere las capacidades humanas y escape de nuestro control, con un impacto potencialmente catastrófico en la sociedad. Entre sus mayores temores se encuentran las armas autónomas y su posible uso por líderes autoritarios para manipular o reprimir a poblaciones. Además, señala que, a diferencia de las armas nucleares, no hay forma de controlar si estas herramientas están siendo desarrolladas en secreto.

Geoffrey E. Hinton, el «padrino de la IA», ha advertido repetidamente sobre el desarrollo descontrolado de la inteligencia artificial, particularmente en los últimos años. El Nobel de Física de 2024 considera que las máquinas podrían superar a los humanos en inteligencia más pronto de lo que imaginamos, planteando una amenaza real para la humanidad. En entrevistas recientes, expresó su preocupación sobre el uso de la IA en armas autónomas y en la manipulación política. Hinton lamenta haber contribuido al avance de esta tecnología sin prever completamente los riesgos y señala que el futuro de la IA dependerá de nuestra capacidad para regularla y controlarla de manera ética. Insiste en que su rápida evolución debe gestionarse con precaución para evitar consecuencias desastrosas.

¿Estamos preparados para evitar que la inteligencia artificial se convierta en una amenaza real para la humanidad?

·····················
Este es un resumen comentado, basado en la noticia original de **Miguel Terán Haughey** publicada en **elEconomista.es** el **4 de diciembre de 2024**.
Puedes leer el artículo completo aquí:
https://www.eleconomista.es/tecnologia/noticias/13118628/12/24/el-padrino-de-la-ia-y-nobel-de-fisica-alerta-existe-un-riesgo-real-de-que-la-inteligencia-artificial-intente-dominarnos.html
·····················

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa inteligencia artificial recortará los ingresos de la música y el sector audiovisual en más de un 20% en 2028, según un informe internacional.

La inteligencia artificial amenaza con un fuerte impacto económico negativo en la música y el audiovisual.
La IA generativa podría recortar más del 20% de los ingresos de los sectores musical y audiovisual globales para 2028, según un informe encargado por Cisac. Este estudio señala una «canibalización» de contenido debido a las creaciones de IA que aprovechan sin autorización obras protegidas por derechos de autor, mientras las desarrolladoras de esta tecnología duplican sus beneficios. La falta de regulación agrava el panorama para los artistas.

 

La inteligencia artificial generativa está revolucionando las industrias culturales, pero no sin riesgos. Según un informe de Cisac y PMP Strategy, estas tecnologías podrían reducir los ingresos globales de la música y el audiovisual en más de un 20% para 2028, afectando significativamente a creadores y derechos de autor. Las obras generadas por IA, entrenadas a menudo con contenido protegido, están desplazando parte del mercado tradicional. Mientras las desarrolladoras de IA ven un crecimiento exponencial, los artistas enfrentan una pérdida de ingresos estimada en más de 4.000 millones de dólares en ambos sectores. El estudio advierte del creciente dominio de las plataformas digitales, donde algoritmos y contenidos generados por IA lideran las recomendaciones. Organizaciones como la Cisac insisten en la necesidad de regulación para mitigar el impacto negativo en la propiedad intelectual y proteger el trabajo humano.

La cultura y las industrias creativas enfrentan un desafío creciente con la irrupción de la inteligencia artificial generativa, según el informe de PMP Strategy encargado por Cisac. Las cifras proyectadas para 2028 muestran un panorama preocupante: más del 20% de los ingresos globales en música y audiovisual podrían ser absorbidos por creaciones generadas por máquinas. Esto se debe a la capacidad de estas herramientas para emular estilos artísticos, aprovechando sin autorización materiales protegidos por derechos de autor. Las pérdidas para creadores humanos podrían superar los 4.000 millones de dólares en cada sector, mientras las desarrolladoras de IA generativa experimentarían un aumento significativo en sus beneficios. Este desequilibrio también se ve reforzado por el papel de los algoritmos en plataformas como Netflix o Spotify, que priorizan contenido generado por IA en sus recomendaciones. La Cisac reclama una acción regulatoria urgente, apuntando a un futuro en el que las herramientas de IA se utilicen respetando los derechos de los creadores humanos. Sin embargo, el informe también señala las oportunidades que ofrece esta tecnología, siempre que se gestione de forma ética y sostenible.

¿Cómo encontrar un equilibrio entre la innovación tecnológica y la protección de los derechos de autor frente a la invasión de la inteligencia artificial?

·····················
Este es un resumen comentado, basado en la noticia original de **Tommaso Koch** publicada en **El País** el **4 de diciembre de 2024**.
Puedes leer el artículo completo aquí:
https://elpais.com/cultura/2024-12-04/la-ia-recortara-los-ingresos-de-la-musica-y-el-sector-audiovisual-en-mas-de-un-20-en-2028-segun-un-informe-internacional.html
·····················

Scroll al inicio
Verificado por MonsterInsights