13 de febrero de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAsí es como Hacienda va a utilizar la Inteligencia Artificial para que no se les escape ningún contribuyente

Hacienda empleará IA para detectar fraudes fiscales y mejorar la recaudación
La Agencia Tributaria usará IA para optimizar los controles fiscales
España digitaliza la lucha contra el fraude: Hacienda refuerza su arsenal con IA

**La Agencia Tributaria apuesta por la inteligencia artificial para mejorar la detección de fraudes y simplificar trámites fiscales.**
La Agencia Tributaria de España ha iniciado la implementación de inteligencia artificial (IA) en sus sistemas para optimizar la detección de fraudes fiscales y mejorar la eficiencia de los trámites tributarios. Con esta tecnología, Hacienda espera reducir errores, mejorar la calidad de los datos declarados y facilitar a los contribuyentes el cumplimiento de sus obligaciones. Además, el organismo asegura que este uso de la IA se realizará con garantías legales y protección de datos.

 

Desde hace años, la administración pública española ha trabajado en la digitalización de sus servicios con el fin de mejorar la experiencia del ciudadano. Ahora, la Agencia Tributaria ha dado un paso más en esta estrategia con la introducción de inteligencia artificial (IA) en sus procesos de control y recaudación fiscal.

El plan, detallado en un manual publicado por Hacienda, busca mejorar la detección de fraudes mediante el cruce de datos en tiempo real, lo que permitirá identificar inconsistencias en las declaraciones fiscales. Hasta ahora, el uso de sistemas automatizados se limitaba a la aprobación de la Declaración de la Renta, con intervención humana en caso de discrepancias. Sin embargo, con la IA, la supervisión será más exhaustiva desde el principio.

La Agencia Tributaria enfatiza que la implementación de esta tecnología no solo beneficiará a la administración, sino también a los contribuyentes. La IA permitirá simplificar los trámites, reducir los errores y mejorar la calidad de los datos presentados, facilitando así el cumplimiento de las obligaciones fiscales.

El documento de Hacienda también subraya el compromiso con la protección de datos y la transparencia. Aseguran que siempre habrá una persona responsable supervisando el uso de la IA, garantizando que su implementación se haga dentro del marco legal vigente.

Aunque no se ha especificado una fecha exacta para la implementación completa de estos sistemas, Hacienda ya ha comenzado la fase de desarrollo y prueba con equipos multidisciplinares formados por científicos de datos, informáticos y expertos fiscales.

Este movimiento responde a la creciente necesidad de modernizar la recaudación de impuestos en España, donde cada año se detectan fraudes millonarios. La adopción de IA permitirá a Hacienda ser más precisa y eficiente en sus inspecciones, pero también plantea interrogantes: «¿Hasta qué punto la automatización del control fiscal podría afectar a la privacidad y los derechos de los contribuyentes?»

·····················
Este es un resumen comentado, basado en la noticia original de Miguel Terán Haughey publicada en El Economista el 12 de febrero de 2025.
Puedes leer el artículo completo aquí: eleconomista.es/tecnologia/noticias/13217979/02/25/asi-es-como-hacienda-va-a-utilizar-la-inteligencia-artificial-para-que-no-se-les-escape-ningun-contribuyente.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLos chatbots de IA fallan al resumir noticias, según un estudio de la BBC

Inexactitudes y distorsiones en los resúmenes de noticias generados por IA
Investigación revela que los chatbots no son fuentes fiables de información

**Los chatbots de inteligencia artificial distorsionan la información y comprometen la fiabilidad de las noticias.**
Un estudio de la BBC revela que ChatGPT, Copilot, Gemini y Perplexity AI presentan errores significativos al resumir noticias. El 51% de las respuestas analizadas contenían problemas graves y el 19% incluía errores fácticos, como cifras y fechas incorrectas. La directora ejecutiva de BBC News, Déborah Turnes, advierte que esta distorsión informativa podría erosionar la confianza pública en los medios.

 

Un estudio reciente realizado por la BBC ha puesto de manifiesto las limitaciones de los chatbots de inteligencia artificial en la tarea de resumir noticias. La investigación evaluó a ChatGPT, Copilot, Gemini y Perplexity AI, proporcionándoles contenido de la BBC y formulando preguntas sobre dichas noticias. Los resultados fueron preocupantes: el 51% de las respuestas presentaban problemas significativos y el 19% contenía errores fácticos, incluyendo datos incorrectos y fechas erróneas.

La directora ejecutiva de BBC News and Current Affairs, Déborah Turnes, expresó su preocupación al respecto, señalando que “la distorsión ocurre cuando un asistente de inteligencia artificial extrae información para responder a una pregunta y ofrece una respuesta incorrecta, engañosa y potencialmente peligrosa”. Turnes advirtió que esta distorsión informativa puede debilitar la confianza del público en los medios tradicionales y provocar desinformación masiva.

El informe también destaca que los chatbots de IA no solo cometen errores en los datos, sino que además confunden hechos con opiniones, tienden a editorializar y omiten información contextual esencial. Esto podría llevar a interpretaciones erróneas de la realidad y a una pérdida de credibilidad en las herramientas de IA utilizadas para el consumo de noticias.

En respuesta a estos hallazgos, un portavoz de OpenAI declaró que la empresa está trabajando para mejorar la precisión de sus sistemas y que ha implementado medidas para “respetar las preferencias de los editores”, lo que incluye ajustes en los algoritmos que determinan cómo los chatbots acceden y presentan la información.

Este estudio pone de relieve las limitaciones actuales de la inteligencia artificial en el procesamiento y resumen de información compleja, y subraya la importancia de la intervención humana en la verificación y contextualización de las noticias. A medida que las herramientas de IA se integran en el consumo informativo, surge una pregunta clave: “¿Cómo pueden los desarrolladores de IA garantizar que la información generada sea precisa, objetiva y contextualizada sin comprometer la confianza del público en los medios?”

·····················
Este es un resumen comentado, basado en la noticia original de Ana Higuera publicada en 20minutos el 12 de febrero de 2025.
Puedes leer el artículo completo aquí: 20minutos.es/tecnologia/inteligencia-artificial/ia-no-sirve-para-estar-informado-estudio-revela-chatbots-resumen-mal-noticias-5681628/
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono«Ningún búnker te salvará si la IA se sale de control» Sam Altman

La inteligencia artificial descontrolada: ni los búnkeres ofrecen protección, advierte Sam Altman
Sam Altman alerta sobre los peligros de una IA fuera de control: los refugios no serían suficientes
El fundador de OpenAI enfatiza la imposibilidad de escapar a una IA desbocada, incluso con búnkeres

<div style=»background-color: #e0e0e0; border: 1px solid grey; border-radius: 7px; box-shadow: 5px 5px 5px grey; padding: 25px; width: 70%;»> **Una inteligencia artificial descontrolada podría superar cualquier medida de seguridad humana, advierte Sam Altman.**

El fundador de OpenAI, Sam Altman, ha expresado su preocupación por el potencial destructivo de una inteligencia artificial general (AGI) fuera de control, señalando que incluso los búnkeres más sofisticados serían inútiles ante tal amenaza.
Altman, conocido por sus preparativos ante posibles catástrofes, enfatiza que ninguna estructura puede protegernos si la AGI se desboca.

</div>

En una entrevista de 2023, Sam Altman, fundador de OpenAI, abordó los riesgos asociados al desarrollo de la inteligencia artificial general (AGI). Altman, reconocido por su papel en la creación de ChatGPT, destacó que, aunque la IA tiene un potencial constructivo significativo, también conlleva riesgos considerables. Expresó que, en caso de que la AGI se descontrole, ninguna medida de seguridad, incluidos los búnkeres, sería efectiva para proteger a la humanidad.

Altman, identificado como «preparacionista» en la cultura estadounidense, ha tomado precauciones ante posibles escenarios catastróficos, pero enfatiza que estos serían inútiles frente a una AGI fuera de control. Esta perspectiva subraya la necesidad de un desarrollo responsable y seguro de la inteligencia artificial para prevenir posibles consecuencias adversas.

Su declaración resurge en un contexto en el que el temor a una IA desbocada se ha intensificado, especialmente con la aparición de modelos avanzados como DeepSeek, desarrollados en China. Además, las crecientes tensiones entre Estados Unidos y China en el ámbito tecnológico han alimentado los debates sobre la regulación y control de la IA.

Altman ha sido claro respecto a los peligros de la IA descontrolada, pero también ha defendido su potencial transformador si se gestiona adecuadamente. Recientemente, ha afirmado que la humanidad podría estar entrando en una «edad dorada» gracias a la inteligencia artificial, siempre y cuando su desarrollo se mantenga dentro de unos límites éticos y seguros.

A pesar de las advertencias de Altman, el avance en el desarrollo de la inteligencia artificial sigue acelerándose, lo que plantea una cuestión fundamental: «¿Está la humanidad realmente preparada para afrontar los desafíos de una inteligencia artificial que podría superar nuestras propias capacidades y cambiar el destino de nuestra civilización?»

·····················
Este es un resumen comentado, basado en la noticia original de Esteban García Marcos publicada en La Vanguardia el 12 de febrero de 2025.
Puedes leer el artículo completo aquí: lavanguardia.com/andro4all/tecnologia/sam-altman-fundador-de-openai-sobre-un-posible-fin-del-mundo-ningun-bunker-te-salvara-si-la-ia-se-sale-de-control
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEuropa anuncia una inversión de 200.000 millones para construir gigafábricas de IA

Europa destina 200.000 millones para impulsar la inteligencia artificial
La Unión Europea invertirá en gigafábricas de IA para liderar la innovación tecnológica
Bruselas lanza InvestAI con una inversión histórica en inteligencia artificial

**Europa apuesta por la inteligencia artificial con una inversión sin precedentes de 200.000 millones de euros.**
La Unión Europea, a través de la iniciativa InvestAI, busca fortalecer su posición en el desarrollo de la inteligencia artificial mediante la construcción de gigafábricas especializadas. Esta inversión, anunciada en la Cumbre de Acción de IA en París, pretende fomentar la colaboración público-privada y asegurar que Europa se convierta en un referente en innovación tecnológica.

 

La presidenta de la Comisión Europea, Ursula von der Leyen, ha presentado en París InvestAI, una ambiciosa iniciativa con la que la Unión Europea movilizará 200.000 millones de euros para impulsar la inteligencia artificial. Este programa incluirá un fondo de 20.000 millones de euros destinado a la construcción de gigafábricas de IA, infraestructuras clave para el desarrollo de modelos avanzados y el fortalecimiento del ecosistema tecnológico europeo.

Von der Leyen ha enfatizado la importancia de la inteligencia artificial en múltiples sectores: «La IA mejorará nuestra asistencia sanitaria, estimulará nuestra investigación e innovación y aumentará nuestra competitividad». Además, ha subrayado que esta estrategia sigue el modelo europeo basado en la cooperación, la apertura y la excelencia en el talento.

Por su parte, la presidenta del Banco Europeo de Inversiones (BEI), Nadia Calviño, ha respaldado la iniciativa destacando el papel clave de la IA como motor de crecimiento y productividad en Europa. El fondo InvestAI financiará cuatro gigafábricas de IA especializadas en la formación de modelos avanzados en áreas como la medicina y la ciencia. Estas infraestructuras contarán con 100.000 chips de IA de última generación, cuadruplicando la capacidad de las actuales fábricas en desarrollo.

El plan prevé un modelo de financiación híbrido, combinando subvenciones europeas con inversión privada para garantizar un desarrollo sostenible. La Comisión ya ha impulsado siete fábricas de IA desde diciembre y planea añadir cinco más en los próximos meses. Esta estrategia se enmarca dentro de un esfuerzo más amplio para potenciar la innovación en IA a través de programas como Horizon Europe y Europa Digital.

Además de la construcción de gigafábricas, la Comisión está desplegando una serie de medidas para reforzar la competitividad europea en IA, incluyendo formación especializada, apoyo financiero a startups y la creación de un Consejo Europeo de Investigación en IA. También se desarrollará la iniciativa «Aplica IA», cuyo objetivo es fomentar la adopción de esta tecnología en sectores industriales clave.

El anuncio de InvestAI marca un punto de inflexión en la estrategia digital de Europa, buscando competir con los gigantes tecnológicos de Estados Unidos y China en el desarrollo de inteligencia artificial avanzada. Sin embargo, queda por ver si esta iniciativa logrará atraer suficiente inversión privada y consolidar a Europa como un referente en IA.

·····················
Este es un resumen comentado, basado en la noticia original de Núria Casas publicada en El Nacional el 11 de febrero de 2025.
Puedes leer el artículo completo aquí: elnacional.cat/oneconomia/es/on-ia/europa-anuncia-inversion-200000-m-construir-gigafabriques-ia_1361843_102.html
·····················

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights