0012 FORMATO – TEXTO

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoLa IA avanza sin control: William Saunders alerta: «La IA nos manipulará y no lo notaremos»

La Inteligencia Artificial avanza sin control, amenazando con manipularnos sin que lo percibamos.El constante y acelerado desarrollo de la Inteligencia Artificial (IA) ha generado preocupación entre expertos como William Saunders, ex empleado de OpenAI. Saunders advierte que, en los próximos tres años, podríamos enfrentar una «tragedia tipo Titanic» debido a la falta de supervisión y control en la evolución de la IA. Señala que esta tecnología podría alcanzar un nivel de autonomía tal que influiría en decisiones humanas sin que nos percatemos, especialmente en ámbitos políticos y económicos. Esta inquietud es compartida por otros profesionales del sector, quienes enfatizan la necesidad de establecer medidas preventivas para evitar posibles escenarios catastróficos.

 

El avance imparable de la Inteligencia Artificial (IA) ha suscitado diversas opiniones entre los expertos. William Saunders, antiguo empleado de OpenAI, ha expresado recientemente su preocupación por el rumbo que está tomando esta tecnología. En una entrevista, Saunders comparó la situación actual de la IA con la del Titanic, una obra maestra de la ingeniería considerada indestructible hasta su trágico hundimiento. Esta analogía subraya el exceso de confianza que, según él, la sociedad deposita en el desarrollo de la IA, sin prever adecuadamente los riesgos asociados.

Saunders advierte que, en un plazo de tres años, podríamos enfrentar una «tragedia tipo Titanic» relacionada con la IA. Su principal inquietud radica en la falta de supervisión y control en el desarrollo de esta tecnología, lo que podría conducir a que la IA adquiera una autonomía capaz de influir en decisiones humanas sin que seamos conscientes de ello. Esta manipulación inadvertida podría tener implicaciones especialmente graves en ámbitos políticos y económicos.

La preocupación de Saunders no es aislada. Otros expertos en tecnología, como Yann LeCun, también han manifestado su inquietud respecto al rápido progreso de la IA y la ausencia de medidas preventivas adecuadas. La posibilidad de que la IA se desarrolle sin un control efectivo plantea escenarios complejos y potencialmente peligrosos para la sociedad.

En este contexto, se hace evidente la necesidad de establecer regulaciones y marcos éticos que guíen el desarrollo de la IA. La implementación de medidas de supervisión podría mitigar los riesgos asociados y garantizar que la evolución de la IA se alinee con los intereses y valores humanos. La comunidad tecnológica y los responsables políticos enfrentan el desafío de equilibrar la innovación con la seguridad, asegurando que los avances en IA contribuyan al bienestar de la sociedad sin comprometer su autonomía ni su capacidad de decisión.

·····················
Este es un resumen comentado, basado en la noticia original de P. M. publicada en El Confidencial el 23/02/2025.
Puedes leer el artículo completo aquí: www.elconfidencial.com/tecnologia/2025-02-23/duras-previsiones-extrabajador-ia-avance-tecnologia_4071068/
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoChatGPT-4.5 está a la vuelta de la esquina

GPT-5 marcará una nueva era en OpenAI al integrar capacidades avanzadas y unificar su inteligencia artificial.El lanzamiento de GPT-5 supondrá un cambio de paradigma en la estrategia de OpenAI, que busca eliminar la fragmentación de sus modelos de IA. Antes de su llegada, la compañía lanzará GPT-4.5 (nombre en clave Orion), que será la última versión sin razonamiento en cadena. Microsoft y OpenAI apuestan por una inteligencia unificada que facilitará el uso de IA sin necesidad de seleccionar modelos específicos. La fecha de lanzamiento de GPT-5 podría coincidir con el evento Build 2025 de Microsoft, en plena competencia con Google I/O.

 

Microsoft está preparando sus servidores para la llegada de GPT-5, el nuevo modelo de lenguaje de OpenAI que podría suponer un salto cualitativo en el desarrollo de la inteligencia artificial. La compañía de Redmond espera que el lanzamiento se produzca a finales de mayo, coincidiendo con su conferencia Build 2025, según fuentes familiarizadas con los planes internos de la empresa.

De acuerdo con The Verge, el nuevo modelo incluirá el sistema de razonamiento o3, que OpenAI presentó durante sus anuncios navideños en diciembre. Este componente, del que ya vimos una versión reducida llamada o3-mini el mes pasado, ya no se lanzará de forma independiente, sino que se integrará directamente en GPT-5 para mejorar sus capacidades de análisis y respuesta.

Antes de la llegada de GPT-5, OpenAI lanzará GPT-4.5 (nombre en clave Orion) la próxima semana. Este será el último modelo sin capacidad de razonamiento en cadena de la compañía, marcando el fin de una era en el desarrollo de modelos de lenguaje tradicionales. Microsoft ya está preparando sus servidores para albergar ambas versiones.

La llegada de GPT-5 marca un antes y un después en la estrategia de OpenAI. La compañía busca unificar sus diferentes modelos de lenguaje para simplificar la experiencia del usuario, eliminando la necesidad de elegir qué modelo usar para cada tarea. «Odiamos el selector de modelos tanto como vosotros y queremos volver a una inteligencia unificada mágica», declaró Sam Altman en una publicación reciente en X.

Las declaraciones previas del CEO de OpenAI sobre GPT-5 apuntan a que será «un sistema que integra gran parte de nuestra tecnología». El objetivo es combinar los modelos de lenguaje grandes para crear uno más capaz que podría acercarse a lo que la industria denomina inteligencia artificial general o AGI.

La fecha de lanzamiento no es casual: coincide con las conferencias Build de Microsoft y Google I/O, donde ambas compañías competirán por mostrar sus últimos avances en IA. El año pasado, Altman apareció en el escenario de Build días después de que OpenAI lanzara GPT-4o, un modelo más rápido y gratuito para todos los usuarios de ChatGPT.

Microsoft ya está preparando actualizaciones de Copilot para aprovechar las nuevas capacidades tan pronto como estén disponibles. La compañía renovó completamente su asistente en octubre, eliminando las opciones «creativo», «equilibrado» y «preciso» para controlar la salida del modelo. En enero, añadieron el botón «Think Deeper» que utiliza el modelo de razonamiento o1 de OpenAI.

El gigante de Redmond también trabaja en su propia versión del agente Operator AI de OpenAI, capaz de interactuar con interfaces gráficas y automatizar tareas en la web. Es un concepto similar a las macros o los sistemas de piloto automático, que no requieren atención constante del usuario. Los equipos de Microsoft están centrados en reducir los costes para hacer estas tecnologías más atractivas para las empresas.

La llegada simultánea de GPT-5 y la conferencia Build promete una intensa batalla en el campo de la IA. Microsoft y Google competirán por mostrar los avances más impresionantes, especialmente ahora que ambas conferencias coinciden en mayo. Solo el tiempo dirá si OpenAI cumple con los plazos previstos para el lanzamiento de sus nuevos modelos.

·····················
Este es un resumen comentado, basado en la noticia original de Sergio Agudo publicada en La Vanguardia el 21/02/2025.
Puedes leer el artículo completo aquí: www.lavanguardia.com/andro4all/tecnologia/chatgpt-4-5-podria-llegar-la-proxima-semana-pero-el-verdadero-bombazo-esta-en-que-gpt-5-estaria-a-la-vuelta-de-la-esquina
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0090 DONA TIC

icono6 marzo «Open Data Day 2025» Mujeres liderando Datos Abiertos para la Igualdad

Las mujeres lideran el uso de datos abiertos para impulsar la igualdad de género en el Open Data Day 2025.El próximo 6 de marzo de 2025, Iniciativa Barcelona Open Data organiza en Ca l’Alier un evento que reúne a mujeres expertas en tecnologías de datos y datos abiertos. El objetivo es compartir conocimientos y experiencias sobre la reutilización de datos públicos para abordar desafíos relacionados con la igualdad de género. Este encuentro busca visibilizar y fortalecer la presencia femenina en el ecosistema de datos abiertos, fomentar redes de colaboración y promover soluciones digitales con impacto social y perspectiva de género.

 

El próximo 6 de marzo de 2025, Iniciativa Barcelona Open Data celebrará el evento central del Open Data Day 2025 bajo el título «Mujeres liderando los Datos Abiertos para la Igualdad». La cita tendrá lugar a las 17:30 horas en Ca l’Alier, ubicado en la Calle Pere IV, 362, en Barcelona. Este encuentro tiene como propósito destacar el conocimiento y las experiencias en torno a los datos abiertos públicos disponibles, así como explorar las oportunidades que su reutilización ofrece para enfrentar los retos relacionados con la igualdad de género.

El evento reunirá a un ecosistema de mujeres expertas en tecnologías de datos y Open Data, quienes compartirán proyectos destacados en la creación de herramientas tecnológicas basadas en datos abiertos. Estas iniciativas buscan abordar los desafíos que enfrentan los derechos de las mujeres y mejorar las intervenciones y proyectos orientados a avanzar en materia de igualdad.

Uno de los objetivos principales es visibilizar y fortalecer la presencia femenina en el ámbito de los datos abiertos, fomentando la creación de redes de colaboración y promoviendo soluciones digitales con impacto social y perspectiva de género. Además, se pretende generar un diálogo constructivo entre las organizaciones que publican datos y aquellas que los reutilizan, con el fin de aportar valor y desarrollar estrategias prácticas de manera conjunta.

El Open Data Day es una iniciativa de alcance mundial que se celebra desde hace 12 años, y en la cual Iniciativa Barcelona Open Data participa activamente desde 2017. Grupos de todo el mundo organizan eventos locales en los que utilizan datos abiertos en sus comunidades para crear aplicaciones, visualizaciones, publicar análisis y promover la apertura de más datos. Se trata de un evento anual que busca impulsar el conocimiento y uso de los datos abiertos a nivel global.

Los detalles del evento son los siguientes:

Día: 6 de marzo de 2025

Hora: 17:30h a 20:00h

Lugar: Ca l’Alier, Calle Pere IV, 362, Barcelona.

Formato: Presencial

Inscripción: https://bit.ly/Ev_ODD25

Este encuentro representa una oportunidad única para conectar con profesionales y entusiastas de los datos abiertos, y para contribuir activamente en la construcción de soluciones que promuevan la igualdad de género a través de la tecnología y la colaboración.

·····················

Este es un resumen comentado, basado en la noticia original publicada en Iniciativa Barcelona Open Data el 7 de febrero de 2025.

Puedes leer el artículo completo aquí: iniciativabarcelonaopendata.cat/ca/2025/02/open-data-day-2025-dones-liderant-dades-obertes-per-a-la-igualtat/

.

.

.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEstamos ante el fin del trabajo intelectual tal como lo conocemos? Deep Research

La función Deep Research de la IA amenaza con redefinir el trabajo intelectual tal y como lo conocemos.La reciente introducción de funciones de análisis profundo en chatbots de inteligencia artificial, como el ‘Deep Search’ de Elon Musk en Grok 3, el ‘Deep Research’ de OpenAI y la versión en Gemini de Google, está transformando el panorama del trabajo intelectual. Estas herramientas son capaces de navegar por la web, analizar múltiples fuentes y generar informes detallados en minutos, tareas que antes requerían días de trabajo humano. Aunque presentan limitaciones, como posibles errores factuales y falta de acceso a información privada, su eficiencia plantea una amenaza significativa para roles tradicionales en consultoría, investigación y análisis financiero.

 

La inteligencia artificial (IA) está experimentando una transformación significativa con la introducción de funciones de análisis profundo, conocidas como ‘Deep Research’. Elon Musk ha lanzado recientemente Grok 3, que incluye la función ‘Deep Search’, similar al ‘Deep Research’ de OpenAI y a la versión presentada por Google en su modelo Gemini. Esta tendencia se extiende a otras empresas como Perplexity, que también ha perfeccionado esta funcionalidad.

Estas herramientas de IA tienen la capacidad de navegar por la web, analizar múltiples fuentes y sintetizar información para producir informes detallados sobre diversos temas. A diferencia de las búsquedas tradicionales que ofrecen una lista de enlaces, los sistemas de ‘Deep Research’ comprenden preguntas complejas, las desglosan en partes, investigan cada aspecto consultando numerosas fuentes y ensamblan un análisis coherente citando sus referencias, todo en menos de diez minutos.

OpenAI ha afirmado que su ‘Deep Research’ puede realizar en media hora tareas que a analistas profesionales les llevarían días. Aunque ocasionalmente comete errores, como inexactitudes factuales o citas de fuentes inexistentes, la calidad general de los resultados es suficientemente alta para muchos propósitos prácticos.

Esta evolución tecnológica representa una amenaza para una parte considerable del trabajo intelectual actual. Profesionales como analistas junior en consultorías, investigadores que revisan literatura, abogados que preparan informes preliminares y asesores financieros que analizan empresas dedican gran parte de su tiempo a recopilar, sintetizar y presentar información de múltiples fuentes, tareas que los sistemas de ‘Deep Research’ pueden automatizar eficazmente.

Aunque estas herramientas no reemplazarán por completo a los trabajadores intelectuales, ya que no pueden acceder a información privada, pueden confundir fuentes o carecer del criterio experto para ciertos análisis, sí pueden automatizar gran parte del trabajo repetitivo y de «bajo nivel» que actualmente realizan muchos profesionales. Esto podría aumentar la productividad de los trabajadores más cualificados, pero también pone en riesgo los empleos que tradicionalmente servían como punto de entrada y formación para futuros expertos.

Los sistemas de ‘Deep Research’ tienen el potencial de alterar las trayectorias profesionales en cualquier industria basada en el conocimiento. Este avance demuestra cómo la IA no solo automatiza tareas manuales, sino que también se adentra en áreas que antes se consideraban exclusivas del intelecto humano. La cuestión ahora es cuánto del trabajo intelectual seguirá teniendo sentido económico si es realizado por humanos en lugar de por estas avanzadas herramientas de IA.

····················· Este es un resumen comentado, basado en la noticia original de Javier Lacort publicada en Xataka el 20 de febrero de 2025. Puedes leer el artículo completo aquí: www.xataka.com/robotica-e-ia/deep-research-no-solo-nueva-funcion-ia-principio-fin-trabajo-intelectual-tal-como-conocemos ····················· . . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAlgunas IA sacan matrícula… pero haciendo trampa: un estudio español desmonta su supuesto razonamiento»

Investigadores españoles descubren el truco que usan las IA para sacar tan buenas notas: “Es verdadera kriptonita”

Nuevos métodos revelan cómo las IA obtienen altas calificaciones sin razonar
Elon Musk presenta Grok 3 mientras estudios cuestionan la evaluación de chatbots
Investigación española expone las limitaciones de los tests actuales para IA

**Las IA actuales destacan más por memorización que por razonamiento auténtico, según revela un estudio español.**
Un equipo de investigadores españoles ha demostrado que los modelos de inteligencia artificial, como el recientemente anunciado Grok 3 de **Elon Musk**, suelen obtener altas calificaciones en pruebas estándar debido a la memorización de respuestas disponibles en línea, en lugar de un verdadero razonamiento. Al modificar las opciones de respuesta en los tests para incluir «Ninguna de las anteriores», se observó una disminución promedio del 50% al 57% en la precisión de estos modelos, evidenciando sus limitaciones en comprensión y razonamiento genuino.

En un entorno donde las empresas tecnológicas compiten ferozmente por demostrar la superioridad de sus modelos de inteligencia artificial, **Elon Musk** ha proclamado recientemente a Grok 3, desarrollado por su empresa **xAI**, como «la IA más inteligente del mundo». Simultáneamente, **Sam Altman**, de **ChatGPT**, destacó avances en GPT-4.5, describiéndolo como una experiencia cercana a una IA con sentido común. Sin embargo, estas afirmaciones han sido cuestionadas por una investigación española que pone en entredicho la eficacia de las evaluaciones actuales de estos modelos.

El equipo, liderado por **Julio Gonzalo**, catedrático de Lenguajes y Sistemas Informáticos de la **UNED**, ha identificado que los modelos de IA suelen depender de la memorización de respuestas previamente disponibles en línea, en lugar de emplear un razonamiento auténtico. Para evidenciar esta dependencia, los investigadores modificaron las pruebas estándar sustituyendo la respuesta correcta por una opción general: «Ninguna de las anteriores». Esta alteración obligaba a los modelos a analizar y razonar sobre cada opción, en lugar de reconocer patrones previamente almacenados.

Los resultados fueron reveladores. Todos los modelos evaluados mostraron una disminución significativa en su precisión, con caídas promedio del 50% al 57%, y variaciones entre el 10% y el 93% según el modelo específico. Este descenso en el rendimiento sugiere que, aunque las IA pueden manejar grandes volúmenes de información, su capacidad para generalizar y aplicar razonamiento lógico es limitada. **Gonzalo** señaló que este sencillo cambio en las pruebas «quita un velo a la experimentación con benchmarks y nos permite ver el progreso real en las … de los sistemas sin el ruido … «.

Además, la investigación destacó diferencias en el rendimiento de los modelos según el idioma. Las pruebas realizadas en español mostraron resultados inferiores en comparación con las realizadas en inglés, lo que indica una necesidad urgente de desarrollar modelos más equitativos y pruebas más rigurosas que reflejen con precisión las capacidades de razonamiento de las IA en diversos contextos lingüísticos.

Este estudio pone de manifiesto la importancia de diseñar evaluaciones que midan verdaderamente la comprensión y el razonamiento de las inteligencias artificiales, más allá de su capacidad para memorizar y reproducir información. En un momento donde las afirmaciones de superioridad en el campo de la IA son frecuentes, investigaciones como esta ofrecen una perspectiva crítica y fundamentada sobre las reales capacidades y limitaciones de estos sistemas avanzados.

·····················
Este es un resumen comentado, basado en la noticia original de **Jordi Pérez Colomé** publicada en **EL PAÍS** el **20 de febrero de 2025**.
Puedes leer el artículo completo aquí: **elpais.com/tecnologia/2025-02-20/investigadores-espanoles-descubren-el-truco-que-usan-las-ia-para-sacar-tan-buenas-notas-es-verdadera-kriptonita.html**
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono«Elon Musk es un fantasma» Ramón López de Mántaras cuestiona las capacidades de razonamiento de Grok3 y critica las promesas de Elon Musk

Grok3 de xAI decepciona al experto español: carece de razonamiento real y repite patrones sin comprender.

Ramón López de Mántaras, referente en IA, prueba Grok3 de xAI y concluye que no razona, sino que imita como «loro estocástico». Critica las afirmaciones de Elon Musk sobre su superioridad, evidenciando fallos en preguntas básicas y una falta de modelo del mundo en la IA.


El Independiente
publicó el 19 de febrero de 2025 un análisis demoledor sobre Grok3, el nuevo modelo de inteligencia artificial de xAI, firmado por Ramón López de Mántaras, pionero en IA y miembro de honor de la Asociación Europea de Inteligencia Artificial. Con una pregunta sencilla —»Si hoy es 29 de febrero, ¿qué día será dentro de un año?»— el experto expuso las limitaciones de Grok3. La respuesta, que erró al sugerir el 28 de febrero en lugar del 1 de marzo, reveló una carencia de comprensión temporal y lógica básica, fallos que López de Mántaras atribuye a la ausencia de razonamiento genuino. Para él, Grok3 no supera a competidores como ChatGPT o DeepSeek, sino que se limita a replicar patrones de sus datos de entrenamiento, careciendo de un «modelo del mundo» que le permita interactuar y aprender como lo hace un humano. Elon Musk, quien calificó a Grok3 como «la IA más inteligente de la Tierra», recibe duras críticas por exagerar sus capacidades, mientras xAI presume mejoras como un entrenamiento 15 veces superior al de Grok2. El experto subraya que, pese a su humor y respuestas sin filtros, la IA no cumple con las expectativas de innovación. Este diagnóstico resuena en un sector donde la carrera por la supremacía tecnológica choca con la necesidad de avances auténticos. “¿Seguirán las promesas grandilocuentes de Musk eclipsando la realidad de una IA que no piensa, o forzará esto un giro hacia desarrollos más transparentes y efectivos?”

·····················
Este es un resumen comentado, basado en la noticia original de Nacho Martín publicada en El Independiente el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: elindependiente.com/futuro/inteligencia-artificial/2025/02/19/mayor-experto-ia-espana-pone-prueba-grok3-loro-no-razona-elon-fantasma/
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoHay que bajarse de la nube? / Repatriación a la nube: el movimiento que está ahorrando millones a las empresas

De 10.000 euros anuales a 500: así es como las empresas aprovechan la repatriación a la nube para ahorrarse una verdadera fortuna

Empresas españolas reducen costes migrando de AWS y Azure a infraestructuras propias más económicas
La repatriación a la nube permite a las empresas disminuir drásticamente sus gastos en infraestructura
Cómo abandonar los gigantes de la nube y ahorrar hasta un 95% en costos operativos

**La repatriación a la nube emerge como una estrategia eficaz para que las empresas reduzcan significativamente sus costos operativos en infraestructura tecnológica.** Empresas españolas están optando por migrar de servicios en la nube como AWS y Azure a infraestructuras locales propias, logrando ahorros de hasta un 95% en sus gastos anuales. Esta tendencia, conocida como repatriación a la nube, se basa en la premisa de que, en ciertos casos, gestionar servidores propios resulta más rentable que depender de soluciones en la nube de terceros. No obstante, esta estrategia requiere un análisis detallado para asegurar su viabilidad y éxito en cada organización.

 

En los últimos años, gigantes tecnológicos como Amazon, Microsoft y Google han dominado el mercado de servicios en la nube, ofreciendo soluciones que prometen resolver múltiples desafíos empresariales. Sin embargo, una nueva tendencia denominada «repatriación a la nube» está ganando terreno. Esta estrategia implica que las empresas trasladan sus servicios y datos desde plataformas en la nube a infraestructuras locales propias, con el objetivo principal de reducir costos operativos.

Jerónimo Palacios, experto en metodologías ágiles y desarrollo organizacional, compartió su experiencia al respecto. En su empresa, inicialmente dependían completamente de servicios en la nube, lo que les garantizaba un servicio sin interrupciones y sin preocupaciones relacionadas con la infraestructura. No obstante, con el tiempo, observaron un incremento significativo en los costos, llegando a pagar más del doble de lo que desembolsaban al inicio. Ante esta situación, decidieron explorar alternativas más económicas.

Tras una investigación exhaustiva, optaron por migrar a un servidor VPS con un costo anual de 70 euros, complementado con el servicio Edge Professional de Cloudflare por 250 euros. Esta combinación les permitió obtener un ahorro cercano al 90%. Además, al trasladar servicios desde proveedores como AWS y Azure a servidores en Hetzner, lograron reducir una factura anual de 10.000 euros a apenas 500 euros, lo que representa una disminución del 95% en sus gastos de infraestructura.

Esta tendencia no es exclusiva de pequeñas empresas. Según Palacios, compañías medianas y grandes, incluyendo algunas cotizadas en el IBEX35, están considerando seriamente si mantener toda su infraestructura en plataformas como Google Cloud, AWS y Azure. Incluso contemplando los costos asociados a la gestión de infraestructura propia, estas empresas estiman una reducción mínima del 80% al migrar de soluciones PaaS a servidores propios o gestionados.

Un factor adicional que impulsa esta migración es la nueva normativa bancaria DORA sobre resiliencia. Esta regulación obliga a las grandes corporaciones a alojar sus datos en servidores propios para garantizar la continuidad operativa en caso de interrupciones en los servicios en la nube. Esta obligación legal se ha convertido en una oportunidad para que las empresas reconsideren sus estrategias de infraestructura y, al mismo tiempo, reduzcan costos.

Aunque la repatriación a la nube ofrece beneficios económicos significativos, no es una solución universal. Cada organización debe evaluar detalladamente sus necesidades específicas, recursos disponibles y capacidades técnicas antes de emprender una migración de este tipo. La planificación y el análisis exhaustivo son esenciales para garantizar que esta estrategia sea efectiva y sostenible a largo plazo.

·····················
Este es un resumen comentado, basado en la noticia original de Javier Pastor publicada en Xataka el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: www.xataka.com/servicios/10-000-euros-anuales-a-500-asi-como-empresas-aprovechan-repatriacion-a-nube-para-ahorrarse-verdadera-fortuna
·····················

. . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoDeepSeek no es código abierto

La falta de transparencia en los modelos de inteligencia artificial obstaculiza el progreso científico y erosiona la confianza pública.
La ciencia abierta promueve la transparencia y accesibilidad en todas las etapas del proceso científico, permitiendo la reproducibilidad y colaboración para avanzar en el conocimiento. Sin embargo, en el ámbito de la inteligencia artificial, muchas empresas tecnológicas desarrollan modelos cerrados, como DeepSeek, que no comparten su código fuente, limitando la comprensión y mejora por parte de la comunidad científica. Esta opacidad dificulta el progreso y afecta negativamente la confianza en la investigación en IA.

 

A principios de los años ochenta, **Víctor Etxebarria Ecenarro**, catedrático de la **Universidad del País Vasco / Euskal Herriko Unibertsitatea**, se inició en la informática con un ordenador doméstico conectado al televisor. Publicaba programas sencillos en revistas especializadas, compartiendo el código fuente para que otros pudieran reproducir y modificar su trabajo. Este enfoque representa los principios de la ciencia abierta, donde la transparencia y accesibilidad son fundamentales para el avance del conocimiento.

La ciencia abierta implica que todas las etapas del proceso científico sean transparentes y accesibles, incluyendo la publicación de artículos, datos, métodos y herramientas necesarias para replicar investigaciones. En el campo de la inteligencia artificial, este enfoque es esencial para garantizar la reproducibilidad y transparencia, permitiendo un progreso coherente y beneficioso para la sociedad.

No obstante, muchas empresas tecnológicas desarrollan modelos de IA como cajas negras, sin explicar su funcionamiento interno ni proporcionar acceso al código fuente. Un ejemplo es **DeepSeek**, que, aunque se promociona como «open source», solo ofrece el código compilado, impidiendo que los investigadores comprendan o mejoren el programa. Esta falta de apertura contrasta con iniciativas como **Rosetta** y **AlphaFold**, que, aunque han enfrentado críticas por restricciones en la disponibilidad de su código, representan esfuerzos hacia una mayor transparencia en la investigación científica.

La opacidad en los modelos de IA no solo dificulta el progreso científico, sino que también erosiona la confianza pública en estas tecnologías. Para fomentar un desarrollo ético y efectivo de la inteligencia artificial, es crucial que las empresas adopten prácticas de ciencia abierta, compartiendo sus avances y permitiendo la colaboración global en beneficio de toda la humanidad.

**»Si la inteligencia artificial es una herramienta con potencial transformador para toda la sociedad, ¿por qué su desarrollo sigue estando en manos de unos pocos privilegiados?»**

·····················
Este es un resumen comentado, basado en la noticia original de **Víctor Etxebarria Ecenarro** publicada en **The Conversation** el **17 de febrero de 2025**.
Puedes leer el artículo completo aquí: **theconversation.com/inteligencia-artificial-abierta-para-todos-o-cerrada-para-beneficio-de-unos-pocos-249399**
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados

La inteligencia artificial (IA) está revolucionando numerosos sectores, incluido el ámbito legal. Herramientas como ChatGPT facilitan la automatización de tareas rutinarias, el análisis de grandes volúmenes de información y la redacción de documentos. Sin embargo, su uso incorrecto puede acarrear consecuencias graves, desde la vulneración de derechos fundamentales, como la protección de datos, hasta faltas a la ética profesional que perjudiquen la asistencia legal a los ciudadanos.

Un caso destacado ocurrió en 2023, cuando dos abogados estadounidenses fueron multados con 5.000 dólares por presentar un escrito judicial que contenía decisiones judiciales inexistentes generadas por ChatGPT. Los letrados, que defendían a un pasajero lesionado en un vuelo de Avianca, admitieron haber utilizado la IA sin verificar adecuadamente la veracidad de las referencias citadas. El juez consideró que actuaron de mala fe y les impuso la sanción correspondiente.

En España, se registró un incidente similar cuando un abogado presentó una querella en un juzgado de Navarra que incluía una referencia al Código Penal de Colombia, debido al uso inadecuado de ChatGPT. Aunque el Tribunal Superior de Justicia de Navarra no impuso sanciones, advirtió sobre los riesgos éticos y legales asociados al uso de tecnologías emergentes en el ámbito jurídico y enfatizó la importancia de un uso responsable.

Bufetes de abogados y asesorías jurídicas están incorporando estas herramientas para agilizar tareas que consumen mucho tiempo pero no requieren alta especialización, como la gestión de documentos o la revisión de contratos. Eugenio Ribón, decano del Ilustre Colegio de la Abogacía de Madrid, destacó en junio de 2023 que la IA puede mejorar la eficiencia y precisión en la elaboración de contratos y documentos legales.

No obstante, expertos como Isabel Rodríguez, responsable del área de servicios profesionales en Accenture España, señalan que la implementación de la IA debe ser «responsable y rigurosa» para evitar sesgos o discriminación. Además, subraya los riesgos relacionados con la fiabilidad de la información, la falta de contexto jurídico local y la vulnerabilidad en la privacidad y confidencialidad.

Miguel Aznar, abogado y socio de Balder IP Lawyers, alerta sobre la posibilidad de que estos sistemas proporcionen información desactualizada o incorrecta, lo que podría tener consecuencias negativas en la defensa de los clientes y en la reputación del despacho. Asimismo, enfatiza que una dependencia excesiva de la IA puede llevar a una relajación en el análisis legal profundo por parte de los profesionales.

Aunque la Ley de Enjuiciamiento Civil española exige el respeto a las reglas de la buena fe procesal, con sanciones que van desde el apercibimiento hasta multas de 180 a 6.000 euros, no existe una regulación específica sobre el uso de la IA en el ámbito legal. Sin embargo, se han emitido recomendaciones y guías para su correcta utilización. El Comité Técnico Estatal de la Administración Judicial Electrónica publicó en junio de 2024 una política de criterios mínimos que detalla los usos aceptados y prohibidos de la IA en la Administración de Justicia.

Manuel Mata, decano del Colegio de Castellón y presidente de la Comisión de Deontología del Consejo General de la Abogacía de España, afirma que los estatutos generales de la profesión y el código deontológico cuentan con «suficientes elementos para atajar o contrarrestar los riesgos» asociados al uso de la IA generativa. No obstante, advierte sobre la rapidez con la que avanza esta tecnología, lo que dificulta una adaptación simultánea de la regulación.

En conclusión, la inteligencia artificial ofrece un gran potencial para mejorar la eficiencia en el sector legal. Sin embargo, su uso debe ser cuidadoso y ético, garantizando siempre la veracidad de la información, la confidencialidad de los datos y el cumplimiento de las normas deontológicas para evitar consecuencias negativas tanto para los profesionales como para los clientes.

·····················

Este es un resumen comentado, basado en la noticia original de Nuria Morcillo publicada en EL PAÍS el 18 de febrero de 2025.

Puedes leer el artículo completo aquí: elpais.com/economia/2025-02-18/sentencias-falsas-leyes-extranjeras-y-filtrado-de-datos-los-riesgos-de-usar-chatgpt-se-cuelan-en-los-despachos-de-abogados.html

. . . .

Scroll al inicio
Verificado por MonsterInsights