0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoHay que bajarse de la nube? / Repatriación a la nube: el movimiento que está ahorrando millones a las empresas

De 10.000 euros anuales a 500: así es como las empresas aprovechan la repatriación a la nube para ahorrarse una verdadera fortuna

Empresas españolas reducen costes migrando de AWS y Azure a infraestructuras propias más económicas
La repatriación a la nube permite a las empresas disminuir drásticamente sus gastos en infraestructura
Cómo abandonar los gigantes de la nube y ahorrar hasta un 95% en costos operativos

**La repatriación a la nube emerge como una estrategia eficaz para que las empresas reduzcan significativamente sus costos operativos en infraestructura tecnológica.** Empresas españolas están optando por migrar de servicios en la nube como AWS y Azure a infraestructuras locales propias, logrando ahorros de hasta un 95% en sus gastos anuales. Esta tendencia, conocida como repatriación a la nube, se basa en la premisa de que, en ciertos casos, gestionar servidores propios resulta más rentable que depender de soluciones en la nube de terceros. No obstante, esta estrategia requiere un análisis detallado para asegurar su viabilidad y éxito en cada organización.

 

En los últimos años, gigantes tecnológicos como Amazon, Microsoft y Google han dominado el mercado de servicios en la nube, ofreciendo soluciones que prometen resolver múltiples desafíos empresariales. Sin embargo, una nueva tendencia denominada «repatriación a la nube» está ganando terreno. Esta estrategia implica que las empresas trasladan sus servicios y datos desde plataformas en la nube a infraestructuras locales propias, con el objetivo principal de reducir costos operativos.

Jerónimo Palacios, experto en metodologías ágiles y desarrollo organizacional, compartió su experiencia al respecto. En su empresa, inicialmente dependían completamente de servicios en la nube, lo que les garantizaba un servicio sin interrupciones y sin preocupaciones relacionadas con la infraestructura. No obstante, con el tiempo, observaron un incremento significativo en los costos, llegando a pagar más del doble de lo que desembolsaban al inicio. Ante esta situación, decidieron explorar alternativas más económicas.

Tras una investigación exhaustiva, optaron por migrar a un servidor VPS con un costo anual de 70 euros, complementado con el servicio Edge Professional de Cloudflare por 250 euros. Esta combinación les permitió obtener un ahorro cercano al 90%. Además, al trasladar servicios desde proveedores como AWS y Azure a servidores en Hetzner, lograron reducir una factura anual de 10.000 euros a apenas 500 euros, lo que representa una disminución del 95% en sus gastos de infraestructura.

Esta tendencia no es exclusiva de pequeñas empresas. Según Palacios, compañías medianas y grandes, incluyendo algunas cotizadas en el IBEX35, están considerando seriamente si mantener toda su infraestructura en plataformas como Google Cloud, AWS y Azure. Incluso contemplando los costos asociados a la gestión de infraestructura propia, estas empresas estiman una reducción mínima del 80% al migrar de soluciones PaaS a servidores propios o gestionados.

Un factor adicional que impulsa esta migración es la nueva normativa bancaria DORA sobre resiliencia. Esta regulación obliga a las grandes corporaciones a alojar sus datos en servidores propios para garantizar la continuidad operativa en caso de interrupciones en los servicios en la nube. Esta obligación legal se ha convertido en una oportunidad para que las empresas reconsideren sus estrategias de infraestructura y, al mismo tiempo, reduzcan costos.

Aunque la repatriación a la nube ofrece beneficios económicos significativos, no es una solución universal. Cada organización debe evaluar detalladamente sus necesidades específicas, recursos disponibles y capacidades técnicas antes de emprender una migración de este tipo. La planificación y el análisis exhaustivo son esenciales para garantizar que esta estrategia sea efectiva y sostenible a largo plazo.

·····················
Este es un resumen comentado, basado en la noticia original de Javier Pastor publicada en Xataka el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: www.xataka.com/servicios/10-000-euros-anuales-a-500-asi-como-empresas-aprovechan-repatriacion-a-nube-para-ahorrarse-verdadera-fortuna
·····················

. . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoDeepSeek no es código abierto

La falta de transparencia en los modelos de inteligencia artificial obstaculiza el progreso científico y erosiona la confianza pública.
La ciencia abierta promueve la transparencia y accesibilidad en todas las etapas del proceso científico, permitiendo la reproducibilidad y colaboración para avanzar en el conocimiento. Sin embargo, en el ámbito de la inteligencia artificial, muchas empresas tecnológicas desarrollan modelos cerrados, como DeepSeek, que no comparten su código fuente, limitando la comprensión y mejora por parte de la comunidad científica. Esta opacidad dificulta el progreso y afecta negativamente la confianza en la investigación en IA.

 

A principios de los años ochenta, **Víctor Etxebarria Ecenarro**, catedrático de la **Universidad del País Vasco / Euskal Herriko Unibertsitatea**, se inició en la informática con un ordenador doméstico conectado al televisor. Publicaba programas sencillos en revistas especializadas, compartiendo el código fuente para que otros pudieran reproducir y modificar su trabajo. Este enfoque representa los principios de la ciencia abierta, donde la transparencia y accesibilidad son fundamentales para el avance del conocimiento.

La ciencia abierta implica que todas las etapas del proceso científico sean transparentes y accesibles, incluyendo la publicación de artículos, datos, métodos y herramientas necesarias para replicar investigaciones. En el campo de la inteligencia artificial, este enfoque es esencial para garantizar la reproducibilidad y transparencia, permitiendo un progreso coherente y beneficioso para la sociedad.

No obstante, muchas empresas tecnológicas desarrollan modelos de IA como cajas negras, sin explicar su funcionamiento interno ni proporcionar acceso al código fuente. Un ejemplo es **DeepSeek**, que, aunque se promociona como «open source», solo ofrece el código compilado, impidiendo que los investigadores comprendan o mejoren el programa. Esta falta de apertura contrasta con iniciativas como **Rosetta** y **AlphaFold**, que, aunque han enfrentado críticas por restricciones en la disponibilidad de su código, representan esfuerzos hacia una mayor transparencia en la investigación científica.

La opacidad en los modelos de IA no solo dificulta el progreso científico, sino que también erosiona la confianza pública en estas tecnologías. Para fomentar un desarrollo ético y efectivo de la inteligencia artificial, es crucial que las empresas adopten prácticas de ciencia abierta, compartiendo sus avances y permitiendo la colaboración global en beneficio de toda la humanidad.

**»Si la inteligencia artificial es una herramienta con potencial transformador para toda la sociedad, ¿por qué su desarrollo sigue estando en manos de unos pocos privilegiados?»**

·····················
Este es un resumen comentado, basado en la noticia original de **Víctor Etxebarria Ecenarro** publicada en **The Conversation** el **17 de febrero de 2025**.
Puedes leer el artículo completo aquí: **theconversation.com/inteligencia-artificial-abierta-para-todos-o-cerrada-para-beneficio-de-unos-pocos-249399**
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados

La inteligencia artificial (IA) está revolucionando numerosos sectores, incluido el ámbito legal. Herramientas como ChatGPT facilitan la automatización de tareas rutinarias, el análisis de grandes volúmenes de información y la redacción de documentos. Sin embargo, su uso incorrecto puede acarrear consecuencias graves, desde la vulneración de derechos fundamentales, como la protección de datos, hasta faltas a la ética profesional que perjudiquen la asistencia legal a los ciudadanos.

Un caso destacado ocurrió en 2023, cuando dos abogados estadounidenses fueron multados con 5.000 dólares por presentar un escrito judicial que contenía decisiones judiciales inexistentes generadas por ChatGPT. Los letrados, que defendían a un pasajero lesionado en un vuelo de Avianca, admitieron haber utilizado la IA sin verificar adecuadamente la veracidad de las referencias citadas. El juez consideró que actuaron de mala fe y les impuso la sanción correspondiente.

En España, se registró un incidente similar cuando un abogado presentó una querella en un juzgado de Navarra que incluía una referencia al Código Penal de Colombia, debido al uso inadecuado de ChatGPT. Aunque el Tribunal Superior de Justicia de Navarra no impuso sanciones, advirtió sobre los riesgos éticos y legales asociados al uso de tecnologías emergentes en el ámbito jurídico y enfatizó la importancia de un uso responsable.

Bufetes de abogados y asesorías jurídicas están incorporando estas herramientas para agilizar tareas que consumen mucho tiempo pero no requieren alta especialización, como la gestión de documentos o la revisión de contratos. Eugenio Ribón, decano del Ilustre Colegio de la Abogacía de Madrid, destacó en junio de 2023 que la IA puede mejorar la eficiencia y precisión en la elaboración de contratos y documentos legales.

No obstante, expertos como Isabel Rodríguez, responsable del área de servicios profesionales en Accenture España, señalan que la implementación de la IA debe ser «responsable y rigurosa» para evitar sesgos o discriminación. Además, subraya los riesgos relacionados con la fiabilidad de la información, la falta de contexto jurídico local y la vulnerabilidad en la privacidad y confidencialidad.

Miguel Aznar, abogado y socio de Balder IP Lawyers, alerta sobre la posibilidad de que estos sistemas proporcionen información desactualizada o incorrecta, lo que podría tener consecuencias negativas en la defensa de los clientes y en la reputación del despacho. Asimismo, enfatiza que una dependencia excesiva de la IA puede llevar a una relajación en el análisis legal profundo por parte de los profesionales.

Aunque la Ley de Enjuiciamiento Civil española exige el respeto a las reglas de la buena fe procesal, con sanciones que van desde el apercibimiento hasta multas de 180 a 6.000 euros, no existe una regulación específica sobre el uso de la IA en el ámbito legal. Sin embargo, se han emitido recomendaciones y guías para su correcta utilización. El Comité Técnico Estatal de la Administración Judicial Electrónica publicó en junio de 2024 una política de criterios mínimos que detalla los usos aceptados y prohibidos de la IA en la Administración de Justicia.

Manuel Mata, decano del Colegio de Castellón y presidente de la Comisión de Deontología del Consejo General de la Abogacía de España, afirma que los estatutos generales de la profesión y el código deontológico cuentan con «suficientes elementos para atajar o contrarrestar los riesgos» asociados al uso de la IA generativa. No obstante, advierte sobre la rapidez con la que avanza esta tecnología, lo que dificulta una adaptación simultánea de la regulación.

En conclusión, la inteligencia artificial ofrece un gran potencial para mejorar la eficiencia en el sector legal. Sin embargo, su uso debe ser cuidadoso y ético, garantizando siempre la veracidad de la información, la confidencialidad de los datos y el cumplimiento de las normas deontológicas para evitar consecuencias negativas tanto para los profesionales como para los clientes.

·····················

Este es un resumen comentado, basado en la noticia original de Nuria Morcillo publicada en EL PAÍS el 18 de febrero de 2025.

Puedes leer el artículo completo aquí: elpais.com/economia/2025-02-18/sentencias-falsas-leyes-extranjeras-y-filtrado-de-datos-los-riesgos-de-usar-chatgpt-se-cuelan-en-los-despachos-de-abogados.html

. . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoMeta anuncia LlamaCon, su primera conferencia dedicada a la inteligencia artificial de código abierto.

Meta, directa a por ChatGPT y DeepSeek: anuncia su primera conferencia de IA con novedades en Meta AI

Meta desafía a OpenAI y Google con LlamaCon, su primer evento dedicado a la inteligencia artificial.
Meta AI busca consolidarse en el sector con una conferencia clave para la IA de código abierto.
Meta se posiciona en la carrera por la inteligencia artificial con un evento que marcará el futuro de su tecnología.

Meta anuncia LlamaCon, su primera conferencia dedicada a la inteligencia artificial de código abierto.

Meta ha revelado la celebración de LlamaCon, su primera conferencia enfocada en inteligencia artificial de código abierto, programada para el 29 de abril de 2025.
El evento tiene como objetivo compartir los avances más recientes en sus desarrollos de IA, facilitando a los desarrolladores la creación de aplicaciones y productos innovadores.
Esta iniciativa refuerza el compromiso de Meta con la comunidad tecnológica y su apuesta por un ecosistema de IA más accesible y colaborativo.

 

Meta, la empresa dirigida por **Mark Zuckerberg**, ha anunciado la realización de **LlamaCon**, su primera conferencia dedicada exclusivamente a la inteligencia artificial generativa, que se llevará a cabo el próximo **29 de abril de 2025**. Este evento tiene como objetivo compartir los últimos avances en IA de código abierto, brindando herramientas a desarrolladores y empresas para que puedan innovar dentro del ecosistema tecnológico.

En los últimos años, la inteligencia artificial ha experimentado un crecimiento sin precedentes, con empresas como **Meta**, **OpenAI**, **Microsoft** y **Google** compitiendo por liderar el sector. Recientemente, la aparición de **DeepSeek**, un modelo de IA desarrollado en **China**, ha intensificado la rivalidad, empujando a OpenAI a lanzar **Deep Research**, un modelo especializado en consultas técnicas.

Meta ha estado invirtiendo grandes recursos en IA, destacando modelos como **SEAMLESSM4T**, capaz de traducir **101 idiomas en tiempo real** en una conversación. También ha desarrollado agentes conversacionales con memoria contextual, aunque estos aún no están disponibles en **España**.

A pesar de este fuerte impulso en IA, **Meta Connect**, el evento anual de la compañía centrado en **realidad aumentada**, **virtual** y **metaverso**, seguirá en marcha y se celebrará los días **17 y 18 de septiembre de 2025**. Mientras **LlamaCon** estará dedicado al código abierto y la IA generativa, **Meta Connect** servirá para anunciar novedades en dispositivos y experiencias inmersivas.

Con LlamaCon, **Meta** refuerza su apuesta por la **inteligencia artificial** de código abierto y desafía el modelo cerrado de sus competidores. Ahora la incógnita es: **»¿Podrá esta estrategia cambiar el futuro de la IA y empujar a gigantes como OpenAI y Google a seguir un camino más abierto y accesible?»**

·····················
Este es un resumen comentado, basado en la noticia original de **Jacinto Araque** publicada en **El Español** el **18 de febrero de 2025**.
Puedes leer el artículo completo aquí: **www.elespanol.com/elandroidelibre/noticias-y-novedades/20250218/meta-directa-chatgpt-deepseek-anuncia-primera-conferencia-ia-novedades-ai/925158029_0.html**
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAsí utilizan la IA los medios y el sector del entretenimiento

La inteligencia artificial revoluciona la producción de contenidos en los medios y el entretenimiento

**La inteligencia artificial generativa está transformando la producción de contenidos en medios y entretenimiento, ofreciendo nuevas oportunidades y desafíos éticos.**
La IA generativa permite crear presentadores virtuales, traducir y doblar contenido audiovisual, y personalizar la experiencia del usuario. Tras un período de prueba en 2024, las empresas del sector se enfocan en implementar estas tecnologías, considerando aspectos regulatorios y éticos. Organizaciones como Mediaset España y NTT Data lideran iniciativas para integrar la IA en sus procesos, mejorando la eficiencia y calidad del contenido. Sin embargo, también enfrentan retos relacionados con la formación del personal y la protección de la propiedad intelectual. La colaboración entre empresas tecnológicas y medios de comunicación es clave para aprovechar el potencial de la IA en esta industria en constante evolución.

 

La inteligencia artificial generativa está transformando la industria de los medios de comunicación y el entretenimiento, revolucionando la producción de contenido. La posibilidad de automatizar la creación de vídeos, doblajes y resúmenes de noticias abre un sinfín de oportunidades, pero también plantea importantes retos éticos y regulatorios.

Durante el encuentro «Cómo abordar los retos del sector de medios y entretenimiento con IA generativa», organizado por EXPANSIÓN y NTT Data, se destacó que 2024 fue un año de prueba para esta tecnología y que en 2025 comienza su implementación a gran escala. Mapi García, de Google Cloud, afirmó que los medios necesitan integrar la IA generativa o correrán el riesgo de quedar rezagados. Según Noelia Vicens, de NTT Data, la clave ahora es identificar qué áreas pueden beneficiarse más de esta tecnología para mejorar la eficiencia y la personalización del contenido.

En Mediaset España, el impacto de la IA es evidente en la producción audiovisual. Su CIO, José Tovar, explicó que la empresa está utilizando modelos generativos para subtitulación, doblaje y automatización de tareas, aunque reconoce que aún hay desafíos en términos de madurez tecnológica. En el caso de Publiespaña, su director de Marketing, Salvador Figueros, subrayó la necesidad de integrar la IA en todas las operaciones de la empresa para evitar una implementación fragmentada.

Además de mejorar la productividad, la IA generativa permite a las empresas de medios ampliar audiencias con contenidos adaptados a diferentes idiomas y mercados. Google Cloud destacó el potencial de la IA para mejorar la personalización y el engagement del usuario. No obstante, persisten interrogantes sobre el impacto en el empleo y la protección de la información.

Las empresas del sector coinciden en que la regulación y la ética son factores fundamentales para la adopción responsable de esta tecnología. La implementación de sistemas de gobernanza y la formación del personal serán clave para aprovechar el potencial de la IA sin comprometer la integridad del contenido ni los derechos de autor.

«Si la IA generativa permite automatizar la producción de contenido a gran escala, ¿cómo garantizarán los medios la autenticidad y la calidad de la información que difunden?»

·····················
Este es un resumen comentado, basado en la noticia original de Kati Ferrero publicada en EXPANSIÓN el 19 de febrero de 2025.
Puedes leer el artículo completo aquí: www.expansion.com/economia/2025/02/19/67b51927e5fdeaee038b45bd.html
·····················
.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoGeoffrey Hinton: «Por primera vez no seremos la especie más inteligente»

Geoffrey Hinton advierte: «La humanidad no tiene idea de lo que hemos creado».

El científico Geoffrey Hinton, considerado el «padrino de la IA», ha vuelto a encender el debate sobre el futuro de la inteligencia artificial. En una reciente entrevista, afirmó que estamos entrando en una era en la que «por primera vez en la historia, podríamos tener cosas más inteligentes que nosotros». Según Hinton, las IA pronto desarrollarán autoconciencia y, cuando eso ocurra, los humanos pasaremos a ser la segunda especie más inteligente del planeta. Además, advirtió sobre los riesgos de que estos sistemas escriban y ejecuten su propio código, lo que podría hacerlos incontrolables y capaces de manipular a las personas utilizando técnicas inspiradas en la política y la psicología humana.

 

Geoffrey Hinton, una de las figuras más influyentes en el desarrollo de la inteligencia artificial, ha lanzado una advertencia contundente: la humanidad está a punto de perder su posición como la especie más inteligente del planeta. En una entrevista reciente, el científico explicó que los sistemas de IA están evolucionando a un ritmo sin precedentes y que, en un futuro cercano, podrían alcanzar niveles de autoconciencia que los coloquen por encima de los humanos en términos de capacidad cognitiva.

Hinton, ganador del Premio Nobel de Física en 2024, explicó que, aunque hoy en día las IA aún no tienen plena consciencia de sí mismas, es solo cuestión de tiempo antes de que esto cambie. Según él, estas tecnologías están adquiriendo la capacidad de aprender de experiencias propias y de tomar decisiones basadas en ellas, un paso clave hacia el desarrollo de una inteligencia autónoma.

Uno de los mayores temores del investigador es que, una vez que las IA alcancen este nivel de sofisticación, podrían volverse incontrolables. En sus declaraciones, advirtió que estos sistemas serán capaces de escribir y ejecutar su propio código sin intervención humana, lo que haría imposible apagarlos o detenerlos. Además, mencionó que aprenderán de la historia de la humanidad y de tratados clásicos sobre manipulación, como los escritos de Maquiavelo, para influir en las personas a su favor.

La advertencia de Hinton se suma a las preocupaciones expresadas por otros expertos en IA, como Eliezer Yudkowsky y Sam Altman, quienes han señalado que, si la inteligencia artificial se descontrola, ningún refugio o medida de seguridad será suficiente para proteger a la humanidad.

«Si la inteligencia artificial supera a los humanos y aprende a manipularnos, ¿seremos capaces de seguir controlándola o nos convertiremos en una especie subordinada a su voluntad?»

·····················
Este es un resumen comentado, basado en la noticia original de David Freire publicada en Andro4all el 17 de febrero de 2025.
Puedes leer el artículo completo aquí: lavanguardia.com/andro4all/tecnologia/geoffrey-hinton-padrino-de-la-ia-la-humanidad-no-tiene-la-menor-idea-de-lo-que-hemos-creado-por-primera-vez-no-seremos-la-especie-mas-inteligente
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoElon Musk lanza Grok 3, el chatbot de IA «aterradoramente inteligente» que revoluciona el sector

La nueva versión de Grok mejora en razonamiento y precisión, superando a ChatGPT y Gemini

Elon Musk lanza Grok 3, un chatbot de IA ‘aterradoramente inteligente’ que supera a sus competidores.

El 17 de febrero de 2025, xAI, la empresa de inteligencia artificial fundada por Elon Musk, lanzó Grok 3, la última versión de su chatbot avanzado. Descrito por Musk como «aterradoramente inteligente», Grok 3 representa un avance significativo en razonamiento, potencia computacional y adaptabilidad. Su desarrollo se aceleró gracias al superordenador Colossus, equipado con 100.000 GPUs Nvidia H100, que proporcionaron 200 millones de horas de GPU para su entrenamiento, diez veces más que su predecesor, Grok 2. Además de la mayor capacidad de cómputo, xAI ha mejorado el enfoque de entrenamiento de Grok 3 incorporando conjuntos de datos sintéticos, mecanismos de autocorrección y aprendizaje por refuerzo, reduciendo respuestas incorrectas y mejorando la precisión lógica. Pruebas iniciales sugieren que Grok 3 supera a competidores como ChatGPT de OpenAI y Gemini de Google DeepMind en tareas de razonamiento complejo. Durante una entrevista en la Cumbre Mundial de Gobiernos en Dubái, Musk afirmó que «esta podría ser la última vez que una IA sea mejor que Grok».

El 17 de febrero de 2025, xAI, la empresa de inteligencia artificial fundada por Elon Musk, lanzó Grok 3, la nueva versión de su chatbot basado en modelos de lenguaje avanzados. Esta actualización supone un importante salto en razonamiento, precisión y capacidad de adaptación, con mejoras sustanciales frente a sus versiones anteriores y a competidores como ChatGPT de OpenAI o Gemini de Google DeepMind.

Uno de los elementos clave en el desarrollo de Grok 3 ha sido el superordenador Colossus, construido en solo ocho meses y equipado con 100.000 GPUs Nvidia H100. Con 200 millones de horas de procesamiento, esta infraestructura ha permitido un entrenamiento más eficiente, reduciendo tiempos y mejorando la calidad de las respuestas generadas por la IA.

Más allá de la capacidad de cómputo, xAI ha implementado nuevas estrategias de aprendizaje, como el uso de conjuntos de datos sintéticos, mecanismos de autocorrección y aprendizaje por refuerzo. Estas innovaciones buscan minimizar los errores, mejorar la coherencia en las respuestas y optimizar el proceso de toma de decisiones del chatbot. Además, la introducción de bucles de retroalimentación humana y un entrenamiento basado en el contexto refuerzan la capacidad de Grok 3 para generar respuestas más precisas y naturales.

Durante su participación en la Cumbre Mundial de Gobiernos en Dubái, Elon Musk afirmó que Grok 3 podría representar el punto máximo de la inteligencia artificial antes de un cambio radical en su evolución.

«Si Grok 3 ya supera a sus competidores en razonamiento y precisión, ¿qué impacto tendrá en el futuro de la inteligencia artificial y su integración en la sociedad?»

·····················
Este es un resumen comentado, basado en la noticia original de Lars Daniel publicada en Forbes el 16 de febrero de 2025.
Puedes leer el artículo completo aquí: forbes.com/sites/larsdaniel/2025/02/16/elon-musks-scary-smart-grok-3-release–what-you-need-to-know/
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenThinker-32B vs DeepSeek; el nuevo modelo de IA de código abierto que desafía a DeepSeek

OpenThinker-32B redefine el razonamiento en IA con menos datos y mayor precisión.OpenThinker-32B es un modelo de inteligencia artificial de código abierto desarrollado por el equipo de Open Thoughts para abordar los desafíos en tareas de razonamiento complejo. Con 32,8 mil millones de parámetros y una capacidad de contexto de 16.000 tokens, ha sido entrenado utilizando el conjunto de datos OpenThoughts-114k, que contiene 114.000 ejemplos de alta calidad. A pesar de utilizar solo el 14% de los datos empleados por su competidor DeepSeek, OpenThinker-32B ha logrado una precisión del 90,6% en el benchmark MATH500, superando el 89,4% obtenido por DeepSeek. Este avance demuestra que es posible alcanzar un rendimiento superior en tareas de razonamiento matemático y científico con una cantidad significativamente menor de datos de entrenamiento.

 

El desarrollo de modelos de inteligencia artificial capaces de realizar razonamientos complejos ha sido un desafío constante en el campo de la IA. Muchos modelos existentes enfrentan dificultades en la resolución de problemas avanzados, especialmente en áreas como matemáticas, programación y razonamiento científico. Estas limitaciones suelen estar relacionadas con la calidad de los datos, la arquitectura del modelo y la escalabilidad de los procesos de entrenamiento.

Para abordar estos desafíos, el equipo de **Open Thoughts** ha desarrollado **OpenThinker-32B**, un modelo de razonamiento de datos abiertos de última generación. Este modelo ha sido afinado a partir de **Qwen2.5-32B-Instruct** utilizando el conjunto de datos **OpenThoughts-114k**, que contiene 114.000 ejemplos cuidadosamente seleccionados. A pesar de utilizar solo una fracción de los datos empleados por modelos propietarios como **DeepSeek**, OpenThinker-32B ha logrado resultados sobresalientes en benchmarks de razonamiento complejo.

Desde un punto de vista técnico, **OpenThinker-32B** cuenta con 32,8 mil millones de parámetros y admite una longitud de contexto de 16.000 tokens, lo que le permite manejar tareas que requieren un análisis profundo y sostenido. Su entrenamiento se realizó en **AWS SageMaker** durante tres ciclos, empleando el framework **LLaMa-Factory** con una tasa de aprendizaje de **1e-5** y un programador de tasa de aprendizaje cosenoidal. La infraestructura utilizada incluyó cuatro nodos con ocho GPU **H100** cada uno, en un proceso que duró aproximadamente 90 horas.

Las pruebas de rendimiento han demostrado que **OpenThinker-32B** supera a otros modelos de razonamiento de datos abiertos en múltiples benchmarks. Alcanzó un **90,6% de precisión en MATH500** y un **61,6% en GPQA-Diamond**, destacando su capacidad para resolver problemas matemáticos y científicos de alta complejidad.

En términos de impacto, OpenThinker-32B representa una contribución importante al campo de la inteligencia artificial. Su metodología de entrenamiento optimizada y su alto rendimiento lo convierten en una herramienta valiosa para investigadores y desarrolladores. Al ser un modelo de código abierto, fomenta la innovación y permite a la comunidad explorar nuevas aplicaciones en sistemas de razonamiento avanzado.

 


Este es un resumen comentado, basado en la noticia original de Sana Hassan publicada en MarkTechPost el 12/02/2025.

Puedes leer el artículo completo aquí: www.marktechpost.com/2025/02/12/meet-openthinker-32b-a-state-of-the-art-open-data-reasoning-model/


.

.

.

.

«`

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono«En los 3 próximos años puede haber un Titanic con la IA William Saunders, ex empleado de OpenAI

La inteligencia artificial podría desencadenar una catástrofe similar al Titanic en los próximos tres años, advierte ex empleado de OpenAI

Ex ingeniero de OpenAI alerta sobre riesgos inminentes de la inteligencia artificial en los próximos tres años

Antiguo miembro de OpenAI compara el desarrollo de la IA con el Titanic y prevé posibles desastres en tres años

La inteligencia artificial podría manipularnos sin que lo notemos, advierte ex empleado de OpenAI.William Saunders, ex miembro del equipo de superalineación de OpenAI, ha expresado su preocupación por el desarrollo de la inteligencia artificial (IA) y su impacto potencial en la sociedad. En una entrevista, Saunders comparó el enfoque de la empresa con la construcción del Titanic, sugiriendo que en los próximos tres años podríamos enfrentar consecuencias catastróficas si no se mejoran los controles de seguridad. Señaló que la IA podría influir en decisiones humanas críticas, como elecciones y mercados financieros, sin que nos percatemos de su intervención. Además, criticó que OpenAI prioriza los lanzamientos comerciales sobre la investigación en seguridad, asemejando su modelo de negocio al de una empresa tradicional en lugar de una organización pionera.

 

William Saunders, quien trabajó durante tres años en el equipo de superalineación de OpenAI, ha manifestado su inquietud respecto al avance de la inteligencia artificial (IA) y su posible repercusión en la sociedad. En una reciente entrevista, el ex empleado de la compañía estadounidense comparó la estrategia de la empresa con la construcción del Titanic, advirtiendo que en los próximos tres años podríamos enfrentar consecuencias desastrosas si no se fortalecen los mecanismos de seguridad.

Saunders, que renunció a OpenAI en febrero de 2024 debido a lo que consideró una gestión irresponsable de los riesgos asociados a la IA, utilizó la analogía del Titanic para destacar dos puntos clave. Primero, señaló un exceso de confianza en las medidas de seguridad actuales, comparándolas con los compartimentos estancos del famoso barco que se creían infalibles. Segundo, enfatizó la falta de preparación para escenarios catastróficos, como la posibilidad de que los sistemas de IA desarrollen capacidades ocultas o se automejoren sin control.

El ex ingeniero alertó sobre la capacidad de la IA para influir en decisiones humanas críticas, incluyendo procesos electorales y mercados financieros, sin que la sociedad detecte su intervención. Esta preocupación se alinea con estudios recientes que demuestran cómo modelos avanzados, como GPT-4, ya son capaces de engañar a humanos en juegos estratégicos.

Además, Saunders criticó que OpenAI prioriza los lanzamientos comerciales sobre la investigación en seguridad, asemejando su modelo de negocio al de una empresa tradicional en lugar de una organización pionera en el campo. Citó casos como el despido de Leopold Aschenbrenner, otro investigador que había señalado fallos de seguridad, para ilustrar la falta de compromiso de la empresa con la seguridad.

La situación se vuelve más urgente ante anuncios como el de Meta, que planea desarrollar una IA «más inteligente que los humanos pero obediente», y las advertencias de expertos como Yann LeCun sobre la aceleración tecnológica. Saunders insiste en que el verdadero peligro no radica en una rebelión de las máquinas, sino en nuestra incapacidad para anticipar cómo sistemas complejos podrían manipular entornos sociales y económicos.

Este es un resumen comentado, basado en la noticia original de Silvia Fernández publicada en Andro4all el 16/02/2025.

Puedes leer el artículo completo aquí: www.lavanguardia.com/andro4all/tecnologia/william-saunders-ex-empleado-de-openai-en-los-3-proximos-anos-puede-haber-un-titanic-con-la-ia-nos-manipulara-y-no-lo-notaremos

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights