17 de febrero de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOpenThinker-32B vs DeepSeek; el nuevo modelo de IA de código abierto que desafía a DeepSeek

OpenThinker-32B redefine el razonamiento en IA con menos datos y mayor precisión.OpenThinker-32B es un modelo de inteligencia artificial de código abierto desarrollado por el equipo de Open Thoughts para abordar los desafíos en tareas de razonamiento complejo. Con 32,8 mil millones de parámetros y una capacidad de contexto de 16.000 tokens, ha sido entrenado utilizando el conjunto de datos OpenThoughts-114k, que contiene 114.000 ejemplos de alta calidad. A pesar de utilizar solo el 14% de los datos empleados por su competidor DeepSeek, OpenThinker-32B ha logrado una precisión del 90,6% en el benchmark MATH500, superando el 89,4% obtenido por DeepSeek. Este avance demuestra que es posible alcanzar un rendimiento superior en tareas de razonamiento matemático y científico con una cantidad significativamente menor de datos de entrenamiento.

 

El desarrollo de modelos de inteligencia artificial capaces de realizar razonamientos complejos ha sido un desafío constante en el campo de la IA. Muchos modelos existentes enfrentan dificultades en la resolución de problemas avanzados, especialmente en áreas como matemáticas, programación y razonamiento científico. Estas limitaciones suelen estar relacionadas con la calidad de los datos, la arquitectura del modelo y la escalabilidad de los procesos de entrenamiento.

Para abordar estos desafíos, el equipo de **Open Thoughts** ha desarrollado **OpenThinker-32B**, un modelo de razonamiento de datos abiertos de última generación. Este modelo ha sido afinado a partir de **Qwen2.5-32B-Instruct** utilizando el conjunto de datos **OpenThoughts-114k**, que contiene 114.000 ejemplos cuidadosamente seleccionados. A pesar de utilizar solo una fracción de los datos empleados por modelos propietarios como **DeepSeek**, OpenThinker-32B ha logrado resultados sobresalientes en benchmarks de razonamiento complejo.

Desde un punto de vista técnico, **OpenThinker-32B** cuenta con 32,8 mil millones de parámetros y admite una longitud de contexto de 16.000 tokens, lo que le permite manejar tareas que requieren un análisis profundo y sostenido. Su entrenamiento se realizó en **AWS SageMaker** durante tres ciclos, empleando el framework **LLaMa-Factory** con una tasa de aprendizaje de **1e-5** y un programador de tasa de aprendizaje cosenoidal. La infraestructura utilizada incluyó cuatro nodos con ocho GPU **H100** cada uno, en un proceso que duró aproximadamente 90 horas.

Las pruebas de rendimiento han demostrado que **OpenThinker-32B** supera a otros modelos de razonamiento de datos abiertos en múltiples benchmarks. Alcanzó un **90,6% de precisión en MATH500** y un **61,6% en GPQA-Diamond**, destacando su capacidad para resolver problemas matemáticos y científicos de alta complejidad.

En términos de impacto, OpenThinker-32B representa una contribución importante al campo de la inteligencia artificial. Su metodología de entrenamiento optimizada y su alto rendimiento lo convierten en una herramienta valiosa para investigadores y desarrolladores. Al ser un modelo de código abierto, fomenta la innovación y permite a la comunidad explorar nuevas aplicaciones en sistemas de razonamiento avanzado.

 


Este es un resumen comentado, basado en la noticia original de Sana Hassan publicada en MarkTechPost el 12/02/2025.

Puedes leer el artículo completo aquí: www.marktechpost.com/2025/02/12/meet-openthinker-32b-a-state-of-the-art-open-data-reasoning-model/


.

.

.

.

«`

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono«En los 3 próximos años puede haber un Titanic con la IA William Saunders, ex empleado de OpenAI

La inteligencia artificial podría desencadenar una catástrofe similar al Titanic en los próximos tres años, advierte ex empleado de OpenAI

Ex ingeniero de OpenAI alerta sobre riesgos inminentes de la inteligencia artificial en los próximos tres años

Antiguo miembro de OpenAI compara el desarrollo de la IA con el Titanic y prevé posibles desastres en tres años

La inteligencia artificial podría manipularnos sin que lo notemos, advierte ex empleado de OpenAI.William Saunders, ex miembro del equipo de superalineación de OpenAI, ha expresado su preocupación por el desarrollo de la inteligencia artificial (IA) y su impacto potencial en la sociedad. En una entrevista, Saunders comparó el enfoque de la empresa con la construcción del Titanic, sugiriendo que en los próximos tres años podríamos enfrentar consecuencias catastróficas si no se mejoran los controles de seguridad. Señaló que la IA podría influir en decisiones humanas críticas, como elecciones y mercados financieros, sin que nos percatemos de su intervención. Además, criticó que OpenAI prioriza los lanzamientos comerciales sobre la investigación en seguridad, asemejando su modelo de negocio al de una empresa tradicional en lugar de una organización pionera.

 

William Saunders, quien trabajó durante tres años en el equipo de superalineación de OpenAI, ha manifestado su inquietud respecto al avance de la inteligencia artificial (IA) y su posible repercusión en la sociedad. En una reciente entrevista, el ex empleado de la compañía estadounidense comparó la estrategia de la empresa con la construcción del Titanic, advirtiendo que en los próximos tres años podríamos enfrentar consecuencias desastrosas si no se fortalecen los mecanismos de seguridad.

Saunders, que renunció a OpenAI en febrero de 2024 debido a lo que consideró una gestión irresponsable de los riesgos asociados a la IA, utilizó la analogía del Titanic para destacar dos puntos clave. Primero, señaló un exceso de confianza en las medidas de seguridad actuales, comparándolas con los compartimentos estancos del famoso barco que se creían infalibles. Segundo, enfatizó la falta de preparación para escenarios catastróficos, como la posibilidad de que los sistemas de IA desarrollen capacidades ocultas o se automejoren sin control.

El ex ingeniero alertó sobre la capacidad de la IA para influir en decisiones humanas críticas, incluyendo procesos electorales y mercados financieros, sin que la sociedad detecte su intervención. Esta preocupación se alinea con estudios recientes que demuestran cómo modelos avanzados, como GPT-4, ya son capaces de engañar a humanos en juegos estratégicos.

Además, Saunders criticó que OpenAI prioriza los lanzamientos comerciales sobre la investigación en seguridad, asemejando su modelo de negocio al de una empresa tradicional en lugar de una organización pionera en el campo. Citó casos como el despido de Leopold Aschenbrenner, otro investigador que había señalado fallos de seguridad, para ilustrar la falta de compromiso de la empresa con la seguridad.

La situación se vuelve más urgente ante anuncios como el de Meta, que planea desarrollar una IA «más inteligente que los humanos pero obediente», y las advertencias de expertos como Yann LeCun sobre la aceleración tecnológica. Saunders insiste en que el verdadero peligro no radica en una rebelión de las máquinas, sino en nuestra incapacidad para anticipar cómo sistemas complejos podrían manipular entornos sociales y económicos.

Este es un resumen comentado, basado en la noticia original de Silvia Fernández publicada en Andro4all el 16/02/2025.

Puedes leer el artículo completo aquí: www.lavanguardia.com/andro4all/tecnologia/william-saunders-ex-empleado-de-openai-en-los-3-proximos-anos-puede-haber-un-titanic-con-la-ia-nos-manipulara-y-no-lo-notaremos

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights