En enero de este año, la pequeña y poco conocida empresa china DeepSeek ha logrado revolucionar la industria de la inteligencia artificial (IA) generativa con su modelo R1. Este modelo ha demostrado un rendimiento comparable, e incluso superior, al de la última versión de ChatGPT, pero con la ventaja de ser gratuito y de código abierto. A pesar de las restricciones impuestas por el embargo a las exportaciones de chips, DeepSeek ha conseguido desarrollar su tecnología con recursos significativamente menores que los de sus competidores. En un artículo publicado en la revista Nature, el equipo de DeepSeek detalla los avances que han permitido este cambio radical en el sector.
La IA generativa, que tiene la capacidad de crear textos, imágenes, vídeos o audios a partir de instrucciones del usuario, se basa en el aprendizaje profundo (deep learning). Esta técnica ha ganado relevancia en la última década, utilizando algoritmos sobre grandes bases de datos para identificar patrones que faciliten la toma de decisiones. DeepSeek ha optado por una estrategia innovadora: el aprendizaje por refuerzo, que se asemeja a la forma en que un niño aprende a jugar a un videojuego a través de prueba y error.
El equipo de DeepSeek, conformado por científicos que han trabajado en este campo, ha demostrado que las habilidades de razonamiento en los grandes modelos de lenguaje (LLM) pueden ser incentivadas mediante técnicas de aprendizaje reforzado puro, sin necesidad de introducir ejemplos de razonamiento humano. Esta afirmación fue respaldada por Daphne Ippolito, profesora de la Carnegie Mellon University en Pittsburgh, EE. UU., quien destacó que el modelo de DeepSeek logra un rendimiento superior en tareas verificables como matemáticas y programación, superando a aquellos entrenados mediante aprendizaje supervisado convencional.
Sin embargo, a pesar de los buenos resultados, el modelo R1 presenta algunas peculiaridades. Por ejemplo, a veces mezcla idiomas, como inglés y chino, y genera respuestas excesivamente largas, de hasta 10.000 palabras. Para solucionar esto, los investigadores decidieron incorporar elementos de aprendizaje supervisado, buscando un equilibrio entre respuestas correctas y comprensibles. Esta combinación les permitió alcanzar un rendimiento destacado en matemáticas y programación.
Además, DeepSeek ha implementado el destilado de modelos de IA generativa, lo que les ha permitido aprovechar modelos existentes sin tener que desarrollarlos desde cero. Esto ha resultado en un acceso más amplio a tecnologías de IA potentes a un costo energético más bajo. El equipo de DeepSeek considera que su enfoque puede desbloquear niveles más altos de capacidades en los LLM, abriendo la puerta a modelos más autónomos y adaptables en el futuro.
El trabajo de DeepSeek plantea interrogantes importantes sobre la naturaleza del razonamiento en los modelos de IA. Ippolito plantea cuestiones filosóficas y técnicas sobre qué constituye un buen razonamiento en un modelo y si la forma en que este razona es relevante si llega a la respuesta correcta. La innovación de DeepSeek no solo desafía las normas establecidas en la IA generativa, sino que también invita a una reflexión más profunda sobre el futuro de la inteligencia artificial.
¿QUIÉN DIJO QUE LA INNOVACIÓN NO PUEDE SURGIR DE UN PEQUEÑO RINCÓN DE CHINA?
—
«`
APARECEN EN EL ARTÍCULO ORIGINAL:
Carnegie Mellon University
ChatGPT
DeepSeek
Daphne Ippolito
Nature
Wenfeng Liang
«`
https://elpais.com/tecnologia/2025-09-17/los-creadores-de-deepseek-la-ia-china-que-noqueo-a-silicon-valley-desvelan-sus-secretos.html
Fuente: elpais.com | URL: Ver noticia original









