La ciencia abierta promueve la transparencia y accesibilidad en todas las etapas del proceso científico, permitiendo la reproducibilidad y colaboración para avanzar en el conocimiento. Sin embargo, en el ámbito de la inteligencia artificial, muchas empresas tecnológicas desarrollan modelos cerrados, como DeepSeek, que no comparten su código fuente, limitando la comprensión y mejora por parte de la comunidad científica. Esta opacidad dificulta el progreso y afecta negativamente la confianza en la investigación en IA.
A principios de los años ochenta, **Víctor Etxebarria Ecenarro**, catedrático de la **Universidad del País Vasco / Euskal Herriko Unibertsitatea**, se inició en la informática con un ordenador doméstico conectado al televisor. Publicaba programas sencillos en revistas especializadas, compartiendo el código fuente para que otros pudieran reproducir y modificar su trabajo. Este enfoque representa los principios de la ciencia abierta, donde la transparencia y accesibilidad son fundamentales para el avance del conocimiento.
La ciencia abierta implica que todas las etapas del proceso científico sean transparentes y accesibles, incluyendo la publicación de artículos, datos, métodos y herramientas necesarias para replicar investigaciones. En el campo de la inteligencia artificial, este enfoque es esencial para garantizar la reproducibilidad y transparencia, permitiendo un progreso coherente y beneficioso para la sociedad.
No obstante, muchas empresas tecnológicas desarrollan modelos de IA como cajas negras, sin explicar su funcionamiento interno ni proporcionar acceso al código fuente. Un ejemplo es **DeepSeek**, que, aunque se promociona como «open source», solo ofrece el código compilado, impidiendo que los investigadores comprendan o mejoren el programa. Esta falta de apertura contrasta con iniciativas como **Rosetta** y **AlphaFold**, que, aunque han enfrentado críticas por restricciones en la disponibilidad de su código, representan esfuerzos hacia una mayor transparencia en la investigación científica.
La opacidad en los modelos de IA no solo dificulta el progreso científico, sino que también erosiona la confianza pública en estas tecnologías. Para fomentar un desarrollo ético y efectivo de la inteligencia artificial, es crucial que las empresas adopten prácticas de ciencia abierta, compartiendo sus avances y permitiendo la colaboración global en beneficio de toda la humanidad.
**»Si la inteligencia artificial es una herramienta con potencial transformador para toda la sociedad, ¿por qué su desarrollo sigue estando en manos de unos pocos privilegiados?»**
·····················
Este es un resumen comentado, basado en la noticia original de **Víctor Etxebarria Ecenarro** publicada en **The Conversation** el **17 de febrero de 2025**.
Puedes leer el artículo completo aquí: **theconversation.com/inteligencia-artificial-abierta-para-todos-o-cerrada-para-beneficio-de-unos-pocos-249399**
·····················
.
.
.
.









