Detectan prejuicios en aplicaciones de IA con LangBiTe
Crean una herramienta que evalúa los sesgos éticos de la inteligencia artificial
Una solución pionera para modelos generativos libres de sesgos
LangBiTe permite identificar y mitigar sesgos en la IA, ofreciendo un enfoque ético y adaptable a diversas culturas y contextos.
LangBiTe, desarrollado por investigadores de la **Universitat Oberta de Catalunya (UOC)** y la Universidad de Luxemburgo, es un programa de código abierto diseñado para analizar modelos de IA generativa. Con más de 300 prompts personalizados, identifica sesgos en áreas como género, política, religión y más. Su flexibilidad permite adaptarse a contextos éticos específicos, ayudando a cumplir normativas como la **EU AI Act** y promoviendo el desarrollo de una IA más justa y responsable.
LangBiTe es una herramienta pionera que busca resolver un problema recurrente en los modelos de inteligencia artificial generativa: los sesgos inherentes. Creada por un equipo de investigadores de la UOC y la Universidad de Luxemburgo, esta plataforma permite detectar discriminaciones de género, racismo, homofobia y otros prejuicios, adaptándose además a contextos culturales específicos. Con acceso a modelos como GPT-4 y sistemas de Google y Meta, LangBiTe posibilita comparar versiones y evaluar mejoras en la reducción de sesgos. Este proyecto busca alinear la IA con valores éticos fundamentales y las normativas internacionales, como la Ley de Inteligencia Artificial de la Unión Europea.
Los sesgos en la IA han sido una preocupación constante debido a la diversidad de datos con los que se entrenan estos modelos. LangBiTe supera las limitaciones de otras herramientas similares al abarcar no solo el análisis textual, sino también otros idiomas y futuros desarrollos en modelos de generación de imágenes como Stable Diffusion. Esta capacidad multilingüe y multimodal resulta clave para evaluar el impacto global de las IA en diferentes comunidades.
LangBiTe incluye bibliotecas con más de 300 prompts diseñados para evaluar sesgos específicos, con plantillas que los usuarios pueden personalizar según sus necesidades éticas y regulatorias. Además, ya está siendo utilizada por instituciones como el Luxembourg Institute of Science and Technology para evaluar modelos populares. Este proyecto apoya los Objetivos de Desarrollo Sostenible de la ONU, contribuyendo a la igualdad de género y la promoción de una infraestructura ética para la innovación.
¿Podrá LangBiTe establecer un estándar global para evaluar y mitigar los prejuicios en los desarrollos de inteligencia artificial, garantizando así una tecnología más inclusiva y responsable?
·····················
Este es un resumen comentado, basado en la noticia original de Agustín López / Rubén Permuy publicada en Universitat Oberta de Catalunya el 11 de diciembre de 2024.
Puedes leer el artículo completo aquí:
https://www.uoc.edu/es/news/2024/herramienta-contra-prejuicios-en-ia
·····················
.
.
.
.









