Las empresas de inteligencia artificial han enfrentado críticas por el origen dudoso de los datos utilizados para entrenar sus modelos, generando preocupaciones en la comunidad de expertos. La procedencia de la información alimentando herramientas como ChatGPT ha sido cuestionada. Los expertos señalan que estas empresas han recolectado datos de Internet y han adoptado un enfoque de «Move fast and break things, que la traducción al castellano sería: más vale pedir perdón que permiso» en lugar de obtener permisos éticos. Expertos en ciberseguridad y ética han abogado por alternativas de código abierto y alertado sobre el riesgo de concentrar demasiado poder en manos de pocas empresas. Un reciente debate se centró en Zoom, que supuestamente agregó cláusulas a sus términos legales permitiendo el uso de datos de usuarios para entrenar modelos de IA sin consentimiento excluyente. Aunque Zoom ha respondido a la controversia, la discusión sobre el uso ético de datos en la inteligencia artificial continúa….
SIGUE LEYENDO EL ORIGINAL DE ESTA NOTICIA PUBLICADA EN : BUSINESS INSIDER
BARCELONADOT no se hace responsable de la información
que contiene este mensaje y no asume responsabilidad alguna frente a terceros sobre su íntegro contenido, quedando igualmente
exonerada de la responsabilidad de la entidad autora del mismo.
Escucha aquí RADIO60 Una experiencia musical y vivencial a través de más un siglo de ritmos, melodías e historias
.
.
Esto también te puede interesar
BNEW 2023: Barcelona Reflexiona Sobre el Futuro de la Micromovilidad03rd Oct 2023
Los CIOs Sienten la Presión de los CEOs para Implementar IA Generativa03rd Oct 2023
El Banco Central Europeo Crea el "Equipo Infinito" para Explorar Aplicaciones de IA Generativa03rd Oct 2023
¿Por Qué Silicon Valley es Tan Susceptible a Fraudes?03rd Oct 2023
El Mayor Hackeo de 2023: MOVEit y Sus Víctimas en Aumento03rd Oct 2023
La NASA Anuncia una Revolución Energética Gracias a la Inteligencia Artificial03rd Oct 2023