Los líderes del G7 acuerdan regular la inteligencia artificial generativa de forma urgente

Durante la sesión de trabajo del pasado sábado en Hiroshima, los líderes de las naciones del G7 fijaron el establecimiento de una serie de estándares técnicos  para mantener regulada la inteligencia artificial en base a su ritmo de crecimiento. Esta decisión llega días después de que la Unión Europea anunciase su deseo de implantar la primera ley integral de IA del mundo, un hecho que marcaría un precedente mundial.

El objetivo no es otro que los enfoques y desarrollos de la IA fuesen en sintonía con los objetivos democráticos compartidos, haciendo de ésta una tecnología altamente confiable, segura y no discriminatoria. Para ello, se han marcado como fecha límite finales de este año para establecer una propuesta individualizada que luego será puesta en común para fijar un marco internacional regulatorio.

Las regulaciones de la IA deben centrarse en cinco claves: el estado de derecho, las garantías legales, la democracia y el respeto por los derechos humanos y el aprovechamiento de oportunidades para promover la innovación. De igual modo, en el mismo comunicado señalan a Rusia y a China como responsables de emplear la IA para vigilancia interna y externa.

Los líderes del G7 decidieron el viernes la creación de un foro ministerial bautizado como ‘Proceso de IA de Hiroshima’ en el que discutir temas relacionados con la IA generativa, aspectos clave como los derechos de autor y la desinformación. De igual modo, solicitan a organizaciones internacionales como la Organización para la Cooperación y el Desarrollo Económico el establecimiento de un análisis sobre el impacto de las políticas implantadas.

Claros precedentes

Las alarmas ya saltaron en marzo cuando un grupo de expertos en IA, liderados por Elon Musk, solicitaron una pausa de seis meses en el desarrollo de sistemas más potentes ante los riesgos de esta tecnología innovadora para la sociedad.

La administración Biden se ha mantenido cautelosa y espera aún recabar más pruebas para considerar el grado de gravedad de la IA. En este sentido, Sam Altman, CEO de OpenAI, se ha postulado como claro defensor de la necesidad de establecer una serie de requisitos de licencia para el desarrollo de modelos de IA.

Por su parte, Japón ha prometido apoyo para la adopción pública e industrial de IA mientras analizan de forma rigurosa sus riesgos. Este es un compromiso claro manifestado por Fumio Kishida, primer ministro del gobierno nipón, al consejo de IA.  Además, aseguró que solicitará la cooperación del G7 para frenar el flujo libre de datos con confianza (DFFT), aportando para ello Japón una serie de contribuciones financieras….

SIGUE LEYENDO EL ORIGINAL DE ESTA NOTICIA PUBLICADA EN : MCPRO

BARCELONADOT no se hace responsable de la información
que contiene este mensaje y no asume responsabilidad alguna
frente a terceros sobre su íntegro contenido, quedando igualmente
exonerada de la responsabilidad de la entidad autora del mismo.

Escucha aquí RADIO60 Una experiencia musical y vivencial a través de más un siglo de ritmos, melodías e historias

.

.

Facebook
Twitter
LinkedIn
Scroll al inicio