Google te pagará por Encontrar Vulnerabilidades en Productos y Servicios de IA Generativa
FOTO: THE TIMES OF INDIA

Google ha anunciado una expansión de su programa de recompensas por vulnerabilidades, conocido como Vulnerability Rewards Program (VRP), para incluir la seguridad y la seguridad de la inteligencia artificial generativa. La iniciativa busca incentivar a los investigadores de seguridad externos a la empresa para que identifiquen posibles fallos en los sistemas de IA. Google ha actualizado las pautas del programa para especificar qué tipos de descubrimientos son elegibles para recompensas.

El VRP de Google es un programa que recompensa a los investigadores de seguridad fuera de su organización que logran identificar vulnerabilidades, errores o defectos que podrían ser utilizados para atacar a los usuarios en línea. Con el aumento en la adopción de la IA, Google ha dicho que el VRP ahora también se centrará en ataques específicos de IA y oportunidades para actos maliciosos. Esta decisión está en línea con la colaboración de la empresa con otras compañías líderes en IA en la Casa Blanca a principios de este año para comprometerse a avanzar en el descubrimiento de vulnerabilidades en los sistemas de IA.

Las nuevas pautas detallan qué descubrimientos son elegibles para recompensas y cuáles no. Por ejemplo, si un investigador de seguridad descubre una extracción de datos de entrenamiento que filtra información privada y sensible, será elegible para una recompensa. Sin embargo, si solo muestra datos públicos y no sensibles, no calificará para una recompensa. Google reveló que el año pasado otorgó $12 millones a investigadores de seguridad por descubrimientos de errores.

La IA generativa plantea nuevas y diferentes preocupaciones en comparación con la seguridad digital tradicional, como el potencial de sesgo injusto, manipulación del modelo o interpretaciones erróneas de los datos. Google está trabajando para anticipar y evaluar mejor estos riesgos potenciales. Además, la empresa está expandiendo su trabajo de seguridad de código abierto para hacer que la información sobre la seguridad de la cadena de suministro de IA sea universalmente descubrible y verificable.

En resumen

Google ha ampliado su programa de recompensas por vulnerabilidades para incluir la seguridad de la inteligencia artificial generativa. La empresa busca incentivar a los investigadores externos para que identifiquen posibles fallos en los sistemas de IA y ha actualizado las pautas del programa para especificar qué descubrimientos son elegibles para recompensas.

*** Información extraída del artículo original: Google will pay for finding security issues in generative AI products, services, publicado en Gadgets Now.***

.
.
.
.

Share:

Facebook
Twitter
Pinterest
LinkedIn
Scroll al inicio