El Peligro de los Deepfakes de Audio en la Política: El Caso de Keir Starmer
FOTO: WIRED UK

En el Reino Unido, un audio potencialmente explosivo de Keir Starmer, líder del Partido Laborista, ha comenzado a circular en las redes sociales. El clip de 25 segundos fue publicado por una cuenta en X (anteriormente conocido como Twitter) y muestra a Starmer insultando a un miembro de su equipo. La autenticidad del audio está en cuestión, y la organización de verificación de hechos británica Full Fact está investigando el caso.

Este incidente pone de relieve el riesgo emergente que los deepfakes de audio representan para el proceso democrático, especialmente cuando más de 50 países, incluido el Reino Unido, se preparan para elecciones en 2024. La manipulación de contenido de audio se está volviendo más fácil y económica, mientras que los verificadores de hechos encuentran difícil identificar rápidamente y de manera definitiva si una grabación es falsa. Estos audios podrían pasar horas o días circulando en las redes sociales antes de ser desacreditados, creando un ambiente político en el que los votantes no saben qué información pueden confiar.

La política de medios manipulados de X establece que los videos o audios que han sido alterados de manera engañosa deben ser etiquetados o eliminados. Sin embargo, esto no ha sucedido con el post en cuestión. Varios miembros del Parlamento del Partido Conservador han calificado la grabación como un deepfake.

El problema de los deepfakes de audio fácilmente creados se agrava por el hecho de que las herramientas de detección no están ampliamente disponibles. Sam Gregory, director ejecutivo de Witness, un grupo de derechos humanos que se enfoca en la tecnología, señala que no hay un estándar compartido para agregar marcas de agua o señales de procedencia a audios deepfake generados por IA.

En resumen

El audio deepfake del líder del Partido Laborista del Reino Unido, Keir Starmer, pone de manifiesto los riesgos emergentes para el proceso democrático. La facilidad para crear y difundir estos audios falsos está socavando la confianza en la información y plantea desafíos significativos para la verificación de hechos.

*** Información extraída del artículo original: Deepfake Audio Is a Political Nightmare, publicado en WIRED UK.***

. . . .

Share:

Facebook
Twitter
Pinterest
LinkedIn
Scroll al inicio