La IA es tan convincente como los humanos para influir en opiniones políticas
ZIP
A partir de una investigación de Stanford, se ha demostrado que la IA puede redactar mensajes persuasivos que alteran opiniones políticas de manera similar a un argumento humano, generando contenido automático en redes sociales y otros medios.
La inteligencia artificial (IA) ha demostrado ser capaz de redactar mensajes que pueden influir en las opiniones políticas de las personas con una efectividad comparable a la de un argumento humano. Esto se ha evidenciado en una investigación publicada en Nature Communications, donde se exploró el potencial de los modelos de lenguaje grandes, como GPT-3, para generar contenido persuasivo. La investigación fue llevada a cabo por un equipo de investigadores de Stanford que evaluó si estos modelos podían modificar opiniones políticas de manera similar a como lo haría un ser humano al presentar un argumento convincente.
El estudio se estructuró en tres experimentos independientes que involucraron a casi cinco mil participantes estadounidenses. En cada experimento, los participantes leyeron mensajes persuasivos y luego expresaron su grado de acuerdo con diversas políticas públicas. Los resultados mostraron que los mensajes generados por IA lograron cambios significativos en la opinión pública sobre temas como la prohibición de armas de asalto, un impuesto al carbono, licencias parentales pagadas y el registro automático de votantes. Aunque los cambios en la opinión fueron modestos, típicamente entre dos y cuatro puntos en una escala de cien, se alinearon con los cambios documentados en estudios previos donde la persuasión provenía de escritores humanos.
Lo que distingue este hallazgo es su enfoque en la capacidad real de la IA para cambiar convicciones políticas, en lugar de simplemente evaluar si los textos generados por máquinas son percibidos de manera diferente. Este aspecto es crucial para políticos y activistas, ya que revela que las máquinas pueden crear argumentos que efectivamente persuaden a las personas.
Además, el estudio reveló que los participantes consideraban a los autores de textos generados por IA como más lógicos y mejor informados, mientras que atribuían a los humanos una mayor originalidad. Los mensajes automáticos tendían a utilizar un vocabulario más sofisticado y estructuras gramaticales complejas, evitando pronunciamientos personales y apelando a acciones colectivas. Por el contrario, los textos humanos se apoyaban en referencias personales y en la vivacidad del relato.
Desde una perspectiva práctica, esta capacidad de la IA plantea riesgos significativos. Los modelos de lenguaje grandes están disponibles públicamente, lo que permite a cualquier persona, desde campañas políticas hasta actores maliciosos, generar mensajes persuasivos a gran escala y a bajo costo. Además, estos algoritmos pueden personalizarse para diferentes audiencias, lo que potencialmente amplifica su efectividad.
Los autores del estudio advierten sobre el uso de esta tecnología para simular comunicaciones de ciudadanos en redes sociales o correos dirigidos a legisladores, creando una ilusión de apoyo que en realidad es contenido automático. También se menciona el riesgo de desinformación política persuasiva, aunque los investigadores no probaron directamente si la IA puede convencer mediante información falsa, lo que representa una limitación ética.
Para mitigar estos riesgos, se sugieren medidas como la divulgación obligatoria de contenido generado por IA, la implementación de sistemas de detección automática en plataformas digitales y la integración de la alfabetización en inteligencia artificial en los currículos educativos.
¿QUIÉN DIJO QUE LA IA NO PUEDE HACER POLÍTICA?









