La IA es tan convincente como los humanos para influir en opiniones políticas
ZIP
A partir de un estudio de Stanford, se demuestra que los modelos de lenguaje pueden redactar mensajes políticos que alteran opiniones con la misma efectividad que humanos, lo que plantea preocupaciones sobre la manipulación de la opinión pública.
Un reciente estudio publicado en Nature Communications ha revelado que la inteligencia artificial (IA) puede redactar mensajes que influyen en las opiniones políticas de las personas con la misma efectividad que un argumento humano. Este hallazgo proviene de una investigación realizada por un equipo de investigadores de Stanford, quienes evaluaron si modelos de lenguaje como GPT-3 y sus variantes pueden modificar opiniones políticas de manera similar a como lo haría una persona común.
La investigación se llevó a cabo a través de tres experimentos independientes que involucraron a casi cinco mil participantes estadounidenses. En cada experimento, los participantes leyeron mensajes persuasivos y luego indicaron su grado de acuerdo con diversas políticas públicas. Los resultados mostraron que los mensajes generados por IA lograron cambios estadísticamente significativos en la opinión pública sobre temas como la prohibición de armas de asalto, impuestos al carbono, licencias parentales pagadas y el registro automático de votantes. Aunque los cambios fueron modestos, típicamente entre dos y cuatro puntos en una escala de cien, se alinearon con los cambios documentados previamente cuando la persuasión provenía de escritores humanos.
Lo que distingue esta investigación de estudios anteriores es su enfoque en la capacidad real de la IA para cambiar convicciones políticas, en lugar de simplemente evaluar si los textos generados por máquinas son percibidos de manera diferente. Los autores también notaron que los mensajes generados por IA eran considerados más lógicos y mejor informados, mientras que los humanos eran vistos como más originales y narrativos.
Este hallazgo es crucial desde una perspectiva política, ya que los modelos de lenguaje grandes están disponibles públicamente y sin restricciones significativas. Esto significa que cualquier persona, desde campañas políticas hasta actores maliciosos, puede generar mensajes persuasivos a gran escala y a bajo costo. La personalización de estos mensajes para diferentes audiencias y características demográficas podría amplificar aún más su efectividad.
Los autores advierten sobre el potencial de la IA para simular comunicaciones de ciudadanos en redes sociales o correos a legisladores, creando una ilusión de apoyo que en realidad es contenido automático. También mencionan el riesgo de desinformación política persuasiva, aunque no probaron si la IA puede convencer mediante información falsa, lo que representa una limitación ética deliberada.
Para mitigar estos riesgos, sugieren implementar medidas como la divulgación obligatoria de contenido generado por IA, sistemas de detección automática en plataformas digitales, y la integración de alfabetización en inteligencia artificial en los currículos educativos, así como establecer salvaguardas más rigurosas en los modelos disponibles públicamente.
¿QUÉ TAL SI DEJAMOS QUE LAS MÁQUINAS DECIDAN POR NOSOTROS? ¿NO ES ESO LO QUE QUEREMOS?









