La IA es tan convincente como los humanos para influir en opiniones políticas
ZIP
Un estudio de Stanford revela que la inteligencia artificial puede redactar mensajes persuasivos que alteran las opiniones políticas de las personas, logrando cambios significativos en la percepción pública sobre diversas políticas, comparable a los argumentos humanos.
La investigación publicada en Nature Communications destaca que los modelos de lenguaje grandes, como GPT-3, son capaces de generar mensajes políticos que influyen en la forma en que las personas piensan sobre cuestiones de política pública. Este estudio, realizado por investigadores de Stanford, involucró a casi cinco mil participantes estadounidenses en tres experimentos independientes, donde se evaluó la efectividad de los mensajes generados por inteligencia artificial en comparación con los argumentos humanos.
Los resultados mostraron que los mensajes automáticos lograron cambios estadísticamente significativos en la opinión pública sobre temas como la prohibición de armas de asalto, impuestos al carbono, licencias parentales pagadas y el registro automático de votantes. Aunque los cambios fueron modestos, entre dos y cuatro puntos en una escala de cien, se alinearon con los efectos documentados en estudios previos sobre la persuasión humana.
Una de las principales diferencias de este estudio es que no solo se evaluó la percepción de los textos generados por máquinas, sino su capacidad real para cambiar convicciones políticas. Los participantes consideraron que los mensajes de IA eran más lógicos y mejor informados, mientras que los textos humanos se percibieron como más originales y narrativos. Esto sugiere que la forma en que se construyen los argumentos puede influir en su efectividad persuasiva.
El acceso público a estos modelos de lenguaje plantea preocupaciones sobre su uso en campañas políticas y la posibilidad de manipulación de la opinión pública. Los autores del estudio advierten que la IA podría ser utilizada para simular comunicaciones de ciudadanos en redes sociales o correos a legisladores, creando una ilusión de apoyo que en realidad es contenido automático.
Además, sugieren la necesidad de medidas como la divulgación obligatoria de contenido generado por IA y la implementación de sistemas de detección automática en plataformas digitales. La educación en alfabetización de inteligencia artificial también se propone como una forma de mitigar los riesgos asociados con el uso de estas tecnologías en el ámbito político.
¿QUIÉN DIJO QUE LA IA NO PUEDE SER UN POLÍTICO MÁS EFECTIVO QUE ALGUNOS HUMANOIDES?









