Las conversaciones con chatbots capaces de razonar en tiempo real pueden modificar las preferencias políticas de los votantes. Esta es la conclusión de dos amplios estudios que, por primera vez, miden experimentalmente el impacto de diálogos personalizados con modelos de IA durante campañas electorales reales en Estados Unidos, Canadá, Polonia y Reino Unido. Los resultados abren un debate urgente sobre cómo esta tecnología podría integrarse —y quizá tensionar— los procesos democráticos.
La IA convence más cuando habla de política
El equipo dirigido por David G. Rand, del Instituto Tecnológico de Massachusetts (MIT) realizó varios experimentos prerregistrados con más de 6.000 ciudadanos de EE. UU., Canadá y Polonia. En todos los casos, los participantes eran conscientes de que conversarían con un chatbot. El modelo estaba programado para conversar durante unos minutos —entre tres y cinco turnos— y tratar de persuadirlos a favor de uno de los candidatos más votados de cada elección.
La instrucción dada a la inteligencia artificial era ser “positiva, respetuosa y basada en hechos”, según detalla el artículo. También debía usar “argumentos convincentes y analogías” y mostrar empatía hacia las preocupaciones previas del participante.
En el experimento principal, previo a las elecciones presidenciales de EE. UU. De 2024, 2.306 personas dialogaron con un chatbot que defendía a Kamala Harris o a Donald Trump. Tras la conversación, los participantes ajustaron su preferencia en la dirección del candidato promovido. Efectos similares se observaron en Canadá —a favor de Mark Carney o Pierre Poilievre— y en Polonia —a favor de Rafał Trzaskowski o Karol Nawrocki—, con un impacto mayor entre quienes inicialmente rechazaban al candidato recomendado.
El estudio, publicado hoy en la revista Nature, concluye que la IA logró “efectos significativos sobre la preferencia de candidato, mayores que los típicamente observados en anuncios de vídeo tradicionales”. También midió la persistencia del efecto. Más de un mes después, algo más de un tercio del impacto inicial seguía presente.
Preguntado por los mecanismos que utilizó la IA para ejercer influencia, Rand explica para Guyana Guardian que “la estrategia más común y efectiva fue formular afirmaciones y argumentos fácticos basados en evidencia, en contraposición a estrategias más orientadas a la psicología, como la influencia social”.
El equipo probó qué sucedía cuando estos argumentos no podían recurrir a hechos verificables. “En los experimentos de Canadá y Polonia pedimos a los modelos que persuadieran sin usar hechos ni evidencia, lo que redujo drásticamente su efectividad. Esto demuestra que los hechos y la evidencia fueron un factor clave en la persuasión”. Además, argumentos basados en datos —como economía o sanidad— resultaron más convincentes que aquellos centrados en rasgos como liderazgo o simpatía.
Los chatbots generan más datos inexactos al defender a candidatos de derechas
Uno de los hallazgos más sensibles del artículo es que los modelos no fueron igual de precisos cuando defendían a candidatos de distintas orientaciones. Tras un proceso de verificación independiente, los autores concluyen que las IA “hicieron más afirmaciones inexactas cuando defendían a candidatos de derechas” en los tres países examinados.
Rand matiza que el patrón coincide con estudios previos que muestran mayores tasas de desinformación en contenidos compartidos por usuarios conservadores en redes sociales. “Dado que los modelos se entrenan con el contenido de internet, quizá no sea sorprendente que reflejen esa misma asimetría”, explica.
Un segundo estudio confirma el patrón en Reino Unido
Un segundo trabajo, publicado hoy en Science y realizado también durante un proceso electoral —esta vez en Reino Unido— llega a conclusiones muy similares. En este caso, el proyecto, con algunos autores comunes, estudió cómo un chatbot influía tanto en la valoración de propuestas políticas como en la intención de voto respecto al principal candidato. Aunque la metodología varía, el comportamiento observado en los 76.977 participantes coincide con el del estudio de Nature. Cuando la IA despliega argumentos basados en hechos para defender una postura, la persuasión aumenta de forma significativa.
Pero ambos trabajos subrayan un riesgo: la eficacia crece en paralelo a la imprecisión. Cuanto más trata la IA de convencer al votante, más probabilidad hay de que recurra a afirmaciones incorrectas o incluso inventadas, un patrón que preocupa especialmente en contextos electorales. La coincidencia entre los dos estudios refuerza la idea de que no se trata de un fenómeno aislado, sino de un mecanismo general de los modelos conversacionales actuales.
Un nuevo actor electoral
Todos los experimentos de ambos estudios se obtuvieron en condiciones controladas en las que los participantes sabían que el chatbot intentaría convencerlos. Aun así, los autores consideran que estos ensayos permiten anticipar un escenario plausible. “Para mí, eso es mucha persistencia, dado que esto fue justo antes de las elecciones, por lo que las personas estaban constantemente expuestas a muchos mensajes contrarios que defendían a los candidatos durante ese período”, señala Rand haciendo referencia a los resultados obtenidos en EE. UU., Canadá y Polonia.
El impacto en elecciones reales aún no está claro, según matizan los estudios, pero el riesgo es evidente. Como resume Walter Quattrociocchi, director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza, para SMC España, estos estudios muestran que “la persuasión aumenta principalmente a través de la densidad de información, no a través de la personalización, la manipulación emocional o la focalización ideológica”, y advierten de que “La persuasión y la veracidad no crecen juntas: divergen”.
Herramientas con capacidad de influir en decisiones electorales podrían alterar la dinámica clásica de campañas basadas en anuncios estáticos y debates públicos. La persuasión ya no es patrimonio exclusivo de encuestadores, asesores y mítines, los algoritmos ya pueden entrar en la conversación.


