Así dirige el algoritmo de X a los usuarios hacia posiciones políticas más de derechas
'Para ti'
El estudio, realizado sobre cerca de 5.000 usuarios, muestra las tendencias persisten incluso después de salir del filtro del 'Para ti' y volver al muro cronológico
Los resultados se han publicado en un momento de especial interés, en plenas negociaciones y polémica sobre la gobernanza de las plataformas digitales

Campaña contra la red social X en Berlín, Alemania
El auge del discurso ultraderechista en las redes sociales ha puesto en alerta a los usuarios, llevando a muchos de ellos a abandonar plataformas como X. Mientras algunos estudios apuntan a que el 20% de las menciones de la red social propiedad de Elon Musk son bulos e información manipulada —siendo el tema sobre el que más se miente, manipula, engaña y exagera la inmigración y los principales manipuladores y mentirosos se sitúan en la extrema derecha—, otros recuerdan que no solo con bulos y desinformaciones se manipula la opinión política.
Un estudio, publicado en la revista Nature bajo el título The political effects of X’s feed algorithm (Los efectos políticos del algoritmo del Para ti en X), advierte que, cuando se activa el algoritmo del Para ti, el orden y la priorización del contenido que ofrece la plataforma del magnate multimillonario es una forma de manipular a los usuarios llevándolos hacia opiniones políticas más conservadoras.
Esta tendencia, apunta el estudio realizado con cerca de 5.000 clientes de la red social, no acaba en esa pestaña, sino que persiste incluso después de salir del filtro y volver al muro cronológico, en el que, a priori, no debería priorizarse el contenido más allá del momento de publicación.
La investigación, realizada por un equipo internacional de científicos de Italia, Suiza y Francia, destaca que para muchas personas las redes sociales se han convertido en la principal fuente de información, y eso ha generado preocupación por la desinformación, la polarización y la influencia de los algoritmos (que filtran, seleccionan y ordenan el contenido en muros personalizados para fidelizar a los clientes).
Algunos experimentos previos a gran escala —incluida una colaboración con Meta— encontraron poca evidencia de que desactivar el algoritmo que filtra la información y volver a un muro cronológico alterase las actitudes políticas de los usuarios. Pero esos estudios no pudieron determinar si la exposición temprana al algoritmo ya había moldeado dichas opiniones, apuntan los autores.
Para aclararlo, llevaron a cabo un experimento independiente con 4.965 usuarios de X en los Estados Unidos durante el verano de 2003, seis meses después de que el empresario sudafricano Elon Musk comprara la empresa que entonces se llamaba Twitter y un año antes de apoyar públicamente al candidato republicano, hoy presidente de los Estados Unidos, Donald Trump.
Los participantes del estudio fueron distribuidos de manera aleatoria entre un feed algorítmico (un filtro de noticias) y el muro cronológico (la versión normal) durante siete semanas.
Además, encuestaron a los participantes antes y después del experimento y revisaron el contenido del muro y el comportamiento de los usuarios en la red con una extensión de navegador que les permitía monitorizar el contenido del muro y las interacciones en línea.
Los resultados revelaron que los usuarios asignados al muro algorítmico interactuaron más con la plataforma, adoptaron opiniones políticas más cercanas a la derecha y tendían más a seguir a los activistas políticos conservadores.
Resultados
Los algoritmos de las redes sociales “moldean de manera significativa las actitudes políticas”
Por el contrario, cuando se pasaba a los usuarios del muro algorítmico al cronológico, sus opiniones o su comportamiento apenas tenían efecto.
Además, el análisis del contenido reveló que el algoritmo mostraba más publicaciones conservadoras y activistas, y restaba visibilidad a los medios de noticias tradicionales, apunta el estudio.
Para los autores estos resultados demuestran que los algoritmos de las redes sociales “moldean de manera significativa las actitudes políticas” y que este efecto perdura incluso después de eliminar la elección algorítmica.
Además, los algoritmos influyen no solo en lo que los usuarios ven, sino también en el entorno político digital en el que habitan, advierten.
Como limitaciones del estudio los autores destacan, en primer lugar, el hecho de que los resultados deben circunscribirse a la red X y, en segundo lugar, que el período de tiempo en el que se realizó el experimento no permite determinar cuáles son los efectos a largo plazo.
La opinión de los expertos
“Quienes se alinean con posiciones conservadoras o independientes, evolucionaron hacia posiciones todavía más conservadoras”
Para el catedrático de Periodismo en la Universidad de Navarra y coordinador de Iberifier (Iberian Digital Media Observatory), Ramón Salaverría, el estudio es muy riguroso tanto por su tamaño como por los procedimientos de recogida y análisis de datos. Además, se ha hecho sin la colaboración de X, lo que refuerza la independencia de los resultados, apunta en la plataforma de contenidos científicos SMC España.
El estudio, que analiza los efectos de X en el posicionamiento político de sus usuarios, ha comprobado que, usado de manera recurrente, el modo Para ti, la selección algorítmica, propicia en los usuarios de X un desplazamiento hacia posiciones políticas más conservadoras.
Pero el efecto no incide de igual manera en todas las personas. “Quienes se autodefinieron como progresistas (‘liberales’, según la terminología del estudio) sufrieron un efecto relativamente limitado de desplazamiento hacia posiciones conservadoras; en cambio, quienes afirmaron alinearse con posiciones conservadoras o independientes, evolucionaron hacia posiciones todavía más conservadoras”, apunta el catedrático.
Para la investigadora del Instituto TRANSOC de la facultad de Ciencias Políticas y Sociología de la Universidad Complutense de Madrid, Celia Díaz, el trabajo “es una advertencia rigurosa sobre la plasticidad de las actitudes políticas frente a la arquitectura y diseño de las plataformas digitales” y la demostración de “cómo el algoritmo altera la estructura de la red social del individuo, además de su flujo de información”.
Momento crítico
El estudio resulta de especial interés ahora, en plenas negociaciones y polémica sobre la gobernanza de las plataformas digitales
Y a diferencia de otros estudios de Meta que solo analizaban el apagado del algoritmo, este mide tanto el efecto que produce activarlo —cambiando del modo cronológico de X al algorítmico— como al desactivarlo. “En este trabajo han podido capturar la persistencia del efecto generado por el modo algorítmico”.
Para Díaz, el estudio resulta de especial interés ahora, en plenas negociaciones y polémica sobre la gobernanza de las plataformas digitales y las redes sociales porque “demuestra que la mediación algorítmica, lejos de ser neutral, favorece narrativas específicas y altera la dieta informativa de los ciudadanos”.
También para Belén Laspra, profesora ayudante doctora en el departamento de Filosofía de la Universidad de Oviedo, esta investigación es “una de las evidencias experimentales más sólidas hasta la fecha sobre la relación entre algoritmos de recomendación y actitudes políticas en redes sociales”.
Y en el contexto actual, “marcado por debates intensos sobre desinformación, polarización y gobernanza algorítmica, este tipo de trabajos resulta particularmente necesario”, subraya.





