Solo hace falta entrar en cualquier red social, pero sobre todo en TikTok, para ver que los vídeos generados con inteligencia artificial ocupan gran parte del contenido. Un estudio reciente del Interactive Advertising Bureau Spain (IAB) sobre estas plataformas evidencia que este tipo de contenidos es el más visto, especialmente entre los jóvenes.
Este fenómeno se conoce como “AI Slop” o “contenido basura”, y se refiere a imágenes o vídeos llamativos, repetitivos, incoherentes, producidos y compartidos de forma masiva. Bebés enredados entre espaguetis o gatos jugando a realizar tareas domésticas son algunos ejemplos. Javier Cantón, doctor en Ciencias Sociales y máster en Inteligencia Artificial por la UNIR, lo describe en Verificat como una “merdificación”. “Se trata de inundar las redes con este contenido masivo, creando una forma de censura hacia otros contenidos de más valor; una cámara de eco”, explica.
La mayoría de estos vídeos están generados con Sora 2, una herramienta de IA generativa que permite crear vídeos y audios hiperrealistas y compartirlos en un feed similar al de TikTok. Con esta aplicación, los usuarios pueden generar de forma fácil y rápida vídeos con IA sin apenas valor informativo.
Sora 1 surgió de la mano de OpenAI para crear vídeos. Más tarde, se desarrolló Sora 2, la aplicación que ha mejorado la calidad de estos vídeos y que, además, permite compartirlos con tus seguidores y seguidoras en el mismo portal. En el momento de la publicación de este artículo, esta segunda versión solo está disponible en países como Estados Unidos y Canadá. En cualquier caso, informes recientes evidencian su popularidad: menos de cinco días después de su lanzamiento, Sora ya se había descargado más de un millón de veces, superando el éxito de ChatGPT durante su estreno.
(*) El pasado jueves, Meta anunció el lanzamiento de Vibes, la nueva incorporación a la aplicación de Meta AI, que permitirá las mismas funciones que Sora: la creación de vídeos con inteligencia artificial que puedan compartirse entre personas en un “feed”.
Contenidos masivos generados con IA para promover discursos de odio
En este ecosistema del “contenido basura” generado con inteligencia artificial, no todo son vídeos inofensivos de bebés o animales. Cada vez más, se infiltra material que difunde discursos de odio contra colectivos como las personas migrantes o las mujeres. En cuanto al primero, de hecho, el Informe de monitorización del discurso de odio en redes sociales 2024, elaborado por el Ministerio de Inclusión, Seguridad Social y Migraciones, señala que en las redes sociales predominan los mensajes hostiles dirigidos a personas del norte de África (35%), seguidas de las personas afrodescendientes (24%), personas migrantes (21%) y personas musulmanas (20%).
Los patrones de los vídeos se repiten. Uno de los ejemplos más extendidos muestra a jóvenes migrantes vestidos con chándales del PSG llegando a España, donde un grupo de ciudadanos los recibe con dinero. En otros, se les ve dirigiéndose a una oficina de la administración pública, donde se les pregunta si cumplen los “requisitos para el empadronamiento”. En esos casos, el joven responde que ha sido detenido varias veces, que ha ocupado pisos y que se desplaza en patinete eléctrico. La narrativa sobre el empadronamiento de personas recién llegadas no es nueva, tal como ya han desmentido en numerosas ocasiones miembros de la International Fact-Checking Network (IFCN), como Verificat (aquí, aquí, aquí y aquí).
La exposición a imágenes generadas con inteligencia artificial puede transformar nuestra percepción y validar relatos y prejuicios ya existentes.
Además, coincidiendo con el 50.º aniversario de la muerte de Franco, también se han difundido vídeos en los que se ven dos personas peleando en un combate de boxeo: una lleva la cara de Franco y la otra representa a un joven migrante, también vestido con un chándal del PSG.
Coincidiendo con el 50.º aniversario de la muerte de Franco, hay vídeos en los que aparece el dictador, con en el que se ven dos boxeadores: uno lleva su cara y el otro representa un migrante
En cuanto a los contenidos que promueven discursos misóginos, uno de los ejemplos más repetidos son los vídeos que muestran las supuestas “Olimpiadas de mujeres”, en los que se ve a participantes de diferentes nacionalidades, vestidas con equipación deportiva, competir para ver quién realiza mejor las tareas domésticas. Algunos de estos contenidos acumulan más de 100.000 “me gusta”.
Imágenes que promueven discursos misóginos como en las supuestas “Olimpiadas de mujeres” acumulan en algunos casos más de 100.000 “me gusta”
Un estudio de Media Matters for America, organización periodística sin ánimo de lucro, alerta de que las redes sociales están saturadas de discursos de odio y de que, con frecuencia, los algoritmos favorecen su difusión, premiando los vídeos más polémicos y virales.
De las emociones al “efecto repetición”: cómo la IA consolida falsas narrativas
Silvia Martínez, profesora e investigadora de los Estudios de Ciencias de la Información y la Comunicación en la Universidad de Barcelona (UB), advierte en Verificat que este “contenido basura” tiene dos vertientes igualmente peligrosas. “Por un lado, están las personas que aún no reconocen que estos vídeos han sido generados artificialmente; por otro, aquellas que sí lo saben, pero a las que les sirven para reforzar las ideas previas que ya tienen en su imaginario”, explica.
En este sentido, el profesor e investigador de la UNIR, Javier Cantón, coincide en que el uso de estas imágenes sirve para “confirmar narrativas, independientemente de su veracidad”. “Si durante la DANA estas imágenes generadas con IA hubiesen estado al orden del día, podrían haberse creado fotografías de los cadáveres del aparcamiento de Bonaire y mucha gente las habría dado por buenas, porque encajan con el relato que quieren creer”. De hecho, los mensajes sobre las personas supuestamente atrapadas en el aparcamiento del centro comercial de Aldaia fueron una de las desinformaciones más difundidas en los días posteriores a la DANA, desmentidas por Verificat.
Esta es, precisamente, una de las estrategias más sutiles del “AI Slop”: jugar con los mecanismos psicológicos que hacen que las personas acaben creyendo o validando información falsa, incluso siendo conscientes de que es artificial. Una investigación de la UOC lo detalla: las imágenes mentales no son estáticas y, dado que tienen valor cognitivo, son manipulables.
Uno de estos mecanismos es el llamado “efecto de repetición”. La investigadora de la UB, Silvia Martínez, lo describe como la reiteración de un mensaje que “acaba generando la sensación de que algo es cierto, aunque no lo sea”. De hecho, un informe de la Universidad de Tel Aviv (TAU) lo confirma: en el contexto de la inteligencia artificial, una imagen vista muchas veces acaba convirtiéndose en realidad.
Así, la inteligencia artificial no solo puede fabricar pruebas visuales falsas, sino también reforzar emociones, creencias y discursos preexistentes, contribuyendo a que la desinformación y el odio circulen con apariencia de verdad y cotidianidad.
Manuel Armayones, miembro de la Junta del Colegio Oficial de Psicología de Catalunya y catedrático en Diseño del Comportamiento por la UOC, destaca en Verificat que “estos vídeos están diseñados para generar emociones, anulando la capacidad de razonar”. “Es a partir de esas emociones desde donde estos contenidos aprovechan los sesgos de las personas, como el miedo a la diferencia, para introducir esas ideas”, añade.
Actitud crítica ante la manipulación
Ante las emociones que generan estos contenidos en las redes, las personas expertas recomiendan mantener una actitud crítica para frenar la desinformación. Armayones apela a un “sistema público cognitivo”, en el que, además de una “vigilancia epidemiológica de verificación (fact-checking)”, sea necesaria una “prevención basada en la alfabetización mediática”.
En este sentido, promover espacios de aprendizaje digital crítico en las escuelas es un paso esencial para combatir la normalización de la desinformación generada con IA. Solo con una ciudadanía informada y con capacidad de análisis se podrá reducir el impacto de los discursos de odio y de las falsas narrativas que, cada vez más, circulan con apariencia de verdad.
Para profundizar en cómo las imágenes y los contenidos digitales pueden reforzar estereotipos o alimentar discursos de odio, en Desfake puedes explorar cápsulas como “De los prejuicios al odio” o “El poder de la imagen”, que te ayudarán a entender cómo la desinformación visual influye en nuestras emociones y percepciones. Estas propuestas formativas ofrecen herramientas para mirar con más conciencia lo que consumimos en línea y para construir una conversación digital más informada, crítica y libre de manipulaciones.

