La IA basura inunda las redes sociales: se la conoce como 'AI slop', los usuarios se empiezan a cansar y ya aparecen iniciativas para evitarla
'AI Slop'
Internet se enfrenta a una oleada de 'AI Slop' que para muchos resulta indistinguible de la realidad, ese contenido generado con IA, poco fiable, con imágenes y vídeos falsos pero realistas, así como artículos y blogs
He cancelado mi suscripción a Spotify para comprarme un reproductor MP3, y ha cambiado mi relación con la música

El 'AI slop' evita que se posicionen los contenidos de creadores genuinos.

Desde hace escasos años, casi sin darnos cuenta, la IA se ha integrado en múltiples aspectos de nuestras vidas. Buscar en la red, preparar una entrevista de empleo, clasificar archivos, escuchar música o incluso velar por nuestros seres queridos. Muchas de estas herramientas resultan útiles y, si eres lector habitual de Neo, nada de esto sorprenderá. Sin embargo, la IA también se infiltra en espacios que quizá no queríamos ver transformados por la tecnología, a menudo como una imposición invisible.
“¿Por qué la nube de mi universidad pertenece a Microsoft y mis datos están entrenando la IA en vez de estar, como antes, en los servidores y los sótanos de mi propia universidad? ¿Por qué la administración pública está contratando a estas empresas?”, planteaba Aurora, activista de Tu Nube Seca Mi Río, hace apenas unos meses.
Más allá de la integración de esta nueva tecnología en herramientas que usamos habitualmente, Internet se enfrenta a una oleada de AI Slop que para muchos resulta indistinguible de la realidad. El AI Slop es ese contenido generado por IA poco fiable con imágenes y vídeos falsos pero realistas, así como artículos y blogs. La consecuencia es que los motores de búsqueda empiezan a priorizar ese contenido generado y la confianza en los medios digitales empieza a caer.
Javier Cantón, doctor en Ciencias Sociales y máster en Inteligencia Artificial por la UNIR, lo describía como una “merdificación”: “Se trata de inundar las redes con este contenido masivo, creando una forma de censura hacia otros contenidos de más valor; una cámara de eco”.

Esta preocupación no es solo una percepción. Un estudio de la empresa de optimización de motores de búsqueda Graphite, basado en el uso del detector de textos generados por IA Surfer, apunta a una proliferación acelerada de contenido sintético en la red. Según el informe, sobre una muestra de 65.000 textos en inglés, el porcentaje de artículos creados por IA pasó de alrededor del 10% tras la irrupción de ChatGPT a más del 40% en 2024, situándose actualmente cerca del 50%. Los propios autores advierten de una limitación importante, y es que los detectores de IA no son completamente fiables.
Aun así, más allá de la precisión exacta de las cifras, el dato revela un problema estructural creciente. Internet se está viendo inundado por una avalancha de contenido generado automáticamente.
Esta transformación no solo afecta a la calidad de la información, sino también a su sostenibilidad. La priorización de resúmenes automáticos y contenidos generados por IA reduce el tráfico hacia los medios y creadores originales, debilitando los modelos que sostienen la producción cultural en la red.
La priorización de resúmenes automáticos y contenidos generados por IA reduce el tráfico hacia los medios y creadores originales
Por ello, algunos empiezan a preguntarse si hay alguna manera de recuperar la soberanía digital. ¿Cómo podemos navegar en internet sin toparnos con mares de contenido generado por IA? Están empezando a surgir herramientas para priorizar lo humano frente a la IA. Propuestas como Slop Evader son la respuesta. Creada por Tega Brain, ingeniera ambiental y artista, se trata de una extensión para Chrome y Firefox que permite buscar en la red solo en contenido anterior a 2022. El año es clave, puesto que en noviembre de ese mismo año se lanzó de manera gratuita el acceso a ChatGPT.
El propósito de esta herramienta es recordar cómo era la web antes de que el contenido generado por IA inundara todo, y parte de una premisa sencilla en la que, aparentemente, el modo más simple de rechazar este contenido es limitar la búsqueda a fechas anteriores a su explosión masiva.

Además de iniciativas como Slop Evader, otras plataformas y herramientas están dando pasos para devolver al usuario control sobre el contenido que consume. TikTok está probando un deslizador que permite reducir la cantidad de vídeos generados por IA en el feed “Para ti”, junto con marcas de agua invisibles y sistemas de etiquetado para identificar contenido sintético.
Cada vez hay más recursos y opciones para evitar la IA
En el ámbito de la búsqueda web, motores como DuckDuckGo permiten ocultar imágenes generadas por IA y desactivar paneles basados en IA, dando al usuario la opción de una experiencia más humana.
También la red social Pinterest ha implementado una función para limitar la aparición de imágenes generadas por IA en el feed. A través de la sección “Intereses de IA generativa” dentro de la configuración, los usuarios pueden desactivar estas recomendaciones, aunque no se eliminan por completo.

La medida ha sido celebrada especialmente por artistas e ilustradores, pues permite un mayor control sobre el contenido visible. Sin embargo, aunque desactivemos todo esto, los datos de los usuarios siguen siendo usados para entrenar modelos de IA, por lo que la plataforma se distancia en la experiencia diaria del usuario, pero no en la manera en la que la plataforma usa la IA como herramienta interna. Afortunadamente, esto también se puede desactivar.

Expertos como Reid Hoffman, cofundador de LinkedIn, advierten sobre los riesgos de una IA sin regulaciones éticas, defendiendo la necesidad de supervisión, transparencia y formación para que la innovación no comprometa la confianza digital ni la estabilidad laboral. “La IA será la tecnología más transformadora que la humanidad haya inventado, pero sin barandillas éticas podría destruirnos”, declaró. Estas iniciativas muestran que, aunque la IA transforma radicalmente nuestra experiencia en línea, existen formas de moderarla y garantizar que la web siga siendo un espacio centrado en lo humano.
La IA será la tecnología más transformadora que la humanidad haya inventado, pero sin barandillas éticas podría destruirnos
Además, distintos estudios señalan que humanizar la IA y la red no es tarea sencilla. Como advierte el Pew Research Center, una organización estadounidense no partidista y reconocida por sus estudios sobre opinión pública y tecnología, “sería bastante difícil, algunos dirían imposible, diseñar sistemas de IA éticos que se adopten de forma generalizada como norma en la próxima década”, dado que no existe un consenso claro sobre qué significa “ética” en distintos contextos culturales.
Esto refuerza la idea de que volver Internet más humano no significa eliminar la IA, sino crear herramientas y marcos que permitan a las personas decidir qué consumen y cómo interactúan con la tecnología. La cuestión ya no es si la IA formará parte de Internet, sino bajo qué condiciones. Frente a una red con cada vez más IAs, surgen nuevas herramientas que no buscan volver al pasado, sino preservar la capacidad de decidir qué consumimos y qué valoramos como humano.


