Internet, tal y como lo conocíamos, ha desaparecido por completo. O, al menos, eso es lo que piensan miles de usuarios y también un buen puñado de expertos. El internet muerto ha llegado por fin... pero ¿qué significa este concepto?
La “Teoría del Internet Muerto” defiende que, desde alrededor del año 2016, las plataformas online han ido desplazando progresivamente los mensajes, imágenes y opiniones creadas por humanos y favoreciendo el contenido creado por máquinas. En origen, era apenas una teoría conspiranoica creada y apoyada por algunos usuarios. Sin embargo, se ha convertido en una manera tristemente realista de describir el rápido declive de Internet como plataforma basada, fundamentalmente, en la interacción humana.
La popularización y democratización de los modelos de Inteligencia Artificial basados en LLMs, como el popularcísimo ChatGPT de OpenAI, Gemini, la IA de Google, o Apple Intelligence, han acelerado todavía más este proceso. Los expertos del Instituto de Estudios Futuros de Copenhague ya estiman que, para el año 2030, el 99% contenido de Internet estará creado por Inteligencia Artificial.
Y lo cierto es que las cifras lo respaldan. La empresa de seguridad NewsGuard mantiene un seguimiento constante sobre la cantidad de sitios de noticias online que están operados y nutridos únicamente por contenido creado a través del uso de Inteligencia Artificial.
Las consecuencias son claras: “afirmaciones falsas sobre líderes políticos, muerte de celebridades, eventos inventados, y planteamientos de eventos pasados como si acabasen de suceder”
A fecha de mayo de este año, ya han identificado más de 1.271. La mayoría de estos sitios web buscan hacerse pasar por periódicos locales o medios especializados operados por humanos, pero sus artículos, creados sin supervisión humana, frecuentemente muestran “afirmaciones falsas sobre líderes políticos, muerte de celebridades, eventos inventados, y planteamientos de eventos pasados como si acabasen de suceder”.
La desinformación es una de las principales consecuencias de este auge de la IA y de la ausencia del filtrado y la autoría humana en la red, pero no es la única. También se generan percepciones inexactas sobre los gustos, opiniones e incluso inclinaciones políticas de la mayoría.
La teoría del Internet muerto comienza a hacerse real.
Según el Informe Bad Bot, un estudio anual realizado por la empresa de ciberseguridad Imperva, a fecha de 2025 ya hay más de un 51% de usuarios de Internet que son bots. Es la primera vez desde que se realiza el informe que el porcentaje de robots y cuentas automatizadas alcanza una cifra tan alta que, en esencia, quiere decir que solo el 49% de los mensajes, posts e interacciones que vemos en la red proceden de personas reales.
A la luz de este dato, es difícil no replantearnos la mayoría de los vídeos, artículos y comentarios que consumimos cada día. ¿Son reales todos esos comentarios, bajo un vídeo sobre una crema hidratante, que nos explican lo bien que les ha funcionado? ¿Y las reseñas del producto que hemos comprado porque tenía buenas opiniones? ¿Podemos confiar de los mensajes en X o Instagram que nos recomiendan ver una película? ¿Significa algo que un vídeo tenga decenas de miles de reproducciones, o que una canción tenga millones de streams?
En esta ecuación… ¿Dónde están los humanos?
Otra consecuencia inevitable de la proliferación de la IA y los bots en Internet es que, tarde o temprano, estas máquinas acaban interactuando consigo mismas, retroalimentándose y generando conversaciones o situaciones absurdas.
La influencer y divulgadora Ophelia Pastrana ejemplifica la situación en una escena bastante corriente que probablemente haya sucedido en más de un instituto o universidad: nos plantea la historia de un profesor que le pregunta a ChatGPT sobre qué tarea debería asignarle a sus alumnos. Después, sus alumnos resuelven esa tarea utilizando ChatGPT… Y el profesor termina corrigiéndolas usando, a su vez, la Inteligencia Artificial. Máquinas hablando con máquinas. “En esta ecuación… ¿Dónde están los humanos?”
Una situación bastante similar podemos encontrarnos, por ejemplo, en los comentarios y publicaciones de redes sociales como Facebook. Cada vez son más frecuentes los posts de “AI slop” —un término despectivo utilizado para referirse a contenido de baja calidad creado por IA— con cientos o miles de interacciones y comentarios incongruentes, destinados a crear una falsa sensación de conversación y comunidad y a obtener ingresos a través de clics y publicidad.
El filtrado algorítmico que las mayoría de las redes sociales utilizan para ordenar y mostrarnos sus mensajes o vídeos suele confiar, al menos en parte, en algún tipo de sistema impulsado por IA que sirve para determinar el contenido y el posible alcance de los distintos contenidos. De manera similar, estos bots escanean las plataformas para interactuar con aquellos posts que considerasen interesantes o relevantes.
El aumento de este tipo de interacciones falsas y de este contenido de baja calidad no ha pasado desapercibido
Aunque, en ocasiones, las cuentas que publican estas imágenes sí están administradas por una persona humana, la intención de estas no es informativa, ni de entretenimiento: simplemente buscan atraer la mayor cantidad de clics posible (de humanos o de máquinas).
En una entrevista con la revista New York, un creador de contenido “AI Slop” procedente de Kenia, administrador de más de 170 páginas de Facebook, confesaba pedirle a ChatGPT las imágenes más atractivas posibles. “Genérame 10 imágenes de Jesús que vayan a conseguir muchas interacciones en Facebook”. Una vez las tiene, las postea en sus páginas sin ningún tipo de filtro.
El aumento de este tipo de interacciones falsas y de este contenido de baja calidad no ha pasado desapercibido, ni siquiera por parte de las empresas que, de hecho, han generado el problema.
Internet muerto.
El año pasado, Google manifestaba que había habido un aumento notable en la cantidad de contenido poco fiable generado por IA que aparecía en las búsquedas, y se comprometía a tratar de reducirlo. Y, hace unos días, Sam Altman, fundador de OpenAI y creador de ChatGPT, confesaba que estaba empezando a estar de parte de quienes denunciaban el progresivo deterioro de la web: “Nunca me he tomado la Teoría del Internet Muerto en serio, pero ahora mismo parece que hay muchísimas cuentas llevadas por LLMs”.
Más allá de la inconveniencia o el posible engaño al que pueden llevar estos mensajes generados por bots, lo cierto es que el problema se extiende todavía más allá: conforme el contenido creado por Inteligencia Artificial aumenta exponencialmente, las páginas webs creadas antes del boom de estos modelos va quedando, cada vez más, sepultada bajo estas toneladas de contenido falso.
Según un estudio realizado el año pasado, la mayoría de enlaces de Internet tienen una vida media de alrededor de dos años, después de lo cual quedan inutilizables. Este estudio analizaba 27 millones de páginas web archivadas entre los años 1996 y 2021, y concluía que, a día de hoy, el 64’7% habían desaparecido por completo.
El Pew Research Center confirmó recientemente que, a fecha de 2014, ya no quedaba nada de alrededor del 38% de las páginas web creadas en el año 2013. Y, si la tendencia continúa, es posible que pronto no quede absolutamente nada del Internet que conocemos.



