Ya está muy dicho, pero no parece que esté aprendido. Padres, madres, abuelos, tíos, siguen colgando fotos de sus bebés, de sus niños, de sus preadolescentes y adolescentes en las redes sociales. Claro que son preciosos y guapos, para ustedes y para sus amigos. Pero también lo son para los depredadores sexuales infantiles, esos que sueñan con cuerpos imberbes, y para quienes buscan sacar réditos económicos de ello. A veces, depredador y explotador son la misma persona. A esto contribuye, además, la inteligencia artificial, que se alimenta de todo lo que hay en la red para convertir lo irreal en real, difuminando la línea.
Así lo afirma Save the Children en el informe Redes que atrapan. La explotación sexual de la infancia y la adolescencia en entornos digitales, realizado en colaboración con la Asociación Europea para la Transición Digital y que analiza las formas de explotación sexual que afectan a la infancia y la adolescencia en la red.
Este trabajo, que incluye una encuesta a más de 1.000 jóvenes de entre 18 y 21 años sobre sus percepciones y conductas online durante la adolescencia, revela que la práctica totalidad de los chicos y chicas encuestados (el 97%) afirmó haber sufrido algún tipo de violencia sexual en entornos digitales cuando eran menores de edad. Y el 20% afirma haber sido víctima de 'deepfakes' en su infancia, es decir, utilizar la Inteligencia Artificial para mostrar sus cuerpos desnudos y difundir sus imágenes sin su consentimiento.
El informe estudia cómo internet, las redes sociales y las tecnologías no sólo facilitan la captación y la exposición a los riesgos relacionados con la explotación sexual, sino que también pueden ser el medio en el que se cometen estas violencias contra los pequeños y permiten su perpetuación.
El 70% de los jóvenes no señala como un riesgo percibido la manipulación de fotos o vídeos mediante IA
Save the Children señala entre los principales tipos de violencia sexual digital el contacto por parte de personas adultas con fines sexuales (grooming); el sexting sin consentimiento o la difusión no autorizada de contenido íntimo; mientras que por otra parte distingue las formas de abuso y explotación sexual online, incluyendo el consumo, producción y la difusión de material de abuso sexual infantil (pornografía infantil); la sextorsión, en la que los niños son coaccionados, chantajeados o amenazados para enviar material íntimo o sexual y el uso de herramientas de IA para crear este tipo de contenido y la exposición involuntaria a contenidos sexuales.
“Se trata de un fenómeno complejo ya que las distintas formas de violencia o explotación que se analizan no constituyen fenómenos aislados: en muchos casos, están conectadas entre sí, forman parte de un mismo proceso o se dan al mismo tiempo, por lo que un niño o una niña puede ser víctima de varias de ellas a la vez”, señala Catalina Perazzo, directora de Influencia y Desarrollo Territorial de Save the Children.
En 2024, la NCMEC (organización mundial líder en la prevención y localización de niños y niñas víctimas de explotación sexual digital) registró más de 19,8 millones de denuncias relacionadas con material de abuso sexual infantil a nivel mundial, es decir, material que representa abuso o explotación sexual de niños, niñas y adolescentes.
El 35% de los agresores sexuales infantiles en la red forman parte del entorno de los niños
Estos materiales pueden también estar creados mediante herramientas digitales a partir de imágenes reales de niñas y niños: son los llamados deepfakes o ultrafalsificaciones. Aunque constituyen por sí solos una forma de violencia, debido al daño que suponen para la dignidad, el bienestar y la seguridad de la infancia afectada, cerca del 70% de los jóvenes no señala como un riesgo percibido la manipulación de fotos o vídeos mediante IA. “Ese es el gran problema”, indican desde esta organización.
¿Quiénes son los agresores? Save the Children señala que, aunque no existe un perfil único, sí se pueden encontrar patrones comunes: la mayoría son hombres (el 93,4% de los detenidos e investigados por delitos de grooming en 2023 en España, según datos del Ministerio del Interior); la franja de edad más común fue de 18 a 25 años (con una media de 28 años); pueden actuar solo en el entorno digital (análisis oficiales indican que solo el 34% busca encuentros presenciales); no ocultan su identidad, lo que puede generar una falsa sensación de confianza; y no siempre son personas desconocidas (el 35% de los casos pertenece al entorno cercano del niño, niña o adolescente).