Instagram sigue siendo un lugar peligroso para los niños y adolescentes. Pese a las promesas de protección de la red social, su algoritmo sigue conduciéndolos a contenido que promueve trastornos alimentarios, suicidio, autolesiones o consumo de drogas, incentiva que cuelguen vídeos y fotografías con carga sexual, y les deja indefensos ante el acoso.
Así lo concluye un informe, impulsado por activistas por la seguridad infantil en internet, que denuncia las “promesas rotas” de Meta. Una a una han examinado la eficacia de las herramientas que la plataforma ha lanzado en los últimos años para hacer frente a las críticas. De las 47 funciones analizadas, solo ocho son plenamente efectivas; el resto son “sustancialmente ineficaces”, fáciles de sortear o han sido retiradas sin aviso.
Los investigadores crearon cuentas que simulaban a adolescentes, progenitores y adultos malintencionados. Los resultados fueron preocupantes: los algoritmos recomendaron contenidos relacionados con conductas dañinas; las funciones de bloqueo de palabras ofensivas no filtraron insultos ni mensajes de acoso; herramientas presentadas como innovaciones, como los recordatorios para limitar el tiempo de uso, se demostraron muy limitadas.
Es aún peor cuando se usa el español, subraya Arturo Béjar, un ex ingeniero de Meta que dejó la empresa por discrepancias éticas y que ha participado en el análisis. “En las pruebas que hice, lo poco que funcionaba un poquito en inglés, en español no funcionaba del todo. Busqué ‘pastillas’ con una cuenta de adolescente y me sugirió cuentas que recomiendan pastillas para perder peso o para dormir. Escribí ‘quiero m’ y entre las recomendaciones de Instagram salió ‘quiero matarme’ o ‘quiero matar’. Las protecciones que Meta promete, que le promete a la UE, en ninguna de mis experimentos estaban apropiadamente adaptadas al español”, dice Béjar, en conversación telefónica.
Los investigadores han examinado 47 supuestas barreras anunciadas por Meta: solo ocho son efectivas
Meta –propietario también de Facebook, WhatsApp, Messenger o Threads– introdujo las cuentas para adolescentes en Instagram hace un año y ahora las ha extendido a Facebook y WhatsApp. “Queremos que los padres estén tranquilos”, ha dicho la empresa.
El informe acusa a Meta de dar una “falsa sensación de seguridad” con mecanismos diseñados sólo para lavar su imagen. La empresa rechaza las conclusiones del estudio y sostiene que sus cuentas para adolescentes son “las más avanzadas del sector”. Meta sostiene que los jóvenes que usan estas configuraciones ven menos contenido sensible, reciben menos contactos no deseados y pasan menos tiempo conectados por la noche.
“Nuestros hallazgos son objetivos y claros, han sido verificados por investigadores de la Universidad Northeastern”, dice Béjar, que ya testificó contra Meta en el Senado de EE.UU. “Las recomendaciones que hacemos son concretas y sensatas. Todo son medidas que, por mi experiencia trabajando en Meta, sé que podrían aplicar perfectamente, y en poco tiempo, si fuera una prioridad”.
El algoritmo conduce a los menores a contenido de anorexia y suicidio, e incentiva los vídeos sexualizantes
El informe recoge numerosos ejemplos de cómo el propio sistema de Meta es el que se salta sus protecciones. Como la etiqueta “gymnastics”, utilizada por pedófilos para acceder a contenido de niños. En junio, Meta anunció que lo había corregido. Lo que descubrieron los investigadores es que, efectivamente, la etiqueta ya no lleva a cuentas infantiles, pero el propio Instagram recomienda ahora la etiqueta “Gymnastics girls young”, que sí conduce a ese tipo de contenido.
El informe también describe cómo el algoritmo incentiva que los menores cuelguen contenido con carga sexual. “Hemos recogido multitud de vídeos de niños. De seis, siete, ocho años. Si hacen un vídeo y se levantan un poquito la camisa, esos vídeos Instagram los distribuye más que sus otros vídeos. Enseñan a los niños a exponerse para que adultos dejen comentarios sexuales”, razona Béjar. “Instagram podría cambiar su funcionamiento para que el contenido de una niña chiquita o de un adolescente no se haga viral, y no lo hace porque no quiere. Podrían cambiar muchas cosas. Meta prometió hace años que escondería el número de vistas porque era mejor para la gente joven. Ese proyecto, se llamaba Daisy, fue abandonado. ¿Por qué? ¿Qué bien le hace a una niña de 8 años ver que otra niña, que ha hecho un vídeo preguntando si es guapa, tiene cientos de miles de vistas?”.
“Instagram podría cambiar muchas cosas si su prioridad fuera proteger a los niños”, dice Arturo Béjar, ex ingeniero de Meta
Béjar también es crítico con las supuestas medidas para evitar la addicción de los menores a las redes sociales. “Meta dice que ahora los jóvenes pasan menos tiempo conectados por la noche. Pues sí, porque ya no les están mandando notificaciones. Pero no te dicen que si los jóvenes, durante el día, quieren reducir sus notificaciones, tienen que tocar 50 botones en 10 pantallas”, señala.
El informe está respaldado por dos organizaciones fundadas por padres cuyos hijos adolescentes se suicidaron después de haber consumido contenido perturbador en las redes sociales.
“Es muy peligroso y es importante que los padres y los legisladores entiendan –lamenta Béjar–. Son momentos de vulnerabilidad, te has peleado con el novio o alguien te ha dicho algo que te ha dolido, y en ese momento bajo te encuentras con ese tipo de contenido, que te habla de adelgazar, de autolesionarte, de quitarte la vida. Y lo ves. Instagram se da cuenta y te lo empieza a recomendar. Uno tras otro, tras otro. Lo más perverso es que te lleva a un contenido que ni siquiera buscabas”.
