Hace apenas dos meses, Meta cerró el centro de moderadores de contenidos de la Torre Glòries (Barcelona), uno de los núcleos de moderación de redes sociales más grande de Europa. Esta medida afectó a 1.600 empleados de una plantilla total de 2.000 personas, y dejó al descubierto algunas de las prácticas abusivas por las que pasaban estos moderadores, con continuas bajas por enfermedades mentales causadas por el impacto de los contenidos.
El de Barcelona es solo uno de los tantos centros que se están viendo afectados por la nueva estrategia de Meta en cuanto a la moderación de contenidos. En los últimos dos años, Mark Zuckerberg ha puesto el foco en sustituir estos trabajos por Inteligencia Artificial, escudado en acabar con estos trabajos tan polémicos y en perfeccionar sus mecanismos de censura. No obstante, también supone un ahorro significativo para Meta, que actualmente cuenta con un valor de 1,68 mil millones de dólares —más que el PIB de toda España—.
Aun así, esta medida podría responder a una tercera razón más polémica y que cada vez están evidenciando más personas. Según un informe anual publicado por GLAAD sobre seguridad, privacidad y expresión en las redes sociales para las personas LGBTIQ+, Meta ha experimentado un cambio ideológico extremo durante el último año, añadiendo excepciones perjudiciales a sus políticas de moderación de contenido y reprimiendo a los usuarios LGBTIQ+ y lo que suben.
Tal y como revela el informe, si bien Meta recopila todos nuestros datos, de los cuales obtiene más del 95% de sus ingresos totales, esta práctica se vuelve dañina contra las personas de la comunidad LGBTIQ+, que pueden sufrir incluso opresión estatal por culpa de su exposición, tal y como revela Wired.

Meta cerró el centro de moderadores de contenidos de la Torre Glòries (Barcelona) el pasado abril.
Futurism ha hablado con Sarah Roberts, profesora de la UCLA y directora del Centro de Investigación Crítica de Internet, sobre las implicaciones de las nuevas políticas de moderación de Meta, que se relacionan directamente con la sustituación de los moderadores por Inteligencia Artificial. Roberts ha sido clara:
”Es un momento peligroso, ciertamente para las personas trans, que como minoría han sido ridículamente difamadas, pero también es un momento peligroso para las personas homosexuales, las personas abiertamente bisexuales, las personas que son diferentes en algún sentido”.
Desde GLAAD piden a Meta que mejoren sus servicios de moderación con una clara protección hacia la privacidad y la expresión LGTBIQ+. Además, advierten que la IA solo se debería utilizar “para marcar contenido para su revisión humana, no para su eliminación automática”. De este modo, en casos críticos como el de estas minorías, podrán estar más protegidos contra la censura.
Sin embargo, los planes de Meta van por otro lado. Como ha revelado esta misma semana The Wall Street Journal, la empresa busca automatizar su sistema de publicidad por completo a través de la IA, lo que permitirá a los anunciantes “personalizar sus anuncios” directamente para los usuarios, sin pasar por ningún proceso humano de camino.
Más allá de los peligros de ciberseguridad que esto supone —el mayor mal de esta década— el control de contenido por parte exclusiva de máquinas puede provocar muchos problemas sociales para los que aún no estamos preparados. Y, como de costumbre, los colectivos olvidados son los más perjudicados.