Oficios de riesgo en las redes sociales

Los moderadores de contenido de las redes sociales ejercen una auténtica profesión de riesgo. Esta tarea les llega a provocar graves enfermedades mentales y desequilibrios emocionales, tales como ansiedad, depresión, insomnio, pesadillas, aislamiento social, estado de alerta permanente, sensación de vulnerabilidad al ir por la calle, irritabilidad, pérdida del sentido del humor o pensamientos intrusivos de imágenes terroríficas, entre otras. Todo ello es consecuencia del grave impacto emocional que les provoca la exposición reiterada –sin la debida protección psicológica– a material audiovisual que va desde suicidios hasta violencia extrema, abusos sexuales y físicos, escenas explícitas de accidentes mortales, maltrato animal y especialmente de todo lo relacionado con explotación sexual infantil y pederastia.

Así se ha puesto de relieve en las demandas que centenares de estos trabajadores han interpuesto contra Meta –empresa matriz de Facebook, Instagram y WhatsApp– y su subcontrata en Catalunya, CCC Barcelona Digital Services SLU, propiedad desde
el 2020 del grupo canadiense Telus Communications.

La enorme gravedad de la toxicidad de los mensajes e imágenes que los moderadores de contenido consiguen frenar antes de que circulen por las redes sociales es reflejo de una sociedad global enferma y de todas sus lacras. Es un fenómeno dramático y preocupante. Además del impacto emocional que sufren estos trabajadores personalmente, es evidente el riesgo que supone que no puedan evitar que una parte de esa toxicidad informativa y su impacto psicológico negativo lleguen hasta los usuarios. Las redes sociales, como hemos dicho muchas veces, son muy positivas, pero también muy peligrosas. De ahí la necesidad de proteger a los más vulnerables, especialmente los jóvenes.

Los moderadores de contenido sufren secuelas psicológicas por el impacto de las imágenes tóxicas

Los trabajadores de Meta y de su subcontrata catalana, en sus demandas laborales, se quejan de que son ellos, precisamente, los primeros que no han tenido los medios de protección y asistencia psicológica que requiere su trabajo, lo que les ha resultado especialmente perjudicial. Hasta la fecha han sido un total de 344 exempleados de CCC –que desde las oficinas de la torre Glòries se dedicaban a frenar la publicación de material perturbador en las redes sociales de Mark Zuckerberg– los que han presentado en las últimas semanas denuncias ante juzgados de lo social en Barcelona. Cada uno de ellos reclama 100.000 euros de indemnización por los daños ocasionados en su integridad moral y en su salud, tanto psíquica como emocional. La compañía CCC abrió sus oficinas en Barcelona en el 2018 y estuvo activa hasta el mes de abril pasado, cuando se vio obligada a cerrar, y a despedir a sus más de dos mil trabajadores, al perder el contrato con Meta.

Los demandantes acusan a CCC y a Meta de dejadez en la protección de la salud de sus empleados y de no haber implementado mecanismos adecuados de detección, valoración y actuación ante síntomas de sufrimiento psíquico, a pesar de que ambas empresas eran perfectamente conocedoras del riesgo que corren los moderadores de contenido de desarrollar estrés postraumático y otros tipos de secuelas mentales. Por ello, argumentan que ha habido una conducta clara y reiterada de omisión de sus obligaciones en materia de la ley de Prevención de Riesgos Laborales. En el 2020 Facebook ya tuvo que indemnizar, con 52 millones de dólares, a 11.000 moderadores que presentaron una demanda colectiva en los tribunales de California.

Otras empresas del sector, como YouTube, según señalan los extrabajadores de CCC, se toman mucho más en serio la salud mental de sus moderadores de contenidos, ya que les ofrecen tres horas diarias de atención y descompresión psicológica o bien, además, reciben formación especializada y acompañamiento emocional para afrontar el impacto psicológico tóxico que sufren.

Casi 350 demandas contra Meta por presunta desprotección de sus trabajadores en Barcelona

Las citadas demandas seguirán su curso legal y habrá que esperar a ver qué deciden los jueces sobre la responsabilidad de CCC y de Meta en la protección laboral de sus ya extrabajadores. Pero, al margen de ello, lo revelado en las citadas demandas sobre la gravedad de muchos de los contenidos que pretenden circular por las redes sociales constituye una importante señal de alarma para la sociedad y los gobiernos. Hay que impulsar, y con urgencia, medidas legales que obliguen a las compañías tecnológicas a reforzar todavía más el control de los contenidos tóxicos de odio, violencia extrema y abusos sexuales en las redes sociales. Los sistemas de inteligencia artificial (IA) pueden ser un gran aliado de los moderadores de contenido.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...