Oficis de risc a les xarxes socials
Opinió
Els moderadors de contingut de les xarxes socials exerceixen una autèntica professió de risc. Aquesta tasca els arriba a provocar greus malalties mentals i desequilibris emocionals, com ansietat, depressió, insomni, malsons, aïllament social, estat d’alerta permanent, sensació de vulnerabilitat anant pel carrer, irritabilitat, pèrdua del sentit de l’humor o pensaments intrusius d’imatges terrorífiques, entre d’altres. Tot això és conseqüència del greu impacte emocional que els provoca l’exposició reiterada –sense la protecció psicològica adient– a material audiovisual que va des de suïcidis fins a violència extrema, abusos sexuals i físics, escenes explícites d’accidents mortals, maltractament animal i especialment de tot el que es relaciona amb explotació sexual infantil i pederàstia.
Així s’ha posat en relleu en les demandes que centenars d’aquests treballadors han interposat contra Meta –empresa matriu de Facebook, Instagram i WhatsApp– i la seva subcontracta a Catalunya, CCC Barcelona Digital Services SLU, propietat
des del 2020 del grup canadenc Telus Communications.
L’enorme gravetat de la toxicitat dels missatges i les imatges que els moderadors de contingut aconsegueixen frenar abans que circulin per les xarxes socials és el reflex d’una societat global malalta i de totes les xacres que té. És un fenomen dramàtic i preocupant. A més de l’impacte emocional que aquests treballadors pateixen personalment, és evident el risc que suposa el fet que no puguin evitar que una part d’aquesta toxicitat informativa i el seu impacte psicològic negatiu arribin fins als usuaris. Les xarxes socials, com hem dit moltes vegades, són molt positives, però també molt perilloses. Per això la necessitat de protegir els més vulnerables, especialment els joves.
Els moderadors de contingut tenen seqüeles psicològiques per l’impacte de les imatges tòxiques
Els treballadors de Meta i de la seva subcontracta catalana, en les demandes laborals, es queixen que són ells, precisament, els primers que no han tingut els mitjans de protecció i assistència psicològica que la seva feina requereix, cosa que els
ha resultat especialment perjudicial. Fins ara han estat un total de 344 exempleats de CCC –que des de les oficines de la torre Glòries es dedicaven a frenar la publicació de material pertorbador a les xarxes socials de Mark Zuckerberg– els que han presentat en les últimes setmanes denúncies davant jutjats socials a Barcelona. Cadascun d’ells reclama 100.000 euros d’indemnització pels danys ocasionats en la seva integritat moral i en la salut, tant psíquica com emocional. La companyia CCC va obrir les oficines de Barcelona el 2018 i ha estat activa fins al mes d’abril passat, quan es va veure obligada a tancar, i acomiadar els més de dos mil treballadors, en perdre el contracte amb Meta.
Els demandants acusen CCC i Meta de deixadesa en la protecció de la salut dels seus empleats i de no haver implementat mecanismes adequats de detecció, valoració i actuació davant símptomes de patiment psíquic, malgrat que les dues empreses eren perfectament coneixedores del risc que tenen els moderadors de contingut de desenvolupar estrès posttraumàtic i altres tipus de seqüeles mentals. Per això, argumenten que hi ha hagut una conducta clara i reiterada d’omissió de les seves obligacions en matèria de la llei de Prevenció de Riscos Laborals. El 2020 Facebook ja va haver d’indemnitzar, amb 52 milions de dòlars, 11.000 moderadors que van presentar una demanda col·lectiva en els tribunals de Califòrnia.
Altres empreses del sector, com YouTube, segons assenyalen els extreballadors de CCC, es prenen molt més seriosament la salut mental dels seus moderadors de continguts, ja que els ofereixen tres hores diàries d’atenció i descompressió psicològica o bé, a més, reben formació especialitzada i acompanyament emocional per afrontar l’impacte psicològic tòxic que pateixen.
Gairebé 350 demandes contra Meta per presumpta desprotecció dels treballadors a Barcelona
Aquestes demandes continuaran el curs legal i caldrà esperar a veure què decideixen els jutges sobre la responsabilitat de CCC i de Meta en la protecció laboral dels ja extreballadors. Però, al marge d’això, el que les demandes revelen sobre la gravetat de molts dels continguts que s’intenta que circulin a les xarxes socials constitueix un important senyal d’alarma per a la societat i els governs. Cal impulsar, i amb urgència,
mesures legals que obliguin les companyies tecnològiques a reforçar encara més el control dels continguts tòxics d’odi,
violència extrema i abusos sexuals a les xarxes socials. Els sistemes d’intel·ligència artificial (IA) poden ser un gran aliat dels moderadors de contingut.