Guyana Guardian en català

“Grok, posa-li un biquini”: com actuar davant els ‘deepfakes’ sexuals d’X

Sexualització de les dones i la infantesa

La IA de la plataforma es fa servir per despullar persones sense consentiment

LaComissióEuropea ha ordenat aXconservar tots els continguts generats perGrokfins a finals del 2026

LaComissióEuropea ha ordenat aXconservar tots els continguts generats perGrokfins a finals del 2026

Andreu Esteban / Propias

“ Grok, posa-li un biquini, vesteix-la amb llenceria sexi des d’aquest angle” o “posa-la de quatre grapes”. Aquests són alguns dels missatges que, els últims dies, circulen àmpliament a X i que els usuaris estan demanant a Grok, la intel·ligència artificial de generació i edició d’imatges integrada a la xarxa social d’ Elon Musk. Les principals damnificades d’aquestes peticions sexualitzades –moltes de les quals fetes sense el consentiment de les víctimes– són dones, tot i que també hi ha homes i, fins i tot, menors.

Els últims dies, aquesta tendència a X ha anat creixent, ha acumulat milions de visualitzacions i ha despertat gran preocupació en diversos països, incloent-hi Espanya, que ha sol·licitat a la Fiscalia investigar la IA per pornografia infantil. Per la seva banda, la Comissió Europea ha ordenat a la xarxa social que conservi tots els documents de Grok fins a finals del 2026.

“Ara com ara, demanar a una IA que transformi o manipuli una imatge no és delicte. Els deepfakes no estan tipificats al nostre Codi Penal”, assegura Belén Arribas, advocada especialista en dret digital i IA. Tot i això, la nova directiva europea obliga els estats membres a tipificar penalment la difusió no consentida d’imatges íntimes, incloent-hi explícitament material manipulat o generat mitjançant IA.

Per Eleonora Espósito, investigadora a la Universitat de Navarra i experta en violència masclista digital que ha col·laborat amb diverses institucions europees, és un “ avanç important”, perquè “elimina ambigüitats i reconeix aquesta pràctica com una forma autònoma de violència”. Els països de la UE tenen de termini fins al juny del 2027 per traslladar-la.

“Les violències digitals tenen efectes molt reals en les afectades”, afirma la psicòloga Eva Cruells

Arribas recorda que això no significa que els fets puguin ser perseguibles per la via civil o administrativa. D’una banda, la víctima pot presentar una denúncia davant els tribunals per vulneració del dret a l’honor, a la intimitat personal i familiar i a la pròpia imatge, i sol·licitar una indemnització per l’ús no consentit de la seva imatge per a un deepfake .

De l’altra, es pot presentar una denúncia, per la via administrativa, davant l’ Agència Espanyola de Protecció de Dades ( AEPD), que compta amb un canal p rioritari per a casos de difusió d’imatges sexuals o violentes sense consentiment. “L’ agència pot obligar les plataformes a retirar el contingut i, si aprecia una infracció del Reglament Europeu o de la normativa espanyola de protecció de dades, també pot sancionar-les amb una multa”, detalla l’advocada.

La prioritat absoluta és aconseguir la retirada del contingut tan aviat com sigui possible. Per això, a més de sol·licitar-ne la retirada urgent a l’ AEPD, les expertes recomanen denunciar la imatge directament a la plataforma on estigui publicada, en aquest cas, X. “ Alhora, és important preservar proves sense exposar-se més del que sigui necessari. N’hi ha prou amb captures amb l’URL visible, data, usuari que publica i, si n’hi ha, el text que acompanya la imatge. Si hi ha amenaces, assetjament o extorsió, aquestes comunicacions han de guardar-se íntegrament”, aconsella Espósito.

Si una usuària decideix denunciar els fets, la responsabilitat recau tant en l’usuari com en la plataforma? Sí. L’advocada penalista Laia Serra, experta en violències masclistes digitals, explica que “les empreses que comercialitzen o utilitzen software amb IA han d’informar que estan fent servir aquesta tecnologia. I, al seu torn, els usuaris que creïn continguts amb la IA haurien d’indicar-ho de manera visible, precisament perquè el públic pugui distingir entre ficció i realitat”. En aquest sentit, la usuària podria reclamar a les plataformes tant per un “possible incompliment de la normativa sobre intel·ligència artificial com de la l lei de Serveis Digitals [ DSA]”.

“Demanar a una IA que transformi o manipuli una imatge no és delicte”, assegura Belén Arribas, advocada

La DSA, en vigor des de febrer del 2024, obliga les plataformes a garantir la transparència en la moderació de continguts, a establir mecanismes ràpids per denunciar i retirar contingut il·legal i a identificar i mitigar els riscos derivats del funcionament i del disseny dels seus serveis. “Si el disseny facilita la creació ràpida, anònima i escalable d’imatges íntimes manipulades, sense advertències reals, sense verificació de consentiment i sense barreres efectives, el problema ja no és només l’usuari abusiu, sinó el model de disseny que normalitza i amplifica la violència”, denúncia Espósito.

La violència masclista digital està, cada vegada més, al punt de mira de les institucions nacionals i internacionals i de la ciutadania. Tot i això, encara hi ha una tendència a “minimitzar” o a “banalitzar” moltes d’aquestes violències. Ho pensa Eva Cruells, co-coordinadora de Fem Bloc i psicòloga: “Tenen efectes molt reals. Hem vist casos extremadament greus, alguns fins i tot han arribat al suïcidi”. Per això, Cruells demana, en primer lloc, un reconeixement de les violències i evitar qualsevol tipus de responsabilitat a les víctimes. “Tot el que puguis estar patint és legítim. No es tracta de minimitzar el que se sent ni els impactes, sinó de buscar ajuda”.

El cert és que les víctimes poden patir danys en l’autoimatge, vulneracions de la seva privacitat i intimitat, sentir vergonya o por de sortir al carrer, desconfiança cap al seu entorn, ansietat, alteracions del son, trastorns alimentaris i fins i tot la sensació de sentir-se d’alguna manera “violades”. La psicòloga recomana acudir també a serveis com Fem Bloc, línia feminista d’atenció i suport davant les violències digitals, de la qual és co-coordinadora, així com al SIE digital, un servei a Catalunya que ofereix atenció presencial i telefònica davant aquest tipus de violències. A més, les víctimes poden acudir als centres i recursos especialitzats en violència contra les dones de la seva comunitat autònoma o municipi.

“Per a suport pràctic, orientació i acompanyament, Incibe
017 compleix una funció important, especialment en casos de ciberseguretat”, afegeix també Espósito. Es tracta d’un servei nacional, gratuït i confidencial que Incibe posa a disposició
dels usuaris per ajudar-los a resoldre problemes de ciberse­guretat.

Les víctimes poden sol·licitar-ne la retirada urgent a l’AEPD i denunciar per vulneració l’honor

Belén Arribas recorda que “no és cap broma” i que “les repercussions són reals”, encara que la tecnologia ho permeti fer en “cinc minuts”. En aquesta línia, la també advocada Laia Serra adverteix que aquestes imatges normalitzen i multipliquen de manera exponencial la cosificació de dones i menors, fomenten la cultura de la violència sexual i vulneren el dret a la pròpia imatge i al control de les pròpies dades personals ( habeas data ).

Cristina Oriol Val

Cristina Oriol Val

Periodista

Ver más artículos

Periodista especializada en temática social: feminismos, migraciones, salud mental. Antes, en el equipo de Redes Sociales. Doble licenciada en Periodismo y Publicidad y RR.PP. Por la UAB

Etiquetas