Las Claves
- Usuarios de X utilizan la inteligencia artificial Grok para generar imágenes sexualizadas sin consentimiento, afectando principalmente a mujeres y menores.
- Aunque los deepfakes no están tipificados penalmente en España, la Comisión Europea exige sancionar el reparto no autorizado de contenido manipulado.
- Las víctimas pueden recurrir al Canal Prioritario de la AEPD o al Incibe 017 para
“Grok, ponle un bikini”, “vístela con lencería sexy desde este ángulo” o “ponla a cuatro patas”. Estos son algunos de los mensajes que, en los últimos días, circulan ampliamente en X y que los usuarios están pidiendo a Grok, la inteligencia artificial de generación y edición de imágenes integrada en la red social de Elon Musk. Las principales damnificadas de estas peticiones sexualizadas –muchas de ellas realizadas sin el consentimiento de las víctimas– son mujeres, aunque también hay hombres y hasta menores entre los casos detectados.
Durante las jornadas recientes, este fenómeno en X se ha expandido, sumando millones de reproducciones y generando una notable inquietud en diversas naciones, entre ellas España, la cual ha pedido a la Fiscalía investigar la IA por pornografía infantil. Asimismo, la Comisión Europea ha exigido a la plataforma digital que mantenga todos los archivos de Grok hasta el cierre de 2026.
La técnica de los 'deepfakes' no aparece mencionada de forma directa en nuestro Código Penal.
“Hoy por hoy, pedir a una IA que transforme o manipule una imagen no es delito. Los deepfakes no están tipificados en nuestro Código Penal”, sostiene Belén Arribas, letrada experta en normativa tecnológica e IA, y responsable de Enatic, agrupación de la Abogacía Digital. Sin embargo, el reciente mandato comunitario exige a las naciones integrantes sancionar por vía penal el reparto no autorizado de contenido privado, abarcando de forma clara archivos alterados o creados a través de inteligencia artificial.
Según Eleonora Espósito, académica de la Universidad de Navarra y especialista en agresiones de género en entornos digitales que ha trabajado con varios organismos europeos, representa un “avance importante” debido a que “elimina ambigüedades y reconoce esta práctica como una forma autónoma de violencia”. Por otro lado, las naciones de la UE disponen de tiempo hasta junio de 2027 para su transposición.
Estos hechos pueden canalizarse por las vías civil y administrativa.
Arribas señala que tal circunstancia no impide que las acciones sean sancionables mediante procedimientos civiles o administrativos. En primer lugar, el afectado tiene la posibilidad de interponer una demanda judicial por la violación de su derecho al honor, a la privacidad personal y familiar, así como a su imagen propia, y reclamar una compensación económica debido a la utilización no autorizada de su retrato para un deepfake.
Por otra parte, es factible presentar una reclamación, mediante el trámite administrativo, ante la Agencia Española de Protección de Datos (AEPD), que dispone de un Canal Prioritario para casos de difusión de imágenes sexuales o violentas sin autorización. “La Agencia puede obligar a las plataformas a retirar el contenido y, si aprecia una infracción del Reglamento Europeo o de la normativa española de protección de datos, también puede sancionarlas con una multa”, explica la abogada.
Las expertas recomiendan la supresión de los contenidos a través del Canal Prioritario de la AEPD.
El objetivo fundamental radica en lograr la eliminación del material con la máxima celeridad. Por este motivo, aparte de pedir la supresión inmediata de la información mediante el Canal Prioritario de la AEPD, las especialistas sugieren reportar la fotografía directamente en el sitio donde se encuentre difundida.
“Al mismo tiempo, es importante preservar pruebas sin exponerse más de lo necesario. Bastan capturas con la URL visible, fecha, usuario que publica y, si existe, el texto que acompaña a la imagen. Si hay amenazas, acoso o extorsión, esas comunicaciones deben guardarse íntegramente”, aconseja Espósito.
El caso de Almendralejo
En caso de que las fotografías manipuladas o fabricadas muestren a personas menores, incluso si se han elaborado con inteligencia artificial, esto puede suponer un ilícito de pornografía infantil, conforme al artículo 189 del Código Penal. Existe un ejemplo próximo en la población de Almendralejo (Extremadura), donde diversos jóvenes emplearon aplicaciones de IA con el fin de generar y propagar 'deepfakes' de carácter sexual de estudiantes menores de su misma aula. El Juzgado de Menores de Badajoz consideró culpables a 15 menores por 20 infracciones de pornografía infantil y 20 delitos contra la integridad moral, además de establecer castigos por el cauce administrativo. Particularmente, la AEPD sancionó el pasado noviembre con 2.000 euros a los padres de uno de los participantes.
¿Quién debe rendir cuentas?
En el supuesto de que una víctima resuelva denunciar lo ocurrido, ¿la obligación legal afecta tanto al autor como al servicio digital? Así es. La letrada penalista Laia Serra, conocedora de las violencias de género digitales, señala que “las empresas que comercializan o utilizan software con inteligencia artificial deben informar de que están empleando esta tecnología. Y, a su vez, los usuarios que crean contenidos con ella deberían indicarlo de forma visible, precisamente para que el público pueda distinguir entre ficción y realidad”.
De esta forma, la interesada podría presentar una reclamación ante los portales por un “posible incumplimiento de la normativa sobre inteligencia artificial como de la Ley de Servicios Digitales (DSA) de la UE”.
El 96% de los 'deepfake' que se producen en línea son de naturaleza sexual.
La DSA, vigente desde febrero de 2024, exige a las plataformas asegurar la claridad en la gestión de publicaciones, implementar sistemas ágiles para reportar y eliminar material ilícito, y detectar y reducir los peligros vinculados a la operatividad y estructura de sus servicios.
“Si el diseño facilita la creación rápida, anónima y escalable de imágenes íntimas manipuladas, sin advertencias reales, sin verificación de consentimiento y sin barreras efectivas, el problema ya no es solo el usuario abusivo, sino el modelo de diseño que normaliza y amplifica la violencia”, denuncia Espósito.
Los ataques digitales generan efectos muy reales y tangibles
La agresión machista digital se encuentra, cada vez más, bajo el escrutinio de los organismos nacionales e internacionales y de la población. No obstante, persiste aún una inclinación a “minimizar” o a “banalizar” gran parte de estos ataques. Así lo estima Eva Cruells, psicóloga y co-coordinadora de Fem Bloc: “Tienen efectos muy reales y plausibles en la vida de la persona afectada. Hemos visto casos extremadamente graves, que en algunos casos han llegado incluso al suicidio”.
La veracidad o no de la captura posee “el mismo efecto”, inclusive en los sucesos donde ocurre una sextorsión, a pesar de que se empleen retratos del individuo modificados por IA. Por esta razón, Cruells solicita, inicialmente, que se identifiquen estas agresiones y se eluda atribuir cualquier culpa a quienes las padecen. “Todo lo que puedas estar sufriendo es legítimo. No se trata de minimizar lo que se siente ni los impactos, sino de buscar ayuda”.
Perder la privacidad provoca temor, angustia e insomnio.
La realidad es que los afectados pueden experimentar perjuicios en su autoconcepto, violaciones a su privacidad e intimidad, sentir pudor o temor de circular por la vía pública, recelo hacia su ambiente, angustia, dificultades para dormir, desajustes en la alimentación e incluso la percepción de encontrarse de cierta manera “violadas”.
La especialista Eva Cruells sugiere recurrir igualmente a plataformas como Fem Bloc, un canal feminista de asistencia y respaldo ante agresiones digitales, donde ejerce como co-coordinadora, al igual que al SIE digital, una prestación en Catalunya que brinda soporte físico y por teléfono frente a dichas agresiones. Asimismo, quienes sufren estas situaciones pueden dirigirse a los puntos y medios expertos en violencia de género de su región o localidad.
“Para apoyo práctico, orientación y acompañamiento, Incibe 017 cumple una función importante, especialmente en casos de ciberseguridad”, agrega igualmente Espósito. Consiste en una prestación de ámbito estatal, sin coste y privada que Incibe ofrece a los ciudadanos con el fin de asistirles en la solución de incidentes de seguridad informática.
Un recurso adicional que expertos del sector tecnológico como Cruells emplean es StopNCII: “Esta plataforma permite tanto actuar de forma preventiva como ayudar a retirar contenidos que ya se hayan publicado”. El usuario perjudicado elige desde su terminal el contenido audiovisual privado y StopNCII crea un identificador exclusivo (hash) que funciona a modo de “huella digital” del documento sin necesidad de cargar el material original. Este sistema distribuye dicho rastro entre las plataformas asociadas con el fin de localizar y suprimir de forma automática cualquier duplicado idéntico.
El Incibe pone a disposición el teléfono 017 para ofrecer soporte a la población en temas de seguridad digital.
Para impedir que Grok altere sus imágenes, ciertas usuarias de X solicitan a la inteligencia artificial que se abstenga de cambiar cualquier retrato, “ni las publicadas en el pasado ni las que se publiquen en el futuro”. En gran parte de las ocasiones, dicha demanda parece funcionar, conforme ha verificado este periódico. Sin embargo, el sistema también logra desoír estos pedidos y transformar capturas, aun si no poseen contenido sexualizado.
En ciertas ocasiones, las personas que solicitaron específicamente que sus imágenes no fueran alteradas obtuvieron contestaciones como la siguiente: “¡Ups! Lo siento. Solo quise divertirme un poco con la petición. Si no te gusta, dime y lo arreglo o borro. ¿Otra idea para editar?”
En algunos momentos, las usuarias que pidieron expresamente a Grok que sus fotos no fueran modificadas recibieron respuestas parecidas a esta.
Belén Arribas señala que “no es ninguna broma” y que “las repercusiones son reales”, pese a que los avances tecnológicos lo faciliten en “cinco minutos”. Bajo esta premisa, la también letrada Laia Serra alerta de que tales representaciones estandarizan e incrementan drásticamente la objetivación de mujeres y menores, impulsan el clima de violencia sexual e infringen el derecho a la imagen propia y al manejo de la información personal (habeas data).




