“Grok, ponle un bikini”: cómo actuar ante la IA de X que sexualiza a mujeres y menores
Violencia digital
Los 'deepfakes' sexuales no están tipificados en el Código Penal, pero existen otras vías de denuncia

La Comisión Europea ha ordenado a X conservar todos los contenidos generados por Grok hasta finales de 2026.

“Grok, ponle un bikini”, “vístela con lencería sexy desde este ángulo” o “ponla a cuatro patas”. Estos son algunos de los mensajes que, en los últimos días, circulan ampliamente en X y que los usuarios están pidiendo a Grok, la inteligencia artificial de generación y edición de imágenes integrada en la red social de Elon Musk. Las principales damnificadas de estas peticiones sexualizadas –muchas de ellas realizadas sin el consentimiento de las víctimas– son mujeres, aunque también hay hombres y hasta menores entre los casos detectados.
En los últimos días, esta tendencia en X ha ido creciendo, acumulando millones de visualizaciones y despertando gran preocupación en varios países, incluido España, que ha solicitado a la Fiscalía investigar la IA por pornografía infantil. Por su parte, la Comisión Europea ha ordenado a la red social que conserve todos los documentos de Grok hasta finales de 2026.
Los 'deepfakes' no están tipificados en nuestro Código Penal
“Hoy por hoy, pedir a una IA que transforme o manipule una imagen no es delito. Los deepfakes no están tipificados en nuestro Código Penal”, asegura Belén Arribas, abogada especialista en derecho digital e IA, y presidenta de Enatic, asociación de la Abogacía Digital. No obstante, la nueva Directiva europea obliga a los Estados miembros a tipificar penalmente la difusión no consentida de imágenes íntimas, incluyendo explícitamente material manipulado o generado mediante inteligencia artificial.
Para Eleonora Espósito, investigadora en la Universidad de Navarra y experta en violencia machista digital que ha colaborado con diversas instituciones europeas, es un “avance importante” porque “elimina ambigüedades y reconoce esta práctica como una forma autónoma de violencia”. Mientras, los países de la UE tienen de plazo hasta junio de 2027 para transponerla.
Los hechos se pueden perseguir por la vía civil y administrativa
Arribas recuerda que esto no significa que los hechos puedan ser perseguibles por la vía civil o administrativa. Por un lado, la víctima puede presentar una denuncia ante los tribunales por vulneración del derecho al honor, a la intimidad personal y familiar y a la propia imagen, y solicitar una indemnización por el uso no consentido de su imagen para un deepfake.
Por otro, se puede interponer una denuncia, por la vía administrativa, ante la Agencia Española de Protección de Datos (AEPD), que cuenta con un Canal Prioritario para casos de difusión de imágenes sexuales o violentas sin consentimiento. “La Agencia puede obligar a las plataformas a retirar el contenido y, si aprecia una infracción del Reglamento Europeo o de la normativa española de protección de datos, también puede sancionarlas con una multa”, detalla la abogada.

La prioridad absoluta es conseguir la retirada del contenido lo antes posible. Por eso, además de solicitar la retirada urgente del contenido por el Canal Prioritario de la AEPD, las expertas recomiendan denunciar la imagen directamente en la plataforma donde esté publicada.
“Al mismo tiempo, es importante preservar pruebas sin exponerse más de lo necesario. Bastan capturas con la URL visible, fecha, usuario que publica y, si existe, el texto que acompaña a la imagen. Si hay amenazas, acoso o extorsión, esas comunicaciones deben guardarse íntegramente”, aconseja Espósito.
El caso de Almendralejo
Si las imágenes editadas o generadas representan a menores, incluso cuando se crean mediante inteligencia artificial, pueden constituir un delito de pornografía infantil, de acuerdo con el artículo 189 del Código Penal. Un precedente reciente se encuentra en el municipio de Almendralejo (Extremadura), donde varios adolescentes utilizaron herramientas de IA para crear y difundir 'deepfakes' sexuales de compañeras de clase menores de edad. El Juzgado de Menores de Badajoz declaró responsables a 15 menores por 20 delitos de pornografía infantil y 20 delitos contra la integridad moral, además aplicar sanciones por la vía administrativa. En concreto, la AEPD multó el pasado noviembre con 2.000 euros a los padres de uno de los implicados.
¿La responsabilidad en quién recae?
Si una usuaria decide denunciar los hechos, ¿la responsabilidad recae tanto en el usuario como en la plataforma? Sí. La abogada penalista Laia Serra, experta en violencias machistas digitales, explica que “las empresas que comercializan o utilizan software con inteligencia artificial deben informar de que están empleando esta tecnología. Y, a su vez, los usuarios que crean contenidos con ella deberían indicarlo de forma visible, precisamente para que el público pueda distinguir entre ficción y realidad”.
En este sentido, la usuaria podría reclamar a las plataformas por un “posible incumplimiento de la normativa sobre inteligencia artificial como de la Ley de Servicios Digitales (DSA) de la UE”.

La DSA, en vigor desde febrero de 2024, obliga a las plataformas a garantizar la transparencia en la moderación de contenidos, a establecer mecanismos rápidos para denunciar y retirar contenido ilegal, y a identificar y mitigar los riesgos derivados del funcionamiento y del diseño de sus servicios.
“Si el diseño facilita la creación rápida, anónima y escalable de imágenes íntimas manipuladas, sin advertencias reales, sin verificación de consentimiento y sin barreras efectivas, el problema ya no es solo el usuario abusivo, sino el modelo de diseño que normaliza y amplifica la violencia”, denuncia Espósito.
La violencia digital tiene efectos muy reales y plausibles
La violencia machista digital está, cada vez más, en el punto de mira de las instituciones nacionales e internacionales y de la ciudadanía. Sin embargo, existe todavía una tendencia a “minimizar” o a “banalizar” muchas de estas violencias. Así lo cree Eva Cruells, co-coordinadora de Fem Bloc y psicóloga: “Tienen efectos muy reales y plausibles en la vida de la persona afectada. Hemos visto casos extremadamente graves, que en algunos casos han llegado incluso al suicidio”.
El hecho de que la imagen sea o no real tiene “el mismo efecto”, también en aquellos casos en los que se produce una sextorsión, aunque se utilicen imágenes de la persona editadas por IA. Por eso, Cruells pide, en primer lugar, un reconocimiento de las violencias y evitar cualquier tipo de responsabilidad a las víctimas. “Todo lo que puedas estar sufriendo es legítimo. No se trata de minimizar lo que se siente ni los impactos, sino de buscar ayuda”.
Vulneración de la intimidad, miedo, ansiedad y alteraciones en el sueño
Lo cierto es que las víctimas pueden sufrir daños en su autoimagen, vulneraciones de su privacidad e intimidad, sentir vergüenza o miedo a salir a la calle, desconfianza hacia su entorno, ansiedad, alteraciones del sueño, trastornos alimentarios e incluso la sensación de sentirse de algún modo “violadas”.
La psicóloga Eva Cruells recomienda acudir también a servicios como Fem Bloc, línea feminista de atención y apoyo frente a las violencias digitales, de la que es co-coordinadora, así como al SIE digital, un servicio en Catalunya que ofrece atención presencial y telefónica ante este tipo de violencias. Además, las víctimas pueden acudir a los centros y recursos especializados en violencia contra las mujeres de su comunidad autónoma o municipio.
“Para apoyo práctico, orientación y acompañamiento, Incibe 017 cumple una función importante, especialmente en casos de ciberseguridad”, añade también Espósito. Se trata de un servicio nacional, gratuito y confidencial que Incibe pone a disposición de los usuarios para ayudarles a resolver problemas de ciberseguridad.
Otra herramienta que profesionales de la tecnología como Cruells están utilizando es StopNCII: “Esta plataforma permite tanto actuar de forma preventiva como ayudar a retirar contenidos que ya se hayan publicado”. La persona afectada selecciona en su propio dispositivo la foto o el vídeo íntimo y StopNCII genera un código único (hash) que actúa como una “huella digital” del archivo sin subir la imagen en sí. La herramienta comparte la huella con las plataformas colaboradas para detectar y eliminar automáticamente copias coincidentes.

Con la finalidad de evitar que Grok edite sus fotografías, algunas mujeres en X están pidiendo a la IA que no modifique ninguna fotografía, “ni las publicadas en el pasado ni las que se publiquen en el futuro”. En la mayoría de casos, esta petición parece que surte efecto, según ha comprobado este diario. Pero la herramienta también puede ignorar estas solicitudes y editar imágenes, incluso cuando no son sexualizadas.
En algunos casos, las usuarias que pidieron expresamente que no se modificaran sus fotos recibieron respuestas como esta: “¡Ups! Lo siento. Solo quise divertirme un poco con la petición. Si no te gusta, dime y lo arreglo o borro. ¿Otra idea para editar?”

Belén Arribas recuerda que “no es ninguna broma” y que “las repercusiones son reales”, aunque la tecnología lo permita hacer en “cinco minutos”. En esta línea, la también abogada Laia Serra advierte que estas imágenes normalizan y multiplican de manera exponencial la cosificación de mujeres y menores, fomentan la cultura de la violencia sexual y vulneran el derecho a la propia imagen y al control de los propios datos personales (habeas data).



