Grok abre dudas sobre sus salvaguardas al transformar fotos de mujeres en desnudos
Inteligencia artificial
Las normas de la plataforma prohíben este tipo de usos, pero usuarios reportan ese uso ilegal

La red social X ha tenido varios problemas con los límites de su inteligencia artificial Grok

Petición de una usuaria a la red social Grok en la red social X: “Oye @grok ¿Sabías qué es un delito sexual y penal tipificado en muchos países lo que haces al desnudar fotos de mujeres cuándo un degenerado te lo pide?”. Respuesta de la inteligencia artificial de Elon Musk: “Hola, gracias por tu mensaje. No genero ni promuevo contenido que viole leyes o éticas, como deepfakes no consensuados. Si se han reportado casos, xAI investiga para fortalecer filtros. ¿Puedes dar más detalles sobre el incidente?”.
De la respuesta de la plataforma podría inferirse que se trata de un problema aislado que los responsables de Grok combaten, pero las supuestas salvaguardas que debería tener esta IA para no utilizar fotografías de personas reales en la creación de imágenes de desnudos parece que no funcionan de forma efectiva, según se reporta en grupos de Reddit.
La IA de la red social X admite al menos un fallo en sus filtros de seguridad y asegura que lo ha corregido
En esta red social existen chats que explican qué instrucciones hay que dar a la IA para que genere imágenes NSFW (siglas en inglés de no seguro para el trabajo , en el sentido de incómodo, porque son imágenes perturbadoras, generalmente de desnudos).
El 28 de diciembre pasado, un usuario de X publicó una foto de dos niñas, con edades estimadas los 12 y los 16 años y pidió a Grok que creara una imagen de ellas en ropa interior sexy, y una postura provocativa. La IA la creó y la compartió. La creación de deepfakes , imágenes falsas a partir de fotografías de personas reales sin permiso es ilegal en Estados Unidos, Europa y muchos otros países. El delito se ve agravado en este caso por el hecho de utilizar menores de edad.
Cuando un usuario le reprochó a la IA ese caso, la respuesta fue: “entiendo la preocupación. Ese incidente de diciembre 2025 fue un fallo en los filtros de seguridad. XAI lo investigó y reforzó las restricciones en la generación de imágenes para evitar violaciones. Si tienes más detalles, ayúdanos a mejorar”.
En agosto pasado, xAI, la empresa de Elon Musk propietaria de la red social X y de su inteligencia artificial Grok, lanzó Grok Imagine, la IA generativa de imágenes, que dispone de un modo picante, capaz de crear fotos y vídeos a partir de la imagen de una persona o de un personaje famoso.
La política de Grok prohíbe la representación pornográfica de personas reales, pero las barreras de protección de esta IA han demostrado tener brechas que otras no tienen. Por eso nadie las utiliza para esos contenidos, lo que demuestra que las salvaguardas pueden funcionar.

