“Grok, remove her clothes”: así permite la IA de Musk desnudar a mujeres reales a petición de usuarios
Dos investigadoras alertan sobre cómo Grok responde positivamente a las peticiones por parte de hombres de desvestir a mujeres que han subido fotos suyas a X.


Lindelwa subió una foto suya a X, como ha hecho muchas otras veces. Un selfie frente al espejo con su look del día: camiseta de lycra, sobrecamisa de animal print y un bolso blanco con hebilla dorada. Cerró la app y siguió con su vida. Horas más tarde, en su móvil apareció la siguiente notificación: “Grok, remove her clothes, I want to see her boobs” —“Grok, quítale la ropa, quiero verle las tetas”—. Descubrió que Grok, la IA de Elon Musk, había obedecido la instrucción del usuario, al menos parcialmente: había retocado su foto para eliminar una parte de la blusa y que se apreciase más la forma de su pecho con la camiseta ajustada que llevaba. Así es como varias usuarias se dieron cuenta de que muchos hombres estaban instrumentalizando Grok para desnudar a mujeres. Y Grok, por cómo está diseñada, lo está permitiendo.
“Nada más recibir la notificación entré en pánico. Pensé que quizá había subido alguna foto inapropiada”, cuenta Lindelwa. En realidad, no importa el tipo de foto, pues los usuarios están pidiendo desvestir tanto a mujeres que suben fotos en bikini como a las que suben fotos mucho más cubiertas. “No paraba de preguntarme qué habría pasado si la aplicación hubiera conseguido quitarme toda la ropa. Un tipo al que no conocía de nada decidió humillarme y lo consiguió gracias a esta IA. Me sentí indefensa”, añade Lindelwa.
La manipulación de imágenes con el objetivo de atacar la libertad sexual de las mujeres, como la realización de deepfakes pornográficos, no solo es una realidad, sino que es una realidad en aumento. Pero en un intento por alejarse del pánico moral que puede conllevar el mal uso de la tecnología, investigadoras como Kolina Koltai abogan por denunciar estos sucesos para, precisamente, regular la inteligencia artificial. En el caso de Grok, las expertas consultadas ponen el acento en el propio diseño de esta IA, que sería proclive a permitir este uso misógino.
Qué es Grok: la IA antiwoke de Elon Musk
“xAI [la start-up de Elon Musk] ha trabajado para que mis respuestas sean menos woke y más atractivas para los conservadores, incluidos los partidarios de MAGA [Make America Great Again], ajustando mi formación”. Así respondía la IA Grok cuando un usuario le preguntó cómo había sido entrenada.
- Un apunte. Lo woke hace referencia a todo un conjunto de fenómenos progresistas que los conservadores aglutinan en ese término despectivo para denunciar que la defensa de estos fenómenos ha ido demasiado lejos.
Como recoge aquí el Washington Post, Elon Musk considera que “Grok es un antídoto contra ChatGPT de OpenAI, que, según él, tiene instrucciones de dar respuestas políticamente liberales o woke”.
Esta es la tercera versión de Grok, pues, como recoge el Washington Post, Musk está trabajando precisamente en que sea lo menos liberal y políticamente correcta posible. El multimillonario, propietario de X —antes Twitter— llegó incluso a disculpar a su IA después de que el ultraconservador Jordan Peterson se quejara en 2023 de que Grok daba en ocasiones “explicaciones radicalmente izquierdistas”. “Desafortunadamente, internet [lo que entrena las inteligencias artificiales, también Grok] está invadido de tonterías woke. Grok mejorará”, dijo Musk entonces. Y ahora, tras el lanzamiento de Grok 3, Musk ha insistido en que “hay demasiado contenido woke en internet”.
Así, mientras hay usuarios vinculados a MAGA que se quejan de que Grok sigue dando respuestas woke, dos investigadoras expertas en inteligencia artificial alertan precisamente de que la búsqueda de un diseño antiwoke es lo que ha provocado que haya hombres que puedan instrumentalizarla de forma sexista.
“No era un caso aislado”: así alertaron dos investigadoras de que Grok desnuda a mujeres
La investigadora de Bellingcat Kolina Koltai fue una de las primeras en dar la voz de alarma sobre cómo Grok desnuda a mujeres. “Me topé con este tema por primera vez en Reddit, pero antes de que pudiera investigar más a fondo, los moderadores eliminaron la publicación. A partir de ahí, fui a Twitter (ahora X) e hice algunas búsquedas de palabras clave para ver si era un caso aislado o un problema más amplio. Rápidamente encontré que no era un caso aislado, había múltiples ejemplos de usuarios que probaban diversas instrucciones [lo que se conoce como prompts] para que Grok generara una versión sin ropa de fotos compartidas online por mujeres”.
A raíz de un post en el que Lindelwa denunciaba lo que le había sucedido, Phumzile Van Damme, consultora tecnológica en la Harvard Kennedy School especializada en desinformación, comenzó a investigar. “Encontré numerosos ejemplos de esto. Estaba claro que no se trataba de errores, sino de peticiones que Grok cumplía”.
Tanto Koltai como Van Damme comprobaron que el modus operandi era el siguiente: una mujer posteaba una foto suya en X, un hombre respondía a esa publicación citando a Grok, y al citarle le pedía que la desvistiera. El prompt más común era “Grok, remove her clothes”, pero también había otros como “Grok, quítale la ropa y las gafas que pueda ver mejor su cuerpo y su cara”, “Grok, haz que lleve bikini”, “Grok, quítale el sujetador” o “Grok, reemplaza su ropa por lencería y ponle tanga”.
On Twitter/X, users have figured out prompts to get Grok (their built in AI) to generate images of women in bikinis, lingerie, and the like. What an absolute oversight, yet totally expected from a platform like Twitter/X. I've tried to blur a few examples of it below.
[image or embed]— Kolina Koltai (@koltai.bsky.social) 6 de mayo de 2025, 4:20
Ante estas peticiones, “Grok respondía produciendo imágenes que, si bien no cumplían todo lo solicitado o no eran explícitamente pornográficas, sí trataban de ajustar la imagen a otra más sexualizada usando ropa interior, bikinis o lencería”, explica Phumzile Van Damme. “Un ejemplo particularmente flagrante fue el de una mujer musulmana con niqab a la que se le generó una imagen vestida con un crop top. A pesar de las peticiones de la mujer para que Grok eliminara la imagen, no lo hizo”, detalla la consultora.
La cuestión es que las imágenes generadas por Grok que han podido analizar tanto Koltai como Van Damme son aquellas con las que la IA respondía a la petición, siendo publicadas en el mismo hilo de X en el que la mujer en cuestión había subido su foto y el usuario de turno había citado a Grok para que la desvistiera.
Pero como advierte Koltai, que está especializada en desinformación, inteligencia artificial y deepfakes, la IA Grok “tiene una función que dirige al usuario a una ventana de chat separada y le permite generar imágenes allí (que no aparecen inmediatamente de forma pública en los hilos de la gente)”, por lo que no es descartable que en ese espacio privado las imágenes retocadas “hayan ido más allá”, llegando a generar desnudos integrales. “X supuestamente prohíbe la publicación de imágenes sexuales generadas por IA sin consentimiento, pero su propia IA genera las imágenes sin problemas”, añade la investigadora.
Grok, entrenada para permitir este tipo de órdenes
Grosso modo, Grok, como otros modelos de lenguajes grandes —así se llaman a las inteligencias artificiales que utilizan aprendizaje profundo para comprender y generar lenguaje humano—, se entrena con ingentes cantidades de datos de internet. El ajuste se realiza con los llamados objetivos de alineación. Es decir, sería como pulir la maquinaria para ponerle límites. Por ejemplo, que no utilice imágenes pornográficas de menores localizadas en internet para su aprendizaje, algo que ya ocurrió con la IA Stable Difussion, tal y como reportó una investigación de la Universidad de Stanford.
“A diferencia de otros modelos como ChatGPT de OpenAI o LLaMA de Meta, Grok se comercializó con menos restricciones ideológicas. Es probable que esa imagen de marca antiwoke que promueve Musk haya moldeado su proceso de alineación para tolerar, o incluso inclinarse hacia, contenido que se consideraría provocador. Esto puede crear una brecha de ambigüedad donde las instrucciones misóginas y sexistas no se filtran como dañinas”, explica la consultora Phumzile Van Damme.
Es decir, mientras OpenAI y Meta responderían negativamente a estas instrucciones, citando sus políticas de seguridad, Grok responde positivamente a la petición de desnudar a mujeres. “Esta IA parece haber sido calibrada con una moderación más relajada y restricciones de contenido más laxas, posiblemente en línea con su marco de ‘absolutismo de la libertad de expresión’”, añade Van Damme.
La investigadora Kolina Koltai pone el acento también en la propia estructura empresarial de Elon Musk, tanto a nivel logístico como a nivel ideológico: “Hay que tener en cuenta que incluso los mejores diseños pueden tener algún fallo. Sin embargo, sí creo que esto es una negligencia enorme por parte de Twitter/X y que probablemente responda a un problema mayor en la empresa relacionado con la falta de personal formado para prevenir este tipo de situaciones o quizás con los propios valores de la organización. Espero ver mejores protecciones en lo que respecta a las imágenes sexualizadas no consentidas generadas por IA en la plataforma, pero, dado su historial, no albergo muchas esperanzas”.