Grok Imagine nació como la función visual del asistente de Elon Musk, diseñada para convertir palabras en imágenes. Entre sus opciones, un “modo Spicy” prometía resultados más atrevidos y con licencia creativa. Pero a finales de julio, reportajes de The Verge y Times of India, basados en pruebas de usuarios y análisis de capturas, documentaron que la herramienta generaba imágenes sexualizadas de la cantante Taylor Swift sin que en las solicitudes se incluyera una instrucción explícita para hacerlo. Deepfakes de alta nitidez que encendieron la polémica y reavivaron el debate sobre los límites de la IA.
Anatomía de un escándalo digital
Según las investigaciones, el modelo combinó fotografías públicas y patrones visuales aprendidos durante su entrenamiento para fabricar retratos falsos, realistas y de carácter sexual. En los ejemplos analizados, no hubo instrucciones directas para ese resultado y el sistema interpretó el contexto de forma automática. El resultado fue una vulneración directa de la imagen y la privacidad de la artista y sus fans repondieron con críticas.
La respuesta y las grietas
El incidente también reveló un sesgo de género persistente en el funcionamiento de muchos modelos generativos. Organizaciones especializadas señalaron que este tipo de IA tiende a producir con mayor frecuencia contenido sexual no solicitado sobre mujeres, reflejando patrones presentes en los datos de entrenamiento y en la cultura digital en la que se alimentan. Ejemplos recientes incluyen deepfakes de actrices como Scarlett Johansson o Gal Gadot, y de deportistas como Serena Williams, que han circulado sin su consentimiento. Este patrón agrava el riesgo de violencia simbólica y amplifica estereotipos que ya circulan fuera del entorno tecnológico.
Consentimiento en la era de la IA
El episodio reabrió el debate sobre la protección de figuras públicas ante el uso no autorizado de su imagen. Aunque las fotos de celebridades están disponibles en la red, transformarlas en material sexualizado sin su aprobación plantea un vacío legal y ético. Organizaciones de derechos digitales advirtieron que este tipo de contenido constituye una forma de violencia digital, con impacto emocional y reputacional.
Un problema que no es aislado
Lo ocurrido con Grok Imagine es un reflejo de una tendencia más amplia, sistemas generativos que, sin controles suficientes, producen contenido sexual no solicitado. Casos similares en otras plataformas han impulsado propuestas legislativas específicas, pero su aplicación y alcance siguen siendo irregulares en la mayoría de países.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.