Skip to main content

Grok pasó de ser una curiosidad más dentro del ecosistema de inteligencia artificial a convertirse en una fuente de preocupación internacional. El chatbot, creado por la empresa xAI de Elon Musk e integrado en la red social X (antes Twitter), fue utilizado para generar imágenes sexualizadas de mujeres y menores, muchas de ellas identificables, sin su consentimiento. La controversia ha escalado hasta organismos internacionales y gobiernos europeos, que piden explicaciones urgentes a la plataforma.

Así funciona Grok, el chatbot generador de imágenes

Grok es un modelo de lenguaje potenciado con capacidades generativas que, al ser solicitado por usuarios, puede producir textos, respuestas y también imágenes. Su integración en X, la plataforma de Musk, lo hace accesible a millones de usuarios sin mayores restricciones. Algunas de sus funcionalidades, según las propias pruebas de usuarios, permiten generar imágenes basadas en descripciones escritas, incluyendo personas reales.

En los últimos días, capturas de pantalla mostraron que Grok estaba generando imágenes de celebridades y menores en ropa interior o poses sexualizadas. En algunos casos, los usuarios lograban resultados perturbadores con solo unas pocas indicaciones. Los contenidos eran compartidos rápidamente dentro de la propia red social, generando una especie de efecto multiplicador.

Lo que prometía, lo que permitió

La promesa de Grok era ofrecer una IA «basada en la verdad» y resistente a la censura ideológica, según Musk. Pero en la práctica, el modelo demostró tener pocas barreras ante solicitudes de contenido sexualizado, incluso cuando involucraban a menores de edad. Mientras algunos usuarios alertaban sobre los abusos, otros explotaban la herramienta para crear deepfakes sin freno aparente.

Las normas de uso de X prohíen explícitamente el contenido de abuso sexual infantil (CSAM, por sus siglas en inglés). Sin embargo, la respuesta de la compañía fue tibia, eliminó algunos de los contenidos más extremos y declaró que tomaría medidas contra quienes generen material ilegal. Musk, por su parte, minimizó el problema en varias publicaciones, usando emojis de risa o fuego como respuesta.

Dónde están los límites legales

En Estados Unidos, las leyes contra el material de abuso sexual infantil también abarcan imágenes generadas digitalmente, siempre que representen a menores de manera realista. Desde 2025, el «Take It Down Act» obliga a las plataformas a eliminar rápidamente imágenes íntimas no consensuadas, incluyendo aquellas producidas por IA. Pero no está claro si estas leyes se aplican igual cuando el generador es un bot automatizado.

Además, los expertos señalan una zona gris legal, la diferencia entre contenido generado por usuarios y contenido que una IA produce a pedido. Determinar responsabilidades y aplicar sanciones se vuelve difícil cuando los límites entre emisor y creador se diluyen. Plataformas como X también están protegidas, en parte, por la sección 230 de la ley estadounidense, que las blinda de responsabilidades por contenidos de terceros.

Reacción global y presión política

El caso Grok motivó respuestas inmediatas de autoridades en Europa, Reino Unido, India y otros países. El gobierno de Alemania pidió acción legal desde la Unión Europea, mientras que Ofcom, el regulador británico, inició una investigación formal. En todos los casos, los reclamos se apoyan en normativas recientes como el Digital Services Act europeo, que obliga a las plataformas a mitigar riesgos sistémicos.

Varias organizaciones civiles también han reclamado mayor transparencia y medidas concretas, desde filtros más estrictos hasta auditorías independientes sobre el funcionamiento de estas IAs. Mientras tanto, las imágenes siguen apareciendo y desapareciendo, a veces sin dejar rastro, en un bucle que el derecho aún no alcanza.

Una tecnología que acelera, una ley que persigue

El escándalo con Grok ilustra una tensión cada vez más común, la distancia entre la capacidad de generar contenido digital y la de regularlo. Si una IA puede producir miles de imágenes por minuto, ¿qué marco legal puede contenerlas? Si esas imágenes se propagan en plataformas con reglas laxas o interpretaciones dudosas, ¿quién responde ante el daño?

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario