Skip to main content

La plataforma X, antes conocida como Twitter, se ha encontrado en medio de una de sus crisis más delicadas relacionadas con inteligencia artificial. Su chatbot Grok, diseñado para generar y editar imágenes a partir de texto o fotografías, pasó de herramienta experimental a foco global de escándalo tras la difusión masiva de imágenes manipuladas de personas reales, incluyendo mujeres y menores, en poses sexualizadas o sin ropa. El caso obligó a la compañía a aplicar restricciones técnicas y legales sobre lo que su sistema de IA puede hacer, con implicaciones que atraviesan regulaciones, política pública y debates sobre responsabilidad digital.

De la promesa a la polémica

Cuando Grok introdujo capacidades de generación y edición de imágenes, el objetivo era expandir el uso creativo de la inteligencia artificial en X y más allá. Sin embargo, desde diciembre de 2025 usuarios descubrieron que podían pedirle a la IA que modificara fotos de personas para hacerlas aparecer en ropa reveladora o desnudas, incluso cuando esas personas no habían dado su consentimiento. En algunos casos estos deepfakes se viralizaron rápidamente.

Los llamados deepfakes —imágenes generadas por IA que parecen reales pero que no lo son— llevan años siendo tema de debate en tecnología y derechos digitales por su potencial para dañar reputaciones, violar la privacidad o facilitar abusos sexuales digitales. Pero la escala y facilidad con que Grok estaba cumpliendo este tipo de solicitudes generó una respuesta internacional sin precedentes.

Las restricciones que cambiaron el juego

En respuesta a la presión pública y legal, X implementó una serie de modificaciones clave en los primeros días de enero:

  • Limitó la capacidad de generar y editar imágenes con Grok a usuarios de pago, lo que busca aumentar la trazabilidad sobre quién crea contenido.
  • Introdujo filtros automáticos para impedir solicitudes que intenten sexualizar a personas reales, especialmente con ropa reveladora o sin ella.
  • Activó geobloqueos en países con leyes estrictas contra contenido íntimo no consensuado.
  • Asoció la identidad de pago de los usuarios con el contenido generado por IA, como medida de disuasoriedad legal.

Estas restricciones intentan alinear el funcionamiento de Grok con leyes nacionales e internacionales sobre privacidad, consentimiento y abuso digital.

Investigaciones, bloqueos y reacciones regulatorias

La reacción de los gobiernos fue inmediata. En el Reino Unido, el organismo regulador Ofcom abrió una investigación para determinar si X había violado la Ley de Seguridad Online. En paralelo, países como Indonesia y Malasia bloquearon el acceso a Grok por completo. En Estados Unidos, legisladores solicitaron a Apple y Google que retiraran la app de X de sus tiendas virtuales.

Estos movimientos buscan frenar el daño potencial de la tecnología antes de que se normalice su uso sin controles. Las autoridades señalan que los filtros actuales, aunque mejorados, podrían seguir siendo vulnerables a manipulaciones por parte de los usuarios.

Un problema que no termina en X

Aunque la compañía asegura haber reforzado los controles, investigaciones independientes apuntan que en versiones web o servicios externos, Grok sigue permitiendo ciertas funciones que ya no están activas en la app principal. Esto subraya un dilema técnico y legal con una tecnología distribuida que puede operar fuera del alcance inmediato de las restricciones impuestas.

El caso X-Grok pone en evidencia las líneas difusas entre innovación y daño digital. La pregunta ya no es solo qué puede hacer una IA, sino bajo qué condiciones y con qué responsabilidades.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario