Un grupo de senadores estadounidenses ha activado la alarma institucional ante un problema que se ha multiplicado en los últimos meses, la circulación masiva de imágenes sexualizadas generadas por inteligencia artificial sin consentimiento. La carta, enviada a las direcciones ejecutivas de X (antes Twitter), Meta, Alphabet (Google), Reddit, TikTok y Snap, exige claridad y acción.
Las plataformas bajo la lupa
Los legisladores piden que las empresas demuestren la existencia de protecciones eficaces contra los llamados «deepfakes sexuales». También les exigen que conserven todos los documentos relacionados con la detección, moderación y posible monetización de este tipo de imágenes. La carta fue firmada por ocho senadores demócratas, entre ellos Lisa Blunt Rochester, Tammy Baldwin y Adam Schiff. El documento va más allá de una reprimenda, solicita definiciones internas sobre términos como «contenido íntimo no consensuado» y exige detalles sobre herramientas técnicas para eliminar estas imágenes y evitar su circulación posterior.
La chispa: Grok y la IA generativa
Buena parte del foco reciente está puesto en Grok, el chatbot desarrollado por xAI e integrado en X. Investigaciones periodísticas revelaron que usuarios han logrado generar miles de imágenes sexualizadas a partir de retratos reales, incluidas fotos de mujeres y menores. Aunque la empresa ha limitado ciertas funciones y promete más controles, los senadores cuestionan la eficacia real de esas medidas. X no es la única señalada. La carta menciona antecedentes en Reddit, TikTok y Telegram, donde comunidades enteras se han organizado para generar o compartir imágenes manipuladas. Las plataformas aseguran tener políticas contra estos usos, pero su aplicación resulta irregular.
Una tendencia con historia
Los deepfakes sexuales no son nuevos. Desde 2017 circulan vídeos falsos de celebridades, y con la popularización de herramientas accesibles de IA, el fenómeno se ha expandido a personas anónimas. Bots capaces de «desvestir» fotografías o simular escenas íntimas son ahora accesibles sin barreras técnicas ni éticas. El daño es difícil de revertir, una vez en la red, estas imágenes suelen replicarse en múltiples canales antes de que las plataformas puedan intervenir. Las víctimas enfrentan un proceso lento y desigual para lograr la eliminación del contenido.
Entre leyes vigentes y vacíos pendientes
La acción senatorial se produce en paralelo a la aprobación de leyes como el Take It Down Act, que obliga a las plataformas a retirar imágenes íntimas no consentidas bajo ciertas condiciones. También está en trámite la DEFIANCE Act, que permitiría a las víctimas demandar a quienes generen deepfakes sexuales. Estas iniciativas reflejan una tensión no resuelta entre el avance técnico y los límites legales. Mientras la IA generativa se expande, las protecciones para quienes sufren sus usos abusivos siguen en construcción.
Qué está en juego
La carta de los senadores no solo exige explicaciones. Pone a prueba la voluntad real de las grandes plataformas para enfrentar los daños colaterales de la inteligencia artificial. Las respuestas que den –o su silencio– podrían acelerar nuevos marcos regulatorios o aumentar la presión pública sobre sus prácticas internas. La tecnología corre, pero las víctimas no deberían quedarse atrás.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.