La proliferación reciente de vídeos racistas generados con inteligencia artificial en TikTok e Instagram ha prendido alarmas. Estas piezas, fácilmente identificables por la marca de agua “Veo” —propia de Google Veo 3—, retratan a mujeres negras como “bigfoot baddies” (criaturas híbridas humano-primates), con un lenguaje estereotipado cargado de referencias degradantes, como bonetes, jergas caricaturescas o una botella de Hennessy escondida en genitales. Vistas por millones, estas representaciones se nutren de clichés racistas tan antiguos como la caricatura minstrelsy, perpetuados a través de IA.
Estas creaciones se originan tras el lanzamiento en mayo de 2025 del módulo Google Veo 3, capaz de generar clips de ocho segundos con audio realista a partir de simples indicaciones textuales. Sin embargo, aunque Google sostiene que el sistema bloquea solicitudes “dañinas”, la realidad demuestra que estos contenidos han sorteado los filtros existentes, alcanzando visibilidad masiva y viralidad.
TikTok, Meta e Instagram han reaccionado retirando cuentas y moderando los vídeos más ofensivos —incluso antes de que el informe de Media Matters sea público—, pero este esfuerzo ha sido parcial y tardío. La estrategia algorítmica de recomendación amplifica estos contenidos de alto impacto emocional, expandiendo su alcance incluso a públicos que no están predispuestos a consumir este tipo de material: basta con interactuar brevemente con uno de ellos para recibir más en el feed .
Ya van varias semanas desde que los primeros vídeos fueron detectados, y la viralidad no se frena. Abundan los cursos “educativos” de 15 USD que enseñan a generar estos clips con prompts racistas, lo que convierte estas herramientas en un negocio paralelo. Expertos como Nicol Turner Lee (Brookings) y Meredith Broussard (NYU) denuncian esta práctica como “minstrelia moderna”: la IA, advierten, no solo facilita la creación de estos contenidos, sino que los algoritmos de difusión los potencian.
Este fenómeno no solo ocurre en TikTok: en YouTube e Instagram se han detectado contenidos similares, como monos comiendo pollo frito o vídeos con alusiones antisemitas o xenófobas . Aunque Veo 3 incluye marcas de agua visibles e invisibles (SynthID), estas pueden ser fácilmente ocultadas o removidas, debilitando su eficacia.
El auge de esta tendencia apunta a un fracaso importante: la capacidad de las plataformas —Google, TikTok, Meta— para anticipar el mal uso de la IA y controlarlo con rapidez. A falta de una moderación más audaz y colaborativa, la emergencia de contenido racista generado mediante IA podría tornarse un patrón recurrente, afectando no solo a minorías, sino también al espacio público, la confianza tecnológica y la ética digital.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.