Skip to main content

Grok, la inteligencia artificial de xAI, acaba de lanzar una nueva función que permite generar vídeos de hasta 15 segundos a partir de una breve descripción escrita. En un primer momento, me pareció una idea brillante: puede ser útil para estimular la creatividad, para crear contenido visualmente llamativo, incluso para generar vídeos virales sin necesidad de herramientas complejas. En medio de todo el revuelo que ha rodeado a Grok en los últimos meses, esto parecía, por fin, un avance interesante.

Hasta que vi la opción “spicy”.

Con solo activar una casilla, la IA adapta el contenido a un tono más sugerente, más provocador. Y ahí es donde el entusiasmo inicial se convirtió en preocupación. No porque el contenido sensual sea malo en sí, sino porque estamos hablando de una herramienta automatizada, accesible a cualquiera, sin filtros reales, y con una capacidad brutal de generar imágenes en masa. ¿De verdad necesitamos que una IA fabrique este tipo de vídeos en segundos?

Y es que, siendo sinceros, la IA de Elon Musk no ha traído más que polémicas desde su lanzamiento. Entre las respuestas problemáticas, los sesgos que se han detectado y ahora esta nueva apuesta por el contenido “spicy”, cuesta tomarse en serio su objetivo inicial. Más que una herramienta para mejorar la comunicación o el pensamiento, parece una máquina diseñada para llamar la atención a cualquier precio, aunque sea a costa de la ética o del sentido común.

El problema es más profundo de lo que parece. La inteligencia artificial tiene un potencial enorme: puede servirnos para aprender, crear, pensar. Pero cuando se destina a producir vídeos picantes, vacíos y diseñados únicamente para captar atención rápida, se está mal utilizando. Y peor aún: se está reforzando una lógica que ya domina internet desde hace años. No se busca contenido útil, ni creativo, ni significativo. Se busca lo que más rápido se consuma. Y el sexo —o lo que lo insinúe— siempre ha sido rentable en ese sentido. La IA no hace más que automatizar esa lógica.

Además, hay algo éticamente preocupante en todo esto. Este tipo de contenido contribuye a la reproducción de estereotipos, a la hipersexualización de cuerpos (inventados, pero cargados de referencias culturales), y a la trivialización de temas sensibles. Y como estos vídeos no tienen contexto ni responsabilidad detrás, cualquiera puede consumirlos. Incluidos menores. ¿De verdad estamos cómodos con esa idea?

También hay un riesgo evidente de saturación. Si se puede generar contenido artificial sin límites, acabaremos rodeados de vídeos que no dicen nada, que se parecen todos entre sí, y que solo sirven para llenar la red de más ruido. Un ecosistema digital más ruidoso, más superficial y, por tanto, más desinformado.

El deseo, que es algo humano, complejo e íntimo, se convierte aquí en un producto fabricado por algoritmos. Ni siquiera se hace de forma original: se basa en fórmulas repetidas, clichés visuales y estímulos fáciles. ¿Qué relación estamos creando con la tecnología si incluso eso lo dejamos en manos de una máquina?

Y ahí está el punto clave: la inteligencia artificial no nació para esto. No nació para sexualizar, simplificar y repetir estereotipos vacíos. Nació para ayudarnos, para facilitar la vida, para mejorar procesos, expandir la creatividad o democratizar el acceso al conocimiento. Usarla para generar vídeos provocativos que solo refuerzan ideas dañinas no solo es un mal uso, es una pérdida. Porque no se trata de rechazar el avance tecnológico. Todo lo contrario. La IA puede ser una herramienta increíble, siempre que sepamos cómo usarla. Pero si empezamos a normalizar la creación automática de vídeos “spicy” como si fuera una innovación creativa, entonces no estamos avanzando. Estamos perdiendo el rumbo. Y el espacio para lo real, lo crítico y lo valioso se va reduciendo, vídeo a vídeo.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario