Skip to main content

Google afina su motor de video con IA y da un paso más con la actualización de Veo 3.1, una versión que permite generar clips a partir de imágenes de referencia y un breve texto. Se llama Ingredients to Video y no solo abre nuevas formas de crear, sino también preguntas sobre control y autenticidad.

Tres ingredientes, un clip con ritmo

La herramienta funciona como una receta rápida. El usuario sube hasta tres imágenes: un personaje, un fondo, un objeto. Luego escribe una frase que define la acción o el tono. Con esos ingredientes, Veo 3.1 genera un video breve, en movimiento, con coherencia visual y una estética que recuerda a los anuncios virales o a cortos de animación digital.

La novedad no es que un modelo de IA genere video, sino el nivel de control que ofrece. Los personajes conservan su apariencia entre escenas, los fondos se estabilizan, y el movimiento evita los saltos visuales que hasta hace poco eran el talón de Aquiles de estas tecnologías.

Pensado para pantallas que se deslizan

Una de las mejoras más visibles es el soporte nativo para formato vertical (9:16), alineado con los hábitos de consumo actuales. TikTok, YouTube Shorts, Instagram Reels, plataformas donde la imagen debe impactar en segundos y en pantalla completa. Ahora Veo genera contenido directamente en ese formato, sin necesidad de recortes posteriores. Ya no se trata solo de crear, sino de anticipar cómo se verá. La IA se adapta al lenguaje visual de las redes con primeros planos, centrado automático, ritmo narrativo pensado para el dedo que desliza.

Desde Gemini hasta Vertex: todas las vías

Ingredients to Video no es una función aislada. Está disponible en la app de Gemini, en YouTube Create, en Flow y también a través de la Gemini API y Vertex AI para desarrolladores. Esto significa que tanto creadores individuales como equipos técnicos pueden acceder al mismo motor, adaptarlo a su flujo y escalarlo según sus necesidades. La salida por defecto mejora en resolución, y puede escalarse a 4K si el entorno lo permite.

Una marca invisible para lo visible

Cada video generado incluye una firma digital oculta mediante SynthID, una tecnología desarrollada por DeepMind que permite identificar contenido creado por IA incluso después de ediciones o compresiones. Es una forma de dar trazabilidad sin interferir en la experiencia visual. Esta práctica no evita el mal uso, pero marca una diferencia, quien quiera hacer pasar contenido artificial por real tendrá que esforzarse más. El reto ahora es que estas marcas sean reconocidas y respetadas por otras plataformas.

La carrera sigue, pero el formato importa

OpenAI avanza con Sora, su generador de video con texto. Meta y Runway también empujan en esa dirección. Pero Google apuesta por el control visual, la integración con herramientas existentes y una mirada centrada en el uso cotidiano, especialmente en redes. Lo que antes eran demos técnicas hoy son funciones disponibles en una app.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario