Skip to main content

Sam Altman publicó en su blog personal un primer informe de avance sobre Sora 2, la apuesta de OpenAI para generación de vídeo con IA. Altman presenta el informe como un ajuste necesario tras las primeras pruebas de uso. Por un lado, reconoce la tensión con los titulares de derechos. Por otro, expone un problema menos visible. Los usuarios están generando muchos vídeos, pero para audiencias mínimas. La monetización, por ahora, no acompaña esa escala. Y eso obliga a repensar el modelo desde su base.

Una demanda inesperada: vídeos masivos, públicos mínimos

«Las personas están generando mucho más de lo que esperábamos por usuario, y muchos vídeos se están generando para audiencias muy pequeñas», escribe Altman. Es un fenómeno curioso, una herramienta que produce como industria, pero para públicos casi privados. Esa escala sin retorno económico presiona el modelo. “Vamos a tener que ganar dinero de alguna forma con la generación de vídeo”, admite sin rodeos.

Derechos negociados y dinero compartido

OpenAI busca una doble vía para sostener el modelo. La primera pasa por habilitar mecanismos de bloqueo selectivo para evitar que se generen personajes o universos protegidos sin consentimiento. «Escuchamos comentarios útiles de titulares de derechos, creadores y usuarios sobre cómo manejar la generación con personajes protegidos», afirma Altman.

La segunda es más ambiciosa, ofrecer una fórmula de monetización compartida. “Vamos a intentar compartir parte de estos ingresos con los titulares de derechos que quieran que sus personajes sean generados por los usuarios”, anticipa. El modelo todavía no está cerrado, y Altman reconoce que “llevará algo de prueba y error para averiguarlo”, pero asegura que se empezará “muy pronto”.

Más allá de lo económico, el texto apunta a una dimensión simbólica. “Nuestra esperanza es que este nuevo tipo de participación sea aún más valioso que la parte de ingresos compartida, aunque, por supuesto, queremos que ambas cosas sean valiosas”.

Qué se necesita para que funcione

Los cambios que propone Altman implican una nueva capa de gobernanza, detectar cuándo se usa un personaje, distinguir entre uso libre y contenido licenciado, y aplicar restricciones acordadas. No se detalla si será un sistema automatizado o manual, ni cómo se notificará a los titulares. Pero todo apunta a un giro hacia el modelo de “opt-in”, en el que los propietarios deben autorizar el uso de sus creaciones antes de que puedan ser generadas.

También se abrirá un espacio para el registro voluntario, quienes quieran que sus personajes estén disponibles podrán obtener parte de los beneficios. Para los que no, se activará un filtro previo. Esto marca un contraste con la política original de OpenAI, que operaba por defecto hasta recibir objeciones.

Lo que el anuncio deja fuera

El texto de Altman evita entrar en algunos de los terrenos más delicados. No ofrece una solución técnica clara al uso no autorizado de personajes que ya se ha producido. Tampoco aborda de forma directa el problema de los deepfakes o la posibilidad de que se generen vídeos con fines de suplantación o manipulación.

Además, esquiva una cuestión de fondo: la sostenibilidad técnica. Generar vídeo con IA es costoso. Añadir capas de control, trazabilidad y reparto de ingresos solo incrementa esa complejidad. Altman recupera la lógica de iteración de ChatGPT —probar, ajustar, corregir— pero el impacto de los errores potenciales aquí puede ser mayor.

Una IA que ya no opera sola

El blog de Altman no marca una celebración, sino una advertencia. Sora entra en la fase donde el desafío ya no es técnico, sino estructural, cómo sostener la creatividad generativa sin colapsar por costes o demandas legales. La escala ya no es suficiente. La participación —consentida, trazable, compartida— se vuelve el nuevo eje.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario