Tras un año marcado por reestructuraciones y salidas de talento, Meta prepara una nueva ofensiva en inteligencia artificial. Según ha filtrado The Wall Street Journal, la compañía está desarrollando un modelo generativo multimodal centrado en imagen y vídeo con el nombre en clave «Mango». Su lanzamiento estaría previsto para la primera mitad de 2026 y vendría acompañado de un segundo proyecto, «Avocado», orientado al texto y la programación.
Una nueva apuesta bajo nueva dirección
El desarrollo forma parte de la estrategia renovada del laboratorio Meta Superintelligence Labs (MSL), ahora liderado por Alexandr Wang, cofundador de Scale AI. La nueva dirección ha redibujado la hoja de ruta con un objetivo claro: crear modelos capaces de razonar, planificar y actuar en entornos complejos sin necesidad de haber sido entrenados específicamente para cada caso.
El modelo Mango se centra en la generación y comprensión de contenido visual, en formatos tanto de imagen como de vídeo. No se trata de una función añadida a modelos de texto, sino de construir una arquitectura genuinamente multimodal.
Qué propone Mango y por qué ahora
Meta ha quedado rezagada respecto a otros actores clave en la carrera por la IA generativa. OpenAI con Sora y GPT-4o, Google con Gemini y Veo, o Anthropic con Claude, han liderado la primera línea. Meta, en cambio, ha centrado sus esfuerzos en integraciones dentro de sus propias aplicaciones, como el chatbot Meta AI o la herramienta Imagine para generar imágenes.
Con Mango, la compañía busca recuperar protagonismo y diversificar su cartera con un modelo visual de nueva generación. Su integración natural serán las plataformas de Meta: Facebook, Instagram y WhatsApp, que funcionan como banco de pruebas y red de distribución masiva.
Un laboratorio en tensión salidas y expectativas
Pese al nuevo impulso, el área de IA de Meta ha vivido un año inestable. Cambios de liderazgo, salida de varios investigadores hacia otras compañías y la marcha reciente de Yann LeCun, hasta ahora jefe científico de IA en Meta, que ha decidido fundar su propia startup. Estos movimientos añaden presión a los primeros modelos que emerjan del Meta Superintelligence Labs deben demostrar que el nuevo rumbo no es solo estructural, sino también técnicamente solvente.
Qué se sabe realmente del modelo
Todavía no se han publicado arquitecturas ni capacidades técnicas detalladas. Tampoco se ha mostrado ninguna demostración visual de Mango. Solo se sabe que está diseñado para trabajar con contenidos visuales y que forma parte de una estrategia más amplia para crear modelos de «world modeling», es decir, sistemas capaces de interpretar el mundo y actuar en él con flexibilidad.
La falta de información concreta genera interrogantes sobre la solidez del proyecto, especialmente en comparación con rivales que ya han presentado resultados públicamente.
El reto de la multimodalidad
La carrera por modelos capaces de entender y generar información en múltiples formatos (texto, audio, imagen y vídeo) se ha convertido en la nueva frontera de la IA. La multimodalidad abre posibilidades que van desde la generación de contenido creativo hasta sistemas de razonamiento situacional.
En este escenario, Meta apuesta fuerte con dos cartas Mango y Avocado. Pero por ahora, juega a puerta cerrada.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.