“Aléjate del negocio de los agregadores”: el ejecutivo que dirige la organización global de startups de Google avisa de que los wrappers de modelos y los agregadores de modelos están entrando en una fase de presión competitiva y márgenes estrechos.
El boom de la inteligencia artificial generativa produjo una escena casi caricaturesca: una startup por minuto, demos deslumbrantes, rondas relámpago y productos que, con una interfaz pulida, prometían “poner un copiloto” en cualquier tarea imaginable. Pero cuando el mercado empieza a distinguir entre brillo y negocio, aparecen las categorías que pasan de tendencia a advertencia. Y una de las alertas más claras llega desde una voz con vista panorámica del ecosistema: Darren Mowry, responsable de la organización global de startups de Google a través de Cloud, DeepMind y Alphabet, sostiene que dos tipos de compañías tienen ahora la “luz de check engine” encendida: los LLM wrappers y los agregadores de modelos de IA.
La frase no es casual. En el lenguaje de producto, la “luz de motor” no significa que el coche esté muerto: significa que algo va mal y que ignorarlo sale caro. Mowry lo dijo en el podcast Equity y TechCrunch lo resume con contundencia: si tu propuesta depende casi por completo de un gran modelo (Claude, GPT, Gemini) y tú solo pones una capa fina de experiencia de usuario, el sector ya no tiene paciencia para eso. Y si tu propuesta es intermediar entre varios modelos —enrutando consultas y ofreciendo un “todo en uno” con acceso múltiple— la recomendación para quien está empezando es todavía más tajante: “Stay out of the aggregator business.”
1) El problema de los wrappers: cuando tu producto es “un modelo con botones”
Un LLM wrapper (por simplificar) es una startup que toma un gran modelo de lenguaje ya existente y le añade una capa de producto —una interfaz, un flujo, plantillas, algún sistema de organización— para resolver un problema concreto. Es el patrón típico de “IA para estudiar”, “IA para escribir informes”, “IA para resumir llamadas”, “IA para…” lo que sea. TechCrunch pone un ejemplo explícito: una startup que ayuda a estudiantes a estudiar usando IA.
¿Por qué ese modelo se vuelve frágil? Porque si el valor principal lo entrega el modelo “de detrás” y la startup apenas lo “marca en blanco” (white-label), el diferencial es mínimo y, con el tiempo, tiende a evaporarse por tres vías:
- El propio proveedor del modelo mejora el producto base. Lo que hoy es una “función premium” de una startup (resumen, reescritura, tutoría, extracción) mañana aparece nativamente en el modelo o en su plataforma de consumo/empresa.
- El coste variable presiona. Si el negocio depende de llamadas a API, el margen se vuelve vulnerable a precios, límites, latencia y competencia. Vendes “acceso” sin controlar el “motor”.
- La sustitución es fácil. Si tu ventaja es una interfaz agradable, cualquiera puede replicarla. Y el usuario, cada vez más, se acostumbra a ir directo a ChatGPT, Gemini o Claude.
Mowry lo dice sin rodeos: envolver “propiedad intelectual muy delgada” alrededor de Gemini o GPT-5 indica que no hay diferenciación real. Para crecer, necesitas “fosos” (moats) profundos: diferenciación horizontal clara o, mejor aún, una especialización vertical específica.
Aquí aparece un matiz clave: no todos los wrappers son basura. Lo que cambia es el umbral. TechCrunch menciona dos ejemplos de “wrapper con foso”: Cursor (asistente de programación) y Harvey (asistente legal). ¿Qué los hace distintos? Que no se limitan a “preguntar al modelo”, sino que construyen producto alrededor: integración con flujos reales, contexto, seguridad, evaluación, experiencia por rol, datos, y un ajuste fino del sistema al problema. En otras palabras: el modelo es un componente, no el producto completo.
2) El problema de los agregadores: el “middleman” en una industria que se integra
Los agregadores de modelos son, en esencia, un subconjunto de los wrappers: plataformas que reúnen varios modelos en una sola interfaz o capa de API, enrutan consultas según precio/rendimiento y dan acceso a múltiples proveedores. Suelen vender “orquestación”: monitorización, gobernanza, evaluación, routing, compliance. TechCrunch cita ejemplos conocidos del imaginario del sector, como Perplexity u OpenRouter (este último como acceso a múltiples modelos a través de una API).
La advertencia de Mowry se apoya en una lógica histórica: cuando el “core” madura, el intermediario sufre. Su argumento es que muchos agregadores no muestran hoy gran progreso porque los usuarios no quieren solo acceso o computación; quieren que el producto tenga propiedad intelectual incorporada que garantice que se les envía “al modelo correcto en el momento correcto” según su necesidad, no según restricciones internas de disponibilidad o coste.
Dicho de forma más dura: si tu negocio es “ser el router” entre modelos, el día que los proveedores construyen routers mejores, más integrados y con sello empresarial, tu valor se comprime.
3) El espejo de la nube: de revendedores de AWS a supervivientes con servicios reales
Para explicar por qué cree que esta película ya la hemos visto, Mowry recurre a su propia trayectoria: décadas en la nube, con experiencia previa en AWS y Microsoft antes de aterrizar en Google Cloud. Y traza un paralelismo con finales de los 2000 e inicios de los 2010, cuando el despegue de Amazon Web Services generó un “boom” de startups que revendían infraestructura de AWS con una promesa atractiva: entrada más fácil, facturación consolidada, tooling, soporte.
¿Y qué ocurrió? Cuando Amazon construyó sus herramientas empresariales y los clientes aprendieron a gestionar la nube directamente, la mayoría de esos revendedores quedaron estrangulados. Sobrevivieron los que añadieron servicios reales: seguridad, migración, consultoría DevOps, especialización industrial.
La analogía es relevante porque sugiere un “final de etapa”: en una fase temprana, el mercado paga por simplificación y acceso; en una fase madura, paga por resultados, integración y responsabilidad operativa. Los agregadores de IA, según Mowry, afrontan una presión de márgenes similar a medida que los proveedores de modelos incorporan funciones “enterprise” y reducen el espacio del intermediario.
4) Qué significa “foso” en 2026: datos, flujos y responsabilidad
La palabra “foso” suena abstracta, pero en IA se concreta en componentes muy prácticos:
- Datos propios (o derecho a usarlos) y una forma defensible de convertirlos en ventaja.
- Integración en el flujo de trabajo (no solo “hacer una tarea”, sino vivir en el proceso: permisos, auditoría, trazabilidad, control de versiones, revisiones humanas).
- Evaluación y calidad: medir, mejorar, detectar errores, alucinaciones, sesgos, seguridad.
- Distribución: canales de adquisición robustos, reputación, comunidad, alianzas.
- Especialización vertical: lenguaje, normas y riesgos de un sector (legal, salud, finanzas, industria).
Sin eso, el producto tiende a ser reemplazable por la siguiente actualización del proveedor de modelo o por un competidor con más músculo de distribución.
5) Las apuestas que sí ve con recorrido: “vibe coding”, plataformas y consumo
La advertencia no es un funeral; es un mapa de dónde cree que está el oxígeno. Mowry se declara optimista con el “vibe coding” y las plataformas para desarrolladores, que habrían tenido un año récord en 2025 con compañías como Replit, Lovable y Cursor (clientes de Google Cloud, según él) captando inversión y tracción.
También espera crecimiento en tecnología directa al consumidor: empresas que ponen herramientas potentes en manos de usuarios finales con casos claros. Y cita un ejemplo con sabor a estrategia de plataforma: estudiantes de cine y televisión usando Veo (generador de vídeo de Google) para dar vida a historias.
Más allá de la IA “pura”, añade dos campos que ve “en momento” por inversión y por disponibilidad masiva de datos: biotecnología y clima. De nuevo, la palabra “datos” aparece como gasolina de valor real: no solo acceso a modelos, sino acceso a información y capacidad de transformarla en soluciones medibles.
6) Lectura para fundadores: no basta con estar “encima” del modelo
La conclusión práctica de este aviso se resume así: el mercado está entrando en su fase darwiniana. En 2023-2024 bastaba con poner una buena interfaz sobre un modelo potente y demostrar magia. En 2026, la pregunta cambia: ¿qué parte del valor controlas tú? Si la respuesta es “casi nada, lo hace el modelo”, la luz del motor se enciende.
Eso no significa que construir sobre modelos sea un error; significa que construir solo sobre modelos es una apuesta débil. Los ganadores probables serán quienes conviertan la IA en producto con responsabilidad: el que se integra, se audita, se adapta a un sector, se mide, se defiende.
Y, sobre todo, quienes entiendan que la ventaja ya no está en tener acceso a un modelo, sino en convertirlo en un sistema.