Skip to main content

En la carrera por acelerar la inteligencia artificial, Microsoft acaba de presentar su jugada más ambiciosa: Maia 200. No es una nueva versión de sus modelos ni una interfaz para usuarios finales, sino un componente invisible para la mayoría, pero esencial. Un chip de inferencia diseñado para ejecutar los modelos de IA más exigentes con mayor eficiencia y menor coste.

El motor que da vida a los tokens

Maia 200 es un acelerador de inferencia. Es decir, no entrena modelos, sino que se encarga de ejecutarlos cuando ya están listos, generando respuestas, imágenes o decisiones en tiempo real. Fabricado con tecnología de 3 nanómetros por TSMC, contiene más de 140.000 millones de transistores.

Su potencia se mide en petaFLOPS, una unidad que indica cuántas operaciones matemáticas puede hacer por segundo. Maia 200 alcanza más de 10 petaFLOPS con cálculos muy simples y más de 5 petaFLOPS con cálculos un poco más precisos. Este tipo de procesamiento «de baja precisión» permite que los modelos de IA trabajen más rápido y consuman menos energía, sin perder calidad en sus resultados. Modelos como GPT-5.2 de OpenAI ya están optimizados para funcionar así.

Maia 200 también incluye un sistema de memoria rediseñado que mueve los datos con más rapidez dentro del chip, lo que evita cuellos de botella y acelera todo el proceso.

Promesas de eficiencia y escala

El nuevo chip no llega solo. Maia 200 se integra en la infraestructura heterogénea de Azure y ya está en funcionamiento en centros de datos de Iowa, con Arizona como siguiente parada. Cada unidad trabaja junto a otras en configuraciones que permiten escalar hasta 6.144 aceleradores conectados. Microsoft promete un rendimiento por dólar un 30% superior al de su hardware actual. Esto lo convierte en una pieza clave para servicios como Microsoft 365 Copilot o la generación de datos sintéticos para entrenar nuevos modelos.

Datos frescos para modelos más vivos

Uno de los usos más destacados de Maia 200 estará en la generación de datos sintéticos, conjuntos de datos creados artificialmente para entrenar IA sin depender de datos reales. Su diseño permite generar y filtrar información con rapidez, adaptándola a dominios específicos. Esto alimenta los modelos con datos más frescos y relevantes, clave para mantener su utilidad y pertinencia.

Bajo el capó del rendimiento

La arquitectura de Maia 200 también rompe moldes a nivel de sistema. Utiliza una red de escala basada en Ethernet estándar, pero con una capa de transporte personalizada que reduce costes y mejora la fiabilidad. Cada chip ofrece hasta 2,8 TB/s de ancho de banda bidireccional, y puede coordinar operaciones colectivas entre miles de aceleradores con eficiencia predecible.

El conjunto se completa con un SDK específico que incluye soporte para PyTorch, un compilador Triton y acceso al lenguaje de bajo nivel de Maia. Los desarrolladores podrán portar modelos con facilidad, pero también afinar su comportamiento cuando sea necesario.

Una pieza más en el tablero de la IA

Con Maia 200, Microsoft no busca solo velocidad. Busca control. Al diseñar su propio chip de inferencia, reduce su dependencia de terceros y afina el equilibrio entre coste, potencia y escalabilidad. Mientras otras empresas como Google o Amazon también desarrollan sus propios aceleradores, la partida se juega en silencio, en racks ocultos en centros de datos.

El futuro de la IA no se decidirá solo por los modelos más inteligentes, sino por qué infraestructura los sostiene. Maia 200 es un recordatorio de que, para que una IA hable, antes alguien ha tenido que construir su voz.

Dejar un comentario