OpenAI ha dado un paso decisivo para dejar de depender del hardware ajeno. Su nuevo proyecto, en colaboración con Broadcom, busca diseñar aceleradores de inteligencia artificial hechos a medida. El objetivo es desplegar 10 gigavatios de potencia computacional a partir de 2026. No se trata de un reemplazo inmediato de Nvidia o AMD, sino de una apuesta a largo plazo por el control total sobre su infraestructura.
Un chip hecho a medida para la IA generativa
OpenAI se encargará del diseño del chip y de los sistemas completos que los integran. Broadcom aportará su experiencia en conectividad, especialmente en soluciones Ethernet y redes de interconexión a gran escala. Juntos construirán racks escalables que combinen potencia de cálculo con infraestructura de red optimizada. La fabricación quedará en manos de TSMC, uno de los gigantes taiwaneses del sector.
El plan es ambicioso, desplegar los nuevos sistemas entre 2026 y 2029. El primer diseño ya ha entrado en fase de «tape-out», una etapa avanzada que precede a la producción masiva. Si todo va según lo previsto, los primeros chips podrían estar operativos a finales de 2026.
Tres razones para tomar el control del silicio
Con este movimiento, OpenAI busca algo más que independencia. Diseñar su propio chip ofrece tres ventajas clave. Primero, permite optimizar el hardware en función de los modelos que ya conoce por dentro. Segundo, reduce su dependencia de Nvidia, cuyo dominio del mercado ha generado cuellos de botella y precios elevados. Y tercero, le da margen para escalar sus operaciones sin esperar a terceros.
OpenAI aspira a desplegar una infraestructura de 10 gigavatios de potencia, una cifra que ilustra la dimensión energética y logística del reto. Según explica en el comunicado oficial de OpenAI Greg Brockman, cofundador de la compañía, estos chips permitirán integrar aprendizajes del desarrollo de modelos directamente en el silicio, desbloqueando nuevas capacidades.
De los datos al rack: una cadena cerrada
La colaboración con Broadcom no se limita al diseño del chip. Incluye también la construcción de sistemas completos, desde los aceleradores hasta la red que los conecta. El resultado será una arquitectura propia, optimizada para los flujos de datos de sus modelos. Es un paso hacia la verticalización, donde la empresa controla desde el software hasta el metal. Los racks estarán formados por aceleradores personalizados y soluciones de red de Broadcom, como conectividad PCIe, óptica y Ethernet, que según Broadcom están diseñadas para equilibrar costo, eficiencia energética y rendimiento. Por ahora, no se planea comercializarlos a terceros.
Todos quieren su propio chip
OpenAI no está sola en esta estrategia. Google lleva años con sus TPU. Amazon, Meta y Microsoft también desarrollan chips a medida. La diferencia es que OpenAI llega después, pero con una curva de aprendizaje más empinada y una experiencia directa en modelos generativos a gran escala. Diseñar chips propios no es solo una cuestión técnica. Es una forma de fijar las reglas del juego. Queda por ver si el silicio de OpenAI estará a la altura de sus algoritmos.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.