Skip to main content

La conversación en torno a la inteligencia artificial ha ido evolucionando tan rápido como los modelos que la impulsan. Lo que antes parecía un objetivo inalcanzable —construir modelos más grandes y complejos— ahora se ve eclipsado por otro desafío, que esos modelos funcionen rápido y de forma fluida para millones de personas. Este giro estratégico ha quedado claro con el anuncio más reciente de OpenAI: una alianza de más de 10.000 millones de dólares con la firma de chips Cerebras Systems para dotar a sus sistemas de IA de fuerza bruta en la fase que realmente importa para los usuarios, la inferencia, o ejecución rápida de modelos.

Del entrenamiento «a lo bestia» a la respuesta en milisegundos

Durante años, la industria de la IA compitió por aumentar el tamaño de los modelos y los datos con los que se entrenaban. Esa obsesión, en parte, definió a OpenAI desde los inicios de ChatGPT. Entrenar modelos gigantescos consumía recursos inmenso cómo miles de GPUs y enormes cantidades de energía para ajustar millones o incluso miles de millones de parámetros. El objetivo era hacer modelos que entendieran el lenguaje con una precisión cada vez mayor.

Pero ese enfoque ha empezado a perder fuerza. A medida que la mejora en calidad por añadir más datos y potencia de entrenamiento se ha vuelto marginal, las empresas han cambiado su foco hacia la eficiencia en el despliegue de estos modelos. Ya no es suficiente que un modelo sea capaz, debe ser rápido, eficiente y económico al responder peticiones.

El papel de la inferencia, velocidad para interactuar

Cuando un usuario escribe una pregunta en ChatGPT o pide una imagen o un fragmento de código, no está ocurriendo entrenamiento, está ocurriendo inferencia. Es decir, el modelo ya entrenado calcula su respuesta en tiempo real. Esa fase requiere mucho procesamiento, memoria y rapidez, y es lo que define la experiencia de uso. Es ahí donde OpenAI ahora pone su mirada. El acuerdo con Cerebras Systems busca dotar a OpenAI de hasta 750 megavatios de computación de baja latencia que se desplegarán entre 2026 y 2028 para acelerar esa fase de inferencia. Los chips de Cerebras están diseñados para manejar enormes flujos de datos y acelerar la generación de respuestas, algo que las GPUs tradicionales no hacen con la misma eficiencia.

Por qué importa la velocidad

La competencia en este punto es feroz. Los chips de inferencia no solo deben procesar más rápido, sino también con menor coste energético y mayor eficiencia global. Eso influye directamente en productos como asistentes conversacionales, herramientas de desarrollo, motores de búsqueda inteligentes y sistemas que automatizan tareas complejas.

La velocidad de respuesta se mide en «tokens por segundo», una métrica que indica cuántos fragmentos de texto puede procesar un sistema en un segundo. Cuanto mayor es esa cifra, más rápida parece la IA para el usuario final, especialmente en diálogos largos o tareas que requieren razonamiento profundo.

Una alianza que redefine prioridades

La asociación entre OpenAI y Cerebras no es solo un contrato más de computación. Representa un cambio de paradigma en la industria. Se deja atrás la carrera por acumular modelos cada vez más grandes y se prioriza la capacidad de servir esos modelos a escala. Esta tendencia ya era detectable en otras empresas como Google, que también ha apostado por chips optimizados para la inferencia antes que para el entrenamiento puro.

Además, este acuerdo llega en un momento en que la demanda de computación para IA sigue explotando. OpenAI maneja cientos de millones de usuarios activos cada semana y sus sistemas deben estar disponibles 24/7 con tiempos de respuesta competitivos.

El negocio detrás del rendimiento

Aunque la alianza supone un movimiento tecnológico clave, también tiene implicaciones económicas y estratégicas. Cerebras, hasta ahora una startup con chips especializados, se posiciona como un actor global en infraestructura de IA, y la relación con OpenAI podría ayudarle a escalar su negocio mientras se prepara para un posible IPO. Por su parte, OpenAI diversifica su base de hardware, reduciendo dependencia de los proveedores tradicionales como Nvidia y explorando soluciones que encajen mejor con sus necesidades específicas de inferencia.

Un paisaje que cambia

Este viraje de OpenAI es también un reflejo de la evolución del propio campo de la IA. Ya no se trata solo de cuán grande puede ser un modelo, sino de cuán útil y rápido puede ser en manos de usuarios reales. El futuro de la inteligencia artificial ya no se medirá solo en teraflops o billones de parámetros, sino en velocidad, eficiencia y adaptabilidad para responder a demandas masivas.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario