OpenAI ha sorprendido a todos. Aunque los rumores decían que este 5 de agosto de 2025 saldría GPT-5, OpenAI acaba de lanzar GPT - OSS, su primera familia de modelos de pesos accesibles —también conocidos como open-weight— desde GPT-2. La compañía ha optado por publicar antes este modelo de acceso abierto, compatible con arquitecturas comunes y diseñado para correr localmente. Una decisión que promete acelerar la democratización del acceso a la inteligencia artificial avanzada, aunque por un camino distinto al que muchos esperaban.
Una vuelta a los orígenes, pero con más memoria
GPT - OSS llega en dos versiones: gpt-oss-120b, con unos 120 mil millones de parámetros, y gpt-oss-20b, con aproximadamente 20 mil millones. Ambos están disponibles bajo licencia Apache 2.0, que permite uso comercial, modificación y redistribución. Se pueden descargar desde plataformas como Hugging Face, Azure, AWS o Databricks. El modelo grande necesita una GPU de 80 GB; el pequeño funciona con 16 GB de RAM. No hace falta la nube: basta con una buena tarjeta gráfica y algo de paciencia.
Pensar en voz alta, paso a paso
Ambos modelos están entrenados para aplicar el llamado razonamiento en cadena (chain-of-thought reasoning): en lugar de dar respuestas directas, construyen una secuencia lógica de pasos. Pueden integrarse con herramientas como búsqueda web, ejecución de código o agentes que interactúan con otros programas. El modelo de 120B compite con o4-mini en tareas científicas y de codificación, y lo supera en pruebas de medicina o matemáticas avanzadas. El de 20B, más ligero, alcanza el rendimiento de o3-mini.
Texto, puro y duro
Son modelos centrados exclusivamente en texto. No procesan imágenes, audio ni video. Tampoco se ha publicado su código de entrenamiento ni los datos utilizados, pero sí permiten ajuste fino (fine-tuning), ya sea desde cero o sobre el modelo base. Por eso resultan especialmente útiles en entornos donde se requiere control total del sistema: hospitales, universidades o administraciones públicas.
¿Hasta dónde se puede abrir sin perder el control?
OpenAI insiste: GPT-OSS no es open source en sentido estricto. Faltan componentes esenciales —como los datos de entrenamiento—, lo que limita la transparencia. Aun así, al liberar los pesos del modelo, se habilitan usos que pueden escapar al control previsto. OpenAI realizó pruebas adversariales para detectar riesgos y garantizar que incluso versiones modificadas no rebasen umbrales críticos en seguridad biológica o cibernética. Una de las claves está en el sistema de instrucciones, que debe evitar que el modelo se salte sus propias restricciones.
Una carrera de aperturas desiguales
GPT-OSS entra en un ecosistema diverso. Frente a iniciativas como LLaMA (Meta), Gemma (Google) o DeepSeek (China), OpenAI plantea una fórmula mixta: un modelo potente, con licencia permisiva, pero sin llegar a publicar todo el proceso. Cuenta además con soporte para herramientas como llama.cpp, NVIDIA RTX o Microsoft AI Foundry, lo que favorece una adopción ágil entre desarrolladores y centros de investigación.
Volver al punto de partida (pero con otras preguntas)
Con GPT-OSS, OpenAI retoma una senda que otros nunca abandonaron. Se abre de nuevo, pero sin entregarlo todo. Ofrece una opción para quienes buscan independencia técnica, menor coste o despliegue local. Queda por ver qué harán con ello quienes se animen a descargarlo.
Sam Altman, CEO de OpenAI, anticipó que esta semana podrían anunciarse más cosas (posiblemente GPT-5) y dejó caer en X: «muy pronto, algo más inteligente que la persona más lista que conozcas estará funcionando en un dispositivo en tu bolsillo, ayudándote con lo que necesites. Es algo realmente extraordinario.»
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.