Skip to main content

OpenAI lo ha vuelto a hacer. Su modelo experimental de inteligencia artificial acaba de alcanzar lo que antes era terreno exclusivo de mentes brillantes de carne y hueso: una medalla de oro en la Olimpiada Internacional de Matemáticas (IMO). No es solo un hito técnico. Es una postal del lugar al que se dirige la inteligencia artificial cuando no se distrae con tareas cotidianas y se sumerge en el pensamiento abstracto.

Pensar durante horas, sin ayuda externa

La IMO no es una prueba de cálculo. Es una maratón mental de nueve horas dividida en dos jornadas, con seis problemas que requieren intuición, lógica y creatividad. El modelo de OpenAI resolvió cinco de ellos sin acceso a internet, con razonamientos escritos en lenguaje natural. Tres exolímpicos revisaron sus respuestas: 35 puntos sobre 42, lo suficiente para colgarse el oro.

De resolver sumas a imaginar estructuras

La evolución del modelo es progresiva, casi como una carrera de fondo. Empezó resolviendo problemas escolares (nivel GSM8K), pasó por pruebas universitarias (MATH), luego por exámenes clasificatorios (AIME) y ahora, la IMO. Según Alex Wei, investigador en OpenAI, lo que distingue a este sistema no es la velocidad, sino la capacidad de mantener el hilo durante horas, sin perderse en su propio razonamiento.

Sin trucos, sin entrenamiento especial

El modelo no fue entrenado específicamente para esta olimpiada. Tampoco es un producto optimizado como AlphaGeometry de DeepMind. Lo que usó fue una combinación de técnicas de “refuerzo general” y una dosis mayor de potencia de cómputo durante la ejecución —una estrategia conocida como test-time compute scaling. En otras palabras: el modelo aprendió a pensar, no solo a memorizar.

Un oro que no todos celebran igual

Gary Marcus, uno de los críticos habituales del sector, lo resumió con escepticismo. En una publicación en LinkedIn escribió: “mi impresión general es que OpenAI nos ha contado el resultado, pero no cómo se logró. (…) Suponiendo que el resultado —que no ha sido validado de forma independiente por la IMO— sea legítimo, aún necesitamos conocer más sobre el entrenamiento, la arquitectura y los costes por problema”. Otros expertos, como los participantes del foro LessWrong, recuerdan que la puntuación (35/42) apenas supera el umbral de la medalla de oro y subrayan que el modelo aún no demuestra comprensión genuina como un humano. La IA razona, sí, pero aún no pregunta.

Ni Google ni xAI han llegado tan lejos

Hasta ahora, ningún otro modelo había alcanzado medalla en este tipo de pruebas. Ni Gemini, de Google, ni Grok, de xAI. La IMO existe desde 1959 y ha sido un semillero de mentes como Terence Tao o Maryam Mirzakhani. Que una IA se siente en la misma mesa no es poca cosa. Es, como mínimo, un cambio de época.

Pero no será parte de GPT-5 (por ahora)

Sam Altman ya lo dejó claro: esta versión experimental no estará disponible de inmediato. GPT-5, que llegará pronto, no incluirá estas capacidades matemáticas. Habrá que esperar a un nuevo modelo más centrado en razonamiento. Por ahora, esta IA se queda en los laboratorios, resolviendo problemas que ni siquiera tienen utilidad directa, pero que anticipan lo que viene.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario