OpenAI ha publicado un documento que suena a declaración de intenciones y a manual de instrucciones. Dice dónde estamos y adónde podríamos llegar si la inteligencia artificial sigue avanzando al ritmo actual. No habla solo de chatbots más listos, sino de descubrimientos científicos, nuevos materiales, educación personalizada… Pero en ese mismo movimiento, propone reglas, frenos y vigilancia. Porque cuando se pisa el acelerador, alguien tiene que mirar la carretera.
De tareas en segundos a semanas de investigación
OpenAI asegura que sus sistemas ya no se limitan a responder preguntas rápidas. Empiezan a abordar tareas que, en manos humanas, durarían semanas. En paralelo, el coste para entrenarlos cae en picado, hasta 40 veces más eficiencia por año en algunos casos (una cifra que invita a releerla dos veces). Esa mezcla entre potencia y abaratamiento cambia el escenario. No es una hipótesis a largo plazo. El documento marca fechas: en 2026, primeros descubrimientos pequeños; en 2028, los importantes. El mensaje es claro, esto no va de mejorar herramientas, sino de empezar a crear conocimiento desde cero.
Cuatro reglas para un juego que ya ha empezado
El documento gira en torno a cuatro propuestas, que buscan ordenar un juego sin árbitros:
- Estándares compartidos entre los laboratorios punteros (los frontier labs). Acuerdos sobre seguridad, evaluaciones conjuntas, menos competencia ciega.
- Supervisión escalada según capacidades. No es lo mismo regular una app de filtros que una IA capaz de descubrir nuevas proteínas.
- Un ecosistema de resiliencia, como el que se creó para la ciberseguridad. Auditorías, protocolos, simulacros de fallos.
- Acceso amplio y justo. Que la IA sea como el agua potable o la electricidad: un recurso distribuido, no un privilegio.
Detrás de cada punto, una tensión no resuelta para cooperar sin frenar la carrera, regular sin asustar al capital, distribuir sin perder el control.
Datos, capacidades y preguntas sin responder
No hay detalles técnicos exhaustivos, pero sí pistas: los modelos actuales procesan grandes volúmenes de datos y realizan tareas que exigen mucho cálculo. OpenAI pide evaluaciones constantes, informes sobre impacto y regulaciones proporcionales al nivel de riesgo.
También propone menos carga para quienes usen IA básica, más obligaciones para quienes desarrollen sistemas cercanos a la llamada «IA general» (la que podría igualar o superar a una mente humana en muchos ámbitos).
Riesgos anticipados y dilemas por resolver
En su diagnóstico, OpenAI reconoce que el avance va por delante de las normas. Y que eso puede ser un problema. Si una IA empieza a hacer descubrimientos, ¿cómo se decide qué es fiable, útil, ético? Asoma también el desajuste económico. Si una máquina hace en días lo que antes llevaba semanas, ¿qué pasa con quienes vivían de ese trabajo? Y el dilema del control, distribuir poder sin perder seguridad, abrir capacidades sin disparar riesgos. No hay respuestas fáciles, pero el documento pone los temas sobre la mesa.
Una frontera irregular
El texto aparece en un momento donde muchos gobiernos y organismos buscan reglas. En Europa, el AI Act define qué modelos requieren control estricto. A la vez, estudios independientes alertan que las promesas éticas de las grandes empresas de IA son difíciles de verificar. En The New Yorker, un artículo reciente decía que el progreso de la IA no es una línea recta, sino una frontera desigual. Hay zonas de avance rápido y otras donde nada cambia durante meses. El documento de OpenAI se sitúa justo en ese borde. Con ambición, pero también con cautela.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.