En un reciente streaming, Sam Altman, director ejecutivo de OpenAI, declaró que la empresa pretende contar para marzo de 2028 con un sistema de inteligencia artificial que actúe como un auténtico investigador autónomo. Esta hoja de ruta coloca el foco en una capacidad más allá del diálogo: que la IA genere descubrimientos propios.
Más que respuestas: hacia una IA que investiga
La idea es impulsar un sistema de IA que ya no solo responda preguntas o genere texto, sino que realice trabajos de investigación como analizar literatura científica, formular hipótesis, diseñar experimentos y posiblemente descubrir «nuevas ciencias». Según Altman, OpenAI busca primero alcanzar un nivel de “asistente de investigación automatizado” para septiembre de 2026, y luego evolucionar hacia un “investigador de IA legítimo” para marzo de 2028.
Este sistema integraría modelos avanzados de aprendizaje automático, razonamiento simbólico, acceso a literatura científica, capacidad de generar hipótesis y comunicación clara de hallazgos. No se trata solo de responder bien, sino de colaborar en la creación de conocimiento.
Promesa de descubrimiento sin pausa
OpenAI plantea que esta IA acelere el ritmo de la ciencia, aborde preguntas complejas y libere a los investigadores humanos de tareas rutinarias. El anuncio también redefine el objetivo de la llamada inteligencia artificial general: ya no se trata de una etiqueta filosófica, sino de una función concreta. Un hito. Si la IA puede investigar, entonces es AGI.
Datos, potencia y diseño de infraestructura
Para lograrlo, OpenAI necesita datos en volumen y variedad. Des de publicaciones científicas, a resultados de experimentos, bases estructuradas y lenguaje natural. También requiere infraestructura. Altman habló de construir una «fábrica» capaz de generar un gigavatio de cómputo semanal, una cifra que revela tanto la ambición como la escala del proyecto. El sistema deberá aprender de forma continua, adaptarse a nuevos hallazgos y justificar sus decisiones. Todo esto con un nivel de trazabilidad que permita auditar cada paso del proceso.
Preguntas sin resolver
La propuesta también deja abierta una serie de tensiones. La promesa de un investigador autónomo para 2028 puede parecer apresurada. Y la autonomía en la investigación plantea retos éticos y de responsabilidad. ¿Quién valida un descubrimiento hecho por una IA? ¿Cómo se evita el sesgo? ¿Y quién decide qué áreas investiga? También hay implicaciones laborales y de gobernanza del conocimiento: si una sola empresa controla una IA capaz de investigar, también podría controlar el rumbo de la ciencia.
Otros lo sueñan, OpenAI lo agenda
No es la primera vez que se plantea este horizonte. Investigadores ya han pronosticado que las máquinas podrán hacer ciencia antes de 2030. Empresas y laboratorios han lanzado proyectos de «asistentes científicos». Pero OpenAI es la primera en ponerle fecha y forma. El calendario es claro, 2026 como becario, 2028 como investigador. La diferencia no es menor. Una cosa es asistir, otra es descubrir.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.