El mensaje de Altman apunta a un cambio de época: si los agentes de IA empiezan a trabajar por nosotros en la red, los sistemas operativos, las interfaces y el propio internet tendrán que rediseñarse para que humanos y máquinas puedan usar los mismos espacios con la misma eficacia.
Sam Altman ha lanzado una de esas frases breves que, en apariencia, parecen una reflexión más en redes sociales, pero que en realidad condensan una agenda tecnológica de enorme alcance. El consejero delegado de OpenAI escribió que parece “un buen momento para replantearse seriamente cómo se diseñan los sistemas operativos y las interfaces de usuario” y añadió una segunda idea todavía más ambiciosa: también habría que repensar internet, porque debería existir un protocolo “igualmente utilizable por personas y agentes”. La formulación es mínima, pero apunta al centro de la próxima disputa tecnológica: quién diseñará la capa de interacción entre humanos, agentes de inteligencia artificial, aplicaciones, datos y servicios digitales.
La reflexión llega en un momento especialmente significativo. La industria está pasando de los chatbots que responden preguntas a agentes capaces de ejecutar tareas, navegar herramientas, leer documentos, llamar a APIs, comprar, reservar, programar, escribir código, revisar archivos y coordinar acciones en nombre del usuario. Este cambio altera una premisa básica del software moderno: durante décadas, los sistemas operativos, las páginas web y las aplicaciones se diseñaron para personas que miraban pantallas, hacían clic, rellenaban formularios y tomaban decisiones paso a paso. Los agentes no funcionan así. Pueden interpretar lenguaje, leer estructuras, llamar servicios y moverse entre sistemas, pero chocan continuamente con una arquitectura digital pensada para la atención humana, no para la delegación inteligente.
Por eso la frase de Altman no debe leerse como una ocurrencia abstracta sobre diseño. Es una advertencia sobre el desajuste entre la web actual y la web que exigirán los agentes. Si una IA debe actuar por una persona, necesita identidad, permisos, memoria, contexto, capacidad de pago, acceso controlado a herramientas, trazabilidad y mecanismos de verificación. La web actual ofrece fragmentos de todo eso, pero de forma dispersa: contraseñas, OAuth, cookies, APIs, formularios, captchas, pasarelas de pago, términos de servicio y paneles de usuario. Es un ecosistema útil para humanos asistidos por software, pero poco elegante para agentes que deben operar de manera fiable y supervisable.
El punto más potente del mensaje es la idea de un protocolo igualmente usable por personas y agentes. No se trataría simplemente de hacer mejores APIs ni de permitir que los modelos “vean” páginas web. Sería algo más profundo: una capa común donde una persona pueda interactuar visualmente y un agente pueda interactuar estructuralmente, sin que el servicio tenga que duplicar todo en una versión humana y otra versión máquina. En términos históricos, sería comparable a la importancia que tuvieron HTTP y HTML para la web documental, pero adaptado a una era en la que la unidad básica ya no es solo la página, sino la acción.
El debate no aparece de la nada. En los últimos meses se ha intensificado la idea de que la IA puede abstraer la interfaz tradicional. Algunos analistas han señalado que, si los agentes pueden entrar en un CRM, consultar datos, activar flujos, generar informes y ejecutar procesos, la interfaz gráfica deja de ser el foso defensivo principal de muchas empresas de software. El valor se desplaza hacia la orquestación, el flujo de trabajo, la propiedad del dato y la fiabilidad de la ejecución. La interfaz sigue existiendo, pero pierde su monopolio como punto de entrada.
En ese contexto, Altman plantea una pregunta de fondo: ¿qué ocurre si ChatGPT, o sistemas similares, se convierten en la capa desde la que se accede al resto del software? La idea de que algunos usuarios ya utilizan ChatGPT como una especie de sistema operativo no es nueva. En debates previos se ha descrito cómo los usuarios más jóvenes pasan de usarlo como buscador a usarlo como consejero, coordinador y entorno de trabajo. Esa evolución sugiere que la interfaz conversacional puede dejar de ser una caja de texto más y convertirse en una superficie de control.
Sin embargo, el modelo actual todavía es insuficiente. Un chat puede ayudar a pensar, resumir o generar instrucciones, pero cuando debe actuar sobre sistemas reales se encuentra con límites: permisos mal definidos, interfaces cambiantes, datos no estructurados, restricciones legales, procesos de autenticación diseñados para humanos y páginas que bloquean automatizaciones. Para que los agentes sean fiables, no basta con hacer modelos más inteligentes. Hace falta rediseñar el entorno en el que actúan.
Ahí entran los sistemas operativos. Desde el punto de vista de Altman, el sistema operativo del futuro quizá no sea solo el software que gestiona archivos, ventanas, procesos y periféricos, sino la capa que administra intenciones, agentes, permisos, contexto y resultados. Hoy, un sistema operativo sabe qué aplicaciones están abiertas, qué archivos existen y qué recursos consume cada proceso. En una era agéntica, debería saber también qué agentes están actuando por el usuario, qué credenciales tienen, qué tareas ejecutan, qué límites no pueden cruzar, qué acciones requieren confirmación y qué resultados deben registrarse.
Esto obligaría a repensar conceptos básicos. La carpeta podría dejar de ser la unidad principal de organización y ceder espacio a proyectos vivos. La aplicación podría dejar de ser el destino y convertirse en una herramienta invocada por agentes. Las notificaciones podrían pasar de interrumpir al usuario a convertirse en puntos de decisión dentro de flujos delegados. El historial no sería solo una lista de acciones pasadas, sino una trazabilidad completa de qué agente hizo qué, con qué datos, bajo qué permiso y con qué resultado.
También cambiaría la interfaz. Durante décadas, el diseño de interfaces se basó en reducir fricción para que una persona pudiera operar una herramienta. Botones, menús, pestañas, paneles, formularios y dashboards son soluciones para humanos. Pero un agente no necesita necesariamente un dashboard. Necesita saber qué acciones existen, qué parámetros requieren, qué consecuencias tienen, qué errores pueden producirse y cómo verificar el resultado. Esto no elimina la interfaz visual, pero la complementa con una interfaz semántica y accionable.
La consecuencia para las empresas de software es enorme. Durante años, muchas compañías compitieron por tener la mejor experiencia de usuario visual: el panel más claro, el flujo más sencillo, el formulario más eficiente. Si los agentes se convierten en usuarios de primer nivel, las empresas también tendrán que competir por ser legibles, gobernables y accionables para máquinas. El diseño ya no será solo UX, sino AX: agent experience. Una buena aplicación no será únicamente la que una persona entiende, sino la que un agente puede usar de forma segura, auditada y eficiente.
El protocolo que imagina Altman debería resolver al menos cinco grandes problemas. El primero es la identidad. Un agente debe poder demostrar quién es, qué usuario lo autorizó y para qué tarea concreta actúa. El segundo es el permiso. No basta con “acceso total” o “sin acceso”: harán falta credenciales limitadas, temporales y específicas. El tercero es el pago. Si un agente compra, contrata o reserva, debe existir una forma de aprobar y limitar transacciones. El cuarto es la trazabilidad. Cada acción debería quedar registrada de forma comprensible para el usuario. El quinto es la reversibilidad o, al menos, la capacidad de corregir errores antes de que se vuelvan irreparables.
La web actual no está preparada para esto de manera uniforme. Hay APIs excelentes y servicios con permisos granulares, pero también millones de sitios diseñados solo para humanos. Hay formularios que cambian, interfaces que dependen de elementos visuales, procesos que exigen captchas o autenticaciones de varios pasos y condiciones que un agente puede no interpretar bien. Una internet para personas y agentes requeriría una capa estándar donde los servicios expongan no solo contenido, sino acciones: qué se puede hacer, con qué restricciones, bajo qué garantías y cómo se confirma.
La propuesta tiene también una dimensión política. Si ese protocolo nace de manera abierta, podría convertirse en una infraestructura común de la próxima etapa de internet. Si nace controlado por unas pocas plataformas, podría concentrar todavía más poder. La compañía que controle la identidad de los agentes, sus permisos, su memoria, su interfaz y su acceso a servicios tendría una posición privilegiada en la economía digital. Por eso el comentario de Altman es, al mismo tiempo, técnico y estratégico.
OpenAI tiene un incentivo evidente para participar en esa definición. ChatGPT ya no aspira solo a responder preguntas; quiere convertirse en un entorno donde se trabaja, se programa, se crea, se consulta y se delegan tareas. Si el futuro de internet exige una capa compatible con agentes, OpenAI quiere estar cerca del estándar, o incluso influir en él. No sería la primera vez que una empresa intenta convertir una interfaz en plataforma. Microsoft lo hizo con Windows, Apple con iOS, Google con Android y la búsqueda, Meta con sus redes sociales. La diferencia es que ahora la interfaz no sería solo una pantalla, sino una inteligencia intermediaria.
El riesgo es que el usuario pierda control. Una interfaz tradicional es lenta, pero visible. El usuario ve el botón, el formulario, la opción y la consecuencia inmediata. Un agente puede actuar más rápido, pero también puede ocultar parte del proceso. Si compra, agenda, borra, firma, responde o modifica información en nombre de alguien, el usuario necesita garantías mucho más fuertes que una simple confirmación final. La confianza dependerá de la transparencia del proceso, no solo de la calidad del resultado.
También hay un riesgo económico. Si los agentes se convierten en intermediarios entre personas y servicios, podrían alterar la distribución de valor en la web. Hoy, muchas empresas dependen de que el usuario visite su página, vea su marca, reciba anuncios, navegue por recomendaciones o pase tiempo en su entorno. Si el agente extrae la información, compara opciones y ejecuta la acción sin que el usuario entre realmente en la interfaz, cambia el modelo de negocio. La web pasa de competir por atención a competir por ser seleccionada por agentes.
Esto afectaría especialmente a buscadores, comercio electrónico, viajes, medios, software empresarial y servicios financieros. En un internet agéntico, el posicionamiento SEO tradicional podría evolucionar hacia algo parecido a AEO: agent engine optimization. No bastará con convencer a humanos o a algoritmos de búsqueda; habrá que ser comprensible, fiable y verificable para agentes que actúan con criterios de coste, preferencia, reputación, disponibilidad y permisos.
La propuesta de Altman también obliga a repensar el navegador. Durante treinta años, el navegador fue la ventana principal a internet. En una web de agentes, podría convertirse en un centro de mando donde el usuario no navega página por página, sino que supervisa agentes que navegan, comparan, ejecutan y reportan. Algunos productos ya apuntan en esa dirección: navegadores con IA integrada, asistentes capaces de ver el contexto de la página, herramientas que resumen, rellenan o automatizan. Pero todavía son capas añadidas sobre una arquitectura antigua. Altman sugiere que quizá haya que rediseñar desde más abajo.
La dificultad está en que internet es, por definición, un sistema descentralizado, heterogéneo y lleno de intereses contradictorios. Crear un protocolo común para personas y agentes exigiría coordinación entre tecnológicas, estándares abiertos, reguladores, proveedores de identidad, sistemas de pago, empresas de ciberseguridad y desarrolladores. También exigiría resolver preguntas legales: qué ocurre si un agente comete un error, si acepta condiciones abusivas, si compra algo equivocado, si comparte datos sensibles o si ejecuta una acción no deseada.
Ese punto conecta con el gran debate sobre responsabilidad. Si una persona usa una interfaz y se equivoca, la responsabilidad suele ser clara. Si un agente actúa con autonomía limitada, la atribución se complica. ¿Responde el usuario que autorizó? ¿La empresa que diseñó el agente? ¿El proveedor del modelo? ¿El servicio que expuso una acción mal documentada? Un protocolo serio tendría que incorporar no solo capacidades técnicas, sino mecanismos de auditoría, responsabilidad y resolución de disputas.
La idea de Altman también puede leerse como una crítica indirecta al estado actual de la IA. Los modelos han avanzado más rápido que los entornos donde deben operar. Tenemos sistemas capaces de razonar sobre tareas complejas, pero los seguimos obligando a usar interfaces hechas para ojos y dedos humanos. Es como si tuviéramos motores eléctricos instalados en carros de caballos. Funcionan, pero el diseño de base no corresponde a la potencia nueva.
Por eso el debate sobre sistemas operativos e interfaces es tan importante. La historia de la computación muestra que los grandes saltos no ocurren solo cuando mejora el cálculo, sino cuando cambia la forma de interactuar con él: línea de comandos, interfaz gráfica, web, móvil, táctil, voz. Los agentes podrían ser el siguiente cambio de interfaz. Pero para que lo sean, necesitan un entorno propio.
La pregunta es si ese entorno será abierto o cerrado. Un protocolo abierto permitiría que agentes de distintos proveedores interactuaran con servicios diversos bajo reglas comunes. Un modelo cerrado, en cambio, podría convertir a unas pocas plataformas en guardianes de acceso. Altman habla de un protocolo, y la palabra importa: sugiere una capa compartida, no solo una función propietaria. Pero la tensión entre apertura e interés corporativo será inevitable.
En última instancia, el comentario de Altman marca un desplazamiento conceptual. La IA ya no se piensa solo como una aplicación dentro del sistema operativo. Empieza a pensarse como una razón para rediseñar el sistema operativo. Ya no se piensa solo como una herramienta que usa internet. Empieza a pensarse como un nuevo tipo de usuario de internet. Y si los agentes son usuarios, entonces necesitan derechos, límites, credenciales, interfaces y protocolos.
Ese es el verdadero alcance de la frase. No habla solo de diseño. Habla de soberanía digital, poder de plataforma, economía de la atención, automatización, seguridad, identidad y futuro del software. Si los agentes van a trabajar con nosotros y por nosotros, la arquitectura digital tendrá que dejar de tratarlos como visitantes improvisados o robots que raspan páginas. Tendrá que reconocerlos como participantes legítimos, controlados y auditables.
La próxima gran interfaz puede que no sea una pantalla nueva, sino una relación nueva: personas que expresan intenciones, agentes que ejecutan bajo límites y sistemas que exponen acciones de forma comprensible para ambos. Ese es el internet que Altman parece estar imaginando. Y si esa visión se impone, la pregunta ya no será qué aplicación usamos, sino qué agente autorizamos y bajo qué reglas dejamos que actúe.