El giro más profundo de OpenAI no está en un nuevo modelo ni en otro producto, sino en una idea política de fondo: si la superinteligencia llega como cree Sam Altman, el capitalismo actual no bastará para absorber el impacto sin un rediseño del reparto, de la protección social y del papel del Estado.
Sam Altman lleva años hablando del potencial transformador de la inteligencia artificial, pero el movimiento que ahora propone va más allá de la tecnología. El consejero delegado de OpenAI no se limita esta vez a advertir sobre oportunidades o riesgos, ni a defender la necesidad de una regulación general. Lo que ha puesto sobre la mesa es algo mucho más ambicioso: una hoja de ruta para rehacer el contrato social en la era de la superinteligencia. En una entrevista con Axios, Altman sostiene que el impacto de la IA avanzada será tan rápido, tan profundo y tan desestabilizador que Estados Unidos necesitará una respuesta equiparable a la del Progressive Era y el New Deal, dos momentos históricos en los que el poder público redefinió las reglas del juego económico para responder a transformaciones estructurales.
La novedad no está solo en el tono, sino en el contenido. OpenAI ha publicado un documento oficial de 13 páginas titulado Industrial Policy for the Intelligence Age: Ideas to keep people first, presentado expresamente como un punto de partida para el debate público. La empresa subraya que no se trata de un programa cerrado, sino de una propuesta inicial y exploratoria, pero aun así el texto contiene ideas de gran calado: un fondo público de riqueza para que los ciudadanos participen en el valor generado por la IA, impuestos ligados al trabajo automatizado, pilotos de semana laboral de cuatro días sin reducción salarial, acceso asequible a modelos fundacionales como un “derecho a la IA”, refuerzo de redes de seguridad adaptativas y nuevos regímenes de auditoría para los modelos más peligrosos. OpenAI añade además que quiere abrir una fase de discusión con becas, créditos API y un nuevo espacio de debate en Washington.
Lo importante aquí es que Altman ya no habla como un fundador que pide simplemente “menos fricción regulatoria” para que la innovación avance. Habla como alguien que da por hecho que la IA no será una mejora más de productividad, sino una fuerza capaz de alterar la base fiscal del Estado, la organización del trabajo, la distribución de la riqueza y la estabilidad institucional. Esa es la tesis central del documento y también de la entrevista: la superinteligencia no sería una nueva herramienta dentro del sistema, sino un shock lo bastante grande como para obligar a rediseñar el propio sistema.
Ahí reside la carga política del anuncio. Durante décadas, Silicon Valley tendió a presentarse como un ecosistema que avanzaba más deprisa cuanto menos interferencia encontraba. Incluso cuando aceptaba la regulación, solía hacerlo desde una lógica defensiva o acotada: privacidad, competencia, contenidos, antimonopolio. Altman cambia el marco. No pide únicamente reglas para hacer segura la IA; plantea mecanismos explícitos de redistribución de la riqueza generada por la propia tecnología que su empresa está construyendo. Axios subraya que se trata de algo inédito entre los grandes líderes tecnológicos: un titán del sector publicando un plano detallado sobre cómo el Estado debería gravar, regular y redistribuir el valor de la tecnología de la que él mismo quiere beneficiarse.
Pero conviene leer este movimiento en dos niveles a la vez. En el primero, el más visible, hay una genuina toma de posición sobre lo que puede venir. Altman advierte de riesgos inmediatos como ciberataques y amenazas biológicas, y lo hace en términos extraordinariamente concretos. En la entrevista, dice que ve “totalmente posible” que avances inminentes en IA habiliten un ciberataque de gran escala en el próximo año, y afirma también que la posibilidad de que grupos terroristas o actores estatales utilicen modelos avanzados para intentar diseñar nuevos patógenos ya no es algo meramente teórico. Esa percepción del riesgo está alineada con la parte del documento donde OpenAI insiste en que la transición hacia la superinteligencia trae amenazas graves en ciberseguridad, biología, pérdida de control y daño a sistemas críticos, y que por ello la seguridad debe escalar al ritmo de la capacidad.
En el segundo nivel, más estratégico, el movimiento sirve también para reposicionar a OpenAI en el terreno político. La empresa no quiere aparecer solo como el actor que corre más rápido en la carrera comercial de la IA. Quiere presentarse como la compañía que, además, ha asumido antes que nadie la dimensión social del cambio. Eso le da iniciativa narrativa y le permite ocupar un espacio muy valioso: el de la empresa que no solo construye la tecnología, sino que también ofrece el marco de gobernanza con el que el Estado podría domesticarla. Es un gesto de responsabilidad, sí, pero también de poder. Quien define el lenguaje del debate condiciona parte del debate mismo.
El núcleo económico del documento es revelador. OpenAI parte de una idea relativamente simple: si la IA desplaza parte del trabajo humano, la composición de la actividad económica se moverá desde salarios y cotizaciones hacia beneficios corporativos, rentas de capital y retornos sobre sistemas automatizados. Eso, según el texto, puede erosionar la base que hoy financia programas como Social Security, Medicaid, SNAP y otras redes de protección. Por eso propone “modernizar la base fiscal” aumentando el peso de ingresos basados en capital —como mayores impuestos sobre plusvalías en la parte alta, impuestos sobre beneficios empresariales o medidas focalizadas sobre retornos sostenidos ligados a la IA— y explorar nuevas fórmulas como gravámenes relacionados con el trabajo automatizado. No es exactamente un programa clásico de “impuesto a los robots”, pero sí una reformulación muy cercana de esa intuición: si la automatización vacía la recaudación del trabajo, el Estado deberá recaudar más desde el capital que la automatización engorda.
El segundo gran eje redistributivo es todavía más llamativo: el fondo público de riqueza. OpenAI propone crear un vehículo que dé a cada ciudadano una participación directa en el crecimiento económico impulsado por la IA, incluyendo a quienes no invierten en mercados financieros. La idea sería que el fondo se alimente en parte con aportaciones ligadas al propio boom de la IA y se invierta en activos diversificados de largo plazo, capturando valor tanto de empresas puramente de IA como de compañías que adopten y desplieguen esta tecnología. Los rendimientos podrían repartirse directamente entre los ciudadanos. El mensaje político es claro: si el capital tecnológico tiende a concentrarse, la respuesta no debería limitarse a impuestos compensatorios, sino incluir mecanismos de participación patrimonial colectiva en esa nueva riqueza.
Aquí asoma una vieja idea de Altman, ahora reciclada en clave institucional. Desde hace años se le ha asociado con propuestas cercanas a la renta básica o a formas de “dividendo” derivadas del progreso tecnológico. Lo nuevo es que ahora esa intuición aparece incrustada dentro de una arquitectura de política industrial y presentada desde la propia OpenAI como propuesta oficial de discusión. No es una ocurrencia personal de un fundador. Es una pieza de la posición pública de una empresa que compite por liderar la era de la superinteligencia.
La propuesta laboral también merece atención. OpenAI no asume que todo el dividendo de productividad deba traducirse en beneficios empresariales o salarios diferidos. Su documento habla de “efficiency dividends”: convertir las ganancias de eficiencia derivadas de la IA en mejoras duraderas para los trabajadores, incluyendo mayores contribuciones a la jubilación, más cobertura sanitaria, subsidios para cuidados y pilotos acotados de semana laboral de 32 horas o cuatro días sin pérdida salarial, manteniendo constantes los niveles de producción y servicio. Si esos pilotos funcionan, el tiempo recuperado podría convertirse en reducción permanente de jornada, tiempo libre acumulable o ambas cosas. No es solo una defensa simbólica de la semana corta; es un intento de institucionalizar que parte del valor ganado por automatización vuelva a los trabajadores en forma de tiempo y seguridad, no únicamente de output agregado.
Hay otra propuesta con enorme carga ideológica: el “Right to AI”. OpenAI plantea tratar el acceso a la inteligencia artificial como algo fundacional para participar en la economía moderna, equiparándolo en lógica histórica a campañas de alfabetización o a la extensión de la electricidad e internet. El texto pide ampliar el acceso asequible y fiable a modelos fundacionales y garantizar puntos de entrada gratuitos o de bajo coste, además de invertir en educación, conectividad, infraestructura y formación para que trabajadores, pequeñas empresas, escuelas, bibliotecas y comunidades desatendidas no queden fuera de las capacidades que impulsarán productividad y oportunidad. En otras palabras, la empresa propone que el acceso funcional a la IA deje de verse como un lujo comercial y empiece a entenderse como infraestructura económica básica.
Esto encaja con una lectura más amplia del momento. Si en los años noventa y dos mil la gran discusión fue quién tenía acceso a internet, ahora la cuestión emergente es quién tendrá acceso útil, asequible y continuo a sistemas avanzados de IA. OpenAI, que obviamente gana si esa adopción se universaliza, está intentando enmarcar ese acceso como una necesidad pública. Es una idea potente, pero también ambigua. Porque ampliar el acceso no equivale necesariamente a democratizar el control. De hecho, el propio documento reconoce que, a medida que ciertas capacidades se vuelvan más peligrosas, puede ser necesario restringir el acceso a algunos sistemas de frontera por razones de seguridad. Ahí se dibuja la tensión central de esta nueva política: abrir la IA lo suficiente para que no concentre riqueza y agencia, pero cerrarla lo suficiente para que no multiplique riesgos catastróficos.
En materia de seguridad y regulación, el texto es igualmente explícito. OpenAI propone reforzar instituciones como el Center for AI Standards and Innovation para desarrollar estándares de auditoría para riesgos de frontera, crear un mercado competitivo de auditores y evaluadores y aplicar auditorías pre y posdespliegue solo a un pequeño grupo de modelos muy avanzados, especialmente aquellos capaces de aumentar de forma material riesgos químicos, biológicos, radiológicos, nucleares o cibernéticos. La empresa también plantea “playbooks” de contención para sistemas peligrosos una vez liberados al mundo, asumiendo escenarios en los que los pesos del modelo ya circulan, los desarrolladores no quieren o no pueden limitar el acceso, o los sistemas son autónomos y capaces de replicarse. Aquí la referencia ya no es el compliance clásico del software, sino un régimen de contención propio de tecnologías de alto riesgo.
Quizá el punto más políticamente delicado es el de la gobernanza corporativa. OpenAI sostiene que las compañías de frontier AI deberían adoptar estructuras que incorporen responsabilidad de interés público en la toma de decisiones, como Public Benefit Corporations con gobierno alineado con la misión. Añade que esas estructuras deberían incluir compromisos explícitos para repartir más ampliamente los beneficios de la IA, también mediante filantropía o acción caritativa de largo plazo, y al mismo tiempo proteger sistemas de frontera frente a captura interna o corporativa asegurando pesos, infraestructura de entrenamiento, auditorías sobre comportamientos manipulativos y supervisión de despliegues de alto riesgo. El mensaje aquí es extraño y revelador: incluso dentro de las empresas que construyen estos modelos, OpenAI teme la concentración de poder y la posibilidad de que facciones internas los utilicen para capturarlo aún más.
Eso enlaza directamente con la biografía reciente de OpenAI. La empresa sabe mejor que casi nadie que los debates sobre misión, lucro, control y seguridad no son teóricos. El propio Altman fue apartado y restituido en una crisis de gobierno corporativo que convirtió a OpenAI en laboratorio de tensiones entre idealismo fundacional, aceleración comercial e intereses geopolíticos. Que ahora la compañía hable de misión pública, de gobernanza alineada y de evitar captura no puede separarse de ese pasado inmediato. Aquí no solo hay teoría política sobre la IA; hay también una respuesta preventiva al tipo de preguntas que OpenAI ya ha tenido que enfrentar sobre quién manda realmente y en nombre de qué. Esa parte es una inferencia, pero está respaldada por el énfasis que el documento pone en estructuras de interés público y endurecimiento frente a capturas internas o corporativas.
También es importante el componente energético. OpenAI propone acelerar la expansión de la red y de la infraestructura eléctrica necesaria para alimentar la IA mediante nuevas fórmulas de partenariado público-privado, créditos de inversión, subsidios flexibles y, en algunos casos, participación pública en el upside. Es otra señal de que la empresa ya no piensa la inteligencia artificial solo como software, sino como un complejo industrial que requiere energía, transmisión, permisos, construcción y capacidad estatal. La IA, en este esquema, no es una aplicación digital liviana, sino una nueva capa industrial comparable a otras transiciones tecnológicas que necesitaron obra física, planificación y poder público.
¿Es esto altruismo, pragmatismo o estrategia? Probablemente las tres cosas a la vez. Hay altruismo o, al menos, una conciencia real de que el salto tecnológico puede ser demasiado brusco para dejarlo al piloto automático del mercado. Hay pragmatismo, porque ninguna empresa quiere crecer en medio de una reacción social hostil que acabe traduciéndose en regulación improvisada y rechazo público. Y hay estrategia, porque quien llega primero con un marco de “nuevo pacto social” puede aspirar a influir en cómo se escriben las reglas que luego deberán cumplir todos los demás. Axios lo presenta como algo sin precedentes entre grandes tecnólogos; Business Insider subraya que entre las ideas figuran impuestos a la automatización, fondo de riqueza pública y semana de cuatro días. Leídas juntas, ambas piezas muestran que OpenAI ya no está haciendo solo política tecnológica: está intentando ensayar una filosofía de orden económico para la era posterior al trabajo intensivo en conocimiento humano.
Pero el documento también tiene límites evidentes. No resuelve cómo se financiaría exactamente el fondo, qué tamaño debería tener, cómo se evitaría su captura política, qué tipos de automatización quedarían gravados, cómo se mediría el desplazamiento atribuible a IA o qué criterios concretos activarían las redes de seguridad automáticas. Tampoco responde del todo a una pregunta central: si la superinteligencia va a ser tan cercana y tan disruptiva como sostiene Altman, ¿por qué deberíamos confiar en que una empresa privada que corre por desplegarla pueda liderar al mismo tiempo el marco de protección frente a sus daños? OpenAI misma insiste en que su texto no es una prescripción final, sino una invitación al debate. Esa cautela no elimina las interrogantes; simplemente reconoce que siguen abiertas.
Aun así, sería un error leer esta iniciativa como puro marketing. El contenido es demasiado específico para reducirlo a un gesto cosmético. Cuando una de las compañías más influyentes del sector defiende explícitamente impuestos sobre capital y automatización, un fondo de reparto ciudadano, acceso básico a modelos, redes de seguridad más ágiles, auditorías sobre modelos de frontera, contención de sistemas peligrosos y nuevas estructuras de gobernanza corporativa, lo que está diciendo es que el viejo consenso de Silicon Valley ya no le sirve para describir lo que viene. La IA, en esa visión, no será absorbida por las instituciones existentes con unos pocos retoques. Exigirá nuevas instituciones, nuevas legitimidades y probablemente nuevas fricciones entre Estado, mercado y ciudadanía.
La frase decisiva, al final, no está en ninguna de las propuestas concretas, sino en la premisa que las sostiene: “incremental policy updates won’t be enough”. OpenAI lo dice en su presentación oficial. No bastarán ajustes marginales. Si esa premisa se impone en el debate político, el centro de gravedad de la conversación cambiará. Dejará de preguntarse solo qué modelos son más potentes, o qué empresa va por delante, y empezará a preguntarse qué tipo de sociedad puede absorber una inteligencia artificial radicalmente más capaz sin romper sus bases de cohesión. Altman no ofrece una respuesta definitiva. Pero sí ha movido el tablero: ha forzado a que la discusión sobre superinteligencia deje de ser solo tecnológica y pase a ser, abiertamente, una discusión sobre impuestos, trabajo, propiedad, seguridad y democracia.