Sam Altman ha publicado una nuvea entrada en su blog: The Gentle Singularity. Una nuvea reflexión del CEO de OpenAI que no ha pasado desapercibida en el mundo tecnológico. En este nuevo ensayo, Altman sostiene que la humanidad ya ha ingresado en una era de inteligencia posthumana. Lo sorprendente, según él, no es la magnitud del cambio, sino lo silencioso que ha sido.
“Estamos más allá del horizonte de eventos”, afirma. “El despegue ha comenzado”.
La frase puede sonar dramática, pero Altman la formula con calma: la inteligencia artificial ya ha superado la inteligencia humana en varios aspectos, pero sin alterar radicalmente nuestra vida cotidiana. No hay robots omnipresentes ni ciudades automatizadas. Lo que sí hay —y en creciente expansión— son sistemas que piensan, deciden y crean mejor que nosotros en tareas concretas.
Un cambio invisible, pero irreversible
A pesar de esta afirmación de impacto, Altman aclara que la vida cotidiana sigue con sus rutinas: no tenemos robots humanoides caminando por la calle, ni hemos colonizado Marte, ni curado todas las enfermedades.
«Todavía no hay inteligencias artificiales caminando por ahí que parezcan humanos (ni ninguna otra cosa, en realidad). Seguimos enfermándonos, seguimos muriendo, seguimos teniendo que trabajar para comer.»
Tres motores del cambio
Altman estructura esta nueva etapa en tres ejes principales. Primero, la inteligencia generativa, como GPT o los nuevos modelos de video y código, ya ampliamente integrados en la economía. Segundo, los agentes autónomos: sistemas capaces de actuar por cuenta propia, todavía en fase inicial. Y tercero, la robótica física, que, según el autor, será la gran frontera a conquistar en los próximos cinco años. Este enfoque progresivo desmonta la idea de una singularidad como evento repentino. Altman propone una visión más realista: una curva de aceleración constante pero tolerable, que no genera caos sino adaptación. Todas ellas se superponen y cada una multiplica a la otra.
El peligro real: no alinear valores
A lo largo del texto, Altman insiste en que el mayor riesgo no es un colapso tipo “Terminator”, sino el mal alineamiento entre las metas humanas y las decisiones de sistemas autónomos. “La IA no necesita ser maliciosa para hacer daño. Basta con que no entienda del todo lo que queremos”, sugiere. Esto plantea desafíos para gobiernos, empresas y sociedad civil como diseñar mecanismos de control, conservar la ética y supervisión antes de que la autonomía técnica supere nuestra capacidad de intervención.
Una inteligencia abundante… como la electricidad
Uno de los conceptos nuevos es la equivalencia entre IA y energía. En su reflexión Altman predice que la inteligencia será tan abundante como lo es ahora el agua o la electricidad.
“Intelligence will be an abundant commodity.”
Pero también hace una advertencia pragmática: aunque el uso por consulta parece bajo (0.34 Wh y 0.000085 galones de agua), el costo se multiplica por escala. Detrás del entusiasmo, hay una infraestructura colosal que debe mantenerse de forma sostenible.
¿Qué esperar del futuro?
Según el CEO de OpenAI, en los próximos cinco años veremos IAs que generen ideas originales, robots útiles en la vida diaria y una abundancia sin precedentes de inteligencia computacional. El reto no será técnico, sino social: decidir cómo distribuir ese poder, quién se beneficia y cómo evitar su uso indebido. Altman concluye con una nota de esperanza pragmática afirmando que aún estamos a tiempo de influir en el desarrollo de esta nueva inteligencia.
«La singularidad ya comenzó, pero su forma definitiva dependerá de nosotros.»
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.