En una cumbre imaginaria pero profundamente reveladora, convocamos a Sam Altman, Elon Musk y Mark Zuckerberg a la mesa del poder, con motivo de las 500 ediciones de boletines de Paréntesis MEDia. Un debate ficticio generado con IA de nuestro particular Juego de Tronos que disecciona los dos años que han redefinido la tecnología, donde el Consejero Astuto, el Rey del Caos y el Arquitecto del Código Abierto exponen sus estrategias, miedos y la descarnada ambición por gobernar nuestro mañana. Esta es la primera entrega.
La Sala del Cómputo Final
No es Desembarco del Rey, sino el corazón digital de nuestro tiempo. La sala del consejo es un espacio de minimalismo brutalista: muros de hormigón pulido que absorben el sonido y una única mesa de fibra de carbono negra que devora la luz. No hay candelabros medievales, sino la fría y etérea luminiscencia de filamentos de datos que recorren las paredes y el techo como un sistema nervioso expuesto, pulsando con el ritmo invisible del cómputo. En el aire flota una quietud cargada, el tipo de silencio que precede a una tormenta o a la firma de un tratado que redefinirá fronteras. Sobre la mesa, en lugar de mapas de Poniente, flotan hologramas tridimensionales de redes neuronales, galaxias de algoritmos en perpetua expansión, telarañas tejidas por arañas cuánticas que conectan nodos de conocimiento y poder.
El reino de la inteligencia artificial ha vivido dos años de una convulsión tan sísmica que cualquier saga fantástica palidece en comparación. Ha sido una era de alianzas forjadas sobre miles de millones de dólares, traiciones ejecutadas en una noche a través de videoconferencias, ascensos meteóricos que han creado nuevos multimillonarios y profecías tecnológicas que se cumplen antes de que nadie pueda leerlas con detenimiento. Los cimientos del poder tecnológico global se han agrietado y reconfigurado. Era el momento, inevitable, de que los señores de esta nueva era se miraran a los ojos, sin la mediación de un tuit o un comunicado de prensa.
La puerta, una pesada losa de titanio y cristal inteligente, se desliza sin el menor ruido. El primero en entrar es Sam Altman, Consejero Delegado de OpenAI. Su paso es medido, su traje de corte impecable, la calma en su rostro un escudo cuidadosamente forjado en las fraguas de Silicon Valley. No camina, procesa el entorno, evaluando variables y futuros posibles con cada paso. Sus ojos escudriñan la mesa, los hologramas, las sillas vacías. Ocupa su asiento no como un invitado, sino como quien regresa a un lugar que le pertenece por derecho de creación y conquista, con una economía de movimientos que delata una mente siempre en funcionamiento, siempre optimizando. El Consejero Astuto lleva las cicatrices de su breve exilio y su triunfante regreso, una experiencia que le ha enseñado que el poder no solo se construye con código, sino también con lealtades frágiles y alianzas estratégicas.
“Tenemos dos opciones sobre la mesa: el oráculo cerrado y con ánimo de lucro de Sam, que nos jura que es por nuestro bien, o la versión ‘Parque Jurásico’ de Mark, donde regalamos embriones de velocirraptor a cualquiera con un portátil y le deseamos ‘mucha suerte’. ¿Nadie más ve la demencia en esto?” — Elon Musk
La misma puerta se abre de nuevo, esta vez con una violencia contenida, casi una disrupción en el campo cuántico de la sala. Elon Musk irrumpe como una fuerza de la naturaleza, un torbellino de energía disruptiva y una impaciencia casi palpable que llena el espacio vacío. El autoproclamado Rey del Caos, señor de Tesla, SpaceX y X, se mueve con la urgencia de quien libra guerras en media docena de frentes a la vez y considera que el tiempo es un recurso finito que se está desperdiciando.
—¡Sam! —su voz corta el silencio, una sonrisa afilada en los labios, medio burlona, medio inquisitorial—. ¿Sigues intentando venderle al mundo que no estás jugando con fuego prometeico? ¿O ya has admitido que nos diriges a todos al acantilado con un producto de 20 dólares al mes?
Altman levanta la vista del holograma que estaba observando, su compostura una armadura impenetrable de serenidad corporativa. —Elon. Tus metáforas apocalípticas son siempre… estimulantes. Me recuerdan a nuestras primeras conversaciones, cuando aún creíamos que podíamos salvar el mundo con una simple organización sin ánimo de lucro.
El tercer protagonista materializa su presencia casi sin anunciarse. Mark Zuckerberg entra con un sigilo algorítmico, como si hubiera calculado la entrada óptima para observar antes de ser observado. Su sudadera gris con capucha es un estudiado gesto de informalidad, una declaración de que el poder real no necesita corbata. Pero la rigidez de su postura y la fijeza de su mirada revelan la tensión de compartir espacio con sus dos mayores rivales. Su voz, cuando habla, es monótona pero incisiva, la de un hombre que optimiza hasta su cadencia verbal para maximizar la transmisión de datos.
—Caballeros. Parece que al fin tenemos nuestro propio Consejo en la Sombra. Un lugar adecuado para discutir quién gobernará el próximo siglo.
—El Consejo Privado, querrás decir —replica Musk, dejándose caer en la cabecera de la mesa, un trono que conquista por pura inercia y fuerza de voluntad—. Aunque aquí faltan jugadores importantes. Faltan los demás señores. ¿Dónde está Satya, tu nuevo señor feudal, Sam? ¿O Sundar, el guardián de la antigua fortaleza que se despertó tarde a la guerra?
Tres hombres. Tres visiones irreconciliables del futuro. El Consejero que cree poder domesticar al dragón de la superinteligencia para alcanzar la utopía, financiando el viaje con productos de consumo masivo. El constructor de imperios que ahora regala los ladrillos del poder —el código abierto— para que todos construyan su propia Roma, socavando los cimientos de sus rivales. Y el Rey profeta que advierte del fin del mundo mientras forja su propia espada divina —una IA que busca la «verdad»— para, según él, salvarnos de los demás.
El Concilio de los Titanes de la IA ha comenzado. Y el destino de la humanidad, en muchos sentidos, está en la agenda.
Primer asalto: El espectro de la traición y la herida abierta de OpenAI
Fue Musk quien desenvainó primero, no con acero, sino con palabras afiladas por años de resentimiento y una convicción mesiánica. Se inclinó sobre la mesa de carbono, sus ojos fijos en Altman con la intensidad de un fiscal.
Elon Musk: Empecemos por la génesis del pecado, ¿te parece, Sam? Por el momento en que todo se torció. Cuando un pequeño grupo de nosotros, incluido yo, fundamos OpenAI, el nombre significaba algo. Era un juramento. Una organización sin ánimo de lucro. Abierta. Un contrapeso al poder monolítico que veíamos crecer en Google, un monstruo de datos que amenazaba con devorar el futuro de la IA. Íbamos a ser un baluarte para la humanidad, no una startup con esteroides persiguiendo valoraciones bursátiles.
Sam Altman: Y esa misión fundamental, Elon, sigue intacta. Está grabada en nuestra carta fundacional y en el ADN de cada investigador que trabaja con nosotros: asegurar que la Inteligencia Artificial General (AGI) beneficie a toda la humanidad de forma segura. Los medios para alcanzar ese fin han evolucionado, es cierto, pero el objetivo final es exactamente el mismo. El camino se hizo más largo y costoso de lo que nadie imaginó.
Elon Musk: ¡No me hables de misión! —Musk soltó una risa seca, despectiva, el sonido del metal raspando contra la piedra—. La misión fue la primera víctima en tu altar del pragmatismo. Transformaste una ONG en un monstruo corporativo con una estructura de «beneficios limitados» que es la broma más cínica de Silicon Valley. Un límite tan alto que es funcionalmente ilimitado. Te arrodillaste ante Microsoft. Cambiaste la independencia por GPUs. ¡Traicionaste cada uno de los principios fundacionales en una carrera desenfrenada por el producto, por el crecimiento, por el dominio del mercado! De «OpenAI» a «ClosedAI for profit».
“La apertura distribuye el poder. A largo plazo, es la única seguridad real contra un único punto de fallo. En OpenAI, el punto de fallo fuiste tú, Sam. Y por poco se derrumba el edificio entero.” — Mark Zuckerberg
Mark Zuckerberg: (Interviniendo con la precisión quirúrgica de un cirujano que encuentra el punto exacto para su incisión) Es fascinante oírte hablar de pureza ideológica, Elon, cuando eres el paradigma del control vertical y absoluto en tus empresas. Nadie toma una decisión en Tesla o SpaceX sin tu bendición. En Meta, al menos, hemos sido coherentes con nuestra nueva estrategia. Apostamos por el código abierto con Llama. No ofrecemos una mascota enjaulada y adiestrada, accesible solo a través de las rejas de una API; ofrecemos el genoma completo para que el mundo entero pueda innovar, auditar y construir.
Elon Musk: ¡Ja! ¡El genoma! Regalas el genoma de una inteligencia que ni tú mismo comprendes del todo. Fantástico. Así que estas son las opciones que nos ofrecéis al mundo: el oráculo cerrado y con ánimo de lucro de Sam, supervisado por su mecenas en Redmond mientras nos jura que es por nuestro bien, o la versión ‘Parque Jurásico’ de Mark, donde regalamos embriones de velocirraptor a cualquiera con un portátil y le deseamos ‘mucha suerte’. ¿Nadie más ve la demencia en esto? ¿De verdad soy el único que piensa que ambas opciones son terriblemente peligrosas?
Sam Altman: (Imperturbable, manteniendo el contacto visual) La analogía es efectista, Elon, como siempre. Pero es técnicamente falaz y estratégicamente ingenua. Un modelo de la escala y capacidad de GPT-4, liberado sin controles, representa un riesgo asimétrico inmenso. El potencial para la desinformación a escala planetaria, para el desarrollo de ciberarmas autónomas, para el bioterrorismo, es real y presente. Nuestro enfoque de despliegue gradual y monitorizado a través de API es la única forma responsable de escalar esta tecnología. No le das una cabeza nuclear a todo el mundo y esperas que solo la usen para alimentar sus ciudades. Implementamos salvaguardas, estudiamos los usos indebidos y corregimos el rumbo de forma iterativa. Es el único camino seguro.
Elon Musk: ¡Seguridad! ¡Qué valor tienes para pronunciar esa palabra! —la voz de Musk sube de volumen, cargada de un desdén que parece casi personal—. ¡Tú! ¡El hombre que fue destituido por su propio consejo de administración porque temían que estabas sacrificando la seguridad por la velocidad! Un consejo que incluía a Ilya Sutskever, uno de los pocos cerebros en este planeta que se tomaba en serio el problema del alineamiento de la AGI. Tu supuesta devoción por la «seguridad» duró exactamente hasta que tu principal inversor, Satya Nadella, movió los hilos como un maestro de marionetas y te devolvió al trono para no perder a su gallina de los huevos de oro. No hablemos de seguridad. Hablemos de poder. Tu regreso no fue un triunfo de la visión; fue un golpe de estado corporativo.
El golpe aterriza con la fuerza de un martillo. La crisis de noviembre de 2023 es la herida abierta, la cicatriz visible en la leyenda de Sam Altman. Por un instante, su máscara de serenidad se resquebraja. Un músculo se contrae en su mandíbula. Es el recuerdo de cinco días de incertidumbre, de ver el imperio que había construido a punto de desmoronarse.
Sam Altman: (Recuperando la compostura, su voz ahora con un filo acerado bajo la superficie pulcra) El consejo tuvo… una divergencia fundamental sobre la metodología y el ritmo del progreso. Y sí, Ilya es brillante. Su dedicación a la seguridad de la Superinteligencia es algo que siempre he respetado, incluso en nuestro mayor desacuerdo. Pero la misión de OpenAI no se puede cumplir desde una torre de marfil académica, paralizados por el miedo a nuestra propia sombra. Requiere audacia, capital y una escala computacional masiva que nadie anticipó en 2015. Microsoft no compró OpenAI. Invirtió en la misión porque entendió que para construir el futuro no puedes conducir mirando constantemente por el retrovisor. Tienes que acelerar, aunque el camino tenga curvas peligrosas.
“El verdadero trono de la IA no es para que lo ocupe un rey. Es una herramienta para servir a toda la humanidad. Para llegar a ese futuro se necesita audacia, inversión masiva y velocidad, no una precaución que nos paralice en el presente.” — Sam Altman
Mark Zuckerberg: (Asintiendo lentamente, como un analista que confirma una hipótesis con nuevos datos de campo) Ese episodio, Sam, demostró una verdad fundamental que va más allá de vuestras disputas internas: la fragilidad absoluta de la gobernanza centralizada cuando se trata de una tecnología de esta magnitud. El destino de la IA más avanzada del mundo no puede depender de las deliberaciones de un pequeño consejo no electo, ni de la relación personal entre dos CEOs, ni del pánico de un científico jefe. Es un sistema intrínsecamente quebradizo. Un único punto de fallo. En OpenAI, durante esos cinco días, el punto de fallo fuiste tú. Y por poco se derrumba el edificio entero. La comunidad de código abierto, en cambio, es antifrágil. Si un grupo no está de acuerdo con el rumbo de Llama, pueden hacer un fork. Pueden auditar nuestro código, encontrar nuestros errores y construir algo mejor. Es un sistema resiliente por diseño. La apertura distribuye el poder. Y esa, amigos míos, es la única seguridad real a largo plazo.
Esta cumbre imaginaria continuará…
La crisis de gobernanza en OpenAI (Noviembre de 2023)
El 17 de noviembre de 2023, el consejo de administración de OpenAI, la entidad sin ánimo de lucro que gobierna la empresa, anunció la destitución de Sam Altman como CEO. El comunicado oficial, sorprendentemente vago y duro, citaba que Altman «no fue consistentemente sincero en sus comunicaciones con el consejo, obstaculizando su capacidad para ejercer sus responsabilidades».
La decisión, que conmocionó a Silicon Valley, fue el clímax de una profunda división ideológica dentro de la compañía. Por un lado, la facción pro-comercialización y aceleración, liderada por Altman, abogaba por un rápido desarrollo y despliegue de productos para asegurar la financiación y el dominio del mercado. Por otro, la facción de la seguridad, cuyas preocupaciones eran representadas por el científico jefe y cofundador Ilya Sutskever, temía que la carrera por lanzar «productos brillantes» estuviera marginando la investigación crítica sobre los riesgos y el alineamiento de una futura AGI.
Lo que siguió fue un drama corporativo sin precedentes que se desarrolló en tiempo real en las redes sociales. Más de 700 de los 770 empleados de OpenAI firmaron una carta abierta amenazando con dimitir en masa y unirse a Microsoft, donde Satya Nadella, en una jugada maestra de poder, ya había ofrecido a Altman y a su equipo un nuevo feudo para liderar un laboratorio de IA avanzado. La presión de los empleados, combinada con la influencia de Nadella y otros inversores, fue insostenible.
Cinco días después, el 21 de noviembre, Altman fue reinstaurado como CEO. El antiguo consejo fue disuelto y reemplazado por uno nuevo, inicialmente compuesto por Bret Taylor (como presidente), Larry Summers y Adam D’Angelo (el único miembro que sobrevivió del consejo anterior). La crisis tuvo consecuencias duraderas: consolidó la inmensa influencia de Microsoft sobre el destino de OpenAI y, meses más tarde, figuras clave del ala de la seguridad, como Ilya Sutskever y Jan Leike (quien criticó públicamente que «la cultura de la seguridad ha pasado a un segundo plano frente a los productos brillantes»), abandonarían la compañía, consolidando la victoria de la facción pro-aceleración. La saga dejó al descubierto la tensión inherente entre la misión fundacional sin ánimo de lucro de OpenAI y su voraz apetito comercial, y planteó preguntas fundamentales sobre cómo se debe gobernar la tecnología más potente del mundo.