El consejero delegado de OpenAI declaró en una corte federal de California que Elon Musk desmotivaba a investigadores clave y que su marcha en 2018 alivió a una plantilla que no quería dirigir un laboratorio científico bajo la cultura de presión extrema del fundador de Tesla.
Sam Altman ha llevado al juicio entre Elon Musk y OpenAI una de las frases más duras pronunciadas hasta ahora contra el cofundador de Tesla: su salida de OpenAI fue “un impulso para la moral” de empleados e investigadores. La declaración, realizada ante una corte federal de Oakland, California, en el décimo día del proceso, introduce una dimensión especialmente reveladora en la disputa: el choque no fue solo jurídico, financiero o estratégico, sino también cultural. Según Altman, Musk no entendía cómo dirigir un laboratorio de investigación de inteligencia artificial y su estilo de gestión resultaba desmotivador para parte del equipo.
La frase llega en un juicio de enorme trascendencia para el futuro de OpenAI y para la industria global de la inteligencia artificial. Musk acusa a OpenAI, a Sam Altman, a Greg Brockman y a Microsoft de haber traicionado la misión fundacional de la organización, creada en 2015 como entidad sin ánimo de lucro para desarrollar inteligencia artificial avanzada en beneficio de la humanidad. OpenAI rechaza esa versión y sostiene que Musk actúa movido por resentimiento y rivalidad empresarial, especialmente desde que lanzó xAI como competidor directo.
El testimonio de Altman era uno de los más esperados porque el juicio no solo examina contratos, estructuras societarias o inversiones. También intenta reconstruir la historia íntima de OpenAI: quién quiso controlar la organización, cuándo se quebró la relación entre sus fundadores y si el giro hacia una estructura comercial fue una traición o una adaptación inevitable al coste creciente de desarrollar modelos de frontera.
Altman declaró que Musk “no entendía cómo dirigir un buen laboratorio de investigación”, según la información citada por CNBC y recogida por EFE. Esa frase resume el núcleo de su defensa: OpenAI no podía funcionar bajo una cultura empresarial de presión extrema, rankings de rendimiento y control personalista como la que Musk ha impuesto en otras compañías. La investigación en IA, especialmente en sus primeras etapas, exigía otro tipo de ambiente: confianza, autonomía, seguridad psicológica y capacidad de explorar hipótesis sin miedo permanente al castigo.
The Verge, que cubrió el testimonio, explicó que Altman acusó a Musk de causar “daño cultural” dentro de OpenAI. Según esa cobertura, Musk habría pedido a los ejecutivos que clasificaran a los empleados por rendimiento y eliminaran a los de bajo desempeño, una práctica que chocaba con la necesidad de construir un laboratorio científico orientado a investigación de largo plazo.
El contraste entre ambos modelos de gestión es clave para entender el juicio. Musk representa una cultura de ejecución agresiva, objetivos imposibles, presión constante y control directo. Ese estilo ha sido celebrado por algunos como motor de Tesla y SpaceX, pero también ha sido criticado por exempleados y observadores como duro, volátil y poco compatible con entornos donde la creatividad científica requiere estabilidad. OpenAI, en cambio, necesitaba atraer a investigadores de élite, muchos de ellos procedentes de universidades y laboratorios punteros, más sensibles a la autonomía intelectual que a una disciplina empresarial jerárquica.
La declaración de Altman debe leerse en ese marco. No se limita a decir que Musk era difícil. Sugiere que su permanencia podía haber comprometido la capacidad de OpenAI para retener talento y construir una cultura investigadora. En una empresa de inteligencia artificial, ese punto es crucial. La ventaja competitiva no depende solo de capital o computación; depende también de los equipos humanos capaces de diseñar modelos, investigar nuevas arquitecturas, evaluar riesgos y sostener años de trabajo incierto antes de que aparezcan resultados comerciales.
Altman sostuvo que, tras la salida de Musk del consejo en 2018, algunos investigadores sintieron alivio. Según Yahoo Finance, antes de renunciar, Musk habría “desmotivado” a investigadores clave al clasificar sus logros, y Altman testificó que la marcha del empresario elevó la moral de quienes se habían sentido afectados por esas tácticas.
La versión de Altman choca frontalmente con la narrativa de Musk. El fundador de Tesla ha presentado su salida como consecuencia de discrepancias sobre el rumbo de OpenAI y, sobre todo, como el inicio de una deriva que habría convertido una organización benéfica en una empresa multimillonaria controlada por intereses comerciales. En su testimonio previo, Musk afirmó que fue “un tonto” por entregar 38 millones de dólares de financiación “esencialmente gratuita” para crear lo que terminaría siendo una compañía valorada en centenares de miles de millones.
El juicio gira, por tanto, alrededor de dos relatos incompatibles. Para Musk, OpenAI traicionó su misión original y Altman y Brockman lo engañaron para financiar una organización que luego se transformó en un gigante con ánimo de lucro. Para OpenAI, Musk quiso hacerse con el control, propuso integrarla en Tesla o dominarla personalmente, y abandonó la organización cuando no obtuvo el poder que quería. El testimonio de Altman sobre la moral interna refuerza esta segunda lectura: la marcha de Musk no habría sido una pérdida traumática, sino una liberación organizativa.
Business Insider informó que Altman declaró también que Musk quería “control total” de OpenAI y que incluso sugirió que ese control pudiera pasar a sus hijos tras su muerte. Altman se opuso a esa idea porque, según su versión, OpenAI nació precisamente para evitar que una sola persona monopolizara el desarrollo de la inteligencia artificial general.
Ese punto conecta directamente con la misión fundacional. OpenAI fue creada en 2015 con la promesa de desarrollar inteligencia artificial avanzada en beneficio de toda la humanidad. Ese ideal presuponía evitar la concentración extrema de poder. Si la versión de Altman es aceptada por el jurado, Musk no aparecería como defensor puro de la misión original, sino como alguien que intentó concentrar OpenAI bajo su propio control antes de acusar a otros de desviarla.
El País recogió otro elemento del testimonio: Altman afirmó que Musk “solo trabajará en empresas que controle totalmente”. Esa frase apunta al trasfondo psicológico y empresarial del conflicto. Musk ha construido su carrera alrededor de compañías donde ejerce un poder enorme: Tesla, SpaceX, X y xAI. OpenAI, en cambio, nació con una estructura híbrida, primero sin ánimo de lucro y después con una entidad de beneficio limitado subordinada a una fundación.
La tensión entre control y misión es uno de los ejes más profundos del proceso. Musk acusa a OpenAI de haberse entregado a Microsoft y a la lógica del beneficio. OpenAI responde que Musk no defendía una gobernanza abierta, sino su propio dominio. La frase sobre la moral interna añade una capa humana: no solo se discutía quién debía controlar OpenAI, sino qué tipo de organización podía sostener el trabajo científico necesario para desarrollar IA avanzada.
El juicio ha expuesto también las contradicciones de Altman. La defensa de OpenAI intenta presentar al CEO como garante de una misión adaptada a la realidad económica. Pero los abogados de Musk han atacado su credibilidad. The New York Post informó que el abogado Steven Molo interrogó duramente a Altman sobre si era “completamente confiable”, apoyándose en testimonios de exdirectivos y exmiembros del consejo que lo acusaron de comportamientos contradictorios o engañosos.
Le Monde también señaló que Altman enfrentó una batería intensa de preguntas sobre honestidad, conflictos de interés y cultura corporativa. Según esa cobertura, Altman admitió no haber dicho siempre la verdad, aunque defendió su liderazgo y sostuvo que la marcha de Musk había sido un alivio para una compañía afectada por su estilo desmoralizador.
Ese aspecto es importante porque el juicio no está produciendo héroes limpios y villanos simples. La batalla entre Musk y Altman enfrenta dos liderazgos cuestionados. Musk aparece retratado por OpenAI como un empresario obsesionado con el control y poco apto para dirigir un laboratorio de investigación. Altman, por su parte, ha sido acusado por antiguos miembros del consejo de falta de transparencia y de una gestión que llevó a su breve destitución en 2023. La disputa legal se convierte así en un juicio sobre la gobernanza de la inteligencia artificial, pero también sobre las personalidades que han acumulado poder en torno a ella.
El antecedente de 2023 pesa sobre todo el proceso. Altman fue despedido por el consejo de OpenAI en noviembre de ese año y reinstalado pocos días después tras una rebelión interna de empleados y presión de inversores y socios. Aunque el juicio actual se centra en la demanda de Musk, la credibilidad de Altman como líder sigue bajo examen. Los abogados de Musk han intentado mostrar un patrón de opacidad y ambición personal. OpenAI intenta responder que, pese a errores y tensiones, su estructura actual preserva la misión sin ánimo de lucro y permite financiar el desarrollo de IA de frontera.
La cuestión económica es imposible de separar del debate moral. Musk sostiene que OpenAI se enriqueció injustamente a partir de una financiación inicial concedida para fines altruistas. OpenAI responde que el coste de entrenar y desplegar modelos avanzados hizo inviable una estructura puramente filantrópica. La alianza con Microsoft, la captación de capital y la creación de una entidad con beneficio limitado habrían sido, según la compañía, mecanismos necesarios para competir con Google, Anthropic, Meta, xAI y otros actores.
Altman ha defendido que OpenAI mantiene componentes sin ánimo de lucro y una misión pública, aunque opere con instrumentos empresariales. El País informó que el CEO destacó aportaciones filantrópicas recientes y defendió que la organización no abandonó su propósito original, sino que buscó una forma viable de sostenerlo en una industria donde los costes de computación y talento son gigantescos.
La frase sobre el “impulso para la moral” tiene fuerza porque humaniza una guerra que suele narrarse en cifras descomunales. OpenAI está valorada en cientos de miles de millones, Microsoft ha invertido cantidades enormes, Musk reclama compensaciones multimillonarias y la industria de la IA se disputa infraestructuras críticas. Pero en el centro del juicio aparecen científicos, ingenieros e investigadores que debían decidir si podían trabajar bajo una cultura de miedo, presión o control personal.
En los laboratorios de IA, la moral no es un asunto secundario. La investigación de frontera exige asumir incertidumbre, publicar y revisar resultados, debatir riesgos, reconocer errores y sostener colaboración entre perfiles extremadamente especializados. Una cultura de presión puede acelerar ciertas decisiones, pero también puede destruir confianza, ahuyentar talento y empobrecer la deliberación sobre seguridad. Altman intenta presentar a Musk como una amenaza precisamente para ese tejido interno.
Musk, en cambio, podría argumentar que su estilo duro era necesario para competir contra gigantes tecnológicos y evitar que OpenAI se quedara atrás. Esa es una discusión clásica en Silicon Valley: hasta qué punto la presión extrema produce innovación o simplemente desgaste. Tesla y SpaceX se han construido bajo una cultura de ejecución implacable. OpenAI, según Altman, necesitaba algo distinto porque su activo central no era una fábrica ni una cadena de producción, sino un laboratorio de investigación con implicaciones éticas globales.
La tensión revela una pregunta mayor: ¿qué tipo de cultura debe gobernar el desarrollo de la inteligencia artificial general? Si se trata de una tecnología con potencial de transformar economía, política, guerra, educación y ciencia, la cultura interna de sus laboratorios importa. No es indiferente si esos espacios funcionan bajo lógica de control absoluto, beneficio financiero, seguridad científica, deliberación abierta o competencia geopolítica. El juicio obliga a mirar dentro de una de las organizaciones más influyentes del mundo.
El proceso también muestra cómo la historia de OpenAI se ha convertido en un campo de batalla narrativo. Los mismos hechos —la fundación en 2015, la salida de Musk en 2018, la alianza con Microsoft, el lanzamiento de ChatGPT, la crisis del consejo en 2023— son reinterpretados por cada parte para construir legitimidad. Musk se presenta como el fundador traicionado. Altman se presenta como el dirigente que protegió la misión frente a un intento de control personal. El jurado debe escuchar no solo contratos, sino memorias enfrentadas.
Según NBC Bay Area, Musk presentó una demanda de 134.000 millones de dólares contra Altman, Brockman, OpenAI y Microsoft, alegando que la compañía violó su misión original sin ánimo de lucro. OpenAI ha respondido que la demanda busca debilitar a un competidor y reforzar los intereses de xAI, fundada por Musk en 2023.
El resultado del juicio puede tener implicaciones enormes. Si Musk logra convencer al tribunal de que OpenAI incumplió obligaciones fundacionales, podrían abrirse escenarios que afecten a su estructura corporativa, su relación con Microsoft y su gobernanza interna. Si OpenAI sale reforzada, consolidará su argumento de que la transformación hacia un modelo híbrido fue necesaria y legítima. En ambos casos, la industria observará con atención porque el precedente puede afectar a otras organizaciones de IA que combinan misión pública, capital privado y modelos de negocio de escala global.
La declaración de Altman sobre Musk no resolverá por sí sola el caso, pero sí añade una pieza importante. Sitúa el conflicto en el terreno de la cultura organizativa y plantea que la salida de Musk no fue simplemente una discrepancia estratégica, sino una condición para que OpenAI pudiera funcionar como laboratorio. Esa es una acusación muy seria contra alguien que se presenta como defensor de la misión original.
La paradoja es que tanto Musk como Altman apelan al bien común. Musk dice defender una OpenAI fiel a su propósito benéfico inicial. Altman dice defender una OpenAI capaz de financiar y gobernar la IA avanzada de manera responsable. Ambos acusan al otro de haber traicionado la misión. Y ambos representan formas distintas de concentración de poder tecnológico.
Por eso el juicio es mucho más que una pelea entre multimillonarios. Es una ventana a la pregunta que define la nueva era de la IA: quién debe controlar las tecnologías más poderosas del siglo XXI, bajo qué reglas, con qué cultura interna y con qué responsabilidad pública. La frase de Altman —la marcha de Musk como “impulso para la moral”— no habla solo del pasado de OpenAI. Habla de la dificultad de construir instituciones tecnológicas capaces de resistir tanto la ambición personal como la presión del mercado.
En última instancia, el jurado y el juez deberán decidir cuestiones legales. Pero la opinión pública ya está viendo algo más: el relato de cómo una organización nacida con ideales de apertura terminó convertida en el centro de una guerra por poder, dinero, legitimidad y control de la inteligencia artificial. La salida de Musk, según Altman, alivió a los investigadores. La pregunta pendiente es si esa salida también abrió el camino hacia una OpenAI más fiel a su misión o hacia la corporación que Musk denuncia hoy.