Skip to main content

El fundador de Anthropic ha convertido la prudencia en marca, pero el perfil de Vanity Fair retrata una paradoja central: cuanto más ambiciosa es su advertencia sobre la IA, más difusa resulta la respuesta concreta que ofrece para controlarla. 

Dario Amodei lleva tiempo construyendo una posición singular dentro de la industria de la inteligencia artificial. No es, al menos en público, el evangelista desacomplejado del “todo va a salir bien” ni el empresario que presenta cada avance como una fiesta del progreso inevitable. Su discurso es otro: insiste en que la IA puede traer beneficios gigantescos, pero también riesgos de escala histórica. Y, sin embargo, el retrato que firma Joe Hagan en Vanity Fair no presenta a Amodei como un profeta sereno con un plan perfectamente cerrado, sino como la figura central de una contradicción más incómoda: un fundador que advierte de forma casi dramática sobre el impacto de la IA, que se presenta como alguien dispuesto a proteger a la humanidad, pero que no termina de ofrecer una hoja de ruta inteligible, verificable y políticamente compartida para hacerlo.

Ese es el verdadero interés periodístico del texto de Vanity Fair: no se limita a perfilar a un ejecutivo de moda ni a narrar la rivalidad empresarial entre Anthropic y OpenAI como si fuera una pelea de egos en Silicon Valley. Lo que hace es situar a Amodei en el centro de una disputa mucho mayor: quién tiene legitimidad para decidir cómo debe avanzar una tecnología que aspira a reorganizar el trabajo intelectual, la producción de conocimiento, la seguridad nacional y, en la visión más extrema de sus promotores, el propio destino de la civilización. Hagan presenta a Amodei como un personaje atravesado por el clima ideológico de la costa oeste estadounidense: el racionalismo, el altruismo efectivo, el miedo existencial a una superinteligencia desalineada y la convicción de que un pequeño grupo de actores técnicos tiene hoy más capacidad de anticipar el futuro que los gobiernos o el debate público tradicional.

La fuerza del perfil está en que desmonta la apariencia de neutralidad técnica. Amodei no aparece como un simple ingeniero que “sigue la evidencia”, sino como un dirigente con una visión del mundo. En esa visión, la IA no es una herramienta más del ciclo digital, sino una discontinuidad histórica que puede dejar obsoletas categorías enteras de trabajo humano y alterar el equilibrio geopolítico y económico global. El propio Amodei escribió en 2024, en su ensayo Machines of Loving Grace, que intenta imaginar cómo sería un mundo en el que todo saliera bien con la IA poderosa, aunque admite que esas proyecciones son, necesariamente, conjeturas. Esa mezcla de ambición futurista y consciencia del riesgo es parte esencial de su marca intelectual. También lo es su insistencia en hablar más de peligros que de oportunidades, incluso cuando reconoce que necesita ofrecer una visión inspiradora del futuro.

El artículo de Vanity Fair subraya además un punto decisivo: Amodei ha hecho de la cautela una ventaja competitiva. Anthropic no sólo vende modelos; vende una identidad. La compañía se define oficialmente como una Public Benefit Corporation, con el propósito declarado de desarrollar y mantener IA avanzada “para el beneficio a largo plazo de la humanidad”. No es un matiz decorativo. Forma parte de la arquitectura narrativa y societaria con la que Anthropic intenta diferenciarse de competidores que, a ojos de Amodei y su entorno, han abrazado con demasiada rapidez la lógica de la escala, el producto y la captura de mercado. Su estructura de gobernanza incluye además el llamado Long-Term Benefit Trust, concebido para introducir un contrapeso institucional a la presión de los accionistas y dar más peso a la misión pública declarada por la empresa.

Ahora bien, ese diseño corporativo también invita a una pregunta incómoda: ¿basta con una estructura societaria singular para resolver un problema que es, en esencia, político? Ahí es donde el perfil de Hagan resulta más incisivo. La pieza sugiere que en torno a Amodei late una forma de elitismo tecnocrático: la idea de que un pequeño círculo de fundadores, investigadores y expertos en seguridad de IA puede —y acaso debe— tomar decisiones trascendentales en nombre de un interés general que el resto de la sociedad ni siquiera termina de comprender. El problema no es sólo que esa ambición sea desmesurada. Es que desplaza la deliberación democrática y la sustituye por una mezcla de paternalismo, opacidad y autoridad técnica. En otras palabras: la promesa de “proteger a la humanidad” suena noble, pero también puede funcionar como un atajo retórico para legitimar una concentración extraordinaria de poder privado.

La rivalidad con Sam Altman aparece así como algo más profundo que una competencia comercial entre Anthropic y OpenAI. Representa dos estilos de liderazgo y dos maneras de vender el futuro. Altman suele proyectar la imagen del constructor que acelera mientras negocia con el poder político y económico. Amodei, en cambio, cultiva la figura del científico inquieto, del fundador que no quiere parecer deslumbrado por su propia creación. Pero la distancia entre ambos no debe simplificarse demasiado. En la práctica, Anthropic compite en el mismo mercado, desarrolla modelos cada vez más potentes y participa de la misma carrera estratégica por talento, infraestructura, clientes empresariales y centralidad en el ecosistema de la IA. La diferencia es que Amodei intenta librar esa batalla desde una superioridad moral explícita: no sólo quiere ganar; quiere que su empresa sea percibida como la opción responsable.

Ese posicionamiento se apoya en instrumentos concretos. Anthropic ha desarrollado y publicitado su Responsible Scaling Policy, que en febrero de 2026 llegó a la versión 3.0 como marco voluntario para mitigar riesgos catastróficos de los sistemas de IA. También ha convertido la idea de una “constitución” para Claude en una pieza central de su identidad: un documento que define los valores y comportamientos que deberían guiar al modelo, desde la seguridad y la ética hasta la ayuda genuina al usuario. Sobre el papel, son iniciativas relevantes porque intentan trasladar la discusión desde el marketing de capacidades hacia la gobernanza, los criterios de despliegue y la alineación normativa del sistema. Pero incluso aquí persiste la ambigüedad: que una empresa publique sus principios no resuelve por sí mismo quién audita esos principios, quién verifica su cumplimiento, ni qué ocurre cuando la presión competitiva empuja en la dirección contraria.

Y ahí aflora el nervio real de la historia. El debate que encarna Amodei no es simplemente “seguridad frente a velocidad”. Es “quién define la seguridad”, con qué métricas, bajo qué instituciones y con qué mecanismos de rendición de cuentas. Anthropic puede afirmar que su misión es el beneficio de la humanidad y que su constitución modela el carácter de Claude; puede incluso sostener que su gobernanza está mejor diseñada para resistir incentivos perversos. Pero ninguna de esas piezas elimina el hecho de que seguimos ante una compañía privada, respaldada por capital, inmersa en una carrera industrial y obligada a tomar decisiones estratégicas en un entorno de competencia feroz. El perfil de Vanity Fair acierta al mostrar que el aura moral de Amodei no disuelve esa tensión: la hace más visible.

También resulta revelador que la figura de Amodei gane relieve precisamente cuando más crece el malestar social ante el poder de las tecnológicas para fijar las reglas del juego. La IA ya no se percibe sólo como una promesa de productividad. Se la observa cada vez más como infraestructura de poder: decide qué automatizar, qué supervisar, qué informar, qué clasificar y qué escalar. En ese contexto, la retórica del “fundador responsable” cumple una función estratégica. Sirve para tranquilizar a reguladores, clientes, gobiernos e inversores; sirve para atraer talento que no quiere trabajar en una empresa vista como temeraria; y sirve para levantar una narrativa de excepcionalidad ética en medio de una industria que inspira fascinación y desconfianza al mismo tiempo. Amodei parece haber entendido algo esencial: en la IA ya no basta con prometer potencia. Hay que prometer autocontrol.

Pero prometer autocontrol no equivale a garantizar gobernanza legítima. Ése es el punto que hace del perfil de Joe Hagan un texto especialmente valioso. No porque entregue respuestas definitivas, sino porque retrata con precisión una incomodidad histórica: estamos dejando que empresarios e investigadores discutan entre sí cómo preservar el interés público en una tecnología que afecta al interés público entero. Amodei puede ser, de verdad, uno de los dirigentes más sinceramente preocupados por los riesgos de la IA. Puede incluso tener más consciencia moral que muchos de sus rivales. Sin embargo, la cuestión de fondo no es la pureza de sus intenciones, sino la suficiencia de sus mecanismos. Y en ese terreno, la gran promesa de Anthropic sigue abierta a escrutinio: si la humanidad debe confiar en una empresa para que la proteja de la IA, esa empresa tendrá que explicar mucho mejor cómo piensa hacerlo.

En última instancia, Dario Amodei encarna una de las figuras más características de esta etapa tecnológica: el fundador que advierte del abismo mientras construye la máquina que puede acercarnos a él. Esa dualidad lo vuelve relevante, influyente y periodísticamente irresistible. También lo vuelve problemático. Porque cuanto más se instala la idea de que unos pocos visionarios deben custodiar el futuro común, más urgente se vuelve la pregunta que el perfil de Vanity Fair deja flotando con inteligencia: ¿estamos ante una nueva responsabilidad empresarial o ante una nueva forma de soberanía privada?

Dejar un comentario