El choque entre Anthropic y el Pentágono no es un episodio aislado: es la prueba de que la gobernanza de la inteligencia artificial militar se está decidiendo ahora mismo entre contratos, intereses estratégicos y normas todavía insuficientes.
La inteligencia artificial ha dejado de ser únicamente una cuestión de productividad, automatización o ventaja empresarial. En 2026, el debate decisivo se está desplazando hacia otro terreno mucho más delicado: quién decide qué usos de la IA son aceptables cuando entran en juego la seguridad nacional, la defensa y la guerra. En ese contexto, el conflicto entre Anthropic y el Departamento de Defensa de Estados Unidos se ha convertido en un caso de enorme valor simbólico y político, porque concentra en un solo episodio varias tensiones de fondo: la pugna entre ética corporativa y razón de Estado, la militarización acelerada de los grandes modelos, la fragilidad de los compromisos voluntarios y la ausencia de una arquitectura normativa verdaderamente robusta. La tribuna publicada por Ramón López de Mántaras en El País sitúa ese encontronazo en el centro de una discusión mayor: no se trata solo de una empresa y un contrato, sino de la definición práctica de los límites de la IA en tiempos de guerra.
La tesis de fondo es inquietante y muy difícil de rebatir: cuando los Estados no establecen límites claros, actualizados y exigibles sobre el uso militar de la IA, ese vacío no queda realmente vacío. Lo ocupan los incentivos del mercado, las prioridades de la defensa y el margen de maniobra de unas compañías tecnológicas que, en función del contexto, pueden presentarse como guardianas responsables o como proveedores estratégicos del poder público. Ese desplazamiento de la soberanía normativa resulta especialmente problemático en el caso de la IA generativa, porque no estamos hablando de software determinista y perfectamente trazable, sino de sistemas probabilísticos que pueden producir respuestas plausibles, persuasivas y, al mismo tiempo, erróneas. En el terreno militar, esa ambivalencia no es un inconveniente menor: puede afectar al análisis de inteligencia, a la interpretación de imágenes, a la selección de objetivos o a la toma de decisiones en escenarios de presión temporal extrema.
Lo que vuelve tan importante el caso Anthropic es que rompe una narrativa cómoda que había circulado durante años en el sector tecnológico: la idea de que bastaría con que las empresas se autorregularan mediante principios éticos, compromisos de seguridad y líneas rojas autoimpuestas. Ese marco, útil en el terreno reputacional, empieza a mostrar sus límites cuando entran en juego contratos públicos multimillonarios, competencia geopolítica con China, presión directa de Washington y un entorno político cada vez más dispuesto a considerar la IA como infraestructura estratégica. El problema no es solo que las empresas puedan cambiar de opinión; es que sus compromisos, en muchos casos, no tienen el grado de transparencia, auditabilidad y coerción necesario para resistir una crisis real. La publicación por parte de Anthropic de la versión 3.0 de su Responsible Scaling Policy el 24 de febrero de 2026 confirma que la compañía sigue intentando presentarse como uno de los actores más orientados a la mitigación de riesgos catastróficos, pero también ilustra hasta qué punto estas políticas siguen siendo marcos privados, definidos por la propia empresa y no por un sistema democrático de control externo.
La paradoja, y ahí reside buena parte de la fuerza analítica del artículo de López de Mántaras, es que incluso las compañías que más han insistido en la seguridad terminan moviéndose dentro de una lógica de adaptación estratégica. Anthropic puede marcar distancias respecto a determinados usos, pero no está fuera del ecosistema militar. Lo mismo sucede con OpenAI, con Google, con Meta o con xAI en distintos grados. El sector entero está girando hacia una normalización del vínculo entre grandes modelos y defensa. OpenAI anunció “OpenAI for Government” y detalló un contrato con un techo de 200 millones de dólares con el Departamento de Defensa para prototipos y usos administrativos, sanitarios y de ciberdefensa, todo ello bajo sus propias políticas de uso. Meta, por su parte, anunció en noviembre de 2024 que ponía Llama a disposición de agencias gubernamentales de Estados Unidos y contratistas que trabajen en aplicaciones de seguridad nacional. No estamos, por tanto, ante un desvío marginal, sino ante una tendencia estructural.
Google ofrece otro ejemplo especialmente revelador. Después de la crisis interna generada por Project Maven en 2018, la compañía articuló una posición pública que pretendía separar su desarrollo de IA de determinados usos armamentísticos y de vigilancia. Sin embargo, el 4 de febrero de 2025 actualizó sus principios de IA y sustituyó aquella formulación por un marco mucho más general, centrado en innovación, desarrollo responsable y colaboración. El cambio, registrado en la propia documentación oficial de Google, fue interpretado ampliamente como una retirada de las prohibiciones explícitas anteriores sobre armas y vigilancia. Esa evolución no puede leerse solo como un ajuste semántico: expresa la presión geopolítica sobre las big tech y el modo en que la competencia estratégica está reescribiendo la ética aplicada de la industria.
Desde esa perspectiva, la cuestión central ya no es si las tecnológicas colaboran o no con el aparato de defensa. La cuestión es bajo qué condiciones, con qué límites, con qué supervisión y con qué mecanismos de rendición de cuentas. Ahí es donde el artículo de López de Mántaras gana espesor político. El problema no radica solamente en la militarización de la IA, sino en que esa militarización se está produciendo en un marco de ambigüedad normativa. En otras palabras: el salto tecnológico es más rápido que la capacidad institucional para regularlo. Y cuando eso ocurre en ámbitos vinculados al uso de la fuerza, la asimetría se vuelve especialmente peligrosa. La gobernanza democrática queda rezagada frente a la velocidad del despliegue técnico y frente a la opacidad contractual de las alianzas entre Estado y empresas.
Hay además una dificultad técnica que impide trivializar el debate. Los modelos generativos no son herramientas cerradas ni completamente previsibles. La literatura económica y tecnológica discute con intensidad su impacto, pero existe amplio consenso en que sus capacidades no equivalen a fiabilidad absoluta. Precisamente por eso, trasladar estos sistemas a contextos militares o de seguridad plantea un listón ético mucho más exigente que el de sus usos comerciales corrientes. Un error de recomendación en un buscador o en un copiloto de programación puede ser costoso; un error de clasificación, inferencia o síntesis en operaciones sensibles puede ser catastrófico. El propio esfuerzo de Anthropic por mantener una política específica de escalado responsable parte de esa premisa: ciertos niveles de capacidad exigen controles extraordinarios. La discusión, sin embargo, se complica cuando los incentivos estatales empujan en la dirección opuesta, es decir, hacia la adopción rápida y la ampliación de usos.
Otro de los puntos más valiosos del planteamiento de López de Mántaras es su advertencia sobre el ethics washing. El término no alude a la inexistencia total de convicciones morales en las empresas, sino a la posibilidad de que el lenguaje ético funcione como blindaje reputacional, herramienta comercial o instrumento de negociación política. Una compañía puede prohibir ciertos usos especialmente extremos y, al mismo tiempo, mantener abiertas otras colaboraciones igual de controvertidas bajo formulaciones más aceptables. Puede, además, exhibir responsabilidad frente a reguladores e inversores mientras conserva suficiente elasticidad para participar en contratos estratégicos. Esa ambivalencia no es anecdótica: es uno de los rasgos centrales del actual capitalismo de plataformas y modelos fundacionales. La ética corporativa existe, sí, pero muchas veces en tensión permanente con los imperativos de crecimiento, financiación y posicionamiento geopolítico.
En ese marco, el enfrentamiento entre Anthropic y el Pentágono funciona como una escena de condensación histórica. Expone, por un lado, el deseo del Estado de no aceptar límites privados cuando interpreta que está en juego la seguridad nacional. Y expone, por otro, la dificultad de una empresa para sostener públicamente líneas rojas si sabe que sus competidores están dispuestos a ocupar el espacio que deje libre. El resultado es un equilibrio perverso: quien coopera puede ganar acceso, contratos y legitimidad institucional; quien resiste corre el riesgo de ser penalizado o sustituido. Esa dinámica, si se consolida, reduce el margen real de autonomía ética empresarial y refuerza una conclusión incómoda: sin regulación pública clara, la ética termina siendo negociable.
Europa debería leer este episodio con especial atención. Mientras Estados Unidos avanza a gran velocidad en la integración entre IA y seguridad nacional, la Unión Europea sigue intentando compatibilizar innovación, derechos fundamentales y control regulatorio. El reto ya no es solo aprobar normas generales sobre IA, sino afrontar de forma específica la cuestión militar, la doble utilización de tecnologías fundacionales y la dependencia estratégica respecto a modelos, nubes y proveedores extranjeros. Si la IA se convierte en infraestructura crítica del poder contemporáneo, la gobernanza tecnológica no puede reducirse a cumplimiento formal, auditorías ex post o declaraciones de principios. Requiere capacidad política, músculo institucional, supervisión independiente y, sobre todo, voluntad de fijar límites allí donde el mercado y la geopolítica prefieren mantener ambigüedad.
También conviene subrayar otra idea de fondo: la legitimidad democrática no puede delegarse en las empresas, por muy sofisticadas que sean sus políticas de seguridad. Las decisiones sobre vigilancia masiva, armas autónomas, apoyo a operaciones militares o usos duales de sistemas generativos no deberían quedar resueltas en comités internos, notas corporativas o cláusulas de contrato. Son cuestiones que afectan a libertades, derechos, seguridad internacional y control civil del uso de la fuerza. La gobernanza de la IA militar exige, por tanto, instituciones capaces de deliberar, legislar, fiscalizar y sancionar. Cuando esas instituciones llegan tarde, el terreno lo ocupan el hecho consumado y la normalización. Y una vez que la infraestructura está desplegada, revertirla es muchísimo más difícil.
El valor del artículo de Ramón López de Mántaras reside precisamente en no aceptar la neutralidad cómoda del progreso técnico. Su argumento obliga a mirar la IA como una tecnología de poder, no solo como una herramienta de eficiencia. Obliga también a preguntarse quién establece las fronteras entre lo admisible y lo inadmisible cuando una democracia se siente amenazada, cuando una empresa quiere crecer y cuando la competencia internacional convierte cada renuncia ética en una posible desventaja estratégica. Ese es el verdadero núcleo del debate. No se trata únicamente de Anthropic, ni solo del Pentágono, ni siquiera exclusivamente de Estados Unidos. Se trata del modelo de gobernanza que prevalecerá en la próxima década: uno en el que los límites se discutan públicamente y se impongan con control democrático, o uno en el que la relación entre Estado y corporaciones tecnológicas termine definiendo, por la vía de los hechos, qué clase de IA bélica, policial o de inteligencia se considera normal.
A estas alturas, la pregunta ya no es si la inteligencia artificial va a formar parte del ámbito militar. Eso está ocurriendo. La pregunta decisiva es si esa integración se hará bajo reglas transparentes, límites verificables y contrapesos jurídicos sólidos, o si quedará en manos de acuerdos opacos, doctrinas de emergencia y principios corporativos reversibles. El caso Anthropic-Pentágono ha servido para iluminar esa fractura. Y por eso importa tanto: porque anticipa el conflicto central del próximo ciclo tecnológico. La batalla por la IA no es solo industrial ni científica. Es, cada vez más, una batalla por la legitimidad de los límites.