Washington amenaza con tratar a Anthropic como “riesgo de cadena de suministro” si no acepta que sus modelos se usen para cualquier propósito legal, incluso en armas, inteligencia y operaciones de combate.
La guerra por la inteligencia artificial ya no se libra solo en benchmarks y rondas de financiación. Se libra en un terreno más áspero: el del Estado y la seguridad nacional. Y ahí, una de las empresas más asociadas a la narrativa de “IA responsable”, Anthropic, se enfrenta a una presión directa del Departamento de Defensa de Estados Unidos: o abre el uso de sus modelos a “todos los fines lícitos”, incluyendo los escenarios más sensibles del aparato militar, o se arriesga a perder acceso al cliente más exigente —y más influyente— del planeta.
La historia, adelantada por Axios y recogida por Reuters, describe una escalada que va más allá de una simple renegociación contractual. El Pentágono habría llegado a plantearse romper la relación con Anthropic y, en el extremo, etiquetarla como “supply chain risk” (riesgo para la cadena de suministro), una categoría que suele reservarse para amenazas estratégicas y que, aplicada a un proveedor, puede obligar a contratistas y socios a eliminar su tecnología de sistemas federales.
Lo que exige el Pentágono: “all lawful purposes” como estándar único
Según Reuters, el Departamento de Defensa presiona a cuatro laboratorios punteros —Anthropic, OpenAI, Google y xAI— para permitir que el ejército use sus herramientas para “todos los fines lícitos”. Esa fórmula, aparentemente neutral, es un torpedo semántico: abre la puerta a usos en desarrollo de armas, recogida de inteligencia y operaciones en el campo de batalla, siempre que el marco legal estadounidense los ampare.
Para el Pentágono, esto tiene lógica operativa. Si un proveedor limita los casos de uso —aunque sea con intención ética— introduce fricción, incertidumbre y dependencia. La defensa quiere herramientas “de propósito general” con disponibilidad garantizada, especialmente cuando el discurso estratégico en Washington gira en torno a la competencia tecnológica con China y a la necesidad de acortar ciclos de decisión. En ese marco, una IA que funcione bien pero venga con “cláusulas morales” se percibe como un componente no confiable.
La postura de Anthropic: dos líneas rojas, pase lo que pase
Anthropic, sin embargo, sostiene límites concretos. Reuters recoge la posición de la compañía: el núcleo de la discusión con Defensa se centraría en restricciones estrictas sobre dos ámbitos: armas totalmente autónomas y vigilancia doméstica masiva. Un portavoz afirmó que la empresa sigue comprometida con apoyar la seguridad nacional, pero no acepta cruzar esas fronteras.
Wired lo resume con claridad: la empresa no quiere que su IA se use en armamento autónomo ni en vigilancia gubernamental, y esas “excepciones” podrían costarle un contrato militar significativo.
Es importante entender la asimetría del conflicto. Para el Pentágono, “todos los fines lícitos” es una cláusula de normalización: estandariza el acceso. Para Anthropic, aceptar esa frase equivale a renunciar a cualquier principio operativo verificable: si todo es lícito, el margen para decir “no” se vuelve casi inexistente. No es un matiz jurídico; es el núcleo del poder.
El contrato de 200 millones y el problema del “cliente ancla”
Este pulso ocurre además con dinero real encima de la mesa. Anthropic anunció en julio de 2025 que el Departamento de Defensa, a través de su Chief Digital and Artificial Intelligence Office (CDAO), le adjudicó un acuerdo de prototipo de dos años con un techo de 200 millones de dólares para desarrollar capacidades de IA de frontera en apoyo de la seguridad nacional.
Ese contrato no es solo una cifra: es una señal de credibilidad. En el mercado de la IA, tener al Pentágono como cliente funciona como certificación de robustez, seguridad y capacidad de despliegue en entornos críticos. Por eso la amenaza de “cortar” a Anthropic es, en términos industriales, una amenaza de aislamiento: no solo perdería ingresos, sino posición.
El detonante político y operativo: el caso Venezuela y el efecto Palantir
La tensión se agravó con un episodio explosivo: el Wall Street Journal informó que el ejército de EE. UU. habría usado Claude en una operación relacionada con Venezuela para capturar a Nicolás Maduro, a través de la relación con Palantir, cuyos sistemas se integran con modelos de IA. Reuters también recogió esa información citando al WSJ.
Según Axios, el Pentágono considera que las restricciones de Anthropic entorpecen su libertad operativa, y el episodio habría tensado aún más la relación. En paralelo, Anthropic mantiene públicamente que cualquier uso de Claude debe cumplir sus políticas, y evita confirmar operaciones específicas.
Aquí aparece un punto clave: la capa de integración. Aunque Anthropic controle su política, el uso militar puede llegar “por terceros” —contratistas y plataformas ya dentro del ecosistema DoD— y el control efectivo se vuelve difuso. Si el cliente final es Defensa y el integrador es un contratista dominante, el laboratorio de IA puede descubrir que sus “guardarraíles” son, en la práctica, negociables por arquitectura.
¿Qué significa “riesgo de cadena de suministro” aplicado a una empresa estadounidense?
Axios eleva el dramatismo con la idea de clasificar a Anthropic como “supply chain risk”. Eso implicaría, según el medio, que contratistas del Pentágono podrían verse obligados a sacar Claude de sus sistemas.
No es un detalle burocrático. Es una herramienta de poder: convierte un desacuerdo de políticas en un problema de seguridad nacional, y por tanto en una palanca para disciplinar al proveedor. En otras palabras: si no aceptas nuestras condiciones, no solo pierdes un contrato; puedes quedar marcado como proveedor “problemático” para todo el ecosistema federal.
La paradoja: Claude en sistemas clasificados, pero sin reemplazo perfecto
Axios añade otro elemento que complica la amenaza: Claude sería, según el medio, el único modelo integrado en sistemas militares clasificados, mientras que otros laboratorios habrían relajado salvaguardas para usos no clasificados pero aún no estarían aprobados para lo más sensible. Esto convierte el conflicto en una negociación con costes de salida reales. Si el Pentágono quiere cortar, necesita una transición “ordenada”, con sustitución progresiva y garantías técnicas, como también sugiere Axios.
Es decir: la amenaza es creíble, pero no trivial de ejecutar. Y esa fricción técnica le da a Anthropic margen… aunque limitado, porque el Estado puede tolerar transición lenta si el objetivo es sentar precedente.
El choque de fondo: ¿quién define la ética operativa en guerra?
La disputa no es solo contractual. Es un conflicto de soberanía moral. Los laboratorios de IA han intentado posicionarse como guardianes de “seguridad” mediante políticas de uso, límites a ciertas capacidades y marcos de evaluación. El Estado, cuando entra en escena, cambia el tablero: asume que la legitimidad la marca la ley y la autoridad democrática (o, al menos, la legalidad vigente), no la política corporativa.
Desde la lógica militar, permitir que una empresa privada dicte límites sobre usos “lícitos” es inaceptable: externaliza doctrina. Desde la lógica de una empresa de IA, aceptar usos irrestrictos en armas o vigilancia erosiona su identidad, aumenta riesgo reputacional y abre exposición a futuros marcos regulatorios o litigios.
Esta tensión también refleja un hecho incómodo: la “IA responsable” es fácil cuando se vende a empresas para productividad; se vuelve explosiva cuando entra en targeting, inteligencia y operación. Ahí, cualquier ambigüedad se transforma en doctrina.
Lo que está realmente en juego para el sector
- El precedente: si el Pentágono doblega a Anthropic, el estándar “all lawful purposes” puede consolidarse como requisito para trabajar con defensa.
- La convergencia entre IA comercial y militar: la frontera entre herramientas para “empresa” y herramientas para “guerra” se difumina cuando los modelos son generalistas y los integradores son los mismos.
- La gobernanza real: las políticas de uso de los laboratorios, sin mecanismos técnicos inviolables y sin capacidad de auditoría independiente, pueden terminar siendo papel mojado en entornos de alto poder.
- La batalla reputacional: a ojos del público, “IA en guerra” activa reflejos de rechazo; a ojos de inversores y clientes institucionales, también puede ser sello de “seriedad”. Esa ambivalencia es tóxica y atractiva a la vez.
Una conclusión incómoda: la seguridad no es un eslogan, es una renuncia
La palabra “salvaguardas” suena abstracta hasta que implica decirle “no” al cliente más poderoso. Anthropic ha intentado dibujar dos líneas rojas: armas totalmente autónomas y vigilancia doméstica masiva. El Pentágono responde con una fórmula totalizante: “todos los fines lícitos”.
El choque revela algo estructural: la fase “romántica” de la IA, donde bastaba con prometer responsabilidad, está terminando. En la fase que comienza, la responsabilidad se mide por la capacidad de sostener límites frente a poder político y presupuesto. Y eso no se resuelve con comunicados: se resuelve con decisiones que cuestan dinero, acceso y, potencialmente, mercado.