Washington convierte una disputa sobre “líneas rojas” en un aviso a toda la industria: en defensa, el Gobierno quiere decidir los límites, no las empresas.
La administración Trump ha decidido convertir un desacuerdo de políticas de uso en un movimiento de alto voltaje institucional: ordenar a las agencias federales y a los contratistas que trabajan con el Ejército que cesen negocios con Anthropic, la compañía detrás de Claude. El detonante es la negativa de Anthropic a aceptar que el Pentágono pueda usar su tecnología “para todos los fines lícitos”, sin excepciones, incluso en ámbitos tan sensibles como armas autónomas letales y vigilancia doméstica masiva. La respuesta de la Casa Blanca, sin embargo, va mucho más allá de rescindir un contrato: abre la puerta a un bloqueo sistémico con efectos en cascada sobre proveedores, integradores y clientes corporativos.
Donald Trump anunció en Truth Social un plazo de seis meses para que el Departamento de Defensa y otras agencias retiren productos de Anthropic de sus sistemas. Poco después, el secretario de Defensa, Pete Hegseth, elevó el tono al afirmar que Anthropic será considerada un “supply chain risk” (“riesgo de cadena de suministro”), una etiqueta que suele asociarse a compañías percibidas como extensiones de adversarios extranjeros. No se trata solo de dejar de comprar: la expresión implica una lógica de cuarentena, donde los contratistas deben demostrar que su trabajo con el Pentágono no toca —ni de forma indirecta— tecnología de la empresa señalada.
Una semana que cambia el guion de la IA en defensa
La decisión culmina un pulso acelerado en cuestión de días. El punto de fricción era una cláusula exigida por Defensa a los grandes laboratorios: permitir el uso de la IA para “all lawful purposes” (“todos los usos lícitos”). Sobre el papel, parece una fórmula administrativa. En la práctica, es una doctrina: el Pentágono rechaza que un proveedor pueda reservarse el derecho de desactivar guardarraíles en situaciones críticas o de limitar categorías de uso.
Anthropic, por el contrario, ha mantenido dos líneas rojas que ha reiterado de forma pública: no autorizar que Claude se use para armas plenamente autónomas y no autorizar su uso para vigilancia doméstica masiva de ciudadanos estadounidenses. La compañía insiste en que no pretende vetar operaciones militares concretas ni aplicar un control “ad hoc”, sino sostener prohibiciones estrechas, estructurales y estables, precisamente para evitar que la presión del momento erosione límites que considera democráticamente críticos.
El choque se hizo visible tras una reunión de alto nivel en el Pentágono entre Hegseth y el CEO de Anthropic, Dario Amodei. Según fuentes citadas por medios estadounidenses, la reunión fue cordial, pero la escalada posterior sugiere que el conflicto se endureció cuando Anthropic reafirmó públicamente que no aceptaría el cambio de condiciones. Desde la óptica del Departamento de Defensa, esa negativa equivale a permitir que una empresa privada condicione decisiones operativas. Desde la óptica de Anthropic, ceder equivaldría a dinamitar el fundamento de su marca: “capacidad con límites verificables”.
El ingrediente que lo vuelve explosivo: “riesgo de cadena de suministro”
Si el Gobierno solo estuviera molesto con los términos contractuales, podría rescindir el acuerdo y buscar alternativas. Pero el paso hacia la etiqueta de “supply chain risk” convierte la disputa en algo cualitativamente distinto: un mecanismo de presión que afecta a terceros. No se limita a un contrato entre el Pentágono y Anthropic; alcanza a integradores, consultoras, tecnológicas y contratistas que trabajan con Defensa y que podrían usar Claude en cualquier parte de su cadena de herramientas.
En términos políticos, el movimiento envía una señal a todo el mercado: si quieres vender IA al gobierno en ámbitos críticos, no intentes imponer restricciones de uso. Es una advertencia que trasciende a Anthropic. En términos comerciales, genera un incentivo inmediato: empresas que jamás habrían dejado Claude por calidad podrían abandonarlo por riesgo regulatorio, por miedo a cerrar puertas futuras en licitaciones federales.
El contexto que pesa: Claude ya estaba en redes clasificadas
El caso es especialmente delicado porque Claude no era un experimento. Varios medios señalan que Claude fue el primer modelo de IA en operar en redes clasificadas del Ejército, y que Anthropic firmó un contrato con Defensa de hasta 200 millones de dólares el verano pasado. El acuerdo funcionaba como una credencial industrial: entrar en entornos clasificados es una “prueba de fuego” de robustez, seguridad y gobernanza.
Aquí aparece la paradoja más incómoda: dentro del propio Departamento de Defensa se reconocía que Claude era apreciado y que las restricciones no habían sido un problema operativo diario. Pero el Pentágono argumenta que el problema no es lo cotidiano, sino lo excepcional: no quiere verse, en una crisis de seguridad nacional, obligado a pedir a una empresa que levante restricciones. En su visión, la legalidad y la responsabilidad son del usuario final, no del proveedor.
Anthropic promete batalla judicial y acusa un precedente “peligroso”
Anthropic ha reaccionado con dureza. Afirma que la designación sería jurídicamente insostenible y que sentaría un precedente peligroso para cualquier compañía estadounidense que negocie con el gobierno. También ha dejado claro que, si se formaliza la etiqueta de “supply chain risk”, la impugnará en los tribunales. La compañía intenta enmarcar el episodio como un abuso de palancas estatales para castigar una postura de seguridad: no como una disputa comercial, sino como un choque sobre límites democráticos.
Su mensaje de fondo es estratégico: si el Estado puede convertir en “riesgo” a una empresa doméstica por mantener límites en usos de alto impacto, entonces cualquier proveedor queda expuesto a la misma presión cuando su producto se vuelva necesario.
La administración también asume costes: migración, recertificación y degradación temporal
Aunque el golpe se presenta como una medida disciplinaria, el Pentágono también se complica la vida. Sustituir un modelo integrado en sistemas internos no es un cambio de interfaz: implica migración de flujos, revisión de dependencias, potencial recertificación y riesgo de discontinuidad. El plazo de seis meses es, en la práctica, un reconocimiento de esa fricción técnica y burocrática.
Además, está la cuestión de rendimiento. Los mismos relatos que citan la disposición de alternativas como Grok para operar en entornos clasificados apuntan que no se perciben al nivel de Claude. El Pentágono, por tanto, acepta una posible degradación temporal de capacidad con tal de imponer la doctrina: en defensa, el Gobierno decide los límites.
El verdadero fondo: la IA deja de ser producto y se convierte en infraestructura de poder
Este episodio es un síntoma de un cambio de etapa. Cuando la IA está en consumo, la discusión gira sobre utilidad y precio. Cuando entra en redes clasificadas, adquisiciones públicas y cadenas de suministro, la discusión gira sobre soberanía operativa. La cláusula “todos los usos lícitos” no es una frase legalista: es un intento de fijar un estándar para la próxima década, donde los modelos no serán accesorios, sino piezas de decisión, análisis y coordinación.
La industria entiende que esto no va solo de Anthropic. Por eso han aparecido apoyos públicos y reacciones cruzadas: si un laboratorio que se vende como “safety-first” es penalizado por sostener límites, el resto debe elegir entre dos caminos. O adaptarse al estándar del gobierno —aceptar condiciones amplias— o construir una estrategia legal y reputacional para sostener “líneas rojas” sin quedar fuera de juego.
Un cierre con implicaciones globales
La paradoja final es política: la Casa Blanca describe la competencia con China como una carrera estratégica comparable a una gran pugna tecnológica del siglo XX, pero al mismo tiempo está dispuesta a arrinconar a un proveedor doméstico puntero para imponer un principio de control. Si el precedente prospera, la pregunta ya no será “qué modelo es mejor”, sino “qué modelo está autorizado” y “bajo qué doctrina”. Y esa es la frontera en la que la IA deja de ser mercado y pasa a ser Estado.