La startup de IA demanda al Gobierno de EE. UU. tras ser catalogada como “riesgo para la cadena de suministro” por negarse a permitir que Claude se utilice en armas autónomas y vigilancia masiva.
El conflicto entre la industria de la inteligencia artificial y el poder político estadounidense ha entrado en una fase inédita. Anthropic, la empresa detrás del modelo de IA Claude, ha presentado una demanda contra el Gobierno de Estados Unidos para impedir que su tecnología sea incluida en la lista negra de la administración liderada por Donald Trump. La decisión abre un enfrentamiento judicial que no sólo afecta a una compañía tecnológica concreta, sino que pone sobre la mesa un debate mucho más amplio: quién define los límites éticos de la inteligencia artificial cuando entran en juego intereses militares, seguridad nacional y poder político.
La acción legal presentada por Anthropic busca revertir la designación oficial que la administración estadounidense ha impuesto sobre la empresa al calificarla como un “riesgo para la cadena de suministro”. Este tipo de clasificación tiene consecuencias inmediatas: obliga a todas las agencias federales a dejar de utilizar la tecnología afectada y dificulta que cualquier empresa con contratos gubernamentales pueda seguir trabajando con ella. En la práctica, se trata de una sanción de enorme impacto en el ecosistema tecnológico estadounidense, especialmente cuando la compañía señalada es una de las principales desarrolladoras de modelos de inteligencia artificial avanzada.
La demanda presentada ante un tribunal federal de California apunta directamente a varios de los organismos clave del gobierno estadounidense, incluidos los Departamentos de Estado, de Defensa, de Comercio y la NASA, además de funcionarios de alto nivel vinculados a la actual administración. La empresa considera que la medida constituye un castigo político sin precedentes por mantener determinadas posiciones éticas sobre el uso de su tecnología.
En el texto judicial, los abogados de Anthropic sostienen que la actuación del Gobierno vulnera principios básicos de la Constitución estadounidense. “La Constitución no permite que un gobierno utilice su enorme poder para castigar a una empresa por ejercer su discurso protegido”, argumenta la compañía en la demanda. Con esta formulación, la startup intenta trasladar el conflicto desde el terreno tecnológico al constitucional: lo que está en juego, sostiene, no es únicamente la relación entre una empresa y el Estado, sino la posibilidad de que el poder político sancione a una compañía por negarse a modificar sus políticas de uso.
El origen del enfrentamiento entre Anthropic y la Casa Blanca se remonta a las tensiones surgidas en torno al uso militar de la inteligencia artificial. Según distintas informaciones publicadas en medios especializados, el Pentágono habría solicitado a la compañía que eliminara ciertas restricciones impuestas al modelo Claude para permitir su aplicación en proyectos de vigilancia masiva y en sistemas de armamento autónomo. La respuesta de Anthropic fue negativa.
La empresa fundada por los hermanos Dario y Daniela Amodei mantiene desde sus inicios una política de uso relativamente restrictiva en comparación con otros desarrolladores de IA. Entre las limitaciones más claras figura la prohibición de utilizar Claude para dos ámbitos especialmente sensibles: el desarrollo de armas autónomas letales y el despliegue de sistemas de vigilancia masiva sobre ciudadanos estadounidenses.
En la documentación presentada ante el tribunal, la compañía insiste en que esas restricciones no responden únicamente a una postura ideológica, sino también a una evaluación técnica de los riesgos asociados al funcionamiento de los sistemas de inteligencia artificial actuales. Según Anthropic, Claude todavía no puede considerarse lo suficientemente fiable para operar en escenarios donde un error pueda tener consecuencias letales o afectar gravemente a derechos fundamentales.
El documento judicial lo expresa de manera explícita. La empresa sostiene que su política de uso siempre ha establecido que Claude no debe emplearse para “guerra autónoma letal ni vigilancia masiva de ciudadanos estadounidenses”. Además, subraya que el sistema no ha sido probado en esos contextos y que la propia compañía no confía en su fiabilidad en situaciones donde decisiones automatizadas puedan derivar en consecuencias irreversibles.
Esta postura refleja uno de los debates más intensos dentro del desarrollo contemporáneo de la inteligencia artificial: hasta qué punto las empresas tecnológicas deben permitir que sus modelos se integren en sistemas militares o de seguridad nacional. Mientras algunas compañías consideran inevitable esa colaboración con los gobiernos, otras intentan establecer límites que eviten determinados usos de sus herramientas.
Anthropic pertenece claramente a este segundo grupo. Desde su creación en 2021, la empresa ha defendido la necesidad de desarrollar sistemas de inteligencia artificial alineados con principios de seguridad y responsabilidad. En este sentido, el conflicto con la administración Trump representa una prueba de fuego para ese posicionamiento.
Según la versión de la compañía, las relaciones con el Gobierno estadounidense no siempre fueron conflictivas. De hecho, Anthropic afirma haber colaborado durante años con diversas agencias federales para desarrollar versiones de Claude adaptadas a necesidades específicas del sector público. Incluso señala que su tecnología fue autorizada para acceder a determinados sistemas de archivos confidenciales dentro del ámbito gubernamental.
El deterioro de la relación se habría producido cuando el Pentágono solicitó eliminar las restricciones sobre el uso militar de Claude. Inicialmente, según la empresa, el Departamento de Defensa aceptó las limitaciones establecidas por la política de uso. Sin embargo, con el tiempo habría comenzado a presionar para ampliarlas bajo la fórmula de permitir “cualquier uso legal”.
La negativa de Anthropic a modificar sus condiciones marcó el punto de ruptura. Desde ese momento, el enfrentamiento se trasladó progresivamente al terreno político y mediático. Funcionarios cercanos a la administración Trump comenzaron a criticar públicamente a la compañía, acusándola de adoptar posiciones ideológicas contrarias a los intereses del Estado.
El conflicto escaló aún más cuando el Gobierno estadounidense utilizó Claude en una operación relacionada con la detención del presidente venezolano Nicolás Maduro. Cuando Anthropic expresó públicamente su incomodidad con ese uso, el enfrentamiento entre ambas partes se hizo visible y el tono de las declaraciones se endureció.
Desde la Casa Blanca, algunos funcionarios calificaron a la empresa como una compañía “woke” o de “izquierda radical”. Las críticas también se dirigieron personalmente contra su director ejecutivo, Dario Amodei, a quien acusaron de actuar como si tuviera un “complejo de dios”.
La respuesta desde la empresa tampoco fue conciliadora. En un memorando interno filtrado a la prensa, Amodei señaló que la relación con el Pentágono se había deteriorado porque la compañía se negaba a “rendir pleitesía a Trump como si fuera un dictador”. Ese intercambio de acusaciones refleja el nivel de tensión que ha alcanzado el conflicto.
El impacto potencial de la decisión gubernamental sobre Anthropic es considerable. Si la designación como riesgo para la cadena de suministro se mantiene, las agencias federales deberán dejar de utilizar Claude de inmediato. Además, las empresas privadas que tengan contratos con el gobierno podrían verse obligadas a abandonar esa tecnología en sus proyectos relacionados con el sector público.
La compañía sostiene que la situación es menos restrictiva de lo que afirma la administración. Según su interpretación, las empresas contratistas todavía podrían utilizar Claude en proyectos que no estén vinculados directamente con el Pentágono o con programas federales específicos. Sin embargo, el simple hecho de aparecer en una lista negra gubernamental podría tener efectos reputacionales y comerciales muy significativos.
Por ese motivo, la demanda presentada por Anthropic busca una intervención rápida de la justicia federal. La empresa solicita que el tribunal revierta la designación impuesta por el gobierno y prohíba su aplicación mientras se resuelve el litigio. De momento, no se ha hecho público el calendario que seguirá el proceso judicial ni cuál podría ser la estrategia de defensa de la administración Trump.
Más allá de su desenlace, el caso plantea cuestiones de enorme relevancia para el futuro de la inteligencia artificial. En primer lugar, abre un debate sobre el grado de autonomía que deben tener las empresas tecnológicas para decidir cómo se utiliza su tecnología. En segundo lugar, cuestiona hasta qué punto el poder político puede intervenir para imponer determinadas condiciones de uso cuando considera que están en juego intereses de seguridad nacional.
También introduce un elemento adicional en la creciente tensión entre Silicon Valley y Washington. Durante los últimos años, el desarrollo de la inteligencia artificial se ha convertido en un asunto estratégico para Estados Unidos, tanto en términos económicos como geopolíticos. La administración federal quiere garantizar que las tecnologías clave estén disponibles para el sector militar y de seguridad. Pero las empresas que las desarrollan no siempre comparten la misma visión sobre sus posibles aplicaciones.
El caso de Anthropic ilustra esa fractura con especial claridad. A diferencia de otras compañías que han optado por colaborar estrechamente con el Departamento de Defensa, la empresa ha intentado mantener una línea más prudente respecto al uso militar de la IA. Esa postura le ha permitido construir una imagen de empresa centrada en la seguridad y la ética de la inteligencia artificial, pero también la ha colocado en una posición incómoda frente a un gobierno decidido a ampliar las capacidades tecnológicas del aparato estatal.
En última instancia, el enfrentamiento entre Anthropic y la Casa Blanca no es solo un conflicto legal. Es también una batalla simbólica sobre el futuro de la inteligencia artificial. Por un lado, representa la visión de un Estado que considera estas tecnologías herramientas estratégicas que deben estar disponibles para su defensa y seguridad. Por otro, refleja la postura de una empresa que intenta establecer límites sobre cómo pueden utilizarse sus propios sistemas.
El resultado del proceso judicial podría tener consecuencias que vayan mucho más allá de Claude. Si los tribunales respaldan la posición de Anthropic, se reforzaría la idea de que las empresas tecnológicas tienen derecho a fijar restricciones sobre el uso de sus herramientas, incluso cuando el gobierno desea utilizarlas en ámbitos sensibles. Si, por el contrario, la administración logra mantener la designación de riesgo para la cadena de suministro, podría abrirse la puerta a un mayor control político sobre el desarrollo y despliegue de la inteligencia artificial en Estados Unidos.
En cualquier caso, el litigio confirma que la IA ya no es únicamente una cuestión tecnológica o empresarial. Es también un terreno de disputa política, jurídica y estratégica. Y en esa nueva fase del sector, las decisiones sobre cómo y para qué se utiliza la inteligencia artificial empiezan a dirimirse no solo en laboratorios o centros de datos, sino también en los tribunales.