El contrato de 200 millones de dólares que se rompió — y lo que podría venir después
En el cruce entre la innovación en inteligencia artificial y la geopolítica, pocas historias recientes ilustran mejor las tensiones del sector que la ruptura del contrato entre Anthropic y el Departamento de Defensa de Estados Unidos. Un acuerdo por 200 millones de dólares que llegó a su fin no por falta de interés, sino por una disputa de principios: ¿hasta dónde puede llegar el acceso militar irrestricto a modelos de inteligencia artificial de frontera?
Lo que ocurrió en las últimas semanas de febrero de 2026 tiene implicaciones que van mucho más allá de una negociación fallida. Marca un precedente sobre cómo las empresas de IA definen sus límites éticos frente a los gobiernos, y qué ocurre cuando esas líneas rojas colisionan con intereses de seguridad nacional.
Cómo empezó todo: Claude en redes clasificadas
En julio de 2025, Anthropic y el Pentágono alcanzaron un acuerdo histórico: Claude se convirtió en el primer modelo de IA de frontera aprobado para su uso en redes clasificadas del ejército estadounidense. El contrato incluía una cláusula clave — el Departamento de Defensa se comprometía a respetar la Política de Uso Aceptable (AUP) de Anthropic.
Esa política incluía dos restricciones fundamentales que Anthropic consideraba innegociables:
- Prohibición de vigilancia masiva doméstica de ciudadanos estadounidenses.
- Prohibición de sistemas de armas autónomas capaces de seleccionar y atacar objetivos sin supervisión humana.
Parecía un equilibrio razonable: tecnología de vanguardia al servicio de la defensa, dentro de límites éticos claramente definidos. Sin embargo, ese equilibrio no duró mucho.
El quiebre: la exigencia de acceso irrestricto
Meses después, el Pentágono volvió a la mesa de negociaciones con una demanda muy distinta: que Anthropic permitiera el uso de Claude para todos los propósitos legales, sin restricciones adicionales. La empresa rechazó la propuesta de forma categórica.
El 26 de febrero de 2026, Axios reportó que Anthropic declaró públicamente que había habido «prácticamente ningún progreso» en las negociaciones. El CEO Dario Amodei fue directo: la empresa no podía aceptar una formulación legal que, aunque presentada como compromiso, incluía jerga jurídica que permitiría ignorar las salvaguardas en cualquier momento.
El 27 de febrero, el Pentágono fijó una fecha límite: las 5:01 p.m. de ese día. Anthropic rechazó la oferta final. Las consecuencias no tardaron en llegar.
La escalada: Trump, el riesgo de cadena de suministro y la respuesta de Amodei
Tras el rechazo de Anthropic, el presidente Donald Trump emitió una directiva ordenando a todas las agencias federales que dejaran de usar la tecnología de Anthropic. Al mismo tiempo, el Secretario de Defensa Pete Hegseth designó formalmente a Anthropic como un «riesgo de cadena de suministro» para la seguridad nacional — una medida sin precedentes contra una empresa de IA comercial.
Esta designación tiene consecuencias concretas y amplias:
- Un período de transición de seis meses durante el cual Anthropic continúa prestando servicios militares.
- Prohibición a los contratistas de defensa de tener cualquier actividad comercial con Anthropic, incluyendo el uso de servicios en la nube de Amazon y Google que dependen de sus modelos.
Amodei respondió con firmeza: «Estas amenazas no alteran nuestra postura: no podemos, en conciencia, cumplir con sus demandas». En un blog público, señaló la contradicción inherente del Pentágono: designar a Anthropic como amenaza mientras simultáneamente reconoce a Claude como vital para la seguridad nacional.
Anthropic ha anunciado que impugnará la designación ante los tribunales.
¿Puede aún haber un acuerdo? Lo que sugiere el artículo de TechCrunch
A pesar de todo, según reporta TechCrunch, Dario Amodei podría estar explorando aún la posibilidad de llegar a un acuerdo con el Pentágono. Esto no es contradictorio con su postura pública: la empresa nunca ha dicho que no quiera trabajar con defensa, sino que las condiciones deben respetar sus políticas de uso responsable.
El contexto político y económico es complejo. Por un lado, $200 millones no representan una cifra devastadora para una compañía con el nivel de financiamiento de Anthropic. Por otro, ser excluida del ecosistema de contratación federal — y potencialmente del uso en servicios cloud por parte de miles de empresas — sí podría tener un impacto reputacional y comercial significativo a mediano plazo.
La pregunta que se hacen muchos analistas es si el conflicto abre una ventana de negociación o si se ha convertido en una batalla política más grande que cualquier contrato individual.
El caso OpenAI: un modelo diferente de negociación
El timing del conflicto con Anthropic abrió la puerta para OpenAI. La compañía de Sam Altman llegó rápidamente a un acuerdo con el Pentágono que, según sus propias declaraciones, también incluye las dos restricciones que Anthropic exigía — pero estructuradas de forma diferente: no como restricciones contractuales explícitas, sino integradas en capas de supervisión operativa y despliegue en la nube.
Altman afirmó que OpenAI usa «un enfoque más expansivo y multicapa» que incluye personal con habilitación de seguridad, supervisión activa y protecciones contractuales sólidas. Este modelo de negociación plantea un interrogante relevante para el ecosistema: ¿es posible mantener principios éticos en contratos de defensa sin que eso implique una ruptura total?
Lo que esto significa para founders e inversores en IA
Este episodio tiene varias lecturas para quienes construyen o invierten en startups de inteligencia artificial:
1. Las políticas de uso importan — y pueden convertirse en riesgo regulatorio
Las condiciones de uso de un modelo de IA ya no son solo un documento legal interno. Pueden convertirse en el eje de negociaciones millonarias con gobiernos y, como vimos, en el detonante de consecuencias regulatorias.
2. Los contratos con defensa son oportunidades complejas
El sector público — y especialmente el de defensa — representa contratos de gran escala, pero con dinámicas de negociación muy distintas al sector privado. Para una startup de IA que quiera crecer en ese espacio, definir de antemano sus líneas rojas éticas es tan estratégico como definir su propuesta de valor técnica.
3. El riesgo de cadena de suministro como herramienta de presión
La designación de Anthropic como «supply chain risk» es una señal de que los gobiernos están dispuestos a usar herramientas regulatorias no convencionales contra empresas de IA. Para el ecosistema emprendedor en LATAM y globalmente, esto anticipa un entorno donde la política y la tecnología estarán cada vez más entrelazadas.
4. La reputación como activo estratégico
La decisión de Anthropic de mantener sus principios públicamente — pese al costo del contrato — puede convertirse en un diferenciador reputacional poderoso con clientes empresariales que valoran la privacidad y la ética en IA. En el ecosistema startup, la coherencia entre valores y acciones tiene un peso que el dinero no siempre puede replicar.
Conclusión
El conflicto entre Anthropic y el Pentágono no es solo una disputa contractual de $200 millones. Es una prueba de estrés sobre cómo las empresas de inteligencia artificial navegan la tensión entre principios éticos, presiones gubernamentales y sostenibilidad comercial. Dario Amodei apostó por mantener sus líneas rojas incluso frente a una de las instituciones más poderosas del mundo — y las consecuencias, legales y comerciales, aún están por definirse.
Para los founders del ecosistema tech, este caso es una lección en tiempo real sobre la intersección entre ética, regulación y estrategia empresarial en la era de la IA. El partido no ha terminado: la batalla legal apenas comienza, y Amodei podría aún sorprendernos con un nuevo acuerdo que defina el estándar para toda la industria.
Conecta con founders que analizan el impacto de la IA en defensa, regulación y negocios. Únete gratis a la comunidad de Ecosistema Startup.
Fuentes
- https://techcrunch.com/2026/03/05/anthropic-ceo-dario-amodei-could-still-be-trying-to-make-a-deal-with-pentagon/ (fuente original)
- https://www.axios.com/2026/02/26/anthropic-rejects-pentagon-ai-terms (fuente adicional)
- https://fortune.com/2026/02/28/openai-pentagon-deal-anthropic-designated-supply-chain-risk-unprecedented-action-damage-its-growth/ (fuente adicional)
- https://www.mayerbrown.com/en/insights/publications/2026/03/pentagon-designates-anthropic-a-supply-chain-risk-what-government-contractors-need-to-know (fuente adicional)
- https://www.lawfaremedia.org/article/pentagon’s-anthropic-designation-won’t-survive-first-contact-with-legal-system (fuente adicional)













