El choque entre Anthropic y el Pentágono: qué pasó y por qué importa
Anthropic presentó una demanda formal contra el Departamento de Defensa de Estados Unidos el lunes 9 de marzo de 2026, luego de que la agencia la designara como un riesgo en la cadena de suministro para la seguridad nacional. La queja legal califica las acciones del DOD como «sin precedentes e ilegales», abriendo uno de los conflictos más significativos entre el gobierno federal y una empresa de inteligencia artificial en la historia reciente.
Para el ecosistema de startups tecnológicas, este caso no es solo el drama de una gran empresa: es una señal de alerta sobre cómo las decisiones regulatorias pueden cambiar las reglas del juego de la noche a la mañana.
Cronología: cómo llegamos hasta aquí
Para entender la demanda, hay que repasar los hechos que la precedieron:
- 27 de febrero de 2026: El presidente Donald Trump publicó en Truth Social una directiva ordenando a todas las agencias federales cesar el uso de los productos de Anthropic, en particular su modelo de IA Claude. El mismo día, el secretario de Defensa Pete Hegseth anunció la designación de riesgo en cadena de suministro y prohibió a todos los contratistas, socios y proveedores militares usar herramientas de Anthropic, estableciendo un periodo de transición de seis meses.
- Finales de febrero de 2026: El conflicto escaló tras el fracaso de negociaciones sobre un contrato de defensa valorado en aproximadamente 200 millones de dólares. El Pentágono exigía acceso irrestricto a Claude para «todos los propósitos legales», mientras que el CEO de Anthropic, Dario Amodei, se negó a ceder sin garantías de que el modelo no sería usado para vigilancia masiva de ciudadanos estadounidenses ni para el despliegue de armas autónomas.
- 4 de marzo de 2026: Anthropic recibió una carta oficial del entonces denominado Departamento de Guerra confirmando la designación. Amodei anunció públicamente la intención de llevar el caso a los tribunales.
- 9 de marzo de 2026: Anthropic presentó formalmente la demanda.
El argumento legal: por qué Anthropic dice que la designación es ilegítima
El núcleo de la demanda de Anthropic gira en torno a dos cuerpos legales: el 10 U.S.C. § 3252 y la Federal Acquisition Supply Chain Security Act (FASCSA) de 2018, que son los marcos normativos bajo los cuales el DOD justificó su acción.
La empresa argumenta que:
- La designación viola el principio de mínima restricción necesaria. La ley exige que el Secretario de Defensa demuestre que «medidas menos intrusivas no están razonablemente disponibles». Anthropic sostiene que el DOD no cumplió con ese estándar antes de emitir la prohibición.
- El alcance de la prohibición es desproporcionado. El estatuto aplica originalmente a contratos donde Claude sea usado «como parte directa» de sistemas de seguridad nacional del DOD, no a todas las relaciones comerciales de cualquier contratista con Anthropic. La interpretación del Pentágono extiende la prohibición de forma que la empresa considera ilegítima.
- Se aplican criterios creados para amenazas extranjeras a una empresa estadounidense. Estas normas fueron diseñadas para gestionar riesgos de sabotaje o infiltración por parte de adversarios extranjeros, no para presionar a compañías domésticas en disputas contractuales sobre el uso ético de sus propias tecnologías.
Qué significa «riesgo en cadena de suministro» y por qué preocupa a la industria
Una designación bajo FASCSA o 10 U.S.C. § 3252 no es una sanción menor. En la práctica, significa que:
- Los contratistas del DOD deben auditar y eliminar el uso de productos de Anthropic en cualquier contrato de seguridad nacional, con un plazo de seis meses.
- Las agencias civiles también fueron instruidas a cesar el uso de Claude por la directiva presidencial del 27 de febrero.
- El estigma de la designación puede extenderse al mercado privado: clientes corporativos y empresas que busquen evitar riesgos regulatorios pueden alejarse de la plataforma aunque no tengan contratos federales.
Según la experta en cadenas de suministro de la Universidad Northeastern, Nada Sanders, esta situación «enfría la innovación» y desplaza el poder de negociación hacia Washington, haciendo que los términos contractuales ya no sean negociables para las empresas de IA.
El impacto real en el ecosistema de startups de IA
Para founders que construyen sobre APIs de IA o desarrollan herramientas para el sector público, este caso abre preguntas que no pueden ignorarse:
1. Riesgo regulatorio como variable de producto
Si una empresa de la envergadura y reputación de Anthropic puede ser designada riesgo de cadena de suministro por una disputa contractual, cualquier proveedor de IA que trabaje con el gobierno o con contratistas federales está expuesto a un precedente similar. La posición ética del proveedor sobre el uso de su tecnología puede convertirse en un factor de riesgo comercial.
2. El dilema de la alineación ética vs. el acceso al mercado
Dario Amodei se negó a ceder en condiciones de uso que consideraba una amenaza para los ciudadanos. Eso le costó un contrato de 200 millones de dólares y una designación que sacude su negocio. Para founders más pequeños, la presión para aceptar condiciones de uso cuestionables puede ser aún mayor cuando el cliente es el gobierno.
3. Diversificación de mercados como estrategia defensiva
El caso refuerza una lección que muchos founders aprenden tarde: la dependencia de un solo cliente o canal —incluso uno tan atractivo como el gobierno de EE. UU.— es un riesgo estratégico. La diversificación geográfica y sectorial no es solo una oportunidad de crecimiento; es también un escudo.
4. El ecosistema de contratistas federales en revisión
Empresas como Mayer Brown y Goodwin Law ya están asesorando a contratistas del gobierno sobre cómo auditar el uso de Claude en sus operaciones y preparar planes de transición. Esto abre una oportunidad para proveedores alternativos de IA —startups incluidas— que puedan posicionarse como opciones para contratistas que necesiten reemplazar herramientas de Anthropic.
El contexto político: cuando la regulación de IA se vuelve arma
No es posible analizar este caso sin su contexto político. La administración Trump ha sido explícita en su enfoque de la IA: prioridad estratégica para la competitividad nacional, con baja tolerancia a restricciones impuestas por las propias empresas sobre el uso de sus modelos en contextos de defensa.
La ironía del caso es notable: Anthropic fue durante años señalada como una de las empresas de IA más comprometidas con la seguridad y la alineación responsable de sus modelos. Precisamente esas salvaguardas —diseñadas para prevenir usos dañinos— son las que colisionaron con las exigencias del Pentágono.
Esto plantea una pregunta estructural para la industria: ¿pueden coexistir los principios de IA responsable con las demandas de un cliente gubernamental que quiere acceso irrestricto? La respuesta de Anthropic fue llevar esa tensión a los tribunales.
Conclusión
La demanda de Anthropic contra el Departamento de Defensa es mucho más que un litigio corporativo. Es el primer gran test legal sobre si las empresas de IA pueden mantener sus propios estándares éticos frente a la presión de clientes gubernamentales con poder regulatorio. El resultado del caso definirá precedentes que afectarán a toda la industria: desde gigantes como OpenAI o Google DeepMind hasta startups que hoy construyen herramientas sobre modelos de lenguaje avanzados.
Para los founders del ecosistema de IA en LATAM y el mundo, el mensaje es claro: el entorno regulatorio es ahora una variable de negocio tan crítica como el product-market fit. Ignorarlo puede costar caro.
Conecta con founders que navegan regulación, IA y estrategia en mercados complejos. Comparte tu perspectiva en nuestra comunidad.
Fuentes
- https://techcrunch.com/2026/03/09/anthropic-sues-defense-department-over-supply-chain-risk-designation/ (fuente original)
- https://techcrunch.com/2026/03/05/anthropic-to-challenge-dods-supply-chain-label-in-court/ (fuente adicional)
- https://www.anthropic.com/news/where-stand-department-war (fuente adicional)
- https://www.mayerbrown.com/en/insights/publications/2026/03/pentagon-designates-anthropic-a-supply-chain-risk-what-government-contractors-need-to-know (fuente adicional)
- https://www.goodwinlaw.com/en/insights/publications/2026/03/alerts-practices-is-claude-a-supply-chain-risk (fuente adicional)
- https://news.northeastern.edu/2026/03/05/anthropic-supply-chain-risk/ (fuente adicional)
- https://fortune.com/2026/03/06/pentagon-officially-defines-anthropic-as-supply-chain-risk/ (fuente adicional)














