El choque que nadie esperaba: Anthropic contra el Pentágono
El 9 de marzo de 2026, Anthropic —la startup de inteligencia artificial creadora de Claude— presentó una demanda ante el Tribunal del Distrito Norte de California contra el Gobierno de Estados Unidos. El motivo: el Departamento de Defensa la designó el 7 de marzo como riesgo para la cadena de suministro, una etiqueta históricamente reservada para adversarios extranjeros, nunca para una empresa tecnológica estadounidense.
Esto no es un conflicto regulatorio más. Es una señal de alerta para cualquier startup de IA que opere —o aspire a operar— con el sector público norteamericano. Y sus implicancias van mucho más allá de las fronteras de Silicon Valley.
¿Por qué el Departamento de Defensa designó a Anthropic como riesgo?
El conflicto tiene raíces concretas: Anthropic se negó a ceder su tecnología al Pentágono sin garantías explícitas contra el espionaje a ciudadanos estadounidenses y el desarrollo de armas autónomas. La empresa había colaborado previamente con agencias federales, pero estableció límites éticos claros sobre el uso militar de Claude.
La respuesta del gobierno fue contundente: el presidente Donald Trump vetó el uso de la tecnología de Anthropic, y el Departamento de Defensa formalizó la designación bajo el 10 USC 3252, la norma que habilita este tipo de clasificaciones. Anthropic se convirtió así en la primera empresa estadounidense en recibir esta etiqueta, normalmente aplicada a proveedores con vínculos a potencias extranjeras como China o Rusia.
La paradoja: según fuentes citadas en el proceso, modelos de Anthropic seguían siendo utilizados en operaciones militares (incluyendo operaciones relacionadas con Irán) pese a la prohibición oficial. Una contradicción que la propia demanda señala.
Los argumentos legales de Anthropic: tres ejes centrales
En la demanda, Anthropic califica la medida de «sin precedentes e ilegal» y articula su caso en tres frentes:
1. Represalias inconstitucionales
La empresa alega que la designación es una represalia directa por priorizar una IA segura y responsable, lo que equivaldría a una violación de la Primera Enmienda de la Constitución estadounidense, al atacar la reputación de la empresa como forma de castigo por su postura ética.
2. Daños económicos irreparables
La clasificación desencadenó la cancelación de contratos federales y puso en riesgo acuerdos privados por cientos de millones de dólares. Para una startup en fase de crecimiento acelerado, este tipo de impacto puede ser existencial.
3. Alcance legal mal aplicado
Anthropic argumenta que el 10 USC 3252 tiene un alcance limitado: protege al Gobierno, pero no sanciona a proveedores privados ni restringe usos comerciales no vinculados directamente al Departamento de Defensa. La demanda pide explícitamente anular la etiqueta y prohibir a las agencias federales aplicarla.
Implicaciones para el ecosistema tech y los founders de IA
Si eres founder en el espacio de IA —especialmente si tienes o buscas contratos con el sector público— este caso debería estar en tu radar por al menos tres razones:
Un precedente regulatorio que puede extenderse
La designación obliga a contratistas de defensa y agencias federales a certificar que no usan tecnologías de Anthropic. Si el Pentágono puede hacer esto con una de las empresas de IA más reconocidas del mundo, puede hacerlo con cualquier otra que no se ajuste a sus condiciones. Esto redefine el riesgo regulatorio para startups de IA con clientes gubernamentales.
El dilema de la IA responsable en mercados regulados
Anthropic construyó su marca sobre la seguridad y la responsabilidad en IA. El conflicto evidencia que los principios éticos pueden convertirse en un pasivo comercial cuando el cliente es el Estado y las reglas del juego las fija el poder político. Un dilema que cada vez más founders deberán enfrentar.
El valor de los contratos federales y su fragilidad
Los contratos con el gobierno de EE.UU. son jugosos, pero también extremadamente frágiles ante cambios de administración o posicionamientos políticos. Este caso muestra que incluso acuerdos multimillonarios pueden evaporarse de la noche a la mañana por decisiones ejecutivas.
El contexto político detrás de la decisión
No se puede leer este conflicto sin su contexto político. La administración Trump ha mantenido una postura de control agresivo sobre qué tecnologías pueden —y cuáles no— servir al aparato estatal, especialmente en defensa. La demanda de Anthropic es, en cierta medida, una respuesta directa a esa dinámica: una empresa privada que decide no doblegarse ante condiciones que considera contrarias a sus valores fundacionales.
El resultado de este litigio marcará un hito. Si Anthropic gana, se establecería un límite legal claro a la capacidad del Ejecutivo de usar designaciones de riesgo como herramienta de presión comercial. Si pierde, el mensaje para el ecosistema tech será igualmente claro: cumplir las condiciones del Estado es innegociable, sin importar los principios éticos de la empresa.
Conclusión
La demanda de Anthropic contra el Gobierno de Estados Unidos no es solo un caso legal: es un termómetro del estado actual de la relación entre el sector tech y el poder político en la era de la IA. Para los founders del ecosistema LATAM y global que aspiran a escalar con contratos públicos o expansión hacia el mercado norteamericano, el desenlace de este litigio es una variable que vale la pena monitorear de cerca.
La tensión entre innovación responsable y demandas institucionales no va a desaparecer. Al contrario: se va a intensificar. Y quienes construyan con esa variable en mente tendrán una ventaja real sobre quienes la ignoren.
Profundiza estos temas con nuestra comunidad de founders y expertos en IA. Únete gratis y accede a debates reales sobre regulación, contratos y estrategia tech.
Fuentes
- https://www.diarioestrategia.cl/texto-diario/mostrar/5801369/anthropic-demanda-gobierno-eeuu-designacion-como-riesgo-cadena-suministro (fuente original)
- https://www.democrata.es/economia/anthropic-lleva-al-gobierno-de-eeuu-a-los-tribunales-tras-ser-senalada-como-riesgo-para-la-cadena-de-suministro/ (fuente adicional)
- https://es.investing.com/news/stock-market-news/anthropic-demanda-al-gobierno-de-eeuu-por-designar-como-riesgo-nacional-a-la-empresa-3553031 (fuente adicional)
- https://www.infobae.com/estados-unidos/2026/03/09/anthropic-demando-al-gobierno-de-eeuu-por-la-disputa-sobre-el-uso-de-su-ia/ (fuente adicional)
- https://es.euronews.com/next/2026/03/09/anthropic-demanda-al-pentagono-por-etiqueta-de-riesgo-en-la-cadena-de-suministro (fuente adicional)
- https://es.marketscreener.com/noticias/las-demandas-legales-de-anthropic-contra-el-veto-gubernamental-general-de-trump-a-la-startup-de-ia-ce7e5fded88cf72c (fuente adicional)













