El contrato de $200 millones que se convirtió en una lección para el ecosistema startup
En julio de 2025, Anthropic firmó un contrato de $200 millones con el Departamento de Defensa de Estados Unidos (DoD) para prototipar capacidades de inteligencia artificial de frontera en operaciones de seguridad nacional. El acuerdo incluía dos restricciones explícitas y no negociables: Claude no podría ser utilizado para vigilancia masiva doméstica de ciudadanos estadounidenses ni para alimentar sistemas de armas completamente autónomas. Lo que parecía un hito para la industria IA terminó siendo una advertencia para cualquier startup que sueñe con contratos federales.
El ultimátum de Pete Hegseth y la ruptura del acuerdo
En enero de 2026, el Secretario de Defensa Pete Hegseth emitió un memorándum de estrategia de IA que exigía incluir el concepto de «cualquier uso legal» en todos los contratos del Departamento de Defensa —ahora rebautizado internamente como Departamento de Guerra—. Esto significaba, en la práctica, que Anthropic debía eliminar sus restricciones de uso o perder el contrato.
El 25 de febrero de 2026, Hegseth se reunió personalmente con Dario Amodei, CEO de Anthropic, y le entregó un ultimátum formal: levantar todas las restricciones antes del viernes a las 5 p.m. o enfrentar la cancelación del contrato. Durante esa reunión, el secretario mencionó explícitamente el uso potencial de la Ley de Producción de Defensa, la rescisión inmediata del acuerdo y la posible designación de Anthropic como riesgo en la cadena de suministro.
El argumento del Pentágono era que las restricciones eran innecesarias porque la vigilancia masiva ya es ilegal y el ejército solo quería usar la IA para actividades estrictamente legales. Anthropic rebatió que el lenguaje propuesto como «compromiso» contenía cláusulas de escape que permitirían ignorar las restricciones a voluntad.
Por qué Anthropic dijo que no: el argumento técnico y ético
Dario Amodei no rechazó el acuerdo por razones puramente ideológicas. Detrás de la postura de Anthropic había una preocupación técnica legítima y documentada: el modelo Claude podría ser usado para tomar decisiones finales de focalización en operaciones militares sin intervención humana. Amodei señaló la conocida susceptibilidad de los modelos de lenguaje a las alucinaciones y su falta de fiabilidad en escenarios de alto impacto, donde un error podría causar escalada no intencionada o fallo de misión.
Esta posición no es nueva en Anthropic. La compañía ha construido su reputación sobre la seguridad y alineación de la IA como pilares fundacionales, y ceder en ese frente habría comprometido no solo su marca, sino su propuesta de valor central ante inversores, clientes y reguladores globales.
OpenAI entra en escena —y el mercado reacciona
Tras la ruptura con Anthropic, el Pentágono giró hacia OpenAI, que aceptó un despliegue clasificado bajo tres condiciones: sin vigilancia masiva doméstica, sin armas letales autónomas y sin decisiones automatizadas de alto riesgo sin supervisión humana. Irónicamente, OpenAI afirmó que esas salvaguardas eran más amplias que cualquier acuerdo anterior de IA clasificada, incluyendo el de Anthropic.
Sin embargo, el mercado no celebró la noticia. Según datos del período, las desinstalaciones de ChatGPT se dispararon un 295% tras conocerse el acuerdo, lo que sugiere que una parte significativa de los usuarios de consumo no aprueba que sus herramientas cotidianas estén vinculadas a contratos militares sin restricciones claras.
¿Qué lección práctica hay aquí para founders de startups IA?
El caso Anthropic-Pentágono no es solo una anécdota geopolítica. Es un caso de estudio obligatorio para cualquier founder de startup tecnológica que esté evaluando contratos con gobiernos, especialmente en el sector defensa o seguridad. Estas son las implicaciones más accionables:
1. Define tus líneas rojas antes de firmar
Las restricciones de uso de Anthropic no surgieron del pánico: estaban escritas desde el día uno en el contrato. Si tu startup tiene principios éticos o limitaciones técnicas fundamentales, negocia cláusulas explícitas desde el inicio. Un contrato sin esas protecciones es una bomba de tiempo.
2. El riesgo reputacional es bidireccional
Anthropic fue designada riesgo en la cadena de suministro por el gobierno federal, lo que puede cerrar puertas en el sector público durante años. Pero OpenAI vio cómo sus usuarios la abandonaban masivamente al ceder terreno en ética. En contratos federales, no hay un camino sin riesgo: solo hay distintos tipos de riesgo que debes anticipar.
3. La presión gubernamental puede escalar muy rápido
En menos de ocho meses, Anthropic pasó de firmar un contrato histórico a ser declarada riesgo nacional. La velocidad de ese deterioro debería alertar a cualquier startup sobre cuán volátiles pueden ser las relaciones con el gobierno cuando cambia la administración o la agenda política.
4. Conoce las herramientas de presión disponibles para el gobierno
La Ley de Producción de Defensa, la terminación unilateral de contratos y la designación de riesgo de cadena de suministro son mecanismos reales que el gobierno puede activar. Si tu modelo de negocio depende de contratos públicos, tu equipo legal necesita entender estos instrumentos antes de que sean usados en tu contra.
5. La ética puede ser una ventaja competitiva —o un límite comercial real
Anthropic demostró que es posible decir que no a $200 millones cuando los principios están en juego. Pero también demostró que ese «no» tiene un costo concreto. No hay respuesta correcta universal: cada startup debe decidir hasta dónde llegan sus valores y cuánto está dispuesta a sacrificar por ellos.
El debate más amplio: ¿cuánto uso sin restricciones es aceptable?
Este caso abre una pregunta que el ecosistema IA global aún no ha resuelto: ¿dónde está el límite entre colaborar con la defensa nacional y comprometer los principios de seguridad de la IA?
La presión por desregular el uso de IA en contextos militares no va a desaparecer. De hecho, con la aceleración de la carrera tecnológica entre Estados Unidos y China, es probable que aumente. Para los founders que operan en este espacio —o que aspiran a hacerlo— la pregunta ya no es si habrá tensión entre ética y negocio, sino cuándo llegará esa tensión y qué tan preparados estarán para navegarla.
Conclusión
El contrato frustrado entre Anthropic y el Pentágono es mucho más que una disputa corporativa: es una señal clara de que el mercado de contratos federales de IA está entrando en una fase de mayor presión, mayor opacidad y mayor riesgo reputacional. Para las startups que buscan escalar a través del sector público, la lección es simple pero poderosa: conoce tus límites, negocia tus protecciones desde el día uno y anticipa los escenarios de ruptura antes de que se conviertan en crisis. El éxito en el gobierno no se mide solo por el tamaño del contrato, sino por cuánto control conservas sobre lo que construiste.
Conecta con founders que han navegado contratos con gobiernos y sector público. Comparte aprendizajes, evita errores costosos y construye con una comunidad que entiende los desafíos reales del ecosistema tech latinoamericano.
Fuentes
- https://techcrunch.com/video/anthropics-pentagon-deal-is-a-cautionary-tale-for-startups-chasing-federal-contracts/ (fuente original)
- https://www.cbsnews.com/news/pentagon-anthropic-offer-ai-unrestricted-military-use-sources/ (fuente adicional)
- https://almcorp.com/blog/anthropic-rejects-pentagon-deal-claude-number-one-app-store-military-ai-2026/ (fuente adicional)
- https://www.anthropic.com/news/anthropic-and-the-department-of-defense-to-advance-responsible-ai-in-defense-operations (fuente adicional)
- https://www.foxnews.com/politics/pentagon-gives-ai-firm-ultimatum-lift-military-limits-friday-lose-200m-deal (fuente adicional)














