Cuando la IA entra al campo de batalla: el caso Anthropic y la guerra en Irán
En marzo de 2026, el mundo tecnológico y geopolítico se sacudió con una revelación sin precedentes: Claude, el modelo de inteligencia artificial desarrollado por Anthropic, fue utilizado activamente por las fuerzas militares de Estados Unidos durante los ataques sobre Irán. En las primeras 24 horas de operaciones, el sistema procesó y priorizó más de 1.000 objetivos militares, integrándose en la llamada ‘cadena de eliminación’ (kill chain): el proceso que va desde la identificación de un blanco hasta su destrucción.
Este hecho no solo plantea preguntas técnicas sobre el rol de la IA en decisiones de vida o muerte, sino que abre un debate profundo sobre ética, legalidad corporativa y el poder creciente de la Big Tech en los asuntos de Estado. Para los founders del ecosistema tecnológico, entender estas dinámicas es esencial: definen el contexto regulatorio, reputacional y de mercado en el que operarán sus productos de IA durante los próximos años.
¿Cómo se usó Claude en operaciones militares?
Según reportes de CBS News, Fortune y Responsible Statecraft, Claude fue desplegado a través del sistema Maven Smart System de Palantir, una plataforma ya integrada en los flujos operacionales del Pentágono. El modelo de Anthropic operó en tiempo real para tareas críticas como:
- Targeting: identificación y priorización de objetivos militares.
- Síntesis de documentos: procesamiento de inteligencia para acelerar decisiones.
- Logística táctica: soporte en la planificación operacional.
- Aceleración del ciclo OODA (Observar, Orientar, Decidir, Actuar), comprimiendo el tiempo entre la detección de un objetivo y la orden de ataque.
Los ataques coordinados entre EE.UU. e Israel tuvieron como objetivos defensas aéreas iraníes, sitios de misiles y aeródromos. El resultado incluyó bajas de alto perfil y, según múltiples fuentes, un número significativo de víctimas civiles no confirmadas oficialmente.
El conflicto entre Anthropic y el Pentágono: guardrails vs. operatividad
Lo que hace este caso especialmente relevante para el ecosistema tech es la tensión interna que precedió al uso de Claude en combate. Anthropic había establecido guardrails (restricciones éticas) explícitas para impedir que su modelo fuera utilizado en vigilancia masiva o en sistemas de armas completamente autónomos. El Pentágono, sin embargo, argumentó que las leyes vigentes eran suficientes y priorizó la confianza en el juicio militar sobre las restricciones corporativas.
La situación escala cuando el presidente Donald Trump calificó a Anthropic de empresa de la ‘izquierda radical’ y ordenó una fase de eliminación de seis meses del uso de Claude en operaciones gubernamentales. El secretario de Defensa Pete Hegseth lo catalogó como un riesgo para la cadena de suministro tecnológico-militar. Paradójicamente, pese a ese veto presidencial, el sistema siguió operando durante las primeras horas críticas de la campaña en Irán porque, según fuentes internas, reemplazarlo habría tomado más de tres meses dada su centralidad en los flujos operativos.
La carrera de OpenAI y xAI por el vacío dejado por Anthropic
El conflicto entre Anthropic y el Departamento de Defensa abrió una ventana de oportunidad que otras empresas aprovecharon con rapidez. OpenAI y xAI (la empresa de IA de Elon Musk y su modelo Grok) cerraron acuerdos con el Pentágono poco después de que se hiciera pública la fricción con Anthropic.
Este movimiento ilustra una dinámica que todo founder de startups de IA debería observar con atención: los contratos gubernamentales y militares representan uno de los mayores flujos de capital disponibles para tecnología avanzada, pero conllevan dilemas éticos, restricciones regulatorias y riesgos reputacionales que pueden redefinir el valor de una empresa en cuestión de semanas.
El debate ético: ¿puede la IA tomar decisiones de vida o muerte?
Expertos como Max Tegmark, físico del MIT y cofundador del Future of Life Institute, han advertido que la IA es ‘inherentemente impredecible’ cuando se aplica a contextos de alto riesgo. El problema central no es si hay supervisión humana, sino qué tan real y efectiva es esa supervisión cuando el sistema opera a velocidades que superan la capacidad humana de análisis crítico.
En el caso de los ataques sobre Irán, fuentes militares reconocieron que las revisiones humanas de objetivos propuestos por Claude podían volverse ‘protocolarias’ en contextos de alta presión operacional: el sistema recomendaba, el operador aprobaba, la bomba caía. Esta compresión del juicio humano en la ecuación bélica plantea preguntas que van más allá de la tecnología:
- ¿Quién es legalmente responsable cuando una IA identifica un objetivo civil como militar?
- ¿Pueden las empresas tecnológicas protegerse contractualmente de los usos que hacen sus clientes gubernamentales?
- ¿Dónde termina el desarrollo de IA de propósito dual y empieza la complicidad en actos de guerra?
Implicaciones para el ecosistema startup y el mercado de IA
Para los founders que trabajan con modelos de lenguaje, automatización o cualquier tecnología con aplicaciones duales, este caso es una señal de alerta y una lectura de mercado simultáneamente:
Riesgo reputacional como variable de negocio
La asociación de Anthropic con operaciones militares cuestionadas generó un ciclo de crisis comunicacional que afectó su valoración percibida, sus negociaciones de financiamiento y la retención de talento. Para startups más pequeñas, un escándalo de este tipo puede ser fatal.
Regulación como oportunidad
El vacío regulatorio actual en torno al uso de IA en contextos militares y de seguridad nacional creará, inevitablemente, un nuevo mercado de compliance, auditoría algorítmica y certificación ética. Los founders que se posicionen temprano en este espacio capturarán ventaja competitiva real.
Los contratos gubernamentales: tierra de nadie con oro enterrado
La demanda del sector público y de defensa por IA avanzada es masiva y creciente. Sin embargo, como muestra el caso Anthropic, entrar sin una estrategia ética y legal sólida puede destruir más valor del que genera.
¿Es ilegal? El marco jurídico internacional en tela de juicio
El título del artículo original habla de ‘guerra ilegal’. Múltiples analistas de derecho internacional han señalado que el ataque unilateral de EE.UU. sobre territorio iraní, sin una declaración formal de guerra ni mandato del Consejo de Seguridad de la ONU, entra en una zona gris del derecho internacional humanitario. La participación de sistemas de IA en la identificación de objetivos añade una capa adicional de complejidad legal: las convenciones de Ginebra no contemplan escenarios donde un algoritmo participa en la cadena de decisión bélica.
Organizaciones como Human Rights Watch y varios relatores especiales de Naciones Unidas han comenzado a documentar el caso como potencial precedente en el debate sobre sistemas de armas autónomas letales (LAWS).
Conclusión
El uso de Claude de Anthropic en la campaña militar sobre Irán no es solo una noticia geopolítica: es un caso de estudio que redefine las fronteras del negocio de la IA. Muestra con crudeza que la tecnología no es neutral, que los guardrails corporativos tienen límites reales frente al poder del Estado, y que las decisiones que hoy toman los fundadores sobre a quién venden, con quién se alían y qué restricciones imponen a sus productos pueden tener consecuencias que trascienden el spreadsheet.
Para los founders del ecosistema LATAM que construyen con IA, este momento histórico es una invitación a tomar posiciones claras: sobre ética de producto, sobre clientes objetivo y sobre el tipo de impacto que quieren dejar en el mundo. La velocidad de la IA obliga a tomar esas decisiones antes de que la situación las tome por ti.
Profundiza estos temas con nuestra comunidad de founders y expertos en IA aplicada.
Fuentes
- https://buttondown.com/creativegood/archive/ai-and-the-illegal-war/ (fuente original)
- https://www.cbsnews.com/news/anthropic-claude-ai-iran-war-u-s/ (fuente adicional)
- https://responsiblestatecraft.org/ai-war-iran/ (fuente adicional)
- https://www.thenationalnews.com/future/technology/2026/03/04/anthropic-iran-strikes-ai-trump/ (fuente adicional)
- https://fortune.com/2026/03/03/iran-war-trump-strikes-anthropic-ai-used-in-pentagon-speed-of-thought/ (fuente adicional)













