De la guerra del Golfo al campo de batalla algorítmico
Durante décadas, la ventaja militar se midió en blindaje, misiles y satélites. La Guerra del Golfo de 1991 marcó el debut de la guerra de precisión guiada. Pero lo que está ocurriendo hoy —en los campos de batalla de Ucrania y en las doctrinas de potencias como Irán— representa un salto cualitativamente distinto: la inteligencia artificial ya no solo apoya al soldado, empieza a sustituir su juicio en fracciones de segundo.
El concepto que los analistas llaman informalmente algoritmo Terminator no es ciencia ficción: es la integración de IA en la cadena de destrucción militar —detección, identificación, selección y ataque— a velocidades que superan la capacidad de reacción humana. Y eso, para quienes seguimos la tecnología desde una perspectiva emprendedora y estratégica, tiene implicaciones que van mucho más allá del campo de batalla.
Ucrania como laboratorio de drones a escala real
Si hay un conflicto que aceleró la adopción masiva de drones, ese es el de Ucrania. Las fuerzas armadas ucranianas han confirmado al menos 215.000 objetivos alcanzados mediante vehículos aéreos no tripulados, y el país ya tiene capacidad de producir hasta 10 millones de drones al año.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadPero la escala no es lo más relevante: lo es la autonomía. Empresas como Swarmer han desarrollado software que permite que pequeños grupos de drones se comuniquen entre sí, asignen funciones, decidan secuencias de ataque y se adapten si uno de ellos falla, todo a partir de un único objetivo marcado por un operador humano. Esta autonomía compartida reduce de nueve a tres el personal necesario por misión, y permite que un solo piloto coordine múltiples aeronaves simultáneamente.
El vicepresidente ucraniano Mykhailo Fedorov fue explícito: ‘Estamos tratando de alcanzar la autonomía total. Estamos entrenando nuestros modelos para reconocer objetivos y entender la priorización de blancos’. La doctrina de guerra, como él mismo admitió, ha cambiado: el equipo pesado se usa cada vez menos; los enjambres autónomos, cada vez más.
El rol de Irán: escalar la lógica de la automatización
Si Ucrania democratizó el uso de drones de bajo coste, Irán ha llevado la lógica un paso más lejos: integrar decisiones de ataque en sistemas que operan más rápido de lo que cualquier humano puede procesar y autorizar. Sus drones tipo Shahed —con costes de entre 20.000 y 50.000 dólares por unidad— han sido empleados en tácticas de enjambre diseñadas para saturar defensas enemigas, forzando que los sistemas defensivos reaccionen de forma automática.
La paradoja es elegante y peligrosa: cuando el ataque es tan rápido y masivo que ningún operador humano puede responder a tiempo, el defensor también debe automatizar su respuesta. El resultado es una escalada en la que ambos lados de un conflicto ceden la decisión a los algoritmos. La alianza estratégica entre Irán y Rusia —drones a cambio de inteligencia satelital y tecnología GLONASS— ha acelerado esta dinámica en múltiples frentes.
El dilema ético de la kill chain sin humano
Aquí es donde la conversación se vuelve incómoda para cualquier ecosistema tecnológico, incluido el de startups. La kill chain automatizada —el ciclo completo de detección, selección y ataque ejecutado por IA sin intervención humana— es exactamente lo que la ONU lleva años intentando regular bajo el paraguas de las armas letales autónomas (LAWS).
Washington y sus aliados han sostenido públicamente que debe mantenerse un operador humano en la cadena de decisión. Pero como señalan analistas, cuanto más eficaces demuestran ser estos sistemas, mayor es la tentación de reducir la supervisión humana para maximizar velocidad y sorpresa. En el verano de 2025, drones de asalto lograron por primera vez la captura de prisioneros rusos sin intervención de tropas terrestres, un hecho calificado como sin precedentes en la guerra moderna.
El Pentágono comprometió 50 millones de dólares para proveer a Ucrania de 33.000 drones con IA capaces de reconocer objetivos a distancias de hasta un kilómetro y resistir interferencias electrónicas. La escala ya no es experimental.
Por qué esto importa al ecosistema tecnológico y startup
Puede parecer que este debate queda lejos de los founders que construyen productos SaaS o plataformas de automatización. Pero la tecnología detrás de los drones autónomos —visión por computadora, modelos de decisión en tiempo real, coordinación de agentes IA y edge computing— es exactamente la misma que está transformando la logística, la manufactura y la seguridad corporativa.
Lo que el conflicto en Ucrania ha demostrado es que los ciclos de adopción tecnológica en entornos de alta presión son dramáticamente cortos. Una tecnología que tardó décadas en madurar en laboratorio se convierte en estándar operativo en meses cuando la urgencia lo exige. Eso tiene implicaciones directas para cualquier founder que trabaje en IA aplicada, robótica, automatización de decisiones o ciberseguridad.
Además, el debate ético sobre sistemas autónomos que toman decisiones con consecuencias irreversibles no es exclusivo del ámbito militar. Las preguntas sobre supervisión humana, explicabilidad de algoritmos y responsabilidad en decisiones automatizadas son las mismas que los reguladores —y los inversores— están empezando a hacer a las startups de IA en sectores como salud, finanzas y justicia.
Un nuevo estándar de velocidad de decisión
El verdadero impacto del algoritmo Terminator no es técnico, es filosófico y estratégico: redefine quién —o qué— tiene la última palabra en un momento crítico. En el campo de batalla, esa decisión puede costar vidas. En los negocios, puede costar clientes, reputación o cumplimiento regulatorio.
La pregunta que deberían hacerse los founders no es si la IA tomará decisiones autónomas —ya lo hace, en guerra y en paz— sino bajo qué condiciones, con qué límites y con qué mecanismos de auditoría. Porque diseñar esos límites hoy es la diferencia entre construir tecnología que escala con responsabilidad y tecnología que escala sin control.
Conclusión
La evolución desde los drones de Ucrania hasta los sistemas de decisión acelerada por IA que impulsa Irán marca un punto de inflexión en la historia de la tecnología militar —y en la historia de la IA aplicada en general. La kill chain automatizada ya no es una hipótesis de laboratorio ni un argumento de película: es una realidad activa en múltiples conflictos simultáneos.
Para los founders y equipos de tecnología, la lección es doble: primero, los ciclos de adopción de IA en entornos de alta presión son brutalmente rápidos, y lo que hoy parece experimental mañana es estándar. Segundo, la pregunta sobre dónde colocar al humano en la cadena de decisión es una de las más importantes del diseño de sistemas —y no tiene respuesta fácil. Quienes la ignoren, en guerra o en startups, pagarán el precio.
Profundiza estos temas con nuestra comunidad de founders que exploran IA y tecnología con impacto real.
Fuentes
- https://www.xataka.com/magnet/ucrania-impulso-uso-drones-iran-ha-disparado-algoritmo-terminator-bombardear-rapido-que-pensamiento-humano (fuente original)
- https://www.rtve.es/noticias/20260310/simbiosis-estrategica-moscu-teheran-inteligencia-a-cambio-drones-alianza-complica-ofensiva-eeuu-oriente-medio/16971126.shtml (fuente adicional)
- https://www.xataka.com/magnet/cada-vez-hay-soldados-guerra-ucrania-no-hacen-falta-maquinas-se-coordinan-deciden-cuando-atacar (fuente adicional)
- https://www.lisanews.org/inteligencia/drones-autonomos-la-nueva-realidad-de-la-guerra-hibrida/ (fuente adicional)
- https://computerhoy.20minutos.es/tecnologia/ucrania-rearma-ejercito-33000-drones-inteligencia-artificial-listos-defender-cielos-1475352 (fuente adicional)
- https://www.eldiario.es/internacional/theguardian/carrera-rusia-ucrania-disenar-dron-guerra-perfecto-consecuencias-mundiales_1_12444057.html (fuente adicional)













