El problema que nadie en IA quiere admitir
Más del 70% de los proyectos de software multiagente en producción fracasan o requieren reescrituras completas dentro de los primeros seis meses, no por culpa de los modelos de lenguaje, sino por ignorar una verdad incómoda: coordinar múltiples agentes de IA es, en esencia, un problema de sistemas distribuidos. Y los sistemas distribuidos tienen límites teóricos que ningún modelo más inteligente puede superar.
Para un founder que hoy está apostando por arquitecturas de agentes para escalar su producto, esto no es trivia académica. Es la diferencia entre construir algo que funciona en producción y quemar runway reescribiendo código de orquestación.
¿Qué es realmente el desarrollo de software multiagente?
Cuando hablamos de sistemas multiagente en IA, hablamos de múltiples LLMs (o instancias del mismo modelo) que colaboran para completar tareas complejas: un agente planifica, otro investiga, otro escribe código, otro lo revisa. Frameworks como CrewAI, LangGraph, AutoGen de Microsoft y el Agents SDK de OpenAI (lanzado en marzo de 2025) facilitan este tipo de arquitecturas.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadEn 2026 ya existen más de 12 frameworks maduros para construir estos sistemas. Empresas como Google lanzaron su propio ADK (Agent Development Kit) en abril de 2025, e iniciativas como el protocolo A2A (Agent-to-Agent) y MCP (Model Context Protocol) buscan estandarizar la comunicación entre agentes de distintos fabricantes.
El problema es que toda esta efervescencia tecnológica ha ignorado décadas de lecciones duramente aprendidas en ingeniería de sistemas distribuidos.
Por qué los agentes de IA heredan los problemas clásicos de los sistemas distribuidos
En 1985, los investigadores Fischer, Lynch y Paterson demostraron lo que hoy se conoce como el teorema FLP: en un sistema distribuido asíncrono donde cualquier proceso puede fallar, es imposible garantizar consenso de manera determinística. Punto. Sin excepciones.
Ahora reemplaza «procesos» por «agentes LLM» y «fallo de proceso» por «respuesta ambigua o incorrecta de un modelo». El teorema sigue aplicando con la misma fuerza.
El segundo problema clásico es el de los generales bizantinos, formulado por Lamport, Shostak y Pease en 1982: ¿cómo logran ponerse de acuerdo múltiples actores cuando algunos pueden estar enviando información falsa o contradictoria? En el contexto multiagente, un LLM con contexto diferente, instrucciones ambiguas o simplemente un «mal día» de inferencia puede comportarse como un general traidor, sin saberlo.
El análisis de Kiran Sundar en su blog técnico formaliza este vínculo: las especificaciones en lenguaje natural (los prompts) son inherentemente ambiguas, y esa ambigüedad se convierte en un problema de consenso cuando múltiples agentes deben interpretar el mismo objetivo y actuar de forma coherente.
El error de diseño más común en startups que construyen con agentes
La mayoría de los equipos cometen el mismo error: tratan a los agentes como si fueran funciones determinísticas en un monolito, cuando en realidad se comportan como nodos en una red distribuida con tolerancia a fallos imperfecta.
Esto se traduce en problemas concretos en producción:
- Conflictos de estado compartido: dos agentes modifican el mismo contexto simultáneamente y generan resultados contradictorios.
- Fallo silencioso en handoffs: un agente «pasa» una tarea al siguiente sin verificar que el receptor tiene el contexto correcto. El error se propaga sin alarma.
- Loops de razonamiento circular: sin mecanismos de terminación formales, dos agentes pueden quedar indefinidamente tratando de resolver una contradicción que ninguno puede resolver solo.
- Explosión de costos inesperada: cada iteración de «negociación» entre agentes consume tokens. Un sistema mal diseñado puede multiplicar el costo por 10x respecto a lo estimado.
Los frameworks actuales intentan mitigar estos problemas con memoria compartida vectorial, árboles jerárquicos de delegación y guardrails, pero ninguno resuelve el problema a nivel teórico. Lo parchean.
¿Qué significa esto para tu startup?
Si estás construyendo un producto que depende de múltiples agentes colaborando, aquí está el análisis honesto que necesitas escuchar:
1. La inteligencia del modelo no resuelve el problema de coordinación. Puedes usar el LLM más capaz del mercado en cada nodo de tu sistema. Si la arquitectura de coordinación está mal diseñada, el sistema fallará de formas impredecibles. Esto no es pesimismo — es la lección del teorema FLP aplicada a tu stack.
2. Los límites teóricos son reales, pero manejables. Los sistemas distribuidos en producción (bases de datos como Cassandra, sistemas de mensajería como Kafka) conviven con estos límites usando dos estrategias: (a) aceptar consistencia eventual en lugar de consenso perfecto, y (b) diseñar para tolerancia a fallos en lugar de prevención de fallos. Tu arquitectura multiagente debería hacer lo mismo.
3. El lenguaje natural es el peor contrato de interfaz posible. Cuando dos agentes se comunican mediante prompts en lenguaje natural, estás usando el sistema de comunicación más ambiguo que existe como protocolo de intercambio de datos. El análisis de Sundar propone la creación de lenguajes, herramientas y protocolos formales específicos para comunicación entre agentes — algo similar a lo que ya intenta el protocolo A2A de Google o el MCP de Anthropic.
Acciones concretas para founders que construyen con IA multiagente
- Adopta el protocolo A2A o MCP desde el inicio. Usar estándares de comunicación inter-agente reduce la ambigüedad y evita el vendor lock-in. En 2026, frameworks como LangGraph y AutoGen ya los soportan. No reinventes el protocolo de comunicación — ese es el camino al desastre.
- Diseña para consistencia eventual, no para exactitud perfecta. Define explícitamente qué nivel de divergencia entre agentes es tolerable en tu sistema antes de escalar. Si un agente de revisión de código acepta una solución que otro habría rechazado, ¿eso rompe tu producto o solo lo degrada levemente? La respuesta define tu arquitectura.
- Implementa observabilidad desde el día 1. Herramientas como Vellum o los sistemas de tracing del Agents SDK de OpenAI permiten ver exactamente qué interpretó cada agente, qué decidió y cuándo divergió del resto. Sin esto, debuggear un fallo multiagente en producción es como resolver un crimen sin evidencias.
- Limita el contexto compartido deliberadamente. La memoria compartida entre agentes debe tener acceso con scope definido (no todos los agentes leen todo). Esto es equivalente al principio de aislamiento en bases de datos distribuidas — y por las mismas razones.
- Elige el framework según tu fase, no según el hype. Para experimentación: CrewAI o AutoGen. Para producción con governance: Vellum o LangGraph con integraciones de RBAC. Para interoperabilidad entre sistemas: prioriza los que soporten A2A nativo.
El panorama en 2026: la industria empieza a tomar en serio el problema
La buena noticia es que el ecosistema está madurando en la dirección correcta. En 2026, los frameworks líderes ya incorporan árboles de delegación jerárquica, memoria versionada con acceso por scope, y protocolos estándar de comunicación entre agentes. Google, OpenAI, Microsoft y Salesforce están convergiendo hacia los mismos patrones de diseño que los ingenieros de sistemas distribuidos llevan décadas usando.
Pero aún hay una brecha importante: la mayoría de los founders que hoy construyen con agentes no tienen formación en sistemas distribuidos. Están aprendiendo por ensayo y error lo que la academia demostró formalmente hace 40 años. Ese gap de conocimiento es costoso.
La propuesta de Sundar — desarrollar lenguajes y protocolos formales específicos para sistemas multiagente — apunta a la solución correcta. No es suficiente con frameworks mejores. Se necesitan abstracciones nuevas que reconozcan explícitamente los límites teóricos y diseñen alrededor de ellos, no a pesar de ellos.
Conclusión
El desarrollo de software multiagente no es simplemente «varios LLMs trabajando juntos». Es un problema de sistemas distribuidos con todos sus límites teóricos intactos. El teorema FLP y el problema de los generales bizantinos no desaparecen porque los nodos de tu red ahora generen texto en lugar de procesar transacciones.
Los founders que entiendan esto antes tienen una ventaja real: construirán arquitecturas más robustas desde el inicio, gastarán menos en reescrituras y escalarán con más predictibilidad. Los que lo ignoren aprenderán la lección de la manera cara.
La IA multiagente es el futuro del desarrollo de software. Pero ese futuro lo construirán quienes respeten los límites del presente.
Fuentes
- https://kirancodes.me/posts/log-distributed-llms.html (fuente original)
- https://www.instaclustr.com/education/agentic-ai/agentic-ai-frameworks-top-10-options-in-2026/
- https://gurusup.com/blog/best-multi-agent-frameworks-2026
- https://www.turing.com/resources/ai-agent-frameworks
- https://vellum.ai/blog/top-ai-agent-frameworks-for-developers
- https://www.gumloop.com/blog/ai-agent-frameworks
- https://is4.ai/blog/our-blog-1/top-12-multi-agent-ai-frameworks-2026-335
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













