Cuando la presión por adoptar IA se convierte en el problema
En 2026, casi cada empresa de cierto tamaño tiene un mandato interno: adoptar inteligencia artificial, ya sea por presión del mercado, de los inversores o simplemente por miedo a quedarse atrás. Pero Han-Chung Lee, Director de Machine Learning en Moody's y experto en sistemas GenAI y agentes LLM, lanza una advertencia tan incómoda como necesaria: lo que muchas organizaciones están haciendo hoy se parece peligrosamente al Gran Salto Adelante de China de 1958.
En ese experimento económico impulsado por Mao Zedong, campesinos fundieron sus ollas y herramientas para cumplir cuotas de producción de acero, dejando los cultivos sin cosechar. El resultado: 30 millones de personas murieron de hambre. La analogía es provocadora, pero el punto que plantea Lee no es exagerado: cuando los mandatos top-down priorizan la velocidad y las métricas sobre el valor real, la organización puede producir mucho ruido con muy poca sustancia.
El demoware: el acero de mala calidad del siglo XXI
Uno de los patrones más comunes que identifica Lee es la proliferación de lo que en el ecosistema tech se conoce como demoware: prototipos brillantes diseñados para impresionar en una presentación, pero que nunca llegan a producción ni generan valor real.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadAnte la presión de mostrar avances en IA, los equipos responden con lo que el sistema incentiva: demos rápidas, dashboards de adopción inflados y casos de uso superficiales. El liderazgo recibe métricas positivas, pero la organización no está resolviendo problemas reales. Es el equivalente moderno de fundir las ollas de cocina para cumplir la cuota de acero: la métrica se cumple, el valor desaparece.
Para los founders de startups, esto es especialmente relevante. Si tu empresa recibe presión de inversores para mostrar un roadmap de IA, es tentador priorizar la narrativa sobre la ejecución. El riesgo: construir sobre arena.
La eliminación de los gestores intermedios: ¿otra plaga de langostas?
Lee describe otro patrón preocupante: el movimiento de muchas empresas a eliminar middle managers bajo la lógica de que la IA puede asumir sus funciones de coordinación y gestión. En el Gran Salto Adelante, la campaña de exterminio de gorriones —considerados plagas— llevó a una explosión de langostas que devastó las cosechas.
La analogía aplica directamente. Los gestores intermedios no solo son un eslabón burocrático: son los transmisores de contexto, cultura organizacional y conocimiento tácito que raramente se puede codificar en un prompt. Eliminarlos sin una transición cuidadosa puede generar caos de coordinación, pérdida de talento sénior y una organización que sabe qué hacer pero no cómo hacerlo juntos.
En el contexto startup, esto se traduce en una advertencia clara: automatiza procesos, no personas que aún son irremplazables. El stack de IA es una herramienta; el juicio humano sobre el negocio sigue siendo escaso y valioso.
El sabotaje del conocimiento: cuando los empleados protegen su foso
Quizás el punto más revelador del análisis de Lee es el fenómeno del knowledge hoarding o acaparamiento de conocimiento. Muchos mandatos de IA buscan explícitamente "destilar" el expertise de los empleados en activos organizacionales: bases de conocimiento, prompts reutilizables, flujos automatizados.
El problema es que los empleados no son ingenuos. Cuando entienden que el objetivo de compartir su conocimiento es automatizar su propio puesto, responden de forma predecible: comparten lo justo, ocultan los matices que los hacen indispensables y protegen su "foso" laboral. El resultado es una base de conocimiento corporativa que parece completa pero está llena de vacíos estratégicos.
Para los founders que están construyendo sistemas de IA internos, esto plantea una pregunta crítica: ¿tu equipo tiene incentivos reales para que la IA funcione bien, o tiene incentivos para que parezca que funciona? Son preguntas muy diferentes con consecuencias muy distintas.
Conviccion sobre expertise: el error más caro
Lee también apunta a un patrón cultural dentro de las empresas que adoptan IA de forma apresurada: la convicción se valora más que el conocimiento técnico real. Igual que el slogan del Gran Salto prometía superar a Inglaterra y alcanzar a Estados Unidos por pura fuerza de voluntad colectiva, muchos líderes empresariales creen que la determinación y el entusiasmo son suficientes para implementar sistemas de IA complejos.
El resultado es predecible para cualquier ingeniero de ML con experiencia: equipos sin formación técnica real liderando iniciativas de IA, decisiones de arquitectura tomadas por comités de negocio, y una brecha creciente entre lo que se promete y lo que se entrega. La IA requiere expertise real, no solo energía.
¿Qué debería hacer un founder ante este escenario?
El análisis de Lee no es una defensa del inmovilismo tecnológico. La IA tiene un potencial transformador genuino, y los founders que la ignoran corren riesgos reales. Pero hay una diferencia fundamental entre adoptar IA con criterio y adoptarla por presión.
Algunas preguntas que vale la pena hacerse antes de lanzar un mandato interno de IA:
- ¿El problema que quieres resolver está bien definido? La IA amplifica la claridad del problema, no la reemplaza.
- ¿Tienes personas con expertise real en ML/AI en el equipo? La convicción no sustituye el conocimiento técnico.
- ¿Los incentivos de tu equipo están alineados con el éxito real del proyecto? Si no, prepárate para el demoware.
- ¿Estás midiendo impacto o actividad? Las métricas de adopción no son métricas de valor.
- ¿La automatización de este proceso eliminará conocimiento crítico? Codifica primero, automatiza después.
Conclusión
La analogía del Gran Salto Adelante que plantea Han-Chung Lee es incómoda precisamente porque es precisa. Las organizaciones que imponen mandatos de IA sin rigor técnico, sin alinear incentivos y sin respetar el conocimiento organizacional no están acelerando su transformación: están construyendo una ilusión de progreso que tarde o temprano colapsará bajo su propio peso.
Para los founders del ecosistema startup, el mensaje es doble: la IA es real y poderosa, pero la presión de adoptarla a cualquier costo puede ser más dañina que no adoptarla en absoluto. La velocidad sin dirección no es una ventaja competitiva: es un riesgo operacional.
Construye con criterio, mide con honestidad y asegúrate de que tu equipo tenga los incentivos correctos. Esa combinación es la que separa las transformaciones reales del demoware que se desvanece después de la presentación al board.
Profundiza estos temas con founders que ya han navegado la presion de adoptar IA sin perder el norte. Unete gratis a la comunidad de Ecosistema Startup.
Unirme a la comunidadFuentes
- https://leehanchung.github.io/blogs/2026/04/05/the-ai-great-leap-forward/ (fuente original)
- https://leehanchung.github.io/about/ (perfil del autor Han-Chung Lee)
- https://www.youtube.com/watch?v=BVw-KUUYjck (entrevista MLOps con Han-Chung Lee)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad














