¿Qué son los interaction models que está desarrollando Thinking Machines?
Mira Murati, la ex-CTO de OpenAI, acaba de anunciar que su nueva empresa Thinking Machines está trabajando en "interaction models" (modelos de interacción). La premisa es ambiciosa: permitir que las personas colaboren con IA de la misma forma natural en que colaboramos entre humanos, procesando audio, video y texto en tiempo real mientras piensan, responden y actúan simultáneamente.
Los modelos actuales de IA experimentan la realidad en un solo hilo: esperan a que termines de escribir o hablar antes de procesar. No tienen percepción de lo que estás haciendo mientras lo haces. Los interaction models buscan romper esa barrera, creando una experiencia más fluida y colaborativa.
¿Quién está detrás de Thinking Machines y qué recursos tienen?
Thinking Machines no es otra startup más de IA. Es un proyecto con $2.000 millones en funding seed —el round seed más grande en la historia del venture capital— y una valoración de $12.000 millones. Para ponerlo en perspectiva: es 4 veces mayor que cualquier seed round previo en la industria.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadEl equipo fundador reads como un who's who de OpenAI:
- Mira Murati (CEO): ex-CTO de OpenAI, instrumental en ChatGPT, DALL-E y modelos de voz
- John Schulman (Chief Scientist): cofundador de OpenAI, ex-Anthropic
- Barret Zoph (CTO): ex-VP de Research en OpenAI
- Otros talentos clave: Lilian Weng, Andrew Tulloch, Luke Metz
En total, Thinking Machines reunió a ~30 expertos de OpenAI, Meta, Mistral y otros labs frontier. Su primer producto concreto es Tinker, una API en Python para control granular en entrenamiento distribuido de LLMs, con soporte para técnicas como LoRA (Low-Rank Adaptation) y MoE (Mixture of Experts).
¿Qué ventaja competitiva tienen frente a Anthropic, Mistral y otros?
El ecosistema de IA colaborativa está crowded. Thinking Machines compite directamente con:
- Anthropic (Claude): enfoque en alignment y colaboración humana
- Mistral AI: modelos abiertos eficientes con arquitectura MoE
- Meta AI (Llama): soporte LoRA y fine-tuning open-source
- xAI (Grok): multimodalidad y accesibilidad
- Google DeepMind (Gemini): capacidades multimodales frontier
El diferenciador de Thinking Machines es triple: primero, su enfoque en post-training efficiency (LoRA que rivaliza con full fine-tuning); segundo, Tinker promete "90% de control con 90% menos infraestructura"; tercero, un partnership estratégico con NVIDIA anunciado en marzo 2026 para 1GW de infraestructura Rubin AI (despliegue desde early 2027).
En marzo de 2026, Thinking Machines confirmó una inversión adicional de NVIDIA (monto no divulgado) como parte de este partnership multianual para construir sistemas de IA de próxima generación.
¿Qué significa esto para tu startup?
Si eres founder en el espacio de IA o estás evaluando incorporar modelos avanzados en tu producto, esto es lo que debes saber:
1. La barrera de entrada para customizar modelos está cayendo
Tinker y técnicas como LoRA permiten fine-tuning eficiente sin necesidad de mega-compute. Si tu startup tiene un caso de uso específico (vertical SaaS, ciencia aplicada, industria), ya no necesitas competir en training desde cero. Puedes partir de modelos base y customizar con recursos limitados.
Acción concreta: Evalúa si tu caso de uso requiere fine-tuning específico. Si sí, experimenta con LoRA en Hugging Face o espera el lanzamiento público de Tinker para reducir costos de infraestructura en 90%.
2. La colaboración humano-IA en tiempo real es el próximo frontier
Los interaction models representan un shift de "chat" a "colaboración continua". Si tu producto involucra interacción con IA (customer support, co-pilots, herramientas creativas), prepárate para la próxima generación de UX donde la IA percibe contexto en tiempo real (audio, video, gestos) mientras el usuario trabaja.
Acción concreta: Mapea tu user journey actual con IA. Identifica puntos de fricción donde el usuario debe "esperar" a que el modelo responda. Diseña prototipos que permitan interacción simultánea (ej: usuario escribe mientras la IA sugiere en paralelo).
3. El talento se está redistribuyendo — y hay oportunidad
El éxodo de OpenAI hacia Thinking Machines y otros labs independientes crea un ecosistema más diverso. Para founders hispanohablantes, esto significa más opciones de partnership, más modelos open-source/customizables, y menos concentración en Big Tech.
Acción concreta: Si estás levantando capital o buscando partnerships, monitorea no solo a los giants (OpenAI, Google) sino también a labs emergentes como Thinking Machines, Mistral, o players regionales en LATAM y España que puedan ofrecer condiciones más flexibles.
El impacto en el ecosistema global de startups
El seed round de $2B de Thinking Machines redefine lo que es posible en VC para AI. Esto tiene dos efectos:
Primero, incentiva bets masivas en efficiency y customización sobre scale bruto. Ya no se trata solo de quién tiene el modelo más grande, sino quién lo hace más accesible y adaptable.
Segundo, la infraestructura de 1GW con NVIDIA posiciona a Thinking Machines como hub para enterprises y research, potencialmente bajando costos para el ecosistema completo (vs. concentración en Big Tech).
Para founders en LATAM y España, esto es relevante: significa más herramientas accesibles, más competencia (mejores precios), y más oportunidades de construir sobre infraestructura democratizada.
Fuentes
- The Verge - Mira Murati Thinking Machines AI Interaction Model (fuente original)
- Thinking Machines Lab - Sitio oficial
- Built In - Inside Thinking Machines Lab
- Tech Funding News - NVIDIA Partnership
- AI Supremacy - Thinking Machines Funding History
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













