El Ecosistema Startup > Blog > Actualidad Startup > GPUs ociosas: FriendliAI monetiza inferencia IA

GPUs ociosas: FriendliAI monetiza inferencia IA

¿Por qué tus GPUs están perdiendo dinero mientras no hacen nada?

Hay un problema silencioso en la industria del cloud de IA: miles de GPUs en data centers de neoclouds pasan horas —o incluso días— completamente ociosas, sin generar ningún retorno. Para un operador de infraestructura, cada GPU apagada es margen perdido. Para un founder que necesita correr workloads de inferencia, es capacidad cara que no puede costear. FriendliAI decidió atacar exactamente ese problema.

El equipo responsable de popularizar el continuous batching en inferencia de IA acaba de presentar InferenceSense, una plataforma diseñada para que los operadores de neoclouds moneticen sus GPUs ociosas ejecutando workloads de inferencia de inteligencia artificial. La propuesta es tan directa como poderosa: si tus GPUs no están corriendo inferencia, estás dejando dinero sobre la mesa.

¿Qué es FriendliAI y por qué importa en el ecosistema de IA?

FriendliAI no es una empresa nueva en el mundo de la infraestructura de IA. Su equipo fundador es conocido por haber desarrollado e impulsado el concepto de continuous batching, una técnica que revolucionó la eficiencia en el servicio de modelos de lenguaje de gran escala (LLMs). A diferencia del batching estático —donde una GPU espera a que todos los requests de un lote se completen antes de procesar el siguiente—, el continuous batching incorpora nuevas solicitudes al vuelo dentro del proceso de inferencia activo, reduciendo drásticamente la latencia y maximizando la utilización de la GPU.

👥 ¿Quieres ir más allá de la noticia?

En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.

👥 Unirme a la comunidad

En agosto de 2025, la compañía cerró una ronda de extensión seed de $20 millones de dólares, con proyecciones de crecimiento de ingresos de entre 6x y 7x respecto a 2024. Esto refleja una demanda explosiva en el mercado de inferencia productiva, especialmente entre equipos que necesitan servir modelos open-weight como GLM-5 o los modelos Nemotron 3 de NVIDIA a escala.

InferenceSense: convertir GPUs ociosas en ingresos reales

InferenceSense es la apuesta de FriendliAI para resolver la ecuación de eficiencia desde el lado del operador de neocloud. La plataforma integra el motor de inferencia propietario de FriendliAI directamente en la infraestructura del operador, habilitando la ejecución de workloads de inferencia IA en GPUs que de otro modo estarían apagadas o subutilizadas.

El mecanismo central funciona así: cuando la demanda del operador cae y las GPUs quedan libres, InferenceSense las pone a trabajar automáticamente sirviendo requests de inferencia —ya sea de terceros o de clientes del propio operador— y genera un flujo de ingresos compartido. Cuando la demanda del operador vuelve a subir, el sistema libera esa capacidad sin interrupciones gracias al autoscaling dinámico integrado en la plataforma.

Los resultados técnicos documentados son relevantes para cualquier equipo evaluando su stack de inferencia:

  • Hasta un 90% de reducción en costos de GPU frente a configuraciones no optimizadas.
  • 2x o más de velocidad de inferencia respecto a alternativas del mercado.
  • 99.99% de uptime SLA garantizado para operadores en producción.
  • Capacidad de correr más de 420.000 modelos de Hugging Face, tanto open-source como custom.
  • Hasta 13x más velocidad en generación de tokens en modelos como Nemotron 3, validado en alianza con NVIDIA.

¿En qué se diferencia de los mercados tradicionales de GPU spot?

Un error común entre founders tech es equiparar este modelo con los mercados de GPU spot —instancias preemptibles y baratas que los grandes proveedores cloud ofrecen cuando tienen capacidad sobrante—. Las diferencias son sustanciales:

Confiabilidad y continuidad del servicio

Los mercados de GPU spot son notoriamente interrumpibles: cuando la demanda sube, el proveedor puede terminar tu instancia sin previo aviso. Esto es devastador para workloads de inferencia productiva donde la latencia y la disponibilidad son críticas. InferenceSense, en cambio, opera con un SLA de 99.99% de uptime y garantiza capacidad para picos de demanda sin throttling.

Optimización específica para inferencia

Los mercados spot ofrecen cómputo genérico. FriendliAI construyó una pila técnica específicamente diseñada para LLMs: kernels de GPU propios, speculative decoding, cuantización online, smart caching y continuous batching operando en conjunto. El resultado es un tokens-per-dollar sustancialmente superior al que puede lograr cualquier instancia spot sin optimización de inferencia.

Modelo de ingresos para el operador

En un mercado spot, el operador es simplemente el comprador de capacidad barata. Con InferenceSense, el operador de neocloud se convierte en un participante activo del ecosistema de inferencia IA: sus GPUs generan ingresos durante el tiempo ocioso, con pricing basado en GPU-horas o tokens procesados.

El contexto más amplio: 2026 como el año de quiebre de la inferencia

Según análisis de SDxCentral, el año 2026 está siendo identificado por la industria como el año de quiebre definitivo de la inferencia de IA en producción. Esto no es casual: a medida que más organizaciones mueven sus modelos de la fase experimental a producción, el cuello de botella ya no es el entrenamiento sino el serving a escala.

Datos del sector indican que entre el 80% y el 90% del tiempo operacional de los LLMs en producción corresponde a inferencia —no a entrenamiento—. Y sin optimizaciones adecuadas como continuous batching, la utilización real de las GPUs en ese proceso es notablemente baja, generando costos desproporcionados para los equipos que escalan.

Alianzas estratégicas de FriendliAI con actores como Nebius —logrando reducciones de costo superiores al 50% combinadas con 2x de velocidad y 99.99% de uptime— y su rol como partner de inferencia de día cero para modelos como GLM-5 reflejan que la compañía está posicionada en el centro de esta transición.

¿Qué significa esto para founders y equipos de startups de IA?

Si estás construyendo un producto que depende de modelos de lenguaje o de inferencia de IA, este movimiento de mercado tiene implicaciones prácticas directas:

  • Acceso a capacidad de inferencia de alta calidad a menor costo: A medida que más neoclouds adopten plataformas como InferenceSense, la oferta de capacidad optimizada para inferencia debería crecer y los precios bajar.
  • Evaluación de tu proveedor de inferencia actual: Si estás usando GPU spot sin una capa de optimización, estás probablemente pagando más por peor latencia. Vale la pena comparar el tokens-per-dollar real.
  • Oportunidad para operadores con infraestructura propia: Si tu startup opera su propia infraestructura GPU —por razones de compliance, latencia o costo—, monetizar el tiempo ocioso es una vía concreta para recuperar parte de ese CAPEX.
  • El stack técnico importa: Continuous batching, speculative decoding y cuantización ya no son detalles de bajo nivel. Son los diferenciales que separan a equipos que escalan con márgenes sanos de los que queman runway en infraestructura.

Conclusión

El lanzamiento de InferenceSense por parte de FriendliAI es más que una nueva herramienta de optimización: es una señal de madurez del mercado de infraestructura IA. El equipo que pionereó el continuous batching ahora está apuntando al siguiente problema no resuelto —la capacidad GPU ociosa en neoclouds— con un modelo de negocio que alinea incentivos entre operadores e inquilinos de inferencia.

Para founders que construyen sobre modelos open-weight, esto abre una ventana concreta de reducción de costos operacionales. Para quienes operan infraestructura, convierte un gasto fijo en una potencial fuente de ingresos. En un ecosistema donde los márgenes en IA aún se están formando, cada decisión de infraestructura cuenta.

Descubre cómo otros founders están optimizando su infraestructura de IA y reduciendo costos. Únete gratis a la comunidad de Ecosistema Startup.

Aprender con founders

Fuentes

  1. https://venturebeat.com/infrastructure/the-team-behind-continuous-batching-says-your-idle-gpus-should-be-running (fuente original)
  2. https://friendli.ai/blog/friendliai-raises-20m-in-seed-extension-round (fuente adicional)
  3. https://friendli.ai/blog/nebius-partnership (fuente adicional)
  4. https://news.crunchbase.com/ai/inference-platform-friendliai-raises-seed-extension-chun (fuente adicional)
  5. https://siliconangle.com/2025/08/29/friendliai-raises-20m-funding-accelerate-ai-inference-workloads (fuente adicional)
  6. https://www.sdxcentral.com/analysis/friendliai-may-have-the-inference-solution-to-ai-memory-ills (fuente adicional)
  7. https://insidehpc.com/2025/12/friendliai-partners-with-nvidia-on-nemotron-3-for-agentic-ai-inference (fuente adicional)
¿te gustó o sirvió lo que leíste?, Por favor, comparte.

Daily Shot: Tu ventaja táctica

Lo que pasó en las últimas 24 horas, resumido para que tú no tengas que filtrarlo.

Suscríbete para recibir cada mañana la curaduría definitiva del ecosistema startup e inversionista. Sin ruido ni rodeos, solo la información estratégica que necesitas para avanzar:

  • Venture Capital & Inversiones: Rondas, fondos y movimientos de capital.
  • IA & Tecnología: Tendencias, Web3 y herramientas de automatización.
  • Modelos de Negocio: Actualidad en SaaS, Fintech y Cripto.
  • Propósito: Erradicar el estancamiento informativo dándote claridad desde tu primer café.

📡 El Daily Shot Startupero

Noticias del ecosistema startup en 2 minutos. Gratis, cada día hábil.


Share to...