El Ecosistema Startup > Blog > Actualidad Startup > Furiosa RNGD Server: 3,5x eficiencia AI frente a H100 en data centers

Furiosa RNGD Server: 3,5x eficiencia AI frente a H100 en data centers

Furiosa NXT RNGD Server: Nueva referencia en eficiencia para la inferencia AI

El Furiosa NXT RNGD Server marca un nuevo hito en el hardware de inferencia AI, ofreciendo hasta 3,5 veces mayor eficiencia que las GPU H100 de NVIDIA, según FuriosaAI y benchmarks validados por terceros como LG AI Research. Esta solución all-in-one permite a empresas e instituciones desplegar modelos avanzados de Inteligencia Artificial en infraestructuras de data centers existentes sin necesidad de adoptar costosos sistemas de refrigeración líquidos o rediseñar racks.

Características técnicas clave

  • Rendimiento computacional: Hasta 8 aceleradores RNGD (4 petaFLOPS FP8 por servidor), dual AMD EPYC, soporte BF16, FP8, INT8 e INT4.
  • Memoria: 384 GB HBM3 y 1 TB de DDR5.
  • Almacenamiento: Soluciones NVMe de alta velocidad.
  • Consumo: Solo 3 kW por sistema, compatible con racks de hasta 8 kW, lo que lo hace viable en más del 80% de los data centers actuales.
  • Integración: SDK Furiosa y runtime LLM preinstalados con soporte nativo para Kubernetes y Helm. Listo para implementar modelos como EXAONE (LG AI Research).

Impacto para startups y empresas

Para empresas de cualquier tamaño, la adopción del RNGD Server puede traducirse en reducción de TCO (coste total de propiedad), mayor flexibilidad (on-premise/cloud) y mayor velocidad de despliegue de soluciones AI productivas. En casos de estudio, LG AI Research logró 60 tokens/segundo con modelos LLM de 32B parámetros usando solamente cuatro tarjetas RNGD y un consumidor de energía controlado.

Accesibilidad y escalabilidad para founders LATAM

La eficiencia energética y la compatibilidad con infraestructuras estándar eliminan barreras de entrada a la AI avanzada para startups e instituciones de la región. Puede facilitar la construcción de productos robustos de Machine Learning y modelos generativos sin incurrir en altos costes operativos.

Disponibilidad y proyección

El sistema está disponible a partir de enero de 2026, con documentación y casos de uso publicados por FuriosaAI. Se prevé que esta solución impulse la adopción de AI a escala, especialmente en mercados emergentes donde los costos energéticos y de infraestructura son determinantes para la competitividad.

Conclusión

El Furiosa NXT RNGD Server redefine las posibilidades de la inferencia AI eficiente en data centers. Su eficiencia, modularidad y compatibilidad lo posicionan como una alternativa disruptiva para el escalamiento de IA, accesible tanto para corporativos como para el ecosistema startup en LATAM. Implementar soluciones de última generación hoy es mucho más accesible y sostenible gracias a innovaciones como estas.

Descubre cómo otros founders implementan estas soluciones para optimizar tus operaciones de IA y hardware.

Aprender con founders

Fuentes

  1. https://furiosa.ai/blog/introducing-rngd-server-efficient-ai-inference-at-data-center-scale (fuente original)
  2. https://www.anandtech.com/show/20935/furiosaai-nxt-rngd-server-launch (fuente adicional)
  3. https://www.nextplatform.com/2025/09/25/furiosaai-launches-nxt-rngd-server-ai-inference-at-35x-the-efficiency-of-h100/ (fuente adicional)
  4. https://semianalysis.com/p/furiosaai-nxt-rngd-server-35x-h100 (fuente adicional)
¿te gustó o sirvió lo que leíste?, Por favor, comparte.

Daily Shot: Tu ventaja táctica

Lo que pasó en las últimas 24 horas, resumido para que tú no tengas que filtrarlo.

Suscríbete para recibir cada mañana la curaduría definitiva del ecosistema startup e inversionista. Sin ruido ni rodeos, solo la información estratégica que necesitas para avanzar:

  • Venture Capital & Inversiones: Rondas, fondos y movimientos de capital.
  • IA & Tecnología: Tendencias, Web3 y herramientas de automatización.
  • Modelos de Negocio: Actualidad en SaaS, Fintech y Cripto.
  • Propósito: Erradicar el estancamiento informativo dándote claridad desde tu primer café.

Share to...