Furiosa NXT RNGD Server: Nueva referencia en eficiencia para la inferencia AI
El Furiosa NXT RNGD Server marca un nuevo hito en el hardware de inferencia AI, ofreciendo hasta 3,5 veces mayor eficiencia que las GPU H100 de NVIDIA, según FuriosaAI y benchmarks validados por terceros como LG AI Research. Esta solución all-in-one permite a empresas e instituciones desplegar modelos avanzados de Inteligencia Artificial en infraestructuras de data centers existentes sin necesidad de adoptar costosos sistemas de refrigeración líquidos o rediseñar racks.
Características técnicas clave
- Rendimiento computacional: Hasta 8 aceleradores RNGD (4 petaFLOPS FP8 por servidor), dual AMD EPYC, soporte BF16, FP8, INT8 e INT4.
- Memoria: 384 GB HBM3 y 1 TB de DDR5.
- Almacenamiento: Soluciones NVMe de alta velocidad.
- Consumo: Solo 3 kW por sistema, compatible con racks de hasta 8 kW, lo que lo hace viable en más del 80% de los data centers actuales.
- Integración: SDK Furiosa y runtime LLM preinstalados con soporte nativo para Kubernetes y Helm. Listo para implementar modelos como EXAONE (LG AI Research).
Impacto para startups y empresas
Para empresas de cualquier tamaño, la adopción del RNGD Server puede traducirse en reducción de TCO (coste total de propiedad), mayor flexibilidad (on-premise/cloud) y mayor velocidad de despliegue de soluciones AI productivas. En casos de estudio, LG AI Research logró 60 tokens/segundo con modelos LLM de 32B parámetros usando solamente cuatro tarjetas RNGD y un consumidor de energía controlado.
Accesibilidad y escalabilidad para founders LATAM
La eficiencia energética y la compatibilidad con infraestructuras estándar eliminan barreras de entrada a la AI avanzada para startups e instituciones de la región. Puede facilitar la construcción de productos robustos de Machine Learning y modelos generativos sin incurrir en altos costes operativos.
Disponibilidad y proyección
El sistema está disponible a partir de enero de 2026, con documentación y casos de uso publicados por FuriosaAI. Se prevé que esta solución impulse la adopción de AI a escala, especialmente en mercados emergentes donde los costos energéticos y de infraestructura son determinantes para la competitividad.
Conclusión
El Furiosa NXT RNGD Server redefine las posibilidades de la inferencia AI eficiente en data centers. Su eficiencia, modularidad y compatibilidad lo posicionan como una alternativa disruptiva para el escalamiento de IA, accesible tanto para corporativos como para el ecosistema startup en LATAM. Implementar soluciones de última generación hoy es mucho más accesible y sostenible gracias a innovaciones como estas.
Descubre cómo otros founders implementan estas soluciones para optimizar tus operaciones de IA y hardware.
Fuentes
- https://furiosa.ai/blog/introducing-rngd-server-efficient-ai-inference-at-data-center-scale (fuente original)
- https://www.anandtech.com/show/20935/furiosaai-nxt-rngd-server-launch (fuente adicional)
- https://www.nextplatform.com/2025/09/25/furiosaai-launches-nxt-rngd-server-ai-inference-at-35x-the-efficiency-of-h100/ (fuente adicional)
- https://semianalysis.com/p/furiosaai-nxt-rngd-server-35x-h100 (fuente adicional)











