El Ecosistema Startup > Blog > Actualidad Startup > Sierra: el superordenador del TOP500 que acabó triturado

Sierra: el superordenador del TOP500 que acabó triturado

El gigante que movió la ciencia nuclear de EE. UU. durante siete años

Hay máquinas que definen una era. Sierra fue una de ellas. Construido por IBM para el Lawrence Livermore National Laboratory (LLNL), este superordenador entró en operaciones en 2018 con un único propósito: sostener las simulaciones más críticas del arsenal nuclear estadounidense, sin necesidad de detonar una sola ojiva real. Durante años fue la segunda máquina más rápida del planeta según el ranking TOP500, el referente global para clasificar el poder de cómputo. En octubre de 2025, tras siete años de servicio, fue desconectado y desmantelado piezas por pieza. Literalmente triturado.

Para cualquier founder tecnológico que trabaje con infraestructura, IA o hardware, la historia de Sierra concentra lecciones que van mucho más allá de los petaflops: ciclos de vida acelerados, obsolescencia programada del hardware, seguridad de datos al retirar sistemas críticos y la lógica implacable de reemplazar lo grande por algo aún más grande.

Sierra en números: qué lo hizo el segundo más potente del mundo

Sierra no era un servidor con esteroides. Era una infraestructura de 4.320 nodos de cómputo, cada uno equipado con 44 núcleos IBM POWER9 y 4 GPUs NVIDIA Volta V100. En total, el sistema alcanzó un rendimiento pico de 125,6 petaFLOPS —equivalente a más de 125 cuatrillones de operaciones de coma flotante por segundo—, aunque el dato que circula más frecuentemente en medios es la cifra de rendimiento sostenido de 94,64 petaFLOPS que figura en el TOP500.

👥 ¿Quieres ir más allá de la noticia?

En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.

👥 Unirme a la comunidad

Su consumo energético rondaba los 11 megavatios. Para ponerlo en perspectiva: eso equivale aproximadamente al consumo eléctrico de 8.000 hogares promedio. Un dato que hoy resulta especialmente relevante para quienes debaten sobre el costo energético de los centros de datos de IA.

La arquitectura híbrida CPU + GPU que Sierra popularizó (IBM POWER9 + NVIDIA Volta) fue pionera en su momento y anticipó la tendencia que hoy domina los clústeres de entrenamiento de modelos de lenguaje: combinar procesadores de propósito general con aceleradores gráficos masivamente paralelos.

Para qué se usaba: simulaciones nucleares sin explosiones reales

Sierra operaba bajo el programa Advanced Simulation and Computing (ASC) de la National Nuclear Security Administration (NNSA) de EE. UU. Su misión principal era simular el comportamiento de armas nucleares —incluyendo los materiales involucrados en su diseño— sin recurrir a pruebas físicas reales, prohibidas por los tratados internacionales de no proliferación.

Este tipo de trabajo exige una fidelidad de simulación extraordinaria. Los modelos deben reproducir con precisión fenómenos físicos extremadamente complejos: explosiones, fluidos a altísimas presiones, comportamiento de materiales bajo condiciones que no se pueden replicar en un laboratorio convencional. Además de las aplicaciones nucleares, Sierra también apoyó investigaciones en ámbitos como el contraterrorismo y la seguridad nacional.

Para founders que trabajan con simulaciones físicas, gemelos digitales o computación científica, el caso de Sierra ilustra hasta dónde puede llegar la demanda de cómputo cuando la precisión del modelo tiene consecuencias reales.

Por qué los superordenadores también mueren: obsolescencia y fallo de hardware

Una de las realidades menos discutidas de la supercomputación de alto rendimiento (HPC) es que estos sistemas también envejecen. La vida útil estándar de un superordenador se sitúa entre cinco y siete años. A partir de ese punto, la tasa de fallos de componentes escala de forma no lineal, el costo de mantenimiento se dispara y, en muchos casos, las piezas de repuesto simplemente dejan de fabricarse.

En el caso de Sierra, el deterioro tenía una dimensión adicional: algunos componentes habían sido descatalogados por sus fabricantes y la versión del sistema operativo que utilizaba ya no contaba con soporte activo. Mantener Sierra operativo se había convertido en un riesgo técnico y de seguridad que el laboratorio no podía sostener indefinidamente.

Esto conecta directamente con uno de los dilemas más comunes en startups tecnológicas: ¿cuándo migrar infraestructura legacy? La respuesta casi siempre llega tarde, cuando el costo de no migrar supera al de hacerlo. Sierra es un recordatorio de que incluso los sistemas más avanzados del mundo no escapan a esa lógica.

El Capitan: el sucesor que lo supera en todo

El reemplazo de Sierra no llegó solo: trajo consigo un salto generacional en capacidad de cómputo. El Capitan, también alojado en el Lawrence Livermore National Laboratory, se convirtió en el superordenador más rápido del mundo en enero de 2025, superando a Frontier (Oak Ridge National Laboratory) con un rendimiento sostenido de 1,7 exaFLOPS y un pico de 2,7 exaFLOPS.

Para dimensionar la diferencia: El Capitan es aproximadamente 20 veces más rápido que Sierra en su punto máximo. Lo que Sierra tardaba semanas o meses en simular, El Capitan puede resolverlo en días. Y lo hace con una arquitectura radicalmente diferente: APU AMD Instinct MI300A con memoria compartida entre CPU y GPU, lo que elimina cuellos de botella de transferencia de datos y aumenta la eficiencia energética relativa al rendimiento obtenido. Su consumo es de 30 megavatios.

El salto de Sierra a El Capitan también es una ventana al futuro de la infraestructura de IA: arquitecturas donde CPU y GPU comparten el mismo pool de memoria son exactamente el diseño que varios fabricantes de chips están explorando para los próximos años de entrenamiento de modelos fundacionales.

La destrucción controlada: por qué trituraron los componentes

El retiro de Sierra no fue un simple apagado. El proceso implicó semanas de trabajo técnico: desmontaje progresivo de racks, extracción de baterías, separación de componentes para reciclaje y, en los casos más sensibles, destrucción física certificada.

Los dispositivos de almacenamiento recibieron el tratamiento más estricto. Dado que Sierra había procesado información clasificada vinculada al arsenal nuclear de EE. UU., el LLNL debía garantizar que ningún fragmento de datos pudiera ser recuperado de los medios de almacenamiento retirados. La trituración literal no es una exageración periodística: es el protocolo estándar para sistemas que han manejado información de alto secreto.

Para cualquier empresa que gestione datos sensibles de usuarios o clientes —desde startups fintech hasta plataformas de salud— el caso Sierra ofrece una referencia sobre qué significa realmente el borrado seguro de datos al final del ciclo de vida de un sistema.

Qué puede aprender un founder tecnológico de la historia de Sierra

A primera vista, Sierra parece una noticia de nicho para ingenieros de HPC. Pero si se mira con atención, el ciclo completo de este superordenador concentra patrones que cualquier startup tecnológica reconocerá:

  • Los ciclos de vida del hardware son más cortos de lo que parecen. Siete años para una máquina de esa complejidad es tiempo razonable, pero los componentes empezaron a fallar antes. En infraestructura cloud o on-premise, la planificación de reemplazo debe comenzar mucho antes de que el sistema empiece a degradarse.
  • La obsolescencia del software precede a la del hardware. Que el SO de Sierra perdiera soporte fue tan determinante como el fallo físico de los componentes. Mantener dependencias actualizadas es un problema de deuda técnica que afecta por igual a startups y a laboratorios nacionales.
  • El reemplazo no es gasto, es inversión estratégica. El Capitan no llegó para hacer lo mismo que Sierra, sino para hacer posible lo que Sierra nunca pudo. Las migraciones de infraestructura bien ejecutadas desbloquean capacidades nuevas, no solo mantienen las existentes.
  • La seguridad de datos al retirar sistemas es un proceso, no un evento. La destrucción certificada de los medios de almacenamiento de Sierra no fue opcional. Para startups con datos sensibles, el offboarding de infraestructura merece la misma atención que el onboarding.

Conclusión

Sierra fue durante años uno de los artefactos tecnológicos más sofisticados que ha existido sobre la Tierra. Procesó simulaciones que ningún laboratorio humano podría replicar, contribuyó a mantener la estabilidad nuclear global sin disparar una sola ojiva y anticipó arquitecturas que hoy definen el entrenamiento de modelos de inteligencia artificial. Su retiro en octubre de 2025 y su destrucción controlada cierran un capítulo en la historia de la supercomputación.

Pero la lección más valiosa de Sierra no está en sus petaflops ni en su trituración final: está en que incluso los sistemas más avanzados del mundo tienen una fecha de caducidad. En tecnología, la pregunta no es si algo quedará obsoleto, sino cuándo y qué tendrás listo para reemplazarlo. Eso vale tanto para un laboratorio nacional con presupuesto de miles de millones como para una startup en etapa seed decidiendo su stack de infraestructura.

Profundiza estos temas con nuestra comunidad de founders tecnológicos que debaten infraestructura, IA y el futuro del hardware.

Unirme a la comunidad

Fuentes

  1. https://www.xataka.com/ordenadores/sierra-fue-segundo-superordenador-potente-mundo-cuando-llego-su-hora-acabo-trituradora-literalmente (fuente original)
  2. https://hpc.llnl.gov/hardware/compute-platforms/sierra (LLNL – Sierra HPC, descomisionado)
  3. https://en.wikipedia.org/wiki/Sierra_(supercomputer) (Wikipedia – Sierra supercomputer)
  4. https://www.futuretimeline.net/blog/2025/01/15-worlds-fastest-supercomputer-future-timeline.htm (El Capitan, superordenador más rápido del mundo)
  5. https://top500.org/ (ranking TOP500 de supercomputadoras)
¿te gustó o sirvió lo que leíste?, Por favor, comparte.

Daily Shot: Tu ventaja táctica

Lo que pasó en las últimas 24 horas, resumido para que tú no tengas que filtrarlo.

Suscríbete para recibir cada mañana la curaduría definitiva del ecosistema startup e inversionista. Sin ruido ni rodeos, solo la información estratégica que necesitas para avanzar:

  • Venture Capital & Inversiones: Rondas, fondos y movimientos de capital.
  • IA & Tecnología: Tendencias, Web3 y herramientas de automatización.
  • Modelos de Negocio: Actualidad en SaaS, Fintech y Cripto.
  • Propósito: Erradicar el estancamiento informativo dándote claridad desde tu primer café.

📡 El Daily Shot Startupero

Noticias del ecosistema startup en 2 minutos. Gratis, cada día hábil.


Share to...