Por qué necesitar 7.000 GPU para simular un chip diminuto es, en realidad, una buena señal
Cuando lees que hacen falta 7.168 GPU de NVIDIA trabajando durante 24 horas ininterrumpidas para simular un procesador cuántico del tamaño de una uña, la reacción instintiva es de asombro —quizás de alarma—. Tanto esfuerzo computacional para tan poco hardware físico parece una derrota. Pero la lógica se invierte cuando entiendes qué se consiguió realmente: por primera vez en la historia, un equipo científico reprodujo con fidelidad absoluta el comportamiento interno de un chip cuántico antes de fabricarlo. Ese detalle lo cambia todo.
El experimento: qué hicieron los investigadores de Berkeley
El equipo pertenece al Quantum Systems Accelerator (QSA) y a la División de Matemáticas Aplicadas e Investigación Computacional de la Universidad de California en Berkeley, dos de los grupos de investigación cuántica más activos del mundo. Para ejecutar la simulación recurrieron al superordenador Perlmutter, operado por el National Energy Research Scientific Computing Center (NERSC) del Laboratorio Nacional Lawrence Berkeley.
El objeto de la simulación fue un chip cuántico multicapa de 10 mm de anchura y 0,3 mm de grosor. Aunque las dimensiones son modestas, la complejidad interna es monumental: el modelo discretizó el dispositivo en 11.000 millones de celdas y procesó más de un millón de pasos temporales para rastrear cómo viajan e interactúan las señales electromagnéticas dentro del procesador.
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidadEl método empleado resolvió las ecuaciones de Maxwell en el dominio temporal, capturando materiales reales como el niobio, comportamientos no lineales y todas las geometrías de cableado. Esto contrasta radicalmente con los enfoques anteriores, que trataban los chips como simples «cajas negras» y sacrificaban precisión por velocidad de cálculo.
Por qué simular antes de fabricar es un hito para la computación cuántica
En ingeniería clásica, simular un chip de silicio antes de enviarlo a fabricación es práctica estándar desde hace décadas. Las herramientas de diseño asistido por computadora (EDA) permiten detectar errores sin gastar millones en prototipos físicos. En el mundo cuántico, esa posibilidad no existía con este nivel de detalle. Hasta ahora.
La razón de la dificultad es profunda: los fenómenos cuánticos —superposición, entrelazamiento, decoherencia— son extraordinariamente sensibles a su entorno físico. Un cambio microscópico en los materiales o la geometría puede arruinar el rendimiento de los cúbits. Sin una simulación fiel, los ingenieros dependían de ciclos interminables de fabricación y prueba, cada uno con un coste altísimo en tiempo y recursos.
Con este avance, el flujo de trabajo cambia de forma sustancial:
- Validación virtual antes de fabricar: los equipos pueden iterar sobre diseños en el superordenador y descartar configuraciones problemáticas sin tocar un laboratorio de fabricación.
- Optimización de materiales: al modelar el niobio y otros materiales con precisión, es posible explorar alternativas que reduzcan la decoherencia.
- Aceleración del ciclo de I+D: lo que hoy requiere meses de prueba física podría comprimirse en días de simulación computacional.
El contexto más amplio: la carrera cuántica en 2026
Este resultado de Berkeley no llega en un vacío. La computación cuántica atraviesa un momento de madurez acelerada. En marzo de 2026, IBM demostró que su ordenador cuántico puede simular materiales magnéticos reales —concretamente el cristal KCuF3— con resultados que coinciden con experimentos de dispersión de neutrones realizados en laboratorios físicos. El logro fue posible gracias a tasas de error reducidas en operaciones de dos cúbits y a flujos de trabajo híbridos que combinan computación cuántica y supercomputación clásica.
Por su parte, Google anunció en octubre de 2025 la primera «ventaja cuántica verificable» con su chip Willow, capaz de ejecutar un algoritmo que revierte la dispersión de información de manera que ningún sistema clásico puede replicar en tiempo razonable. Y procesadores de hasta 127 cúbits ya producen resultados fiables en problemas específicos que escapan a la simulación clásica convencional.
En este panorama, la simulación de Berkeley actúa como una pieza de infraestructura: no compite con los procesadores cuánticos, sino que acelera su diseño y fabricación.
Qué es el Quantum Systems Accelerator y por qué importa
El Quantum Systems Accelerator (QSA) es un centro de investigación financiado por el Departamento de Energía de EE. UU. y alojado en el Lawrence Berkeley National Laboratory. Su misión es cerrar la brecha entre la investigación básica en física cuántica y la ingeniería de sistemas cuánticos funcionales y escalables.
Relacionado con el QSA, el Advanced Quantum Testbed (AQT) de Berkeley ha sido pionero en experimentos con procesadores superconductores de pocos cúbits, demostrando técnicas de supresión de ruido que hoy son referencia internacional. La simulación del chip cuántico con Perlmutter es, en cierto modo, la extensión natural de ese trabajo: pasar del laboratorio físico a la réplica digital de alta fidelidad.
La paradoja que convierte un gasto enorme en buena noticia
Aquí está la clave que da sentido al titular: si necesitas 7.168 GPU durante 24 horas para simular un chip cuántico pequeño, eso demuestra que los sistemas cuánticos son genuinamente complejos, que no hay atajos, y que una simulación clásica de estas características tiene un límite práctico de escala. En otras palabras, confirma que los procesadores cuánticos de mayor tamaño serán, en efecto, imposibles de simular clásicamente.
Eso es precisamente lo que hace útil a la computación cuántica. Si pudieras simular cualquier chip cuántico con hardware convencional, la ventaja cuántica sería ilusoria. El hecho de que necesites un superordenador de clase mundial para reproducir un chip de 10 mm es la mejor evidencia empírica de que, cuando lleguen los procesadores cuánticos de cientos o miles de cúbits, no habrá computadora clásica capaz de igualarlos.
Mientras tanto, la herramienta que acaban de construir los investigadores de Berkeley permite diseñar mejor esos futuros procesadores. Es, en definitiva, una inversión en la hoja de ruta de una tecnología que promete transformar industrias enteras: desde el descubrimiento de fármacos y materiales hasta la optimización logística y la criptografía.
Implicaciones para founders e inversores tech
Para los founders que construyen sobre infraestructura de cómputo avanzado, o que evalúan cuándo y cómo posicionarse en el ecosistema cuántico, este avance tiene señales concretas:
- El ciclo de diseño de hardware cuántico se va a comprimir. Las empresas que sepan aprovechar herramientas de simulación de alta fidelidad llegarán a mercado antes.
- La demanda de GPUs para simulación científica seguirá creciendo. No solo para IA generativa: el modelado cuántico a escala exige los mismos recursos de cómputo.
- Las alianzas entre laboratorios nacionales y startups cuánticas se intensificarán. Berkeley, IBM, Google y otros actores están sentando las bases técnicas; el ecosistema comercial construirá encima.
- La ventana para posicionarse en la cadena de valor cuántica es ahora. Los próximos 3–5 años definirán qué empresas capturan valor cuando la computación cuántica alcance utilidad práctica generalizada.
Conclusión
La imagen de 7.168 GPU procesando datos durante un día completo para replicar un chip del tamaño de una moneda puede parecer un desperdicio monumental. Es, en realidad, la prueba más contundente hasta la fecha de que los sistemas cuánticos son tan complejos que merecen toda esa potencia de cálculo —y que cuando operen por sí solos, ninguna supercomputadora clásica podrá seguirles el ritmo.
Para el ecosistema startup y tech, el mensaje es claro: la computación cuántica ya no es ciencia ficción ni investigación de laboratorio cerrado. Es una carrera tecnológica con actores serios, inversiones masivas y un horizonte de aplicación que se acorta cada mes. Entender sus fundamentos hoy es una ventaja competitiva real mañana.
Profundiza estos temas con nuestra comunidad de founders y expertos en tecnología.
Fuentes
- https://www.xataka.com/investigacion/hacen-falta-7-000-gpu-para-simular-procesador-cuantico-diminuto-no-parece-excelente-noticia (fuente original)
- https://www.larazon.es/tecnologia-consumo/usaron-7000-gpus-durante-24-horas-para-simular-un-chip-cuantico-lo-que-descubrieron-es-un-salto-adelante_20260228699df0e12f00a0468825e110.html (fuente adicional)
- https://aqt.lbl.gov/2022/10/14/el-advanced-quantum-testbed-en-berkeley-lab-lidera-avances-cientificos-para-la-computacion-cuantica/ (fuente adicional)
- https://www.agenciasinc.es/Noticias/Google-anuncia-la-primera-ventaja-cuantica-verificable-con-un-algoritmo-que-revierte-el-tiempo (fuente adicional)
👥 ¿Quieres ir más allá de la noticia?
En nuestra comunidad discutimos las tendencias, compartimos oportunidades y nos ayudamos entre emprendedores. Sin humo, solo acción.
👥 Unirme a la comunidad













