Perspectivas y dirección futura
Hasta ahora hemos explorado la motivación de por qué la computación de alto rendimiento (HPC) y la computación cuántica se utilizan juntas para resolver problemas científicos. Hemos definido los recursos de cómputo clásicos y cuánticos —incluyendo CPU, GPU y QPU— y explicado cómo escalarlos y gestionarlos mediante técnicas como el escalamiento vertical y horizontal, el scheduling y la gestión de cargas de trabajo. Además, hemos explorado modelos de programación tanto para QPU (por ejemplo, circuitos cuánticos y primitivos como Sampler y Estimator) como para computadores clásicos, incluyendo prácticas de programación paralela con MPI, una herramienta poderosa en la computación heterogénea cuántico-clásica. Finalmente, hemos estudiado y aplicado algoritmos cuánticos avanzados basados en muestreo, como la Diagonalización Cuántica Basada en Muestras (SQD) y la Diagonalización Cuántica de Krylov Basada en Muestras (SKQD). Estos algoritmos utilizan el método del subespacio para estimar con precisión la energía del estado fundamental de moléculas y materiales, preparando y muestreando estados cuánticos que definen un subespacio para la diagonalización clásica, una combinación de diferentes modelos de programación en un conjunto de recursos heterogéneos. Con estos conceptos fundamentales de la supercomputación cuántica y clásica, ya no hablamos de que uno reemplace al otro, sino de crear un sistema integrado y potente que trabaje sinérgicamente, una combinación que marcará el comienzo de la ventaja cuántica.
¿Por qué ahora?
La comunidad ya ha superado el hito de la "utilidad cuántica", es decir, el momento en que los computadores cuánticos fueron demostrados por primera vez como herramientas científicas útiles que permiten cálculos más allá de las simulaciones clásicas de fuerza bruta. Esta era de utilidad comenzó con el muy citado artículo de utilidad, que apareció en la portada de Nature en 2023, e incluyó docenas de publicaciones de socios, clientes e investigadores de IBM Quantum®. Hoy, el enfoque se ha desplazado al siguiente desafío crucial: alcanzar la ventaja cuántica. Durante mucho tiempo, el término "ventaja cuántica" sufrió de definiciones imprecisas. Este artículo propuso una definición concreta que utilizamos aquí. Según esta, la ventaja cuántica se refiere a la ejecución de una tarea de procesamiento de información en hardware cuántico que cumple dos criterios esenciales:
i) La corrección del resultado puede demostrarse rigurosamente, y
ii) La tarea se ejecuta con una superioridad cuántica que demostrablemente ofrece mayor eficiencia, rentabilidad o precisión que la que sería alcanzable solo con computación clásica.
Se espera que la ventaja cuántica ocurra por primera vez a finales de 2026 y que esto suceda mediante el uso conjunto de recursos cuánticos y HPC. Esta lección describe la visión central de este nuevo paradigma, explica las ideas clave y ofrece una perspectiva basada en un marco verificable e independiente de plataforma para la demostración y realización de una verdadera ventaja cuántica.
5.1 La visión general
Por primera vez, estamos presenciando un punto de inflexión significativo en la historia de la computación: la era de la supercomputación centrada en lo cuántico (QCSC), un paradigma emergente que integra estrechamente procesadores cuánticos (QPU) con supercomputadores clásicos. La visión no es que los sistemas cuánticos reemplacen a los clásicos, sino demostrar que esta arquitectura heterogénea —donde "cuántico más clásico" supera a la computación puramente clásica— es el camino más impactante hacia adelante. En este modelo, las QPU están concebidas como coprocesadores especializados que trabajan codo con codo con CPU y GPU para abordar problemas computacionales que son intratables para los computadores clásicos.
El potencial completo de esta nueva arquitectura solo puede aprovecharse haciendo estas poderosas herramientas accesibles al mayor número posible de usuarios. Esta visión ya está tomando forma: mediante la instalación de sistemas cuánticos en centros de computación de alto rendimiento establecidos y el desarrollo de software como los plugins de Quantum-Slurm, que simplifican su integración en flujos de trabajo clásicos existentes. Al hacer estos sistemas heterogéneos más accesibles para la comunidad investigadora en general, fomentamos el entorno necesario para la innovación y el descubrimiento.
Esta estrategia —tecnología integrada combinada con una amplia base de usuarios— es el camino por el cual la comunidad alcanzará la ventaja cuántica en un futuro cercano. La ventaja cuántica no es un hito único y definitivo, sino un proceso: una secuencia de demostraciones cada vez más sólidas que son cuidadosamente evaluadas, reproducidas y cuestionadas por la comunidad hasta alcanzar un consenso científico. Este es el camino para mostrar, a finales de 2026, los primeros casos creíbles y verificables en los que esta nueva forma de computación resuelve problemas prácticos de manera más eficiente, rentable o precisa de lo que sería posible solo con computación clásica.
Grandes ideas
Para hacer realidad esta visión, deben abordarse varias preguntas e ideas fundamentales.
-
Partición óptima de cargas de trabajo: En el lado del software, el desafío radica en la gestión de flujos de trabajo híbridos complejos. La orquestación fluida de tareas a través de recursos cuánticos y clásicos requiere herramientas sofisticadas. Esto incluye middleware Quantum-HPC e infraestructuras de runtime diseñadas para la planificación de trabajos, la gestión de recursos y el flujo de datos en este entorno heterogéneo. Además, el desarrollo de técnicas para paralelizar efectivamente circuitos cuánticos o descomponerlos en partes más pequeñas y manejables es crucial para maximizar la utilidad del hardware cuántico actual.
-
Tolerancia a fallos a nivel de sistema: La solución definitiva para proteger la información cuántica del ruido es la computación cuántica tolerante a fallos (FTQC), donde la información se codifica en "qubits lógicos" robustos. Aunque los nuevos códigos cuánticos de baja densidad de verificación de paridad (qLDPC) ofrecen un camino para reducir la enorme carga de recursos, la implementación de tolerancia a fallos completa aún no es factible en el corto plazo. Simultáneamente, la mitigación de errores utiliza posprocesamiento clásico para reducir o eliminar sesgos en los cálculos causados por el ruido, siendo también un elemento crítico para alcanzar sistemas cuánticos tolerantes a fallos a nivel de sistema. Métodos potentes de mitigación de errores ya se están desplegando como servicio, demostrando la fortaleza de la arquitectura QCSC. Por ejemplo:
- El Tensor Network Error Mitigation (TEM) de Algorithmiq trata el ruido en el posprocesamiento de software y utiliza recursos clásicos de HPC para extender el alcance de las QPU actuales.
- El Quantum Error Suppression and Error Mitigation (QESEM) de Qedma combina la supresión de errores a nivel de hardware con la mitigación de errores para mejorar la fiabilidad de las computaciones cuánticas a gran escala.
-
Democratización del acceso: Hacer que estos potentes sistemas híbridos sean accesibles a una amplia audiencia es la clave para acelerar la innovación. Esto ya se está logrando mediante la instalación física de sistemas cuánticos en centros HPC y la publicación de plugins de Slurm para una integración fluida. Para simplificar esta integración, ambas empresas han publicado plugins de Slurm para que las cargas de trabajo cuánticas puedan gestionarse con schedulers HPC estándar. Además, pilas de software integrales como Qiskit proporcionan un entorno de runtime basado en la nube para la ejecución de circuitos cuánticos con baja latencia, que orquesta tareas híbridas complejas y proporciona herramientas para compilación, optimización y mitigación de errores. El acceso abierto al hardware cuántico y los paquetes de software de código abierto desempeñarán sin duda un papel decisivo en esto.
Perspectiva de IBM para el futuro
La IBM Quantum Development Roadmap ilustra bien esta visión general y estas grandes ideas.
La hoja de ruta de hardware cuántico de IBM está impulsada por el enfoque en una mayor escala de qubits y mejor conectividad. La serie Nighthawk (2025–2028) utiliza una nueva arquitectura de rejilla cuadrada para mejorar la conectividad, mientras que el procesador Loon (2025) introduce "acopladores c" para permitir la conectividad no local de qubits, crucial para la computación cuántica tolerante a fallos (FTQC). Esta hoja de ruta culmina en los sistemas IBM Quantum Starling (2029) y Blue Jay (2033+), diseñados para computaciones tolerantes a fallos a gran escala con millones de puertas y miles de qubits lógicos.
La estrategia de software y middleware se basa en cuatro objetivos fundamentales: ejecución precisa, orquestación de cargas de trabajo, descubrimiento de nuevos algoritmos y su aplicación a casos de uso específicos. La hoja de ruta incluye mejoras continuas como circuitos dinámicos a escala de utilidad (2025) y nuevas herramientas de perfilado (2026) para una ejecución eficiente. Para la orquestación de cargas de trabajo, la C-API (2025) y futuros aceleradores de flujos de trabajo (2027) integrarán la computación cuántica y la computación clásica de alto rendimiento (HPC). Además, IBM® introducirá herramientas de mapeo de utilidad (2026) y nuevas bibliotecas de circuitos (2029) para facilitar el descubrimiento y la aplicación de nuevos algoritmos.
Resumen
Hemos explorado la visión general y las grandes ideas detrás del objetivo QCSC y hemos examinado la hoja de ruta de IBM para el desarrollo e innovación en computación cuántica. Este viaje, como hemos visto, es un maratón, no un sprint. Aunque IBM se ha comprometido a entregar computadores cuánticos cada vez más potentes, nuestro progreso es solo una parte de la ecuación. Es crucial que la comunidad cuántica continúe desarrollando nuevos algoritmos, allanando así el camino para aplicaciones que realmente lleven la computación cuántica útil al mundo.
Para lograr esto, debemos colaborar. Esto significa establecer problemas de benchmarking estandarizados con la ayuda de expertos clásicos para asegurar relevancia y equidad. También requiere la publicación de métodos detallados y conjuntos de datos para la reproducibilidad, así como el mantenimiento de clasificaciones abiertas para seguir nuestro progreso colectivo.
Nunca ha habido un momento más emocionante para ser parte de esta comunidad. Al adoptar estas mejores prácticas y continuar nuestra exploración, podemos realizar juntos el potencial completo de la ventaja cuántica.