La carrera por construir el primer ordenador cuántico verdaderamente útil vive un momento decisivo. IBM ha actualizado su hoja de ruta tecnológica y se ha centrado en absoluto en esta misión, asegurando que en 2029 dispondrá de un procesador tolerante a fallos; una frontera que la comunidad científica considera imprescindible para que esta disciplina deje definitivamente atrás sus limitaciones actuales.
Si el pronóstico se cumple, el salto no vendrá de un modelo de IA más avanzado, sino del hardware que puede multiplicar por varios órdenes de magnitud lo que hoy entendemos como capacidad de cómputo. Sería un antes y un después en la informática... Y también en la sociedad.
Por qué la tolerancia a fallos lo cambia todo
El obstáculo decisivo de la computación cuántica
La computación cuántica lleva dos décadas atrapada en la misma paradoja: su potencial es extraordinario, pero sus qubits son demasiado inestables para sostener cálculos prolongados. Las máquinas actuales operan en el llamado régimen NISQ (Noisy Intermediate-Scale Quantum), un entorno donde el ruido limita la profundidad de los circuitos.
En general, hoy un dispositivo comercial o experimental puede ejecutar entre 1.000 y 10.000 operaciones fiables antes de que los errores acumulados invaliden el cálculo. Pero IBM afirma que el salto a 2029 consiste en pasar de ese límite a 100 millones de operaciones coherentes.
Ingeniero indio trabajando en computación cuántica.
La cifra que ha dado la gran empresa no es arbitraria: coincide con el umbral estimado por investigadores como John Preskill (Caltech), Wim van Dam (UC Santa Barbara) o Austin Fowler (Google Quantum AI) para ejecutar algoritmos cuánticos de corrección de errores completos.
Este avance se basa en la implementación madura del código de superficie (surface code), una técnica propuesta originalmente por Kitaev (1997) y validada experimentalmente por múltiples laboratorios, que permite agrupar qubits físicos en “qubits lógicos” resistentes a perturbaciones externas.
En palabras de Jay Gambetta, vicepresidente de computación cuántica de IBM, al MIT Technology Review: “La industria debe demostrar que la corrección de errores puede funcionar a gran escala. Sin eso, la computación cuántica nunca será más que un experimento”.
En una entrevista reciente, Dario Gil, vicepresidente de IBM Research, resumía el desafío en Financial Times: “Si la revolución cuántica quiere ser diferente, debe aprender de los fallos de la revolución de la IA”. Entre esos fallos se encuentra la opacidad, la concentración extrema del poder, la dependencia de infraestructuras privadas y la falta de evaluación de impacto social. De este modo, puede que estemos ante una nueva gran revolución tecnológica, pero dependerá de las propias empresas llevarla a buen término.



