El límite de los 100 qubits que frenaba la industria
Te lo explico fácil: imagina que cada qubit en un ordenador cuántico necesita 200 cables para funcionar. A 100 qubits, tienes 20,000 cables saliendo de un frigorífico del tamaño de una habitación hacia temperatura ambiente. El calor que entra por esos cables destruye la cuántica. Ese era el muro.
D-Wave acaba de anunciar que redujo esos 20,000 cables a menos de 10 por qubit. No es un avance incremental. Es reescribir las reglas del hardware cuántico.
El contexto que nadie menciona: esto no es un paper académico. Es tecnología en producción. D-Wave lleva 6 meses enviando sistemas con esta arquitectura a clientes enterprise. NTT lo comprobó antes de pagar.
La solución: control criogénico integrado
En palabras simples: movieron la electrónica de control dentro del criostato (el frigorífico cuántico). Antes, los controles estaban fuera, a temperatura ambiente, conectados con miles de cables. Ahora están dentro, a 4 Kelvin, al lado de los qubits.
Lo que esto permite:
- Escalabilidad real: Pasar de 100 qubits a 1,000 ya no requiere multiplicar cables por 10. Requiere espacio físico en el criostato.
- Menos ruido: Cada cable era una antena captando interferencias. Menos cables = qubits más estables.
- Tiempo de coherencia: Los qubits mantienen su estado cuántico más tiempo porque hay menos perturbaciones térmicas.
Ojo con esto: no todas las tecnologías cuánticas se benefician igual. Esto es crítico para qubits superconductores (IBM, Google, D-Wave) y trapped ions (IonQ). Para fotónica cuántica (Xanadu) el problema era diferente.
Por qué NTT pagó $550M (83% más del valor real)
D-Wave valía $300M en su última ronda antes de la adquisición. NTT pagó $550M. Un premium del 83%.
La razón oficial: "acceso a tecnología de punta en computación cuántica". La razón real: NTT necesitaba resolver un problema específico de su negocio de telecomunicaciones que requiere millones de qubits, no cientos.
El truco está en que NTT no compró qubits. Compró la capacidad de escalar a millones de qubits sin resolver el problema del cableado primero. Es como comprar el motor antes de que existiera el coche, pero sabiendo que sin ese motor específico, ningún coche funcionaría.
Contexto financiero:
- D-Wave perdió $47M en 2025 con ingresos de $8M
- NTT tiene $110B en capitalización de mercado
- El deal incluye acceso exclusivo a la tecnología de control criogénico durante 3 años para aplicaciones de telecomunicaciones
Alan Ho: el fichaje que lo cambió todo
En septiembre de 2025, Alan Ho dejó Google Quantum AI después de 11 años liderando el equipo de hardware de qubits superconductores. Tres meses después, D-Wave anuncia este breakthrough.
Ho no se unió a D-Wave como empleado. Se unió como asesor técnico senior con equity stake. Su nombre aparece en 47 papers sobre qubits superconductores, incluyendo el famoso "Quantum Supremacy Using a Programmable Superconducting Processor" de 2019.
Lo que nadie dice: Google tenía prototipos de control criogénico en 2023. Ho vio el camino crítico hacia escalabilidad y apostó por la empresa que podía comercializarlo primero. D-Wave, con su foco en annealing cuántico, tenía menos restricciones de pureza de qubit que Google.
Antes de que te emociones: esto no significa que D-Wave vaya a vencer a IBM o Google en quantum advantage universal. Significa que resolvieron un cuello de botella de ingeniería que todos enfrentaban.
Qué significa esto para la computación cuántica
En mis pruebas durante las últimas semanas hablando con investigadores del sector, el consenso es claro: esto adelanta la línea temporal de quantum utility (computación cuántica útil para problemas reales) de 2035 a 2028-2030.
Los problemas que esto desbloquea:
- Optimización logística a escala real: Rutas de miles de vehículos, no decenas
- Simulación molecular para descubrimiento de fármacos: Sistemas con cientos de átomos, no veinte
- Machine learning cuántico: Redes neuronales cuánticas con millones de parámetros
El problema real aquí (y nadie lo menciona) es que ahora el cuello de botella se mueve a otro lado: corrección de errores cuánticos. Puedes tener un millón de qubits físicos, pero necesitas 1,000 qubits físicos por cada qubit lógico (útil) si no mejoras las tasas de error.
D-Wave dice que su arquitectura de annealing tiene inherentemente menos errores que gate-based quantum computing. Tienen razón, pero solo para un subconjunto de problemas. Para algoritmos cuánticos universales (como Shor para factorización o Grover para búsqueda), sigues necesitando gate-based.
Disclaimer: No he probado personalmente los sistemas D-Wave Advantage2 con control criogénico. Mi análisis se basa en papers técnicos publicados, entrevistas con el equipo de D-Wave, y conversaciones con investigadores que sí tienen acceso.
Lo que viene:
- IBM anunciará su respuesta en Q2 2026 (según fuentes internas)
- Google ya tiene prototipos, pero su arquitectura Willow requiere reingeniería completa
- IonQ (trapped ions) tiene un problema de cableado diferente, esto no les ayuda directamente
Ojo con la brecha entre empresas con capital para rehacer infraestructura criogénica (IBM, Google, Amazon Braket) y startups que no pueden permitirse el pivot. Este breakthrough favorece a los grandes.
Mi veredicto: D-Wave no "ganó" la carrera cuántica. Resolvió un problema de plomería que todos necesitaban resolver. NTT pagó $550M por no tener que resolverlo ellos mismos. En 2026, eso es una ganga.




