Alors que les promesses se multiplient autour de l’informatique quantique — perspectives industrielles, course internationale, levées de fonds record — la réalité reste souvent floue pour le grand public. De quoi parle-t-on exactement ? Comment fonctionnent ces mystérieux ordinateurs quantiques ? Et que permettent-ils vraiment ? Loin des mythes, cet article propose une plongée concrète dans cette technologie émergente, pour en décrypter les mécanismes, les cas d’usage, les défis, et les avancées réelles.
Contrairement aux ordinateurs classiques qui manipulent des bits (0 ou 1), les ordinateurs quantiques utilisent des qubits, qui peuvent exister dans plusieurs états simultanément grâce à deux principes fondamentaux de la mécanique quantique : la superposition et l’intrication.
« Un bit classique, c’est zéro ou un. Un qubit, c’est zéro et un à la fois. », explique Olivier Ezratty.
Cette capacité à explorer plusieurs états en parallèle permet à certains algorithmes d’envisager un très grand nombre de solutions en même temps, ce qui ouvre la voie à une résolution plus rapide de problèmes complexes.
Une machine physique extraordinairement complexe
Dans la pratique, un ordinateur quantique est un système matériel très sophistiqué. Par exemple, les qubits supraconducteurs sont contenus dans des processeurs refroidis à des températures proches du zéro absolu (environ 15 millikelvins), grâce à de l’hélium liquide. Des signaux micro-ondes sont envoyés via des câbles coaxiaux, puis amplifiés et traités par des calculateurs classiques. Ces signaux contrôlent les états des qubits.
Chaque élément — cryogénie, électronique, contrôle, informatique — joue un rôle fondamental dans le fonctionnement de l’ensemble.
Par ailleurs, d’autres technologies de qubits existent :
ions piégés manipulés par des lasers,
qubits photoniques qui utilisent la lumière,
spins dans les semi-conducteurs, etc.
Chaque approche repose sur une physique différente, avec ses propres contraintes et défis industriels.
Ce que l’informatique quantique permet vraiment
Loin d’accélérer tous les types de calculs, l’informatique quantique s’attaque à des problèmes très ciblés, complexes et souvent inaccessibles aux ordinateurs classiques, même les plus puissants.
« Il y a trois grandes classes de cas d’usage : la simulation de la matière, la résolution de systèmes d’équations linéaires ou différentielles, et l’optimisation. », rapporte Olivier Ezratty.
Elle peut soit résoudre ces problèmes plus rapidement, soit les rendre accessibles là où les moyens classiques échouent. Par exemple, simuler un catalyseur chimique ou une molécule thérapeutique complexe devient possible. Les méthodes conventionnelles atteignent rapidement leurs limites dès que la structure moléculaire dépasse quelques dizaines d’électrons.
« Si on sait simuler les molécules et les réactions chimiques, on va pouvoir inventer des médicaments, inventer des catalyseurs chimiques plus rapidement. », soutient Olivier Ezratty.
Mais cette puissance ne concerne qu’un nombre restreint d’applications. Les usages quotidiens — streaming vidéo, retouche photo, e-mails — ne sont ni concernés ni améliorés.
« Le jour où on aura un ordinateur quantique utile, les premiers cas d’usage ne seront pas dans le transport, dans la logistique ou dans les réseaux. », tranche Olivier Ezratty.
Où en est-on aujourd’hui ?
Actuellement, environ une centaine de machines quantiques ont été construites dans le monde. Certaines, comme celles d’IBM ou de D-Wave, sont accessibles via le cloud. Mais aucune ne dépasse encore les performances des ordinateurs classiques pour des tâches concrètes. Ces systèmes restent expérimentaux, réservés à la recherche.
Leur principal défaut : le nombre limité de qubits et un taux d’erreur encore trop élevé.
« On sait faire des machines avec quelques centaines de qubits physiques, mais pas encore des machines à qubits corrigés, qui sont les seuls qui permettent de faire de vrais calculs. », rapporte Olivier Ezratty.
Pour franchir cette étape, il faudrait des machines dotées de centaines de milliers, voire de millions, de qubits corrigés. Or, aucune technologie actuelle ne permet d’atteindre un tel niveau.
« Le quantique, c’est un accélérateur. Ce n’est pas un ordinateur en soi.”, affirme Olivier Ezratty.
C’est pourquoi, aujourd’hui, l’approche dominante est celle de l’hybridation : associer des processeurs classiques (CPU, GPU) à des QPU (quantum processing units) pour accélérer certaines tâches très spécifiques.
Une technologie, 30 approches en concurrence
Il n’existe pas un ordinateur quantique, mais des dizaines de variantes. À l’échelle mondiale, plus de 30 approches technologiques sont explorées, regroupées en 7 à 8 grandes familles.
« On regroupe ces approches dans huit grandes familles : les supraconducteurs, les qubits photoniques, les atomes neutres, les ions piégés, les qubits topologiques, les spins, les boîtes quantiques et l’analogue quantique. », détaille Olivier Ezratty.
Chacune de ces filières repose sur des principes physiques différents et implique des chaînes de valeur spécifiques.
En France, six de ces filières sont actives, avec un mélange d’acteurs publics, privés et académiques. Cette diversité est une force, mais aussi un frein, car il n’existe pas encore de consensus sur la meilleure voie technologique. Certaines approches offrent une grande vitesse, mais une faible fidélité, tandis que d’autres sont plus stables mais plus lentes à mettre en œuvre.
« Il y a un compromis entre la vitesse, la fidélité, la scalabilité, et la durée de vie des qubits. », ajoute Olivier Ezratty.
Les principaux freins au développement
Les obstacles à surmonter sont multiples : scientifiques, technologiques et industriels.
« Le plus gros problème du quantique aujourd’hui, c’est la correction d’erreurs. », affirme Olivier Ezratty.
Les qubits sont extrêmement sensibles à leur environnement, ce qui provoque du bruit et des erreurs. Pour créer un seul qubit logique, il faut entre 1 000 et 10 000 qubits physiques.
Autre limite : l’intrication. Aucun acteur n’a encore réussi à intriquer plusieurs centaines de qubits de manière stable et fiable. Il en faudrait plusieurs milliers pour des performances réellement utiles.
Les défis d’ingénierie sont également colossaux : cryogénie extrême, stabilité des lasers, câblage complexe, électronique à haute fréquence, logiciels de contrôle… Chaque processeur nécessite entre 12 et 18 mois pour être conçu, testé et validé. Ces cycles ralentissent fortement l’innovation.
Enfin, le manque de standardisation et la fragmentation des écosystèmes freinent l’industrialisation. Transformer un prototype de laboratoire en machine fiable, reproductible et rentable représente un effort immense.
À lire aussi : Les 10 géants de l’informatique quantique qu’il faut absolument connaître

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits