Google a-t-il vraiment atteint la suprématie quantique ?

Une course au nombre de Qubits, mais surtout une lutte contre les erreurs
Paradoxalement, le calcul réalisé par les chercheurs n’a pas mis en œuvre un nombre extrêmement important de Qubits. Google avait déjà annoncé il y a quelques mois Bristlecone, une puce quantique de 72 Qubits, mais a préféré revenir en arrière lors de cette dernière expérience. « Google a préféré abandonner Bristlecone pour créer Sycamore, une architecture qui compte moins de Qubits, mais dont le taux d’erreur est plus faible. C’est ce qui leur a permis d’atteindre ce régime d’opération et donc d’annoncer cette suprématie quantique », expliquait dernièrement au micro de France Culture Eleni Diamanti, directrice de recherche CNRS au laboratoire de recherche en informatique à Sorbonne Université. « Google et IBM augmentent progressivement le nombre de Qubits de leurs calculateurs quantiques régulièrement, mais au-delà du nombre, tout est une question de qualité de contrôle de ces Qubits. »

Aucune technologie de Qubit ne s’est encore imposée
Augmenter le nombre de Qubits ce n’est pas aussi simple qu’en électronique classique où l’on dispose les transistors les uns à côté des autres et on augmente la taille de la puce et/ou l’on augmente la finesse de gravure. En quantique, il faut protéger l’intégralité des Qubits, mais aussi pouvoir les adresser individuellement en limitant ces interférences au niveau des portes. Une problématique qui reste extrêmement complexe encore aujourd’hui.
Objectif : 1 million de Qubits
La technique de l’ion piégé a été la première à avoir émergé et celle-ci est toujours développée : une machine à 100 Qubits pourrait bien être dévoilée dans les prochains mois, mais l’architecture à une dimension de cette technologie pose de sérieuses contraintes dans l’interconnexion de chaque Qubit avec ses voisins. Le problème du passage à l’échelle de telles machines reste entier car pour contrer la problématique du taux d’erreur, cela va imposer d’aller vers la mise en place de techniques de correction d’erreurs qui vont nécessiter de multiplier le nombre de Qubits pour fiabiliser le résultat délivré. Avec Sycamore, le calcul quantique entre dans l’ère du NISQ (pour Noisy Intermediate-Scale Quantum), des machines quantiques au taux d’erreur pas trop élevé, qui n’ont pas encore assez de Qubits physiques pour activer des techniques de correction d’erreur qui nécessitent de disposer de plusieurs centaines voire milliers de Qubits pour pouvoir implémenter des algorithmes évolués mettant en œuvre la correction d’erreur. « Dans cette approche, il faudra plusieurs Qubits physiques pour représenter l’état d’un Qubit logique parfait, l’information de chaque Qubit logique étant répartie sur un millier de Qubits physiques », explique Anthony Leverrier, chercheur à l’Inria. « Pour mettre au point des algorithmes quantiques intéressants, il faudra donc des centaines, des milliers de Qubits logiques parfaits, ce qui fera exploser le nombre de Qubits physiques nécessaires. Atteindre le million de Qubits physiques reste une marche énorme à franchir dont on ne sait d’ailleurs si elle pourra être franchie un jour ! » Si l’article de Google est finalement accepté par le comité de lecture d’une revue scientifique, alors l’équipe de Google pourra s’enorgueillir d’avoir atteint la suprématie quantique au nez et à la barbe de son grand rival IBM. Ce dernier avait dévoilé son calculateur quantique Q System One en janvier 2019, lors du CES. Outre son design épuré, cette machine de 20 Qubits était censée être plus stable que ses prédécesseurs, ce qui n’aura pas suffi à Big Blue pour décrocher ce titre de suprématie quantique avant Google. La prochaine étape pour les équipes de recherche sera d’une part d’augmenter le nombre de Qubits, mais surtout de démontrer leur capacité à implémenter ces mécanismes de correction d’erreur. Cela ouvrirait la porte à des algorithmes quantiques plus évolués et constituerait un nouveau jalon vers un calculateur quantique universel qui reste encore du domaine de la science-fiction.
IBM vs Google
Bataille pour la suprématie quantique Google a-t-il vraiment atteint la suprématie quantique ? Les experts d’IBM réfutent cette allégation, simulation en main, une attaque à laquelle ont déjà répondu les grosses têtes de Mountain View.
Un calcul de 10 000 ans qui ne prendrait finalement que… 2,5 jours ?
Dans la vidéo publiée par Google pour détailler son succès, Marissa Guistina, chercheur au Google Quantum A.I. Lab, rappelle qu’atteindre la suprématie quantique requiert trois étapes : construire les circuits quantiques ; les faire confectionner ; enfin, simuler le même calcul sur un ordinateur d’architecture classique. C’est bien cette troisième étape que les chercheurs d’IBM contestent. L’article de Google explique que le calcul mené en 200 secondes par leur calculateur Sycamore aurait nécessité 10 000 années de calcul. Les chercheurs d’IBM estiment qu’il ne faudrait en fait que 2,5 jours pour le mener à bien avec, de surcroît, des résultats bien plus précis, donc pas de quoi clamer la suprématie quantique tant convoitée. Bien évidemment, les IBMers ont étayé leurs affirmations avec leurs propres simulations montrant qu’avec 53 Qubits et 20 cycles de calcul, la simulation de l’algorithme de Schrödinger-Feynman implémenté par Google pouvait ne délivrer son résultat qu’au bout de 2,5 jours de travail. Ce calcul a même fait l’objet d’un papier de recherche de 39 pages qui a été publié sur l’archive ouverte arXiv de l’université de Cornell pour mieux souligner le sérieux de l’analyse.
Bataille de simulations entre équipes de recherche
Face à cette attaque en règle de leur simulation, les chercheurs de Google ont répliqué dans l’article de blog où a été relayé l’article de Nature. Ceux-ci campent sur leur position, le calcul délivré en 200 secondes par Sycamore aurait bel et bien nécessité 10 000 années de calcul au plus puissant supercalculateur. Les Googlers expliquent avoir fait monter progressivement le nombre de Qubits mieux en puissance, passant progressivement de 12 Qubits à 53 Qubits en s’assurant de la performance du calculateur quantique par rapport aux simulations et aux modèles théoriques. Enfin, en faisant monter le nombre de Qubits jusqu’à 53, cela a permis, selon eux, de passer sous le régime de la suprématie quantique.