X
Alain Clapaud / mercredi 18 décembre 2019 / Thèmes: Dossier, Dev

Suprématie quantique

Google a-t-il vraiment atteint la suprématie quantique ?

Le mystère reste entier. Un article publié sur le site de la NASA fait état de l’avancée majeure obtenue par l’équipe de recherche de Google. Or, le retrait précipité de l’article laisse planer le doute sur un résultat que les experts n’attendaient pas avant plusieurs années.

La photo illustrant l’annonce aujourd’hui retirée par la NASA montre que les calculateurs quantiques restent des machines très complexes à mettre en œuvre, devant notamment être refroidies aux frontières du zéro absolu, ce qui impose une lourde infrastructure pour espérer atteindre la suprématie quantique.

L’article est brièvement apparu sur le site de la NASA avant d’en avoir été retiré sans aucune explication officielle. Titré Quantum supremacy using a programmable superconducting processor, il était signé Google, qui clamait avoir atteint la suprématie quantique en ayant obtenu un résultat en seulement 200 secondes avec son calculateur quantique, contre 10 000 ans avec une machine à l’architecture classique.

Or, si cet article a rapidement été retiré du site de la NASA, celui-ci avait déjà été indexé par les robots de Google. Le cache a permis à tous les experts d’en prendre ainsi connaissance. Pour l’heure aucun porte-parole de Google n’a livré de commentaire quant à cette étonnante fuite d’information, la thèse la plus plausible étant que la NASA a diffusé un peu trop vite un article qui doit encore être sur la table du comité de lecture d’une revue scientifique avant sa publication « officielle ». L’embargo fixé par l’éditeur de la revue expliquant le retrait de l’article et l’absence de tout commentaire des auteurs. Toujours est-il que cette fuite a eu l’effet d’un coup de tonnerre dans la communauté scientifique car beaucoup s’attendaient à ce que cette suprématie quantique ne puisse être atteinte que dans plusieurs années, certains évoquaient même 2030, sinon 2040, preuve du choc de cette annonce.

 

Ce concept de suprématie quantique a été inventé en 2012 par John Preskill, un physicien américain, celle-ci marquant le moment où les calculateurs quantiques réaliseront un calcul au moyen de Qubits et qu’aucun autre ordinateur ne pourrait matériellement réaliser. Le calcul lancé par l’équipe de recherche de Google répond bien évidemment à ce critère, même si on est loin d’approcher l’arrivéed’un calculateur quantique universel capable de réaliser n’importe quel calcul, depuis la simulation d’une protéine jusqu’au crackage cryptographique. Le calcul réalisé, un tirage aléatoire extrêmement complexe, n’avait aucune utilité pratique et reste au stade de la démonstration purement technologique.

Une course au nombre de Qubits, mais surtout une lutte contre les erreurs

Paradoxalement, le calcul réalisé par les chercheurs n’a pas mis en œuvre un nombre extrêmement important de Qubits. Google avait déjà annoncé il y a quelques mois Bristlecone, une puce quantique de 72 Qubits, mais a préféré revenir en arrière lors de cette dernière expérience. « Google a préféré abandonner Bristlecone pour créer Sycamore, une architecture qui compte moins de Qubits, mais dont le taux d’erreur est plus faible. C’est ce qui leur a permis d’atteindre ce régime d’opération et donc d’annoncer cette suprématie quantique », expliquait dernièrement au micro de France Culture Eleni Diamanti, directrice de recherche CNRS au laboratoire de recherche en informatique à Sorbonne Université. « Google et IBM augmentent progressivement le nombre de Qubits de leurs calculateurs quantiques régulièrement, mais au-delà du nombre, tout est une question de qualité de contrôle de ces Qubits. »

Dévoilée en mars 2018, l’architecture Bristlecone de Google était conçue pour supporter jusqu’à 72 Qubits, une puissance que Google espérait suffisante pour atteindre la suprématie quantique en 2018. Celle-ci a été remplacée par Sycamore, une architecture a priori moins puissante avec 53 Qubits, mais sans doute plus stable à exploiter, ce qui aurait permis à Google d’atteindre cette suprématie quantique.

En effet, contrôler et stabiliser l’état de chaque Qubit dans le cryostat dans lequel est plongé le calculateur est très difficile, ce qui explique la grande difficulté des calculateurs quantiques à monter à l’échelle. « Faire travailler entre eux quelques dizaines de Qubits est déjà une prouesse technologique en soi », ajoute la directrice de recherche. Contrairement à la technologie du transistor et du silicium, aujourd’hui très stable et fiable, manipuler des Qubits reste un exercice de haut vol. « Les systèmes quantiques doivent être isolés de leur environnement pour éviter la perte de corrélation. Cela impose un fonctionnement cryogénique, ce qui rend les systèmes très lourds et très complexes afin de protéger les Qubits tout en gardant une capacité de pouvoir interagir avec chacun d’entre eux. L’adressabilité de chaque Qubit sans interaction avec ses voisins est très complexe. »

La roadmap de recherche de Google montre bien le double défi du calcul quantique d’abaisser le taux d’erreur et d’accroître le nombre de Qubits de plusieurs facteurs d’échelle.

Pour Anthony Leverrier, chercheur à l’Inria, « Le taux d’erreur actuellement atteint est à peine inférieur à 1 % par port, ce qui signifie qu’à chaque porte logique on ajoute 1 % d’erreur au calcul, si bien qu’au bout de 100 portes, on n’obtient plus que du bruit en sortie. Dans le cas du calcul de Google, avec 1 000 portes, ils ont obtenu encore un peu de signal, ce qui leur a permis d’obtenir cette suprématie quantique. Cela montre aussi qu’actuellement en calcul quantique, il y a beaucoup trop de bruit pour véritablement délivrer des résultats utiles. Construire à terme un ordinateur quantique universel implique de lutter contre ce bruit, notamment en améliorant les portes. » Ce problème de taux d’erreur est tellement crucial dans le domaine du calcul quantique qu’il existe l’équivalent d’une loi de Moore qui ne porte pas sur le nombre de Qubits, mais sur le taux d’erreur par porte. Cette loi explique que ce taux décroît exponentiellement avec le temps.

Aucune technologie de Qubit ne s’est encore imposée

Augmenter le nombre de Qubits ce n’est pas aussi simple qu’en électronique classique où l’on dispose les transistors les uns à côté des autres et on augmente la taille de la puce et/ou l’on augmente la finesse de gravure. En quantique, il faut protéger l’intégralité des Qubits, mais aussi pouvoir les adresser individuellement en limitant ces interférences au niveau des portes. Une problématique qui reste extrêmement complexe encore aujourd’hui.

Si l’architecture de Sycamore s’appuie sur des supraconducteurs, les chercheurs de Google ont présenté en début d’année une puce CMOS qui porte un Qubit sur 1 mm x 1,6 mm. Celle-ci ne fonctionne qu’en milieu cryogénique par 3° kelvin ambiant, et ne consomme que 2 milliwatts. Un pas de plus vers un meilleur contrôle des Qubits.

Plusieurs technologies de Qubits sont actuellement en lice. Google a fait le choix des Qubits supraconducteurs, une technologie au potentiel intéressant, mais aucune technologie ne s’est véritablement imposée comme ce fut le cas du silicium pour les microprocesseurs à transistors. Chaque approche a ses avantages et ses inconvénients. Outre les supraconducteurs, les chercheurs de Google testent d’autres approches, dont la technologie CMOS. En parallèle, de nombreuses équipes de recherche travaillent sur d’autres technologies de Qubits, notamment en mettant en œuvre un spin dans un semi-conducteur, un atome froid, un photon.

Objectif : 1 million de Qubits

La technique de l’ion piégé a été la première à avoir émergé et celle-ci est toujours développée : une machine à 100 Qubits pourrait bien être dévoilée dans les prochains mois, mais l’architecture à une dimension de cette technologie pose de sérieuses contraintes dans l’interconnexion de chaque Qubit avec ses voisins. Le problème du passage à l’échelle de telles machines reste entier car pour contrer la problématique du taux d’erreur, cela va imposer d’aller vers la mise en place de techniques de correction d’erreurs qui vont nécessiter de multiplier le nombre de Qubits pour fiabiliser le résultat délivré.

Avec Sycamore, le calcul quantique entre dans l’ère du NISQ (pour Noisy Intermediate-Scale Quantum), des machines quantiques au taux d’erreur pas trop élevé, qui n’ont pas encore assez de Qubits physiques pour activer des techniques de correction d’erreur qui nécessitent de disposer de plusieurs centaines voire milliers de Qubits pour pouvoir implémenter des algorithmes évolués mettant en œuvre la correction d’erreur. « Dans cette approche, il faudra plusieurs Qubits physiques pour représenter l’état d’un Qubit logique parfait, l’information de chaque Qubit logique étant répartie sur un millier de Qubits physiques », explique Anthony Leverrier, chercheur à l’Inria. « Pour mettre au point des algorithmes quantiques intéressants, il faudra donc des centaines, des milliers de Qubits logiques parfaits, ce qui fera exploser le nombre de Qubits physiques nécessaires. Atteindre le million de Qubits physiques reste une marche énorme à franchir dont on ne sait d’ailleurs si elle pourra être franchie un jour ! »

Si l’article de Google est finalement accepté par le comité de lecture d’une revue scientifique, alors l’équipe de Google pourra s’enorgueillir d’avoir atteint la suprématie quantique au nez et à la barbe de son grand rival IBM. Ce dernier avait dévoilé son calculateur quantique Q System One en janvier 2019, lors du CES. Outre son design épuré, cette machine de 20 Qubits était censée être plus stable que ses prédécesseurs, ce qui n’aura pas suffi à Big Blue pour décrocher ce titre de suprématie quantique avant Google.

La prochaine étape pour les équipes de recherche sera d’une part d’augmenter le nombre de Qubits, mais surtout de démontrer leur capacité à implémenter ces mécanismes de correction d’erreur. Cela ouvrirait la porte à des algorithmes quantiques plus évolués et constituerait un nouveau jalon vers un calculateur quantique universel qui reste encore du domaine de la science-fiction.

IBM vs Google

Bataille pour la suprématie quantique

Google a-t-il vraiment atteint la suprématie quantique ? Les experts d’IBM réfutent cette allégation, simulation en main, une attaque à laquelle ont déjà répondu les grosses têtes de Mountain View.

Pour immortaliser ce moment clé de l’histoire de l’informatique quantique, Sundar Pichai, le CEO de Google s’est fait prendre en photo devant le calculateur quantique Sycamore.

La fuite a eu lieu sur le site de la NASA. L’annonce de la conquête de la suprématie quantique par Google a sans doute déclenché une tempête dans les couloirs du Watson Research Center de Yorktown Heights. Car IBM, qui mise sur les calculateurs quantiques pour se redonner l’image d’une entreprise innovatrice, s’est vue renvoyé dans ses buts par Google. Un camouflet pour la toute puissante recherche d’IBM par une équipe de chercheurs internationaux rassemblés par Google à Santa Barbara en Californie il y a 13 ans.

Un calcul de 10 000 ans qui ne prendrait finalement que… 2,5 jours ?

Dans la vidéo publiée par Google pour détailler son succès, Marissa Guistina, chercheur au Google Quantum A.I. Lab, rappelle qu’atteindre la suprématie quantique requiert trois étapes : construire les circuits quantiques ; les faire confectionner ; enfin, simuler le même calcul sur un ordinateur d’architecture classique. C’est bien cette troisième étape que les chercheurs d’IBM contestent. L’article de Google explique que le calcul mené en 200 secondes par leur calculateur Sycamore aurait nécessité 10 000 années de calcul. Les chercheurs d’IBM estiment qu’il ne faudrait en fait que 2,5 jours pour le mener à bien avec, de surcroît, des résultats bien plus précis, donc pas de quoi clamer la suprématie quantique tant convoitée. Bien évidemment, les IBMers ont étayé leurs affirmations avec leurs propres simulations montrant qu’avec 53 Qubits et 20 cycles de calcul, la simulation de l’algorithme de Schrödinger-Feynman implémenté par Google pouvait ne délivrer son résultat qu’au bout de 2,5 jours de travail. Ce calcul a même fait l’objet d’un papier de recherche de 39 pages qui a été publié sur l’archive ouverte arXiv de l’université de Cornell pour mieux souligner le sérieux de l’analyse.

Réplique de Google à l’attaque d’IBM : le calculateur quantique configuré à 53 Qubits a bien fonctionné sous régime de suprématie quantique lorsque le calcul était sur 20 cycles.

Bataille de simulations entre équipes de recherche

Face à cette attaque en règle de leur simulation, les chercheurs de Google ont répliqué dans l’article de blog où a été relayé l’article de Nature. Ceux-ci campent sur leur position, le calcul délivré en 200 secondes par Sycamore aurait bel et bien nécessité 10 000 années de calcul au plus puissant supercalculateur. Les Googlers expliquent avoir fait monter progressivement le nombre de Qubits mieux en puissance, passant progressivement de 12 Qubits à 53 Qubits en s’assurant de la performance du calculateur quantique par rapport aux simulations et aux modèles théoriques.

Enfin, en faisant monter le nombre de Qubits jusqu’à 53, cela a permis, selon eux, de passer sous le régime de la suprématie quantique.

IBM qui annonçait en début d’année commercialiser le premier calculateur quantique de classe commerciale conteste vivement la suprématie quantique clamée par Google. Pourra-t-il battre ce dernier dans la course aux machines NISQ ?

IBM mauvais joueur dans la défaite ? Ou Google trop optimiste dans son triomphe ? Seuls les physiciens quantiques peuvent désormais départager IBM et Google dans cette querelle byzantine. Le comité scientifique de lecture du magazine Nature a en quelque sorte tranché la question. L’article qui avait initialement fuité sur le site de la NASA en septembre a bel et bien été publié dans la revue scientifique le 23 octobre dernier dans une version quelque peu modifiée et enrichie d’un encadré titré Demonstrating Quantum Supremacy qui est une réponse directe à l’attaque d’IBM.

IBM va-t-il finalement laisser la victoire de cette bataille à Google, rien n’est moins sûr, mais la prochaine sera certes moins symbolique, mais sûrement bien plus significative dans l’évolution des calculateurs quantiques. Il s’agit maintenant d’être le premier à faire tourner et surtout commercialiser un calculateur quantique de classe NISQ, c’est-àdire disposant d’un nombre suffisant de Qubits pour implémenter des algorithmes de correction d’erreur. Dès lors, le calculateur quantique pourra quitter les labos et ouvrir la voie à des algorithmes véritablement utiles pour la recherche et les entreprises. L’occasion d’une revanche pour IBM ?

 
2189

x
Rechercher dans les dossiers

Actuellement à la Une...
Présenté ce matin en session plénière par Jean-Noël de Galzain, le projet de plateforme communautaire répondant au doux nom de Gallia entend faire vivre l'écosystème cyber. Si ses contours sont encore à définir, le président d'Hexatrust a déjà une idée précise des finalités de ce futur réseau.

Le FIC s'est ouvert hier et attend quelque 13 000 visiteurs. Avant le début des conférences plénières et des visites des ministres et élus, nous avons pu faire le point sur ce qu'est devenu la grand messe lilloise de la cybersécurité avec son organisateur, Guillaume Tissier, directeur général du CEIS.

Depuis l’apparition de la norme DSP2, le secteur bancaire est contraint d’évoluer vers des opérations plus ouvertes vers l’extérieur en suivant un concept relativement nouveau, l’Open Banking. HSBC s’appuie sur la plate-forme de Mulesoft pour créer de nouveaux services et mieux servir ses 38 millions de clients. Article paru dans L'Informaticien n°183.

Les deux associations présentaient aujourd'hui à Lille, à l'occasion de l'édition 2020 du FIC, un Livre Blanc dont l'objectif est de sensibiliser les dirigeants d'entreprise à la cybersécurité, abordant 15 thématiques telles que le BYOD, l'Active Directory, la certification ou encore le cloud. Le tout sans jargon, qu'il soit technique ou marketing.

Annoncée il y a quelques jours, la mise à jour d’Office 365 ProPlus de février installe d’autorité Bing comme outil de recherche par défaut… sur Google Chrome. Tollé général.

Récemment Decathlon s’est réinstallé aux États-Unis. L’entreprise est revenue avec un œil neuf et de nouvelles idées dans ses magasins de San Francisco – et de Montréal – pour réinventer le système informatique de l’entreprise. Le maître mot de cette réinvention : API. Avec l’aide de Mulesoft, la plate-forme d’intégration d’applications de Salesforce. Article paru dans L'Informaticien n°183.

Après avoir frôlé la liquidation, l’opérateur de gros est sur le point d’être sauvé. L’entreprise doit avoir déposé aujourd’hui un plan de continuité, soutenu par un autre opérateur, Altitude Infrastructure, à hauteur de 100 millions d’euros sur cinq ans.

La plateforme de bug bounty vient d’annoncer une nouvelle levée de fonds. Après un tour de table à 1,2 million d’euros en 2017, Yogosha réunit cette fois-ci 2 millions d’euros, qui seront mis à profit pour se développer dans la zone EMEA et continuer à recruter.

Le fournisseur d ’énergie s’est engagé dans une transformation ambitieuse pour devenir un leader dans les énergies propres et se transformer en offreur de services. Pour y parvenir, Engie s’est allié à Accenture, Vlocity et Salesforce en vue de déployer une plate-forme unique de gestion de la relation client qui devient sa priorité stratégique. Article paru dans L'Informaticien n°183.

L’éditeur de solutions de business intelligence crée deux nouveaux services pour aider les entreprises à s’imprégner d’une réelle culture de la donnée.

Toutes les News
LIVRES BLANCS

Le présent guide d'achat vous aidera à améliorer l'efficacité de votre cloud hybride, en mettant l'accent sur les stratégies de gestion des données dédiées aux applications correspondantes.


Les entreprises et les organismes publics se focalisent aujourd’hui sur la transformation numérique. En conséquence, les DevOps et l’agilité sont au premier plan des discussions autour des stratégies informatiques. Pour offrir ces deux avantages, les entreprises travaillent de plus en plus avec les fournisseurs de services de cloud public et développent désormais des clouds sur site à partir d’une infrastructure qui répond à trois exigences de base:
1. Agilité sans friction des ressources physiques
2. Systèmes de contrôle optimisant l'utilisation des ressources physiques et offrant un retour sur investissement maximal
3. Intégration des divers composants de l'infrastructure pour un provisionnement et une gestion des ressources automatisés.


Pour fonctionner, votre entreprise doit pouvoir compter sur une solution de sauvegarde efficace, essentielle dans un monde marqué par une croissance exponentielle des données. Vous devez à la fois accélérer vos sauvegardes et pouvoir y accéder plus rapidement pour satisfaire les exigences actuelles de continuité d’activité, disponibilité, protection des données et conformité réglementaire. Dans cette ère de croissance effrénée, les cibles sur bande hors site et autres approches traditionnelles sont simplement dépassées.


L’Intelligence Artificielle promet de révolutionner la perception de la cybersécurité au coeur des entreprises, mais pas uniquement. Ce changement de paradigme engage, en effet, une redéfinition complète des règles du jeu pour les DSI et les RSSI, ainsi que l’ensemble des acteurs de la sécurité.


Lorsque l'on déploie des postes de travail, ils ont généralement tous la même configuration matérielle et logicielle (avec certaines spécificités selon les services). Mais on ne peut pas toujours tout prévoir et il arrive par exemple que de nouveaux programmes doivent être installés ou n’aient pas été prévus. L’accumulation de logiciels « lourds » est susceptible de provoquer des lenteurs significatives sur un PC allant jusqu’à l’extinction nette de l’application. Ce livre blanc explique comment optimiser les performances au travers de 5 conseils rapides à mettre en place.


Tous les Livres Blancs
0123movie