Pour rester maitre du calcul de haute performance Atos parie sur le NISQ
Santa Fe, novembre 1994, 35e Symposium de l’IEEE : Peter Shor révolutionne l’informatique
Pour la première fois, est démontrée la capacité d’accélération exponentielle du calcul quantique. Avec une complexité polynomiale, son algorithme quantique de factorisation pulvérise l’équivalent classique, le GNFS, à complexité sous-exponentielle. Conséquence immédiate, les algorithmes cryptologiques asymétriques étant basés sur des fonctions trappe (faciles à calculer dans un sens et très difficiles dans l’autre), Shor montre la voie de leur décryptement, notamment du fameux RSA. Il manque « seulement » l’ordinateur quantique pour l’exécuter, ce qui relativise l’exploit, mais qui lance la course au calcul quantique, suscitant partout l’intérêt des services de sécurité et du monde académique. Parallèlement, l’industrie et la recherche aspirent à toujours plus de capacité de calcul, habitués à la loi de Moore qui leur procure un doublement de puissance tous les 18 mois. Or, ce rythme ralentit et va s’arrêter car la densification des puces ne peut plus suivre. Et si le calcul quantique prenait la relève ?
L’investissement d’Atos dans les technologies quantiques répond à une logique industrielle
C’est en raison de ces deux disruptions, l’une relative au calcul et l’autre à la cybersécurité que Thierry Breton a lancé en 2016 le program Atos Quantum [1] afin de préserver la position d’Atos en tête sur ces deux marchés. Deux axes concernent le calcul. Le premier consiste à offrir une plateforme de programmation quantique, permettant de développer, d’optimiser et de simuler l’exécution d’algorithmes quantiques de façon ultraréaliste. C’est la Quantum Learning Machine (Atos QLM), sans égale, vendue dans le monde entier (USA, Europe, Inde, Asie) aux universités, centres de recherche publics et industriels.
Le second axe vise à réaliser un accélérateur quantique doté de qubits (les qubits ou quantum bits sont les équivalents des bits classiques) qui pourrait s’insérer dans une architecture HPC comme le fait un accélérateur GPU pour inférer ou entrainer des données. C’était très exploratoire, on s’interrogeait alors sur les perspectives amenées par ces ordinateurs quantiques que l’on imaginait similaires aux machines classiques à logique booléenne. Or les algorithmes quantiques sont probabilistes et la correction d’erreurs des qubits est ruineuse, parce qu’il est physiquement impossible de dupliquer un qubit en cours de calcul. Il faudrait disposer d’au moins 1000 qubits physiques pour produire un seul qubit corrigé. Exécuter Shor pour décrypter un RSA à 1024 bits par exemple, requiert plus de 1000 qubits parfaits, soit plus d’un million de qubits physiques. On en était loin, faudra-t-il attendre encore 20 ans ?
Mountain View, décembre 2017, à la 1re conférence Q2B, John Preskill rapproche l’échéance
Lors de cette conférence californienne (où je présentais l’Atos QLM), le professeur Preskill du Caltech introduisit [2] pour la première fois le concept de NISQ [3] (Noisy-Intermediate Scale Quantum) qui qualifie un système quantique formé de 50 à 100 qubits physiques sans correction d’erreurs. Selon lui, ces accélérateurs NISQ étaient sur le point de déboucher et certaines applications pouvaient prétendre à la suprématie quantique (ce qui signifie simplement que leurs équivalents classiques ne peuvent tourner sur les HPC les plus puissants).
Les hardwares quantiques progressent en effet, on est passé de 2017 à 2020 de quelques qubits à quelques dizaines (IBM et Google à 53, Intel à 49, Rigetti à 28). Atos participe au projet européen AQTION [4] pour développer un prototype de 50 qubits à base d’ions piégés. Fin 2019, Google a annoncé avoir atteint pour la première fois la suprématie quantique avec son architecture SYCAMORE de 53 qubits supraconducteurs. L’application choisie d’échantillonnage aléatoire de circuits n’est certes pas représentative, ni très utile, mais elle montre bien que l’on s’approche de l’objectif.
On sait que toutes les applications ne sont pas accélérables en informatique quantique. C’est pour cela que l’on ne parle plus d’ordinateur quantique universel, mais plutôt d’accélérateur quantique, véritable coprocesseur d’un système classique. L’enjeu industriel est maintenant de trouver les applications utiles qu’un système NISQ puisse accélérer. On sait que l’algorithme de Shor est allergique au bruit quantique (ce qui est une bonne nouvelle pour notre cybersécurité), mais les chercheurs ont trouvé de nouveaux algorithmes NISQ-compatibles.
Les accélérateurs et applications NISQ arrivent à très court terme : Atos entre dans la course
Comment ça marche ? Un registre de n qubits, initialisés à 0, évolue séquentiellement sous l’action de portes quantiques jusqu’à la fin de la phase de calcul où il est mesuré : si l’algorithme est efficace, c’est la bonne réponse qui ressort parmi les 2n possibles. Sans correction d’erreur, le bruit quantique perturbe les qubits, les portes, ainsi que la mesure, et s’il est trop important, ce n’est plus la bonne solution qui ressort, noyée dans le bruit. Pour en réduire les effets, l’approche NISQ cherche, côté matériel, à privilégier des qubits plus stables et plus rapides, mais surtout, côté logiciel, à diminuer le nombre d’opérations, de portes quantiques et le temps d’inoccupation des qubits, afin d’éviter la propagation du bruit. Une solution pragmatique consiste à réduire la partie quantique au strict nécessaire, comme le font les algorithmes hybrides : une partie classique tourne sur le HPC, et la partie quantique minimisée sur le coprocesseur quantique.
Parmi les algorithmes hybrides, les algorithmes variationnels sont les plus prometteurs pour le NISQ. Ils procèdent d’une double optimisation, l’une quantique et l’autre classique. Ainsi, QAOA [5] (Quantum Approximate Optimization Algorithm) permet de résoudre des problèmes d’optimisation combinatoire classique (tel MaxCut) tandis que VQE [6] (Variational Quantum Eigensolver) s’applique à la chimie quantique avec la recherche de minimums d’énergie, essentielle pour la simulation d’orbitales électroniques par exemple.
Le NISQ constitue à n’en pas douter le terrain de jeu quantique de ces prochaines années. Il requiert une interaction vive entre hardware et software, entre physiciens et mathématiciens. Le moment est venu comme l’a souligné Paula Fortezza dans son rapport [7], et c’est pourquoi Atos a annoncé au marché la conception et la commercialisation d’un accélérateur NISQ en 2023, et a engagé les partenariats technologiques nécessaires.
Références
7 https://forteza.fr/wp-content/uploads/2020/01/A5_Rapport-quantique-public-BD.pdf
Philippe DULUC
Diplômé de l’École polytechnique,
Philippe Duluc a débuté comme ingénieur de l’Armement au ministère de la Défense et dans les services du Premier ministre. Après 20 ans au service de l’État, il a rejoint le secteur privé, d’abord en charge de la sécurité groupe d’Orange, puis responsable des activités de cybersécurité de Bull. Il est maintenant directeur technique de la division Big Data & Security d’Atos. Ancien conseiller auprès de l’Agence européenne chargée de la sécurité des réseaux et de l’information, il s’intéresse particulièrement aux domaines scientifiques et techniques de la transformation numérique: cryptographie, cyberdéfense, informatique avancée, big data, intelligence artificielle et technologies quantiques.
Abonné.e à la revue ?
Lis la revue en mode liseuse