La correction d'erreurs
# La correction d’erreurs classique en bref
Le calcul sur ordinateur nécessite un support physique : une information initiale est encodée sur un dispositif physique, celui-ci est modifié par application d’une série bien définie d’étapes appelée algorithme et la lecture de l’information du système modifié fournit le résultat du calcul encodé.
La solution classique pour lutter contre les erreurs ainsi introduites est la redondance.
Si on a plusieurs copies de l’information, on peut se permettre d’en perdre une partie. C’est pour cette même raison que l’on fait des sauvegardes sur le « nuage », que l’on a une roue de secours dans nos voitures ou encore que le panneau « STOP » comporte non seulement le mot « STOP » mais aussi une forme spécifique, … L’importance de la redondance est mise en évidence quand on comprime l’information. En effet, la compression supprime la redondance et les erreurs deviennent alors très néfastes.
Prenons, par exemple, cette phrase française, comprimée en supprimant certaines voyelles. On peut encore comprendre le message, parce que la langue présente des redondances et peut donc être comprimée sans perdre le sens :
Ls ordnturs quntqus sont trs pussnts
Mais prenons une deuxième phrase dans laquelle des erreurs ont été introduites après la compression (ici il s’agit de changements de lettres). On voit qu’il devient beaucoup plus difficile de la déchiffrer que dans l’exemple précédent :
Ns qrrus pumnt vndr l phrse lltbl
On peut comparer au cas où les mêmes erreurs sont introduites dans la phrase non comprimée :
Nes eqreurs peument vendre la phrise illitible
On voit ainsi que la redondance nous permet de ne pas perdre d’information, malgré les erreurs. C’est pourquoi, la quantité de redondance à introduire dépend du taux d’erreurs classique à corriger. Bien sûr, ces codes classiques correcteurs d’erreurs déploient tout un art mathématique mais dans le principe, il s’agit de trouver des manières efficaces d’inclure plusieurs fois la même information pour pouvoir se permettre d’en perdre une partie. Rien de plus !
# La correction d’erreurs quantique en bref
Le traitement de l’information quantique ressemble à celui de l’information classique : l’information est aussi encodée sur un système physique, un traitement modifie le système et on termine par la lecture du résultat. Mais l’information quantique en elle-même est différente de l’information classique.
Tout d’abord, copier une information quantique inconnue pour introduire de la redondance, est interdit par le théorème d’impossibilité du clonage quantique.
Ensuite, alors que les erreurs classiques sont d’un seul type (l’inversion de bit), il existe une infinité d’erreurs quantiques parce qu’un bit quantique (qubit) est une superposition continue de l’état « zéro » et de l’état « un », ce qui signifie que l’erreur peut être n’importe quel changement des coefficients de la superposition.
Enfin, quand des systèmes quantiques interagissent avec leur environnement, ils peuvent devenir intriqués avec celui-ci et subir de la décohérence, c’est à dire perdre leurs propriétés quantiques et commencer à évoluer vers un comportement classique. On peut se représenter la décohérence comme une fuite de l’information quantique, qui se disperse dans l’environnement.
Ces différences fondamentales, signifient que la correction d’erreurs quantique ne peut pas fonctionner comme la correction d’erreurs classique et qu’elle doit faire appel à des principes nouveaux.
Voici comment on procède : on place le système quantique à protéger dans un sous-espace d’un plus grand système, qui comporte plus de qubits. L’information quantique est hébergée dans ce sous-espace protégé. En cas d’interaction parasite, l’objectif est que l’information quantique sortant du sous-espace protégé reste dans le grand système. On parle ainsi d’« erreur corrigeable » car l’information quantique est encore disponible : il suffit de la ramener dans le sous-espace protégé.On fait alors une mesure sur le système global pour trouver où est partie l’information (opération appelée détection de syndrome), ce qui nous permet de trouver comment ramener l’information dans le sous-espace protégé (cette opération constitue la correction d’erreurs proprement dite).
La correction d’erreurs quantique consiste à répéter cette opération de détection de syndrome aussi souvent que possible et dès que l’on détecte que l’information a bougé, on la rapatrie dans son sous-espace protégé.
Pour comparer les corrections d’erreurs classiques et quantiques, on pourrait utiliser l’analogie suivante : imaginez que vous allez chercher un paquet de bonbons pour le rapporter chez vous. Le paquet est percé et vous perdez des bonbons sur la route. Comment faire ?
La correction d’erreurs classiques consisterait à acheter plusieurs paquets, pour qu’il reste assez de bonbons, une fois rentré à la maison.
La correction d’erreurs quantiques consisterait plutôt à mettre le paquet percé dans un plus grand paquet : à chaque fois que vous voyez un bonbon sortir, vous le récupérez dans le grand paquet pour le remettre dans le petit.
# Codes topologiques et le futur de la correction d’erreurs quantiques
Il est nécessaire d’aller plus loin. Les erreurs dans les systèmes quantiques sont trop fréquentes pour que l’on ait le temps de réaliser nos algorithmes quantiques. Il faut améliorer la correction d’erreurs pour obtenir un ordinateur quantique tolérant à l’erreur, c’est à dire qui puisse exécuter des algorithmes quantiques, quel que soit le nombre d’étapes. Pour le moment les meilleures stratégies de correction d’erreurs utilisent des codes topologiques, qui utilisent le positionnement géométrique des qubits les uns par rapport aux autres (habituellement sur une surface) pour faciliter la détection de syndrome. De plus, les codes topologiques nous permettent non seulement de protéger l’information mais aussi de réaliser les calculs directement sur l’information protégée, à condition de modifier la façon dont on fait la détection de syndrome. Comme le disait Andrew Steane [1] : « Les ordinateurs quantiques sont des dispositifs qui réalisent de la correction d’erreurs. Le calcul est accessoire ».
Les chercheurs travaillent aussi à améliorer les qubits pour réduire les possibilités d’erreurs. Cela signifie explorer des directions complètement différentes (faire des qubits à partir d’ions, de photons ou de matériaux supraconducteurs, …) et mettre en œuvre les conditions qui permettent de mieux isoler l’information quantique de l’environnement (meilleur vide, températures plus basses, …).
Pour mesurer les progrès, on utilise le théorème du seuil, qui donne le seuil de bruit sous lequel le calcul quantique tolérant à l’erreur est possible. On essaie de faire monter le seuil (de tolérer plus de bruit) avec de meilleurs codes correcteurs et en même temps de faire baisser le niveau de bruit en produisant de meilleurs qubits.
On est encore loin de l’ordinateur quantique tolérant à l’erreur mais beaucoup de chercheurs travaillent sur ces deux aspects complémentaires. En repoussant les limites chacun de son côté, on peut espérer qu’ils se retrouveront un jour au seuil.
Référence
1 Andrew Martin Steane est professeur de physique à l’Université d’Oxford. Il est également membre de l’Exeter College d’Oxford. Ses principaux travaux, à ce jour, portent sur la correction d’erreurs dans le traitement de l’information quantique, y compris les codes Steane. Il a reçu la médaille et le prix Maxwell de l’Institut de physique en 2000.
À retenir
La redondance d’information permet la correction d’erreurs classique.
Elle est impossible avec l’information quantique.
En information quantique on intègre le système quantique dans lequel l’information est encodée dans un système plus grand qui fait écran pour éviter les fuites d’information vers l’environnement. La correction d’erreurs consiste à récupérer l’information qui a fui vers le système écran et à la restituer à son système initial.
Les recherches consistent à protéger les qubits par des codes de plus en plus performants mais aussi à concevoir des qubits qui présentent naturellement moins de fuites vers l’environnement.
Isabelle Zaquine
Professeur à Télécom Paris, responsable de l’équipe « Information Quantique et Applications ». Sa recherche expérimentale porte sur l’étude et l’optimisation de sources de paires de photons fibrées et plus récemment sur le calcul quantique optique utilisant des composants telecom.
Filippo Miatto
Maître de Conférences à Télécom Paris, dans l’équipe « Information Quantique et Applications ». Il développe des outils pour modéliser et optimiser les circuits photoniques quantiques à l’aide du Machine Learning et de l’IA.
Abonné.e à la revue ?
Lis la revue en mode liseuse