Pour gérer vos consentements :

Ordinateur quantique : IBM fait une percée

Publié par La rédaction le | Mis à jour le

Les chercheurs d'IBM sont parvenus à mettre au point un algorithme complet de détection d'erreurs pour l'informatique quantique. Un problème central car le qubit - l'équivalent quantique du bit - est très fragile.

Mise à jour à 16h15, avec les commentaires de Mazyar Mirrahimi

IBM est-il à l'origine d'une percée décisive dans la construction du premier ordinateur quantique universel ? Il est certes encore trop tôt pour l'affirmer, mais, dans une publication parue le 29 avril dans la revue scientifique Nature, Big Blue décrit un mécanisme de détection d'erreur plus complet que tout ce qui a été imaginé jusqu'à présent. Un mécanisme testé en laboratoire, avec succès, assurent les chercheurs. Or la correction d'erreur est un sujet clef dans le domaine, les ordinateurs quantiques étant particulièrement sensibles aux erreurs.

Dans les machines classiques, les bits peuvent être victimes d'une erreur d'inversion (le 0 devenant un 1 ou vice-versa). Une problématique prise en charge depuis longtemps. Sur les systèmes quantiques, basés sur des qubits (qui peuvent avoir la valeur 0, 1 ou les deux à la fois, état dit de superposition dont découlera la puissance de calcul de ces systèmes), les types d'erreurs possibles sont plus nombreux. Et les qubits se montrent très sensibles aux éléments extérieurs (chaleur, radiations électromagnétiques.). « Réaliser un ordinateur quantique tolérant aux erreurs est un défi important nécessitant le codage de l'information dans un code de correction d'erreurs quantiques », écrivent les chercheurs à l'origine de la publication dans Nature.

Bientôt des systèmes programmables ?

Grâce à un nouveau design basé non plus sur une structure linéaire, mais sur un circuit carré d'environ 6 millimètres de côté embarquant 4 qubits (voir photo ci-contre), les chercheurs d'IBM du centre de recherche Watson de Yorktown Heights (état de New York) sont parvenus à mettre en place un « algorithme complet » de détection simultanée de deux types d'erreurs sur un qubit : l'inversion de bit (le passage de 0 à 1), mais aussi - et surtout - l'inversion de phase (le passage de 0 + 1 en 0 - 1 par exemple). Jusqu'à présent, les résultats de recherche se limitaient à détecter l'un ou l'autre de ces deux types d'erreurs, jamais les deux en même temps, assure Big Blue. Pour parvenir à ce résultat, les chercheurs utilisent 2 qubits (sur les 4 que renferme le circuit) pour détecter les erreurs, l'un étant dédié à l'inversion de bit, l'autre à l'inversion de phase.

Au-delà de ce résultat, le circuit d'IBM, qui peut être mis au point via les techniques de fabrication employées avec le silicium assure le groupe, ouvre la voie à la conception de systèmes plus larges. « Une fois que les qubits supraconducteurs pourront être produits de façon fiable et répétée, et qu'ils pourront être contrôlés avec de faibles taux d'erreur, il n'y aura plus d'obstacle fondamental à démontrer l'efficacité de la correction d'erreurs sur des treillis (des circuits, NDLR) de qubits plus importants », assure Big Blue dans un communiqué. Autrement dit d'augmenter le nombre de qubits afin d'arriver à un système programmable. Le site Engineering.com estime que cette barrière sera franchie dès qu'on sera en mesure de concevoir des systèmes embarquant entre 13 et 17 qubits. Dans son communiqué, IBM indique par ailleurs que si un ordinateur renfermant seulement 50 qubits pouvait être conçu, il dépasserait les capacités du plus puissant supercalculateur au monde. Affirmation probablement limitée à quelques algorithmes particuliers.

IBM face à Google

Dans leur publication, les chercheurs signalent toutefois que l'augmentation de la taille des circuits (au-delà de 4 qubits donc) nécessiterait « d'importantes études » portant notamment sur de nouveaux codes de correction d'erreurs. Dans une interview récente sur Silicon.fr, Mazyar Mirrahimi, un chercheur qui dirige l'équipe Quantic commune au CNRS, à l'Inria et à trois écoles françaises, signalait en effet que la question de la 'scalabilité' - autrement dit de l'augmentation du nombre de qubits embarqués dans un système - porte, en elle-même, ses propres problématiques de correction d'erreurs. Du fait de l'apparition de « bruits corrélés, qui peuvent affecter plusieurs qubits à la fois ». Un sujet sur lequel IBM ne s'étend guère pour l'instant.

Interrogé par mail sur cette publication, le chercheur de l'Inria y voit avant tout «  la preuve de principe de la possibilité d'effectuer deux mesures de syndrome (façon de détecter les erreurs, NDLR) simultanées ». Bref, une « étape très préliminaire ». Et de remarquer que, dans cette expérience, comme dans trois autres menées récemment (deux par l'université de Yale, une par l'université de Californie travaillant avec Google), il n'est question que de détection d'erreurs. Et non de correction.

Jerry Chow, chercheur chez IBM, lors d'une expérience au centre de recherche de Yorktown Heights.

Le système mis au point par Big Blue apparaît toutefois comme une étape supplémentaire dans la mise au point d'un code de correction d'erreurs. Un sujet sur lequel la société américaine, qui travaille sur l'informatique quantique depuis 30 ans, semble bien positionnée, aux côtés notamment de Google. Mountain View, associé à l'université de Californie, avait récemment laissé entrevoir l'avancée de ses travaux, via une publication démontrant la faisabilité d'un algorithme de détection d'inversion de bits sur un système renfermant 9 qubits. Google assurait alors travailler sur la correction de l'autre type d'erreurs (l'inversion de phase) ainsi que sur un mécanisme de détection d'erreurs sur plus de 9 qubits.

De son côté, Microsoft travaille sur une piste différente basée sur la découverte, en 2012, d'une particule appelée fermion de Majorana, confirmant des équations datant de 1937 supputant l'existence d'une telle particule. Sur ce fondement théorique, Redmond tente de mettre au point un qubit dit topologique qui devrait, selon la théorie, être plus fiable et mieux adapté à la production de masse que ceux conçus avec d'autres approches. Via les Bell Labs tombés dans son giron à la faveur du rachat de Lucent, Alcatel-Lucent travaille sur une approche similaire, mais basée sur un matériau différent.

A lire aussi :

Mazyar Mirrahimi, Inria : « Un ordinateur quantique dans dix ans ? Impossible de l'affirmer »

Crédit photo : IBM

La rédaction vous recommande