IBM promet un ordinateur quantique à 50 qubits pour bientôt
Publié par Christophe Lagane le | Mis à jour le
IBM annonce la commercialisation avant la fin de l'année d'un service de calcul quantique à 20 qubits. Suivra la mise à disposition d'un processeur à 50 qubits.
La course à la commercialisation d'un ordinateur quantique se poursuit. Ou plutôt des services que la machine peut rendre en matière de super calculs. En ce sens, IBM vient d'enrichir son projet de systèmes IBM Q de deux initiatives.
La première annonce que le premier système IBM Q disponible en ligne offrira une configuration processeur à 20 qubits (l'équivalent du bit en mode quantique). Big Blue annonce une latence d'accès et de calcul (le « temps de cohérence » dans le jargon d'IBM) de 90 microsecondes pour « des opérations quantiques de haute fidélité ». L'offre devrait être commercialisée avant la fin de l'année et monter en puissance tout au long de 2018.
La deuxième annonce se concentre sur la mise au point d'un prototype de processeur à 50 qubits qui sera proposé dans la prochaine génération de systèmes IBM Q. Sans précision de date. Une offre qui dépassera celle que Google entend lancer avant la fin de l'année avec un système à 49 qubits.
1,7 million d'expérimentations
Ces avancées constituent la troisième génération d'ordinateurs quantiques qu'IBM a initiée depuis mai 2016. Des systèmes à 5 et 16 qubits sont disponibles sous formes expérimentales. Une plate-forme dont plus de 60?000 utilisateurs ont profité pour lancer quelque 1,7 million d'expérimentations et générer 35 publications scientifiques tierces.
Rappelons que, contrairement aux architectures informatiques binaires qui stockent les informations sous forme de 1 ou de 0, les qubits peuvent occuper les deux états à la fois (1 et 0). Qui plus est, un phénomène dit « d'intrication quantique » permet de synchroniser deux qubits placés dans un état de superposition (1 et 0 à la fois). Une action menée sur l'un deux se transmet immédiatement à l'autre.
Autant de propriétés qui décuplent les capacités de calculs dont peuvent tirer les algorithmes capable d'exploiter cette propriété propre au principe de superposition de la physique quantique. Et l'augmentation du nombre de qubits augmente de manière exponentielle la puissance de calcul de par la capacité d'interaction que les qubits génèrent entre eux.
La communauté mise à contribution
Ainsi, en théorie, un système à 200 qubits n'est pas deux fois plus puissant qu'un système à 100 qubits mais 2?200 fois plus. De quoi remiser au rang des antiquités les plus puissants des supercalculateurs d'aujourd'hui. Des capacités très attendues dans le domaine de la recherche pharmaceutique pour la mise au point de nouveaux médicaments, notamment.
Mais l'augmentation du nombre de qubit risque également d'entrainer un plus grand nombre d'erreurs. Car de part leur nature, les qubits sont très instables et sensibles aux perturbations externes (température, champs magnétiques.). Tout le défi pour les chercheurs revient à trouver des système de correction pour limiter le taux d'erreurs. Avec son système à 49 qubits, Google ambitionne d'atteindre une fidélité de calcul de 99,7%. De son côté, IBM ne précise toutefois pas les taux d'erreurs que subissent ses nouveaux systèmes.
L'entreprise d'Armonk espère peut-être que la réponse se trouvera en partie du côté de la communauté. Big Blue annonce ainsi une mise à jour de QISKit (Quantum Information Software Kit), un outil de développement et d'exécution d'applications pour ses ordinateurs quantiques Q Systems ou des simulateurs. QISKit propose désormais des visualisations de l'état du système quantique. Et il s'intègre à IBM Data Science Experience, l'outil de compilation qui relie les expérimentations souhaitées sur le matériel disponible.
Lire également
Intel avance dans l'informatique quantique avec un premier processeur 17-qubit
Faute d'ordinateur quantique, Atos lance un émulateur de qubits
D-Wave livre son système quantique 2000Q à 15 millions de dollars