IBM vient de simuler le plus grand ordinateur quantique à ce jour : voici ce que cela signifie pour le domaine

Google était en pôle position pour gagner la course à la suprématie quantique, le point auquel un ordinateur quantique peut faire des choses qu’un ordinateur conventionnel ne peut pas faire. Mais IBM semble avoir tiré le tapis de leurs rivaux en réalisant la plus grande simulation d’un ordinateur quantique à ce jour.

On avait longtemps supposé que la simulation de plus de 49 qubits-l’équivalent en informatique quantique des bits numériques utilisés dans les ordinateurs standards-était presque impossible à cause de la quantité colossale de mémoire qu’elle nécessiterait. Mais en utilisant des raccourcis mathématiques intelligents, le groupe a pu simuler une machine de 56 qubits/semaine en utilisant seulement 4,5 téraoctets de mémoire plutôt que l’exabyte (un million de téraoctets) que les approches précédentes auraient nécessité.

Cela signifie que le processeur de 49 qubits que Google prévoit de dévoiler avant la fin de cette année ne prendra pas la couronne de la suprématie quantique, et il pourrait prendre plus de temps que certains ont prédit pour les ordinateurs quantiques à dépasser leurs cousins conventionnels. Les chercheurs d’IBM disent qu’ils ne connaissent toujours pas les limites du nombre de qubits que leur approche pourrait simuler.

Ils s’efforcent de dire que leurs conclusions n’ont aucunement remis en cause la quête d’ordinateurs quantiques pratiques, ce qui n’est pas surprenant car IBM est également l’un des principaux acteurs de la course. L’entreprise a déjà construit un processeur de 17 qubits/s et prévoit atteindre 50  » dans les prochaines années.

Considérant que l’équipe derrière cette avancée n’a été mise en place que cette année, après que Google a annoncé son objectif de suprématie quantique, il est difficile de croire que la recherche n’ a pas été au moins en partie motivée par un désir de prendre de l’avance sur son rival. Néanmoins, la nouvelle a fait éclater une bulle d’engouement autour de l’informatique quantique qui s’est transformée en une véritable fièvre cette année.

Pour être clair, le fait qu’il ne représenterait plus l’accomplissement de la suprématie quantique ne signifie pas que la construction d’un processeur de 49 qubits-quittes n’est rien d’autre qu’un exploit incroyable de l’ingénierie. « Tout système avec beaucoup de qubits vaut la peine, parce que pour arriver à 1 000 ou 1 000 000 000 qubits, nous devons d’abord en traiter 100 « , a déclaré Christopher Monroe, professeur à l’Université du Maryland qui étudie la théorie de l’information quantique, a déclaré au MIT Tech Review.

En fait, il a été souligné que la simulation d’ordinateurs quantiques de plus grande taille pourrait en fait être inestimable pour le développement continu de la technologie. Il est possible de simuler des circuits de 49 qubits à l’aide d’un ordinateur classique est une condition préalable à l’expérience de la suprématie quantique planifiée de Google, car « c’est la seule façon que nous connaissons de vérifier les résultats d’une telle expérience « , a récemment souligné Scott Aaronson, directeur du Quantum Information Center de l’Université du Texas à Austin, dans un article paru sur le blog.

Robert Wisnieff, l‘un des auteurs principaux de l’étude IBM, a expliqué à l’IEEE Spectrum que ces simulations pourraient aider les chercheurs à prendre une longueur d’avance sur le développement des applications les mieux adaptées aux dispositifs et aider à étudier comment et pourquoi les erreurs se glissent dans les ordinateurs quantiques – un problème en suspens pour la technologie. Ils sont également un milliard de fois plus lents qu’un véritable ordinateur quantique, donc la vraie affaire est susceptible d’avoir des avantages majeurs de vitesse.

Mais ce que l’annonce peut faire, c’est injecter une dose de réalisme dans la conversation autour des ordinateurs quantiques. La suprématie quantique a été présentée (principalement par Google) comme un jalon majeur pour la technologie, mais en réalité c’est un jalon assez technique. Le plan de Google pour atteindre la suprématie implique d’obtenir de leur processeur de produire une sortie aléatoire qu’un supercalculateur ne pouvait pas prévoir – une tâche avec peu d’applications pratiques évidentes. Faire en sorte que les ordinateurs quantiques résolvent mieux les problèmes du monde réel que les ordinateurs conventionnels sera un défi beaucoup plus grand.

Dans The Conversation, Michael Biercuk, professeur de technologie quantique à l’Université de Sydney, affirme que les machines actuelles représentent un progrès considérable pour les chercheurs qui travaillent sur les fondements de la technologie, mais qu’elles ne sont « guère plus que des jouets d’un point de vue pratique ».

Il souligne qu’on ne sait même pas encore quel type de matériel est le plus susceptible d’être le plus viable. Les qubits supraconducteurs préférés par Google et IBM sont rapides mais sujets aux erreurs, tandis que les qubits ioniques piégés – le principal concurrent – sont relativement résistants aux erreurs mais relativement lents.

La propension des ordinateurs quantiques aux erreurs pourrait même constituer un obstacle fondamental au progrès. La plupart des schémas de correction de ces erreurs exigent que l’ordinateur ait des qubits supplémentaires dédiés à cette tâche, mais certaines prédictions suggèrent que l’effort requis pourrait être exponentiellement mis à l’échelle, avec le nombre de qubits effectivement plus important pour que ces ordinateurs quantiques corrigent des erreurs pratiques.

« Nous sommes encore confrontés à de nombreuses questions fondamentales sur la façon de construire, d’exploiter ou même de valider les performances des systèmes à grande échelle qui seront effectifs demain », écrit Biercuk.

En fin de compte, l’approche des poteaux de but d’IBM peut en fait rendre le terrain plus bénéfique que nuisible.

La réalisation de la suprématie quantique peut avoir simplement contribué à ajouter à des attentes déjà exagérées, malgré le fait que même les plus ardents défenseurs de la technologie comme Google pensent qu’il faudra au moins une décennie avant qu’il y ait des applications pratiques.

Simon Benjamin, professeur de technologies quantiques à l’Université d’Oxford, a déclaré à Bloomberg qu’un si long délai avant que la technologie ne donne un rendement utile pourrait voir les investisseurs, absorbés par le battage médiatique actuel, renoncer, ce qui pourrait créer un contrecoup qui finit par entraver le développement de la technologie.

M. Biercuk met en garde contre l’arrivée récente de grands acteurs technologiques et de capital-risque dans le domaine comme un signe d’accélération des améliorations technologiques. « Au lieu de cela, dit-il, il s’agit en fait d’une réponse aux progrès récents dans un domaine qui progresse de façon constante mais modeste. »

Il ne fait aucun doute que si et quand les ordinateurs quantiques pratiques seront aboutis, ils transformeront tout, de la cybersécurité au trading financier. Mais nous devrions prendre le calendrier révisé de la suprématie quantique comme un signe que nous ne devrions pas nous laisser emporter tout de suite.

1 commentaire sur “IBM vient de simuler le plus grand ordinateur quantique à ce jour : voici ce que cela signifie pour le domaine”

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.