Jamais l’informatique quantique n’avait progressé si vite que ces dernières années ; entre la puce Willow de Google, celle de Microsoft (Majorana 1) et le projet QuNorth ; le domaine avance à toute vapeur. Cette fois, ce sont des physiciens du California Institute of Technology (Caltech) qui ont annoncé qu’un autre record vient de tomber grâce à un nouveau dispositif expérimental, qui fera certainement office de référence pour les prochaines années.
Cette équipe est parvenue à créer un réseau de 6 100 qubits, un saut colossal par rapport aux processeurs actuels, qui plafonnaient autour d’un millier de qubits. Leur étude a été publiée dans la revue Nature, la semaine dernière, le 24 septembre. Une réalisation qui surpasse de loin les prototypes de Google et d’IBM, pourtant leaders du secteur sur d’autres types d’architectures quantiques.
Le secret de l’avance de Caltech
Pour saisir toute l’importance de ce pas de géant, il faut d’abord comprendre la principale difficulté à laquelle se confronte le calcul quantique : la fragilité des qubits, l’unité de base de l’information en informatique quantique. Dans l’informatique classique, les bits n’existent que sous la forme de 0 ou de 1 (système binaire). Ce n’est pas le cas des qubits, qui, par le principe de la superposition quantique, peuvent exister dans une combinaison d’états 0 et 1, représentés par un éventail de probabilités. C’est ce principe qui leur confère un potentiel extraordinaire pour nous permettre d’effectuer très rapidement des opérations mathématiques complexes.
Malheureusement, ce potentiel a un revers : les qubits sont très instables et la moindre perturbation (vibration mécanique, chaleur, champs électromagnétiques parasites, etc.) peut leur faire perdre leur cohérence et interrompre le calcul. C’est comme si l’on tentait de faire tenir un château de cartes au milieu d’un courant d’air.
D’où l’intérêt de multiplier les qubits pour mettre en place des mécanismes de correction d’erreurs : si certains perdent leur cohérence, d’autres servent de « filet de sécurité ». Pour reprendre l’image du château de cartes, cela reviendrait à en construire un grand avec des étais supplémentaires (les qubits de vérification), garantissant que si une carte tombe, l’ensemble ne s’effondre pas.
C’est sur ce terrain que les chercheurs de Caltech ont frappé très fort. Leur système est bâti à partir d’atomes de césium, refroidis et isolés dans un vide quasi-absolu pour servir de qubits. Des faisceaux laser d’une précision extrême les retiennent, comme des « pinces optiques », permettant de maintenir chaque atome avec une grande stabilité.
C’est ce qu’on appelle une architecture à atomes neutres. Elle a l’avantage de pouvoir être étendue à des milliers d’unités sans que le système ne devienne instable, un phénomène pourtant courant avec d’autres types d’architectures populaires, comme les circuits supraconducteurs ou les pièges à ions.
Grâce à cette configuration, l’équipe a donc franchi le seuil de 6 100 qubits, tout en gardant une stabilité impressionnante. Les qubits sont restés stables pendant près de 13 secondes, presque dix fois plus longtemps que ce que l’on savait faire auparavant. Cela laisse aux calculs bien plus de temps pour s’accomplir avant que les qubits ne perdent leur état de superposition.
Chaque qubit a été contrôlé avec une précision frôlant la perfection, avec un taux de réussite de 99,98 %. Ce qui signifie que la quasi-totalité des opérations demandées donnent exactement le résultat attendu, avec une marge d’erreur quasiment imperceptible.
Une immense réussite pour le physicien Gyohei Nomura, l’un des auteurs de l’étude, qui explique que « Plus on manipule d’atomes, plus le risque d’erreurs augmente… et pourtant nous prouvons qu’on peut gagner en quantité sans perdre en qualité. »
Un constat partagé par Manuel Endres, un autre des auteurs : « C’est un moment passionnant pour l’informatique quantique à atomes neutres. Nous voyons désormais clairement comment construire de grands ordinateurs quantiques capables de corriger leurs erreurs. Les fondations sont posées ».
L’informatique quantique, proche de sa maturité technologique ?
Le processeur de Caltech ne détrônera pas de sitôt les supercalculateurs classiques : il s’agit pour l’instant d’un prototype qui prouve la viabilité de son architecture, mais qui n’est pas encore opérationnel pour la résolution de problèmes mathématiques complexes. Il prouve néanmoins qu’il est possible de concilier un grand nombre de qubits sans sacrifier sa fiabilité, deux critères que l’on jugeait incompatibles en informatique quantique.
Pour dépasser le stade du prototype, l’étape clé sera de savoir exploiter l’intrication quantique. Un phénomène par lequel deux qubits deviennent liés au point de partager le même état, même s’ils sont séparés dans l’espace. C’est cette propriété qui est essentielle pour relier et faire travailler collectivement des milliers de qubits.
Actuellement, ces machines sont plutôt comparables à des disques durs (elles stockent l’information, mais ne la traitent pas) qu’à des réels calculateurs. L’intrication les transformera, à terme, en véritables unités de calcul, capables d’exécuter des algorithmes complexes.
Il sera possible de leur confier des tâches qu’aucun ordinateur actuel ne peut parvenir à traiter : découverte de nouveaux matériaux, exploration de la matière à l’échelle nanoscopique, découverte de nouvelles lois physiques, simulation de réactions chimiques complexes, conception de médicaments en testant virtuellement des milliards de molécules, optimisation de réseaux énergétiques à l’échelle planétaire, décryptage de problèmes mathématiques aujourd’hui insolubles… Les applications sont vertigineuses et quasiment infinies, bien que la route soit encore très longue avant que nous puissions tirer parti de leur puissance en dehors des murs des laboratoires. Le record établi par Caltech n’est donc pas une fin en soi, mais il est la preuve que nous n’avons jamais été aussi proches de voir naître un jour des ordinateurs quantiques puissants, fonctionnels et d’une fiabilité à toute épreuve.
- Des chercheurs du Caltech ont mis au point un processeur quantique de plus de 6 000 unités, un record mondial qui marque une avancée majeure dans ce domaine.
- Leur système combine pour la première fois un très grand nombre d’unités avec une stabilité et une précision inédites, ouvrant la voie à des machines plus fiables.
- Si l’usage pratique est encore lointain, cette percée trace une perspective crédible vers des calculateurs quantiques capables de relever des défis scientifiques hors d’atteinte des ordinateurs actuels.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.