Internet

Les 4 enjeux de l'informatique quantique selon Alexis Kuperfis

Image

Les ordinateurs quantiques promettent une augmentation exponentielle de la puissance par rapport aux systèmes CMOS classiques actuels. Cette augmentation est d'une ampleur difficilement compréhensible pour l'esprit humain. Il y a donc un réel enthousiasme à l'idée que les ordinateurs quantiques apporteront des avantages qui ne sont pas possibles avec les systèmes actuels. Avec une telle promesse, nous assistons à la montée des prophètes de l'informatique quantique qui disent que, dans quelques années seulement, ces machines auront la capacité de changer le monde. Et inversement, nous voyons de plus en plus de sceptiques à l'égard de l'informatique quantique qui disent que cela n'arrivera jamais.

Interrogé sur ce sujet bien précis, Alexis Kuperfis a dit avoir une vision pragmatique de l'informatique quantique. Certes les entreprises et les clients de l'informatique haute performance demandent déjà cette technologie. Cependant, celle-ci  est encore très certainement au stade de la recherche, quoi qu’elle présente d’énormes possibilités qui valent la peine d’être exploitées, toujours selon Alexis Kuperfis.

Qualité Qubit

Nous devons faire des qubits qui nous permettront de générer des instructions ou des opérations de porte utiles à grande échelle. En tant que communauté, nous n'en sommes pas encore là. Même les quelques qubits des ordinateurs quantiques actuels basés sur le Cloud ne sont pas assez bons pour les systèmes à grande échelle. Ils génèrent encore des erreurs lorsqu'ils effectuent des opérations entre deux qubits à un taux bien plus élevé que ce dont nous aurions besoin pour effectuer des calculs efficaces. En d'autres termes, après un certain nombre d'instructions ou d'opérations, les qubits d'aujourd'hui produisent une mauvaise réponse lorsque nous effectuons des calculs. Le résultat que nous obtenons peut être impossible à distinguer du bruit.

Correction des erreurs

Maintenant, comme les qubits ne sont pas assez bons pour l'échelle à laquelle ils doivent fonctionner, nous devons mettre en œuvre des algorithmes de correction d'erreurs qui vérifient et corrigent les erreurs aléatoires de qubits lorsqu'elles se produisent. Il s'agit de jeux d'instructions complexes qui utilisent de nombreux qubits physiques pour prolonger efficacement la durée de vie des informations dans le système. La correction des erreurs n'a pas encore été prouvée à l'échelle pour l'informatique quantique, mais c'est un domaine prioritaire de notre recherche et que je considère comme une condition préalable à un système quantique commercial à grande échelle.

Contrôle des quanta

Afin de mettre en œuvre des algorithmes complexes, y compris des schémas de correction d'erreurs, nous devons prouver que nous pouvons contrôler de multiples qubits. Ce contrôle doit avoir une faible latence, de l'ordre de 10 nanosecondes. Et il doit provenir de circuits de contrôle à rétroaction adaptative basés sur le CMOS. C'est un argument similaire à celui avancé dans l'article susmentionné de l'IEEE Spectrum. Cependant, bien que cela soit décourageant, j'ai toutes les raisons de croire que ce n'est pas impossible.

Trop de fils 

Enfin, nous devons nous pencher sur la question du "fan-out" - ou comment augmenter le nombre de qubits dans une puce quantique. Aujourd'hui, nous avons besoin de plusieurs fils de commande, ou de plusieurs lasers, pour créer chaque qubit. Il est difficile de croire que nous pourrions construire une puce d'un million de qubits avec plusieurs millions de fils se connectant à la carte de circuit imprimé ou sortant de la chambre de mesure cryogénique. En fait, l'industrie des semi-conducteurs a reconnu ce problème au milieu des années 60 et l'a appelé la "règle de Rent". Autrement dit, nous ne roulerons jamais sur l'autoroute quantique sans routes bien conçues.


Romain

Administrateur de n9ws.com

Partager cet article

Laisser un commentaire

Vous devez être connecté pour ajouter un commentaire. Cliquez-ici pour vous connecter.


à voir également