Nos tutelles

CNRS

Nom tutelle 1

Nos partenaires

Nom tutelle 2 Nom tutelle 3

Rechercher





Accueil > A la une > Archives > Nouvelles scientifiques

Comment apprendre le calcul à un chat de Schrödinger ?

par Edith Burgey -

Deux chercheurs d’UTINAM proposent une nouvelle méthode théorique pour étudier le contrôle de systèmes quantiques soumis à l’influence de leur environnement (phénomène de décohérence).
La méthode étudiée est fondée sur des outils de géométrie.

En 1975, Gordon Moore (cofondateur de la société Intel) énonça la loi empirique qui porte son nom, selon laquelle la « puissance des ordinateurs » double tous les deux ans. Cette augmentation de la puissance informatique est réalisée par le doublement du nombre de composants électroniques installables sur une puce de silicium. C’est donc par l’amélioration de la miniaturisation des composants que l’on augmente la puissance des ordinateurs. Mais cette miniaturisation ne peut se poursuivre éternellement et va se heurter à une limite physique liée à la taille des atomes, limite que les industriels de l’électronique du silicium appellent « le mur » (celui-ci correspond à une taille d’environ 50 nanomètres – 5 centièmes de millièmes de millimètres – soit environ un composant électronique de 200 atomes ; le mur devrait être atteint en 2015).

À l’origine de ce mur est le monde de l’infiniment petit régi par des lois différentes des lois classiques de la physique, celles de la mécanique quantique. La plus importante de ces lois est la possibilité pour un objet quantique d’être dans une superposition d’états incompatibles c’est à dire être à la fois dans un état et son contraire. Cette loi est souvent exprimée par la parabole du chat de Schrödinger. On place dans une boîte fermée un chat, un atome radioactif qui a une chance sur deux de se désintégrer au cours de l’expérience, et un dispositif tuant le chat si l’atome se désintègre. La question est « quel est l’état du chat tant que la boîte est fermée ? ». La réponse en physique quantique est que le chat est dans une superposition de vie et de mort (du moins s’il était suffisamment minuscule pour obéir aux lois de l’infiniment petit).

Les effets quantiques vont interrompre la course à la miniaturisation en empêchant le fonctionnement normal de composants trop petits, mais afin de poursuivre le développement de l’informatique, des physiciens théoriciens ont proposés de changer radicalement sa nature en abandonnant la technologie du silicium pour une technologie quantique. Dans celle-ci les calculs ne seraient plus réalisés par des circuits de composants électroniques, mais directement par des molécules, des atomes ou même des spins (un spin est une sorte de boussole infiniment petite « attachée » à une particule élémentaire comme l’électron). L’idée n’est pas seulement de poursuivre la miniaturisation, mais d’aller au delà de la loi de Moore en augmentant considérablement la puissance des ordinateurs en utilisant à notre profit les lois quantiques, au lieu de seulement les considérer comme un obstacle à la miniaturisation de l’électronique. Pour comprendre cette idée, considérons un exemple simple. On veut représenter la table d’addition binaire : 0+0=0, 0+1=1, 1+0=1 et 1+1=0. Un ordinateur classique n’ayant qu’un seul processeur, doit réaliser les quatre opérations l’une après l’autre (on parle de calculs séquentiels). Il a de plus besoin de 4 bits de mémoire pour stocker les résultats (les « bits » sont les informations élémentaires que manipule un ordinateur, ils ne peuvent avoir que deux valeurs 0 ou 1). Beaucoup d’ordinateurs actuels ont plusieurs processeurs. Un tel ordinateur va réaliser simultanément les quatre opérations (on parle de calculs parallèles) en les distribuant à quatre processeurs.

Le calcul est donc quatre fois plus rapide que le calcul séquentiel, mais au prix qu’il nécessite quatre fois plus de ressources (quatre processeurs au lieu d’un). En terme de mémoire, il faut toujours 4 bits pour stocker le résultat. Un ordinateur quantique n’a besoin que d’un seul processeur qui ne va réaliser qu’une seule opération. En effet un bit quantique (un « qubit ») n’est pas limité aux états 0 et 1, il peut être dans une superposition de ces états (comme le chat de Schrödinger qui est en superposition de vie et de mort). Ainsi la seule opération qu’il faut réaliser, c’est l’addition d’un qubit en superposition de 0 et de 1 avec un autre qubit dans la même superposition. Le résultat sera un qubit dans la superposition des quatre résultats « 0+0 », « 0+1 », « 1+0 » et « 1+1 ». Le calcul quantique sera donc aussi rapide que le calcul classique parallèle (donc quatre fois plus rapide que le calcul classique séquentiel), ne nécessitant qu’un processeur comme le calcul classique séquentiel (donc quatre fois moins de ressources que le calcul classique parallèle), et cerise sur le gâteau, un seul qubit suffit pour stocker les résultats (soit quatre fois moins de mémoire que les calculs classiques). Avec l’informatique quantique on est gagnant sur tous les tableaux.

Si l’ordinateur quantique est aussi prometteur, pourquoi cette technologie n’est-elle encore qu’au stade d’une vague idée dans l’esprit des physiciens théoriciens ? Et bien parce qu’un effet physique appelé « décohérence » vient jeter une ombre très noire sur ce tableau idyllique. Pour manipuler les qubits, il faut être capable de contrôler presque parfaitement les objets quantiques microscopiques. Supposons qu’à notre échelle le calcul soit réalisé avec un boulier. Pour positionner et déplacer les boules, on peut négliger les effets de l’environnement (comme les courants d’air). Mais à l’échelle d’une molécule, les effets de l’environnement ne sont jamais négligeables (la collision de la molécule avec une molécule de l’air au moins aussi grosse qu’elle, aura des effets plus que notables). Ce sont les effets cumulés de ce qui entoure notre objet quantique et constitue son environnement, que l’on appelle la décohérence. Le résultat est que cette décohérence va ruiner nos tentatives de contrôle et de manipulation des qubits. Il faut donc trouver des moyens d’anticiper ses effets pour les contrer. C’est là la pierre d’achoppement des théoriciens.

Un physicien-mathématicien et un physicien théoricien de l’Institut UTINAM viennent de proposer une nouvelle méthode pour étudier le contrôle des systèmes quantiques comme les qubits soumis à un processus de décohérence. Cette nouvelle méthode repose sur une approche géométrique, dite théorie des phases géométriques, qui fournit des outils (souvent visuels) pour étudier la façon de contrôler les atomes et les molécules. Cette approche fonctionne bien pour des systèmes idéalisés où la décohérence n’intervient pas, le problème était de la généraliser de façon pertinente au systèmes réalistes qui y sont soumis. Suite à une réflexion épistémologique sur la nature physique du phénomène de décohérence, il est apparu que celui-ci pouvait être envisagé comme semblable au phénomène de dissipation (les systèmes dissipatifs se caractérisent par une perte de leur « substance » au cours du temps). Suite à cela, il a fallu trouver un formalisme mathématique permettant de lier les deux phénomènes en un unique modèle physique (ce fut fait à l’aide d’une structure mathématique appelée C*-module). La théorie des phases géométriques pour les systèmes dissipatifs étant connue, ce formalisme mathématique a permis d’établir la généralisation de l’approche géométrique aux systèmes soumis à la décohérence.

Il en résulte une géométrie quelque peu ésotérique connue sous le nom de géométrie de catégories. On pourrait envisager celle-ci par l’allégorie suivante. Assimilons la géométrie à la description d’un paysage. Résoudre un problème de contrôle consiste alors à trouver son chemin dans celui-ci. Pour décrire un paysage, on décrit les différents lieux qui le constitue.

Dans le cas normal (correspondant à une absence de décohérence), on peut « assembler » de façon cohérente les descriptions des différents lieux pour former « une image globale » du paysage. Mais dans le cas d’une géométrie de catégories (avec de la décohérence), les différentes descriptions des lieux ne forment pas une image globale cohérente. On pourrait comparer cela aux tableaux de l’artiste néerlandais M.C. Escher (Belvedere 1958, Ascending and descending 1960, Waterfall 1961). Si on se concentre sur une petite zone du tableau, la représentation du lieu ne pose pas de problème. Mais si maintenant on regarde le tableau dans sa globalité, on se rend compte que le paysage représenté est manifestement incohérent (l’échelle, la boucle d’escaliers, la rivière refermée sur elle-même).

Les principes généraux de cette nouvelle méthode étant maintenant posés, la suite de ces recherches va consister en la construction d’outils dérivant de celle-ci et en son application à des cas concrets de manipulation d’objets quantiques soumis à un processus de décohérence. Cette étude s’inscrit dans les recherches du groupe de physique théorique de l’Institut UTINAM qui sont centrées sur l’étude des phénomènes de décohérence et de dissipation dans divers systèmes physiques.

Référence : D. Viennot & J. Lages, A new kind of geometric phases in quantum open systems and higher gauge theory, Journal of Physics A : Mathematical and Theoretical Physics 44, 365301 (2011).


Contacts :

David Viennot – tél. 03 81 66 69 16 – Email : david.viennot chez obs-besancon.fr

José Lagès – tél. 03 81 66 66 67 – Email : jose.lages chez univ-fcomte.fr