ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

La microélectronique : de plus en plus d'applications

  initiation musicale

 

 

 

 

 

 

La microélectronique : de plus en plus d'applications


Téléphones mobiles, appareils photo numériques, micro-ordinateurs, consoles de jeux, cartes bancaires, GPS, automobiles : en quelques décennies, les circuits intégrés ont conquis la plupart de nos objets quotidiens.

Publié le 18 octobre 2018

Au CEA, les chercheurs développent des composants de base de plus en plus petits. Ils savent ensuite construire des capteurs complets, des circuits intégrés, prévoir des architectures spécifiques, en assurer l'intégration 3D et le packaging, leur associer de l'électronique de puissance, des éléments d'imagerie et des algorithmes de fusion de données… allant jusqu'au stade de pré-industrialisation. Ils continuent aussi d'étudier l'ingénierie des matériaux, à l'origine de nouvelles fonctions.
Cette pluridisciplinarité profite à de nouveaux axes de R&D : l'intelligence artificielle, la réalité virtuelle et la réalité augmentée, les protocoles médicaux, la cybersécurité. Une meilleure connectivité, une bonne autonomie énergétique et la garantie de la sécurité des données et des calculs révolutionnent les domaines de la santé, de l'environnement et de l'énergie.

Informatique
Les composants microélectroniques constituent le « socle » physique (hardware) sur lequel fonctionnent toutes les applications informatiques (software). L'évolution accélérée des capacités de traitement et de stockage des informations numériques, associée aux progrès des langages de programmation et des codes de calcul, a favorisé le développement d'applications logicielles de plus en plus complexes, capables de manipuler d'abord uniquement du texte, puis des images, des vidéos... La révolution actuelle du « Big Data », qui manipule d'énormes quantités de données informatisées, découle directement des progrès de la microélectronique.

Supercalculateur Airain, hébergé dans le Très grand centre de calcul du CEA. Il est ouvert aux chercheurs de l’organisme et aux industriels français. © Cadam/CEA

Internet et  téléphonie
Pour répondre à la demande de l'Internet des objets (IoT), de nouveaux systèmes apparaissent : performants, à faible consommation et enrichis de fonctions de communication, stockage et sécurité. Ils sont accompagnés de systèmes de liaisons numériques sans fil à très haut débit, comme les futurs réseaux 5G qui assurent leur hyperconnectivité.

Santé
Dès 1976, les systèmes électroniques du CEA ont équipé le premier scanner à rayons X pour analyser le corps entier. En 1980, les chercheurs mettent au point le premier tomographe à émission de positons. En 1997, c'est au tour de la génomique de profiter de leurs travaux avec les premières biopuces.

ZOOM SUR... LE LAB-ON-CHIP

Aujourd'hui, les laboratoires sur puces permettent de réaliser les analyses biologiques courantes à domicile et de transmettre les données via un smartphone à son médecin. Des services dans le domaine de la médecine personnalisée sont envisagés : administration ciblée de médicaments, systèmes de contrôle résorbables et matériaux biocompatibles pour des implants et autres patchs médicaux…


 Efficacité énergétique
Pour réduire l'impact sur l'environnement des multiples systèmes numériques, gourmands en énergie, de nouvelles technologies et architectures de composants basse consommation sont développées. Ces composants électroniques cherchent en particulier à récupérer et exploiter l'énergie qui les environne, qu'elle soit issue de rayonnements (solaire, radiofréquence ou infrarouge), de variations de température ou d'origine mécanique (chocs, déformations, vibrations).

Cybersécurité
Grâce à leur expertise approfondie des différents types d'attaques physiques que peuvent subir circuits intégrés et composants électroniques, les chercheurs peuvent assurer la sécurité d'un système numérique dans son ensemble. En couplant technologie, design et logiciel embarqué, ils développent ainsi des protections physiques ou des systèmes assurant la traçabilité de chaque circuit.

Imagerie astrophysique

Les télescopes et satellites, et donc l'astrophysique dans son ensemble, bénéficient pleinement des avancées en microélectronique.
Ainsi, parmi la dizaine d'instruments embarqués sur le satellite Solar Orbiter, un spectromètre équipé de nouveaux détecteurs de rayons X produira des images spectroscopiques du plasma solaire. Une caméra spectrométrique de nouvelle génération, miniaturisée (passant de 330 cm2  à 8 cm2 ) et plus performante, va prendre la relève de celle mise en orbite à bord du satellite Integral.
Implanté sur le plateau de Chajnantor au Chili, le télescope Apex détecte de nombreux objets célestes. Pour cela, il est équipé entre autres d'une caméra utilisant des bolomètres ultra-sensibles, conçus pour détecter les plus infimes variations de température dues à la faible radiation submillimétrique, mais qui doivent être refroidis à une température de – 272,85 °C !

Au quotidien
Des détecteurs à base de microbolomètres équipent aujourd'hui de nombreux produits commerciaux, qui vont des systèmes de vision nocturne pour la surveillance et la sécurité, des caméras de thermographie (pour les pompiers par exemple), à des applications grand public : bâtiments connectés, voitures, téléphones portables...

 

 DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

La microélectronique

  initiation musicale



 

 

 

 

 

La microélectronique

La microélectronique désigne l’ensemble des technologies de fabrication de composants qui utilisent des courants électriques pour transmettre, traiter ou stocker des informations. Les technologies de la microélectronique sont, en grande partie, à l’origine des formidables progrès réalisés ces dernières décennies dans le domaine entres autres de l’informatique, des télécommunications et de l’imagerie.
LA MICROÉLECTRONIQUE : UNE TECHNOLOGIE ISSUE DE LA PHYSIQUE

Au commencement était l’électronique, discipline née de la physique et dédiée à la manipulation des signaux électriques. L’électronique permet, au moyen de divers éléments appelés « composants », de construire des appareils capables de gérer ces signaux électriques dans le but de transmettre ou de recevoir des informations. L’émission d’ondes radio à des fins de communication en fut l’une des premières applications.
La découverte des matériaux semi-conducteurs et l’invention du transistor, au début des années 60, a véritablement lancé la miniaturisation des composants électroniques et l’essor de la microélectronique. Parallèlement, le passage du signal analogique (à variation continue) au signal numérique (codé en une succession de 0 et de 1) a facilité le développement de circuits électroniques aux fonctions de plus en plus performantes.

LE « BESTIAIRE » DES COMPOSANTS
De la résistance au transistor, du circuit intégré au microprocesseur en passant par les convertisseurs ou les diodes électroluminescentes (Leds)… les composants de la microélectronique, familièrement appelé « puces » (ou chip en anglais), sont extrêmement nombreux. Ils forment un étonnant bestiaire remplissant des fonctions extrêmement variées.
Parmi les centaines de composants microélectroniques existants, on peut relever par exemple, parmi les plus célèbres :

*         Une diode désigne un dispositif fabriqué à l’aide de matériaux semi-conducteurs laissant passer le courant électrique dans un seul sens, le bloquant dans l’autre. Il existe de nombreuses variétés de diodes, selon les propriétés des matériaux utilisés. Les diodes électroluminescentes (Leds), sont désormais largement utilisées pour produire de la lumière en consommant très peu d’énergie.
*        
*         Un transistor (transfer resistor) est un composant semi-conducteur qui permet de contrôler un courant électrique (l’interrompre, l’amplifier ou le moduler). Il a supplanté rapidement le tube électronique : démarrant quasi instantanément, sans temps de chauffe, beaucoup plus petit et léger. Il a pu être fabriqué industriellement dès les années 50.
*        
*         Un circuit électronique est un assemblage de composants. Il est appelé circuit imprimé lorsqu’il est fabriqué par dépôt de matériaux conducteurs (exemple : le cuivre) sur des matériaux isolants (exemple : l’époxy) comme dans le cas de la carte mère des ordinateurs.  Il est appelé circuit intégré parce qu’il rassemble, à l’intérieur d’un même boîtier, plusieurs composants permettant de réaliser différentes fonctions.
*        
*         Un processeur est un système électronique dédié au calcul. Il est composé de plusieurs circuits intégrés et transistors câblés sur un circuit imprimé.
*        
*         Un microcontrôleur est un processeur spécialisé pour la commande d’appareils électromécaniques (exemple : une machine à laver).
*        
*         Un microprocesseur est un processeur miniaturisé composé d’un seul circuit intégré. Réalisés par gravure sur une surface de silicium, les premiers microprocesseurs rassemblaient quelques centaines de composants électroniques. Les microprocesseurs actuels concentrent plusieurs milliards de transistors et sont capables d’effectuer simultanément un très grand nombre d’opérations de calcul.
*        
*         Une mémoire électronique est une variété de circuit intégré dédiée à la conservation de l’information numérique (programmes, données,...). Présentes dans la plupart des appareils électroniques – ordinateur, smartphone, GPS, consoles de jeux, etc. – les mémoires existent sous différentes formes : vive, morte, volatile…



DES COMPOSANTS DE PLUS EN PLUS PETITS, DE MOINS EN MOINS CHERS…
Durant les années 70, Gordon Moore, fondateur de la société américaine Intel et inventeur du premier microprocesseur (Intel 4004, en 1971), prédit que le nombre de transistors présents dans les microprocesseurs continuerait de doubler tous les 18 mois. Autrement dit, la puissance de calcul de ces composants allait continuer de doubler pour une même surface ! Cette prédiction qui prit le nom de « Loi de Moore », n’a quasiment pas été démentie jusqu’à ce jour.
Depuis près d’un demi-siècle, les chercheurs et les industriels de la microélectronique suivent donc scrupuleusement une « feuille de route » (roadmap) qui établit avec précision des objectifs de réduction de taille des transistors. Les progrès constants qu’ils ont réalisés, associés à une production massive de ces composants, ont permis de réduire radicalement les coûts des composants microélectroniques et donc de tous les produits ayant recours à ces composants : ordinateurs, smartphone, téléviseurs, caméras, appareils photos, etc.

LA MICROÉLECTRONIQUE, SUPPORT DE LA « RÉVOLUTION NUMÉRIQUE »
La miniaturisation et la réduction des coûts ont permis aux fabricants de proposer régulièrement de nouveaux  produits moins chers et plus performants. Ainsi, votre smartphone dispose aujourd’hui d’une puissance de calcul équivalente à celle des très gros ordinateurs des années 80, qui tenaient à peine dans une pièce de plusieurs dizaines de mètres carrés !
La quantité d’informations stockées sur une puce électronique a progressé au même rythme que celui des autres composants. Associée aux progrès des sciences de l’information – langages de programmation, codes de calculs,... – les composants microélectroniques constituent le « socle » physique (hardware) sur lequel fonctionnent toutes les applications informatiques (software).
Cette évolution accélérée des capacités de traitement et de stockage des informations numériques a favorisé le développement d’applications logicielles de plus en plus complexes, capables de manipuler d’abord uniquement texte, puis des images, des vidéos,... La révolution actuelle du « Big Data », qui manipule d’énormes quantités de données informatisées, découle donc directement des progrès de la microélectronique.

DES PROCÉDÉS DE FABRICATION
D'UNE GRANDE COMPLEXITÉ
Si les puces électroniques se retrouvent aujourd'hui dans de très nombreux objets de la vie quotidienne, c'est qu'elles sont fabriquées en grande série : des milliards de composants pour une seule série. Cette production nécessite des infrastructures et des équipements très coûteux et font appel à des technologies d'une extrême complexité.
Les puces sont gravées sur des disques de silicium (un matériau semi-conducteur particulièrement abondant et adapté à la manipulation des électrons) dont la taille a augmenté au cours des dernières décennies : 50, 100, puis 200 millimètres,  leur diamètre est aujourd'hui de 300 millimètres. Chaque changement de format a permis de réaliser d'énormes gains de productivité mais nécessité des investissements de plus en plus considérables.

Aujourd'hui, seules quelques grandes usines de microélectronique à travers le monde sont capables de produire – à des coûts compétitifs – les microprocesseurs de nos smartphone et de nos ordinateurs. Ces usines produisent 24 heures sur 24 et 7 jours sur 7, dans un environnement ultra contrôlé et robotisé à l'extrême pour réduire le risque d'agitation de poussières. En effet, la moindre particule de poussière pourrait ruiner toute une production et générer des dizaines de milliers de dollars de pertes.

DE LA MICROÉLECTRONIQUE
À LA NANOÉLECTRONIQUE
La course à la miniaturisation conduit les chercheurs à concevoir puis produire, par étapes successives,  des transistors dont la finesse de gravure se compte aujourd’hui en nanomètres (milliardièmes de mètres) soit la dimension de quelques atomes. Cette réduction d’échelle amène donc à parler désormais de nanoélectronique…
Régulièrement, de nouveaux records sont établis. Ainsi, en 2015 la société IBM est parvenue à graver un transistor expérimental de 7 nanomètres. A chaque étape, une fois la démonstration de faisabilité obtenue, l’enjeu consiste à développer tout le processus industriel  permettant de produire ces puces à grande é
chelle.

 

 DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

 

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

"La théorie quantique, centrale à notre compréhension de la nature, introduit en physique microscopique les notions essentielles de superpositions d'états et d'intrication quantique, qui nous apparaissent comme "" étranges "" et contre-intuitives. Les interférences quantiques et la non-localité - conséquences directes du principe de superposition et de l'intrication - ne sont en effet pas observables sur les objets macroscopiques de notre expérience quotidienne. Le couplage inévitable de ces objets avec leur environnement détruit très vite les relations de phase entre les états quantiques. C'est le phénomène de la décohérence qui explique pourquoi autour de nous l'étrangeté quantique est généralement voilée. Pendant longtemps, superpositions, intrication et décohérence sont restés des concepts analysés à l'aide d'" expériences de pensée " virtuelles, dont celle du chat de Schrödinger à la fois mort et vivant est la plus connue. À la fin du XXe siècle, les progrès de la technologie ont rendu réalisables des versions de laboratoire simples de ces expériences. On peut maintenant piéger et manipuler des atomes et des photons un par un et construire des systèmes de particules suspendus entre deux états quantiques distincts qui apparaissent ainsi comme des modèles réduits de chats de Schrödinger. Au delà de la curiosité scientifique et du défi que constitue l'observation de l'étrangeté quantique pour ainsi dire in vivo, ces expériences éclairent la frontière entre les mondes classique et quantique et ouvrent des perspectives fascinantes d'applications. "


Texte de la 213ème conférence de l’Université de tous les savoirs donnée le 31 juillet 2000.
Une exploration au cœur du monde quantique par Serge Haroche
Cent ans de physique quantique
L’an 2000 marque le centenaire de la physique quantique. C’est en 1900 que Planck, pour comprendre les propriétés du rayonnement des corps chauffés, émit la fameuse hypothèse que les échanges d’énergie entre la matière et la lumière devaient se faire par quanta discrets, et non de façon continue. Einstein reprit cette notion de quanta cinq ans plus tard en montrant que la lumière elle-même était constituée de grains discrets, appelés par la suite photons, et en interprétant à l’aide de cette idée révolutionnaire l’effet photoélectrique, l’émission d’électrons par les métaux éclairés. Dans les vingt ans suivants, la théorie quantique, cherchant à comprendre le comportement de la nature à l’échelle atomique, se développa à partir d’hypothèses hardies et d’intuitions géniales, notamment grâce aux travaux de Niels Bohr. En 1925 et 1926, Heisenberg, Schrödinger et Dirac arrivèrent indépendamment à la formulation complète de la théorie, qui constitue sans nul doute une des plus grandes conceptions de l’esprit humain.
La théorie quantique sert en effet de cadre essentiel à notre compréhension de la Nature, de l’infiniment petit à l’infiniment grand. La physique des particules dites élémentaires, celle des atomes et des molécules, toute la chimie sont basées sur les lois quantiques. Les ensembles d’atomes que constituent les solides obéissent également à ces lois, qui seules peuvent expliquer, par exemple, la conductivité électrique, le magnétisme ou la supraconductivité de certains métaux aux basses températures. Même la vie, dans la mesure où elle dépend de processus physico-chimiques au niveau de la molécule d’ADN, ne pourrait être comprise en dehors des lois quantiques. Enfin, la cosmologie, la science qui s’attache à l’étude de l’évolution de l’univers, donne une grande importance aux phénomènes quantiques qui se sont produits au moment du big-bang initial.

Et pourtant, malgré ses succès éclatants, la physique quantique est souvent perçue comme étrange. Elle introduit en effet dans la description du monde des notions bizarres qui défient notre intuition classique. Il s’agit du principe de superposition des états qui implique qu’un système physique peut être comme suspendu entre différentes réalités, ou encore du concept d’intrication quantique qui introduit une notion troublante de non-localité en physique. Le caractère étrange de ces concepts provient en grande part de ce que nous n’en observons jamais les effets sur les objets macroscopiques qui nous entourent et que donc notre esprit n’est pas préparé à les comprendre. Cette étrangeté troublait les fondateurs de la théorie, et son interprétation a fait l’objet entre eux de discussions très animées. Ces débats se sont en particulier déroulés au cours des fameux Congrès Solvay, à l’époque de l’élaboration de la théorie. Les participants à ces congrès prirent l’habitude d’imaginer des expériences virtuelles dans lesquelles ils isolaient et manipulaient en pensée des particules obéissant aux lois quantiques pour essayer de mettre en évidence des contradictions internes de la théorie. Tous ces débats se conclurent par la victoire de la théorie quantique, à laquelle ni Einstein ni Schrödinger qui jouaient volontiers le rôle d’avocats du diable ne purent trouver de faille. L’intérêt de la majorité des physiciens se détourna alors de ces discussions sur des expériences infaisables, et se consacra à l’exploitation de la théorie pour comprendre la nature, avec le succès évoqué plus haut.

Depuis quelques années cependant, les progrès de la technologie ont permis de réaliser des versions simples des expériences de pensée des fondateurs de la théorie. On peut maintenant piéger des photons, des atomes ou des molécules un à un, les manipuler pour ainsi
dire in vivo à l’aide de faisceaux lasers et ainsi construire des objets étranges, relativement complexes, obéissant à la logique quantique. On peut alors aborder à nouveau, mais de façon concrète, l’étude des fondements de la théorie. On peut également commencer à envisager des applications fascinantes. C’est à ces expériences de pensée devenues réelles qu’est consacré cet exposé, brève exploration au cœur du monde quantique.
Superpositions, interférences quantiques et complémentarité
Commençons par une introduction au principe de superposition. La théorie quantique nous dit que, d’une certaine manière, toute particule microscopique possède un don d’ubiquité. Alors que classiquement elle doit à tout instant être en un point bien précis, quantiquement, elle peut se trouver comme « suspendue » dans une superposition des états correspondant à toutes les positions classiques possibles. À chacune de ces positions est associé un nombre appelé fonction d’onde de la particule au point considéré. Cette fonction a été introduite par de Broglie et c’est Schrödinger qui a établi l’équation qui décrit son évolution, jetant ainsi les bases des lois de la dynamique quantique. La fonction d’onde est en général un nombre complexe. Alors qu’un nombre réel peut être symbolisé par un segment sur une droite, un complexe est représenté par un vecteur dans un plan et possède donc une amplitude (la longueur du vecteur) et une phase (sa direction). C’est le physicien Max Born qui donna l’interprétation physique de la fonction d’onde. Le carré de son amplitude représente la probabilité de trouver la particule au point correspondant lorsqu’une mesure est effectuée. Ainsi, d’après la théorie, l’ambiguïté quantique, la superposition, ne subsiste que tant que l’on ne cherche pas à savoir où est la particule. Si on cherche à déterminer sa position, on force la nature à abandonner son étrangeté quantique, la particule apparaît bien en un point et en un seul, mais cette apparition ne peut être que prévue statistiquement et non déterminée de façon absolue comme en physique classique. C’est ce qui fit dire à Einstein que selon la physique quantique « Dieu joue aux dés », ce qu’il se refusait personnellement à admettre.

La physique atomique permet d’illustrer un aspect élémentaire du principe de superposition. Les chimistes représentent l’état d’un électron dans un atome – par exemple le plus simple d’entre eux, l’hydrogène – par un volume de l’espace qu’on appelle son orbitale (Figure 1a). Ce volume est, pour l’état fondamental de l’hydrogène, une petite sphère centrée sur le noyau de l’atome d’environ un Angström (soit 10-10 m) de diamètre. Il décrit la région de l’espace dans laquelle l’électron est délocalisé. Il se trouve en fait dans une superposition de toutes les positions possibles à l’intérieur de cette sphère. Lorsque l’on porte l’électron de l’atome dans un niveau électronique excité en lui fournissant de l’énergie lumineuse, la forme de l’orbitale change, elle s’étire en général pour occuper des régions plus éloignées du noyau comme le montre la figure 1b. Les états très excités de l’atome s’appellent des états de Rydberg. Dans certains de ces états, l’électron occupe une orbitale très étendue, en forme de tore, dont le rayon peut atteindre un millier d’Angströms (figure1c). Ces états excités géants ont des propriétés très intéressantes que nous retrouverons plus loin.

Abordons maintenant une conséquence essentielle du principe de superposition, l’existence d’interférences quantiques. Considérons la fameuse expérience des fentes de Young réalisée au début du XIXe siècle avec de la lumière, c’est-à-dire des photons, et au XXe siècle avec des électrons, et plus récemment avec des atomes et des molécules : des particules traversent une paroi percée de deux fentes avant d’atteindre un écran. Les particules sont détectées en des points discrets sur l’écran, comme le montre la figure 2a. Après avoir enregistré l’arrivée d’un grand nombre de particules, on constate que les points d’impact se regroupent suivant un réseau de franges « brillantes », séparées par des franges « noires » où les particules n’arrivent jamais. L’expérience se comprend bien en termes de fonction d’onde
des particules. Cette fonction possède en effet deux composantes, correspondant au passage de la particule par chacune des deux fentes. La fonction d’onde totale est la somme des deux composantes, au sens de l’addition des nombres complexes, ou encore des vecteurs qui les représentent. En certains points de l’écran, les ondes sont en phase, leurs vecteurs de même direction, et la probabilité de trouver la particule est importante. En d’autres points, les ondes sont en opposition de phase, leurs vecteurs opposés, et la particule a une probabilité nulle d’arriver. La figure d’interférence s’évanouit si on ferme une des deux fentes, puisque alors une des composantes de la fonction d’onde disparaît.
Cette interprétation ondulatoire est étrange si l’on note que l’expérience peut être faite dans des conditions de flux très faible, où il ne se trouve à chaque instant qu’une particule dans l’appareil. On obtient alors les mêmes franges, après un temps de moyen-âge très long. On peut alors se demander comment une particule, seule dans l’interféromètre, peut « savoir » si les deux trous sont ouverts, auquel cas elle doit éviter les franges noires, ou si un trou est bouché, auquel cas elle peut arriver n’importe où ! On a là un exemple typique de logique non-classique : un phénomène (arrivée de la particule en un point) est moins probable lorsque deux possibilités sont offertes à la particule que si une seule ne l’est ! Un physicien classique posera immédiatement des questions simples : par quel trou passe réellement la particule ? Est ce une onde (auquel cas on comprend les interférences mais pas l’arrivée discrète sur l’écran) ou une particule (auquel cas on comprend les impacts discrets mais plus les interférences). La mécanique quantique répond qu’en vertu du principe de superposition, la particule passe par les deux trous à la fois, aussi longtemps qu’on ne la force pas à choisir ! Notons enfin que de telles expériences, relativement faciles à réaliser avec des particules microscopiques, deviennent de plus en plus difficiles avec des particules de taille importante. C’est encore possible avec des molécules, mais pas avec des boules de billard ou un quelconque objet macroscopique !
Les interférences quantiques jouent un rôle capital en physique microscopique et l’on peut s’en servir pour des applications importantes. Considérons par exemple un atome possédant deux niveaux d’énergie, un niveau fondamental g d’énergie Eg, et un niveau excité e, d’énergie Ee. On sait qu’en absorbant de la lumière dont la fréquence ν satisfait la relation Ee – Eg = hν (où h est la constante de Planck) l’atome peut être porté du niveau g au niveau e en absorbant un photon. Si on excite l’atome par une impulsion lumineuse et si on ajuste la durée de cette impulsion, on peut s’arranger pour que l’atome se trouve excité « à mi-
chemin » entre e et g, dans une superposition de ces deux états. Appliquons maintenant à l’atome initialement dans l’état g deux impulsions identiques, séparées dans le temps, à deux instants t1 et t2. Chacune des impulsions superpose les deux états e et g. Mesurons enfin l’énergie de l’atome et, en recommençant l’expérience un grand nombre de fois, déterminons la probabilité de le trouver finalement dans l’état e. La fonction d’onde associée à l’atome va, comme dans le cas de l’expérience de Young, présenter deux termes. L’un correspond à l’excitation de l’atome de g à e à l’instant t1, l’autre à l’instant t2. À ces termes correspondent des amplitudes complexes qui interfèrent. Leur phase relative peut être variée en balayant la fréquence ν autour de la fréquence de résonance atomique. On observe alors que la probabilité de trouver l’atome dans l’état e oscille en fonction de ν. On obtient un signal d’interférence dit « de Ramsey », du nom du physicien qui a mis au point cette méthode interférométrique. Alors que dans l’expérience de Young l’interférence provient du fait que l’on ne sait pas par quelle fente la particule est passée, ici elle résulte de l’ambiguïté sur l’instant de l’excitation de l’atome. C’est en détectant de telles franges sur l’atome de Césium que l’on fait fonctionner l’horloge atomique qui définit actuellement la seconde.
Revenons un instant sur la question de savoir par quel chemin la particule est passée. L’interférence ne s’observe que si on n’a aucun moyen de connaître ce chemin. Si on cherche à le déterminer, il faut introduire un nouvel élément dans l’appareillage expérimental, par
exemple ajouter dans l’expérience des fentes d’Young une source lumineuse, un laser, qui éclaire les fentes (figure 2b). Lorsque la particule passe, elle diffuse de la lumière au voisinage de la fente correspondante et l’éclair lumineux peut être détecté pour déterminer le trajet de la particule. On constate bien alors que la particule passe aléatoirement par un trou ou par l’autre, mais aussi que les franges disparaissent : les points d’impact sont maintenant distribués de façon uniforme. En d’autres termes, la particule, en diffusant la lumière qui révèle son chemin a été perturbée de façon telle que les relations de phase existant entre les deux composantes de la fonction d’onde associée sont brouillées, entraînant la disparition des franges. Ce résultat exprime ce que Bohr a appelé le principe de complémentarité. L’existence des franges et l’information sur le chemin suivi sont deux aspect exclusifs l’un de l’autre et complémentaires de la réalité physique. Ils nécessitent l’utilisation d’appareils différents. On est sensible tantôt à l’aspect ondulatoire de la particule, si on utilise un appareil rendant les chemins indiscernables, tantôt à l’aspect corpusculaire, si on utilise un appareil permettant de distinguer les chemins.

Intrication quantique, chat de Schrödinger et décohérence
Venons-en maintenant à une autre conséquence essentielle du principe de superposition, observable dans des systèmes constitués d’au moins deux particules qui interagissent entre elles, puis se séparent. Pour fixer les idées, considérons la collision de deux atomes identiques. Chacun de ces atomes possède deux niveaux d’énergie e et g. Supposons qu’avant la collision, l’atome 1 est excité (état e) et l’atome 2 est dans son état fondamental (état g). Au cours de la collision deux événements différents peuvent survenir. Ou bien les atomes conservent leurs énergies initiales, ou bien ils les échangent. Classiquement, les atomes devraient « choisir » l’une de ces deux possibilités. La règle quantique est différente. Ils peuvent suivre les deux voies à la fois. Le système se trouve après la collision dans une superposition de l’état où l’atome 1 est dans e et 2 dans g et de l’état où 1 est dans g et 2 dans e. À chacun de ces états est associée une amplitude complexe. Les modules élevés au carré de ces amplitudes représentent les probabilités de trouver l’une ou l’autre de ces deux situations au cours d’une mesure effectuée sur les deux atomes. Notons que si le résultat de la mesure sur chaque atome est aléatoire, les corrélations entre les résultats des mesures sont certaines. Si l’atome1 est trouvé dans e, l’atome 2 est dans g et inversement. C’est cette corrélation parfaite, observable quel que soit le type de mesure effectué sur les atomes, que l’on appelle intrication (« entanglement » en anglais). Cette intrication subsiste même si les deux atomes se sont éloignés l’un de l’autre et se trouvent séparés après la collision par une distance arbitrairement grande. Elle décrit une non-localité fondamentale de la physique quantique. Une mesure de l’atome 1 peut avoir un effet immédiat à grande distance sur le résultat de la mesure de l’atome 2 ! Il y a donc entre les deux particules un lien quantique immatériel et instantané. C’est Einstein, avec ses collaborateurs Podolski et Rosen, qui a discuté le premier en 1935 cet aspect troublant de la théorie quantique. On l’appelle depuis le problème EPR. Pour Einstein, il s’agissait là d’un défaut grave de la théorie puisqu’elle prévoyait des effets qui lui paraissaient manifestement absurdes. Depuis, le problème a été repris par d’autres physiciens, notablement John Bell dans les années 60, et des expériences effectuées sur des photons intriqués ont montré que la nature se comportait bien comme la théorie quantique le prescrit. L’une des expériences les plus probantes a été effectuée dans les années 1980 par Alain Aspect et ses collègues à Orsay. Notons que la non-localité vérifiée par ces expériences ne contredit pas le principe de causalité. On ne peut se servir des corrélations EPR pour transmettre de l’information instantanément entre deux points.
Si l’intrication nous apparaît comme bizarre, c’est pour une bonne part parce que, comme les interférences quantiques, elle ne s’observe jamais sur des objets macroscopiques.

Ceci nous conduit à la métaphore fameuse du chat de Schrödinger. Réfléchissant sur le problème EPR, Schrödinger alla en effet plus loin. Qu’est ce qui empêcherait, se demanda-t- il, d’amplifier un phénomène d’intrication microscopique pour y impliquer un système macroscopique? Considérons un atome excité qui émet un photon en se désexcitant. La mécanique quantique nous apprend qu’avant que le photon n’ait été émis de façon certaine, le système se trouve dans une superposition d’un état où l’atome est encore excité et d’un état où il s’est déjà désexcité. Chacun de ces termes est affecté de son amplitude complexe dans l’expression de l’état global du système. Mais, remarque Schrödinger, un seul photon peut déclencher un événement macroscopique. Imaginons en effet notre atome enfermé dans une boîte avec un chat. Supposons que le photon émis par l’atome déclenche un dispositif qui tue le chat. Si l’atome est dans une superposition d’un état où il a émis un photon et d’un état où il ne l’a pas encore émis, quel est à cet instant l’état du chat ? Si l’on admet que le chat peut être décrit par un état quantique bien défini ( et l’on touche là, comme nous le montrons plus loin, à un aspect crucial du problème), on conclut immanquablement à l’existence d’une intrication du système « atome + chat » qui devrait se trouver dans une superposition du chat vivant associé à l’atome excité et du chat mort associé à l’atome désexcité. Une telle situation laissant le malheureux chat suspendu entre la vie et la mort, représentée sur la figure 2c, était jugée burlesque par Schrödinger. Ce problème a fait couler beaucoup d’encre. Certains ont dit que c’est au moment où on cherche à observer si le chat est vivant ou mort qu’un processus mental chez l’observateur « force » la nature à décider. D’autres se sont demandé s’il fallait tenir compte du processus mental du chat lui-même et la discussion a vite versé dans la métaphysique.
Si on veut éviter un tel débat, l’approche pragmatique de Bohr est utile. Pour savoir si la superposition d’états existe, il faut imaginer un dispositif d’observation spécifique. La superposition « chat vivant- chat mort » ne peut être prouvée que si l’on sait réaliser une expérience susceptible de révéler l’interférence des amplitudes complexes associées aux parties « vivante » et « morte » du chat. Schrödinger n’a pas poussé la discussion jusque-là, mais on peut par exemple songer à utiliser comme sonde de l’état du chat une souris
« quantique» à qui l’on demanderait de traverser la boîte. La probabilité que la souris s’échappe devrait alors être le carré de la somme de deux amplitudes, une correspondant au chat vivant, l’autre au chat mort. Verra-t-on dans la probabilité finale un terme
d’interférence ? C’est peu probable et fortement contraire à notre intuition.

La question qui se pose est alors : qu’est-il arrivé aux interférences, pourquoi ont-elles disparu ? La réponse fait intervenir la notion fondamentale de décohérence. La situation que nous avons schématisée à l’extrême a négligé un élément essentiel. Notre chat ne peut être isolé en présence d’un seul atome « décidant » de son sort. Le chat – comme en général tout système macroscopique - est en effet baigné par un environnement constitué de très nombreuses molécules, de photons thermiques, et son couplage avec cet environnement ne peut être négligé. Pour mieux comprendre ce qui se passe, revenons à l’expérience d’Young. Si l’on cherche à déterminer le chemin par lequel la particule est passée, on doit par exemple lui faire diffuser un photon (figure 2b). On intrique alors ce photon avec la particule et on obtient une espèce de paire EPR dont un élément est la particule et l’autre le photon. Si on mesure le photon dans un état, on sait que la particule est passée par un trou. L’autre état a alors disparu. Il n’y a plus d’interférence. On comprend ainsi mieux la complémentarité comme un effet d’intrication de la particule avec l’environnement (ici le photon) qui interagit avec elle. La situation de notre chat est similaire. Notons tout d’abord que le point de départ de notre raisonnement, l’existence d’un état quantique bien déterminé pour le chat à l’instant initial de l’expérience, doit être remis en question. Dès cet instant, le chat est déjà intriqué avec son environnement et ne peut donc pas être décrit par un état quantique qui lui est propre. En admettant même que l’on puisse le découpler du reste du monde à cet instant
initial, il serait impossible d’éviter son interaction avec l’environnement pendant qu’il interagit avec l’atome unique imaginé par Schrödinger. Dès qu’il serait placé dans un état de superposition, il interagirait aussi avec un bain de molécules et de photons qui se trouveraient rapidement dans des états quantiques différents suivant que le chat est vivant ou mort. Très vite, une information sur l’état du chat fuirait dans l’environnement, détruisant les interférences quantiques, de la même façon que le photon diffusé par la particule dans l’expérience de Young fait disparaître les franges. L’environnement agit comme un « espion » levant l’ambiguïté quantique.
Notons enfin que la décohérence se produit de plus en plus vite lorsque la taille des systèmes augmente. Ceci est dû au fait que plus le système est gros, plus il est couplé à un grand nombre de degrés de libertés de l’environnement. Il n’est pas nécessaire de considérer des systèmes aussi macroscopiques qu’un chat pour que la décohérence domine. C’est déjà le cas pour les systèmes microscopiques au sens de la biologie que sont les macromolécules, les virus ou les bactéries. Le fait que l’on aît raisonné sur des êtres vivants n’a non plus rien d’essentiel ici. La décohérence est tout aussi efficace sur un objet inerte constitué d’un grand nombre de particules (agrégat d’atomes, grain de poussière...). L’image du chat n’est qu’une métaphore extrême imaginée par Schrödinger pour frapper les esprits.

Des atomes et des photons dans une boîte
Passons à la description de quelques expériences récentes sur l’intrication quantique, véritables réalisations des expériences de pensée. Il existe essentiellement trois systèmes sur lesquels des manipulations relativement complexes d’intrication ont été réalisées. Les sources de photons intriqués se sont considérablement améliorées depuis les expériences d’Aspect. On réalise à présent des paires de photons intriqués en décomposant dans un cristal non-linéaire un photon ultraviolet en deux photons visibles ou infrarouge. De belles expériences sur ces paires de photons ont été récemment réalisées, à Innsbruck, à Genève et aux États-Unis. Dans certains cas, il est préférable de disposer de particules massives, qui restent un long moment dans l’appareil pour être manipulées, au lieu de photons qui s’échappent du système à la vitesse de la lumière. On peut alors utiliser des ions piégés dans un champ électromagnétique. Il s’agit d’atomes auxquels on a arraché un électron et qui possèdent ainsi une charge sensible aux forces électriques exercées sur elle par un jeu d’électrodes métalliques convenablement agencées. On peut ainsi piéger quelques ions observables par la lumière de fluorescence qu’ils émettent lorsqu’ils sont éclairés par un laser. D’autres lasers peuvent servir à manipuler les ions. De belles expériences d’intrication ont été ainsi faites à Boulder dans le Colorado.

Le troisième type d’expérience, réalisé à l’École Normale Supérieure à Paris, est intermédiaire entre les deux précédents. On y intrique à la fois des photons et des atomes. Les photons ne se propagent pas, mais sont piégés dans une cavité électromagnétique traversée par les atomes. La cavité est formée de miroirs métalliques en niobium supraconducteur à très basse température placés l’un en face de l’autre. Des photons micro-onde peuvent se réfléchir des centaines de millions de fois sur ces miroirs et rester ainsi piégés pendant un temps de l’ordre de la milliseconde. Des atomes, préparés dans un état de Rydberg très excité, traversent un à un la cavité, interagissent avec les photons et sont ensuite ionisés et détectés. La grande taille de ces atomes (figure 1c) les rend extrêmement sensibles au couplage avec le rayonnement de la cavité, une condition essentielle à l’observation des phénomènes d’intrication quantique.
Nous donnerons ici simplement un aperçu général sur quelques expériences récentes d’intrication atome-cavité. Pour simplifier, admettons que nos atomes possèdent essentiellement deux niveaux de Rydberg appelés comme précédemment e et g. La séparation des miroirs est, dans un premier temps, réglée pour que les photons de la cavité soient
résonnants avec la transition entre ces deux niveaux. Cela veut dire que si l’atome entre dans la cavité dans le niveau e, il peut, en conservant l’énergie, y émettre un photon en passant dans le niveau g et que s’il y entre dans g, il peut absorber un photon présent pour passer dans l’état e. Envoyons un atome dans e à travers la cavité initialement vide et réglons le temps de traversée de la cavité par l’atome pour que la probabilité d’émission d’un photon soit de
50 %. L’état final obtenu est une superposition d’un atome dans e avec une cavité vide et d’un atome dans g avec une cavité contenant un photon, ce qui constitue une intrication atome- photon. Cette intrication survit à la sortie de l’atome de la cavité.
Compliquons maintenant la situation en envoyant dans la cavité deux atomes, l’un dans e, l’autre dans g. Le premier atome a sa vitesse réglée pour émettre avec 50 % de probabilité un photon et le second interagit le temps qu’il faut pour absorber à coup sûr le photon s’il y en a un. Il s’agit donc d’un transfert d’énergie entre les deux atomes induit par la cavité. Si on se demande, après la traversée des deux atomes, si l’excitation a été transférée de l’un à l’autre, la théorie quantique nous donne une réponse ambiguë : oui et non à la fois. Le résultat est une paire d’atomes intriqués. Le schéma – illustré sur la figure 3 - se généralise avec un plus grand nombre de particules. On peut réaliser des situations où deux atomes et un photon, ou encore trois atomes, sont intriqués...
Une version de laboratoire du chat de Schrödinger
Envisageons maintenant une situation où la cavité est désaccordée par rapport à la fréquence de la transition atomique. La non-conservation de l’énergie interdit alors l’émission ou l’absorption de photons par l’atome. Cela ne veut pas dire cependant que les deux systèmes n’interagissent pas. La simple présence de l’atome dans la cavité modifie légèrement la fréquence du champ qu’elle contient. Cet effet dépend de l’état d’ énergie de l’atome. La fréquence du champ est augmentée ou diminuée, suivant que l’atome se trouve dans un niveau ou l’autre. Que se passe-t-il alors si l’atome est dans une superposition des deux états ? Les lois quantiques disent que l’on doit avoir en même temps une fréquence diminuée et augmentée. Cette réponse ambiguë conduit à la possibilité de créer un nouveau type d’intrication.
Commençons par injecter entre les miroirs un champ contenant quelques photons à l’aide d’une source micro-onde couplée à la cavité par un guide d’onde, puis coupons cette source. Nous piégeons ainsi quelques photons dans la cavité pendant un temps d’une fraction de milliseconde. Le champ électrique de l’onde qui leur est associée est une fonction périodique du temps. On peut représenter cette fonction par un nombre complexe dont le module et la phase correspondent à ceux du champ. Ce nombre complexe est associé à un vecteur (on retrouve la représentation des nombres complexes évoquée plus haut, introduite en optique par Fresnel). L’extrémité du vecteur se trouve dans un petit cercle d’incertitude qui reflète l’existence pour de tels champs contenant quelques photons des fluctuations quantiques d’amplitude et de phase. Envoyons à présent dans la cavité notre atome dans une superposition des états e et g (Figure 4a). Sa présence a pour résultat de changer de façon transitoire la période des oscillations du champ et donc de le déphaser, c’est-à-dire de déplacer les instants où il passe par ses maxima et minima (Figure 4b). De façon équivalente, le vecteur représentatif tourne dans le plan de l’espace des phases. Mais du fait que l’atome est dans une superposition de deux états produisant des effets de signes opposés, on a deux états de phases différentes, intriqués aux deux états atomiques, une situation qui rappelle celle du chat de Schrödinger (Figure 4c). On voit également que le champ est une espèce d’aiguille de mesure qui « pointe » dans deux directions différentes du plan de Fresnel suivant que l’atome est dans e ou g, jouant ainsi le rôle d’un appareil de mesure qui « observe » l’atome.

Cette remarque nous conduit à décrire une expérience de démonstration simple du principe de complémentarité. Nous avons vu qu’ en soumettant l’ atome à deux impulsions lumineuses mélangeant les états e et g, aux instants t1 et t2 (en appliquant à l’atome deux impulsions dans les « zones de Ramsey » indiquées par des flèches sur la Figure 5a), on obtient, pour la probabilité finale de trouver l’atome dans g, un signal de franges d’interférence. Ces franges ne s’observent que si rien dans le dispositif ne nous permet de savoir dans quel état se trouve l’atome entre les deux impulsions. Soumettons alors l’atome entre t1 et t2 à un petit champ non résonnant stocké dans une cavité. La phase de ce champ tourne d’un angle dépendant de l’état de l’atome. Le champ « espionne » l’atome et les franges vont donc s’effacer. C’est bien ce qu’on observe (figure 5b). Si la rotation de phase du champ est faible, on ne peut en déduire avec certitude l’état atomique et les franges subsistent avec un contraste réduit. Elles disparaissent par contre totalement dans le cas d’une rotation de phase importante, rendant certaine l’information sur le chemin suivi par l’atome. On modifie simplement la rotation de phase du champ en changeant le désaccord de fréquence entre l’atome et la cavité.
La décohérence quantique saisie sur le vif
L’expérience que nous venons de décrire s’intéresse à la superposition des états de l’atome, influencée par la présence du champ. Que peut-on dire de la superposition des états du champ lui-même ? Combien de temps cette superposition d’états survit-elle ? L’environnement du champ est constitué par l’espace qui entoure la cavité, qui peut se remplir de photons diffusés par les défauts de surface des miroirs. En fait, c’est ce processus de diffusion qui limite dans notre expérience la durée de vie du champ à un temps Tcav d’une fraction de milliseconde. Si la cavité contient en moyenne n photons, un petit champ contenant environ un photon s’échappe donc dans l’environnement en un temps très court, Tcav divisé par n. Ce champ microscopique emporte une information sur la phase du champ restant dans la cavité. Ainsi, au bout d’un temps Tcav/n, la cohérence quantique entre les deux composantes du champ dans la cavité a disparu. Ceci explique pourquoi des champs macroscopiques, pour lesquels n est très grand (de l’ordre d’un million ou plus), se comportent classiquement, la décohérence y étant quasi-instantanée. Dans notre expérience cependant, n est de l’ordre de 3 à 10. Le temps de décohérence est alors assez long pour permettre l’observation transitoire d’interférences quantiques associées aux deux composantes de notre « chat de Schrödinger ». Pour cette observation, nous envoyons dans la cavité, après le premier atome qui prépare le « chat », un second atome jouant le rôle de la « souris quantique » évoquée plus haut. Cet atome recombine les composantes du champ séparées par le premier atome de telle sorte qu’il apparaît, dans un signal de corrélation entre les résultats des détections des deux atomes, un terme sensible à l’interférence associée aux deux composantes du chat créé par le premier atome. Ce signal d’interférence (voir Figure 6) décroît lorsque le délai entre les deux atomes augmente. Ce phénomène est d’autant plus rapide que les deux composantes du « chat » sont plus séparées, ce qui illustre un des aspects essentiels de la décohérence, qui agit d’autant plus vite que le système est plus
« macroscopique ». Cette expérience constitue une exploration de la frontière entre les mondes quantique (dans lequel les effets d’interférences sont manifestes) et quantique (dans lequel ces effets sont voilés).
Vers une utilisation pratique de la logique quantique ?
En dehors de leur intérêt fondamental, quelles peuvent être les retombées pratiques de ces expériences et de celles qui sont effectuées sur des ions piégés ou des photons intriqués ?
La logique qui y est à l’œuvre peut être décrite dans le cadre d’une branche en plein développement de l’informatique, qui s’intéresse à la façon dont on peut transmettre et manipuler de l’information en exploitant les lois quantiques. On peut en effet considérer les systèmes à deux états que nous avons considérés (atome à deux niveaux, cavité avec 0 ou 1 photon, champ présentant deux phases possibles) comme des « porteurs » d’information, des « bits » à l’aide desquels on peut coder deux valeurs, 0 ou 1. Nos expériences peuvent être vues comme des opérations sur ces bits, qui les couplent suivant une dynamique conditionnelle. On peut par exemple considérer que le champ (0 ou 1 photon) est un bit
« contrôle » et que l’atome est un bit « cible ». On peut réaliser l’expérience en cavité de sorte que si le bit contrôle est dans l’état 0, le bit cible ne change pas, et que par contre il change d’état si le bit contrôle est dans l’état 1. On obtient alors une porte conditionnelle analogue aux portes utilisées dans les ordinateurs classiques. La nouveauté de cette porte par rapport à celles des ordinateurs usuels est que les bits peuvent être mis dans des superpositions d’états. On manipule ainsi non pas seulement les valeurs 0 ou 1, mais aussi des superpositions de ces valeurs. On parle alors de bits quantiques ou « qubits ». Si on prépare le qubit contrôle dans une superposition de 0 et de 1, le fonctionnement de la porte conditionnelle génère en sortie deux bits intriqués. Cette intrication élémentaire peut être amplifiée en se servant de la sortie d’une porte comme entrée d’une porte en cascade et ainsi de suite. On peut construire de la sorte des combinaisons complexes d’opérations. L’intrication ainsi réalisée permettrait en principe d’obtenir des situations équivalentes à la superposition cohérente d’un grand nombre d’ordinateurs classiques, travaillant en parallèle et interférant entre eux. Pour certains types de calculs (comme la factorisation des grands nombres), on devrait gagner énormément en vitesse d’exécution par rapport à ce que permettent les algorithmes de calcul classiques.
Cette constatation explique en grande part l’engouement actuel pour ce type de recherche. Il faut cependant faire ici une réserve importante. La décohérence est un problème très sérieux pour ce genre de système. Ce que l’on cherche à construire ainsi n’est autre qu’un super chat de Schrödinger dont nous venons de voir la sensibilité extraordinaire au couplage avec l’environnement. Dès qu’un quantum s’échappe de l’ « ordinateur », la cohérence quantique est perdue. Certains espèrent résoudre la difficulté en ajoutant des dispositifs correcteurs d’erreurs quantiques. Il s’agit de processus complexes, dont la mise en œuvre efficace est loin d’être évidente. L’ avenir de l’ordinateur quantique reste – et c’est un euphémisme – bien incertain. D’autres applications de la logique quantique, moins sensibles à la décohérence, sont plus prometteuses. Le partage entre deux observateurs de paires de particules intriquées ouvre la voie à une cryptographie quantique permettant l’échange d’informations secrètes, suivant une procédure inviolable. Des expériences très encourageantes ont été réalisées en ce domaine. La téléportation quantique permet de reproduire à distance, en se servant des propriétés de l’intrication, l’état d’une particule quantique. Cet effet pourrait lui aussi être utilisé dans des dispositifs de traitement quantique de l’information.
Conclusion : la « gloire et la honte du quantum »
Au terme de cette brève exploration de la physique quantique, concluons sur un mot du physicien Archibald Wheeler, l’un des derniers survivants de la génération des fondateurs de la théorie. Réfléchissant sur ce siècle des quanta, il a parlé sous une forme lapidaire de « la gloire et de la honte du quantum ». La gloire c’est bien sûr l’immense succès de cette théorie pour nous faire comprendre la nature. La honte, c’est qu’au fond, on ne « comprend » pas la théorie. En essayant d’utiliser un langage issu de notre monde classique, on arrive à des problèmes d’interprétation troublants. En fait, beaucoup de physiciens ne se posent pas ces problèmes. La nature est ce qu’elle est, quantique sans doute, et ils l’admettent sans états
d’âme, obéissant à l’injonction de Bohr à Einstein : « arrête de dire à Dieu ce qu’il doit
faire » ! Pour d’autres, il manque encore une formulation de la théorie qui réconcilierait notre intuition avec le monde tel qu’il est. La nouveauté de cette fin de siècle est que ce problème, longtemps réservé aux théoriciens et aux « imagineurs » d’expériences de pensée, s’ouvre maintenant aux expériences réelles.

Réaliser ces expériences de pensée est un défi amusant et excitant. C’est un plaisir rare de pouvoir suivre in vivo la danse des atomes et des photons qui obéissent de façon si parfaite aux injonctions de la théorie quantique. Il faut cependant constater que ces expériences deviennent de plus en plus difficiles lorsqu’on augmente la taille du système. Maintenir ne serait-ce qu’un modèle réduit de chat de Schrödinger suspendu dans une superposition cohérente d’états est vraiment difficile. Même si l’ordinateur quantique n’est pas vraiment en vue, ce domaine de recherche nous réserve cependant encore bien des surprises. Il y aura sans doute des applications de toute cette physique, et, comme c’est souvent le cas, ce ne seront vraisemblablement pas celles que l’on prévoit.
RÉFÉRENCES :
Sur l’intrication quantique et la décohérence :
W. ZUREK, « Decoherence and the transition from quantum to classical », Physics Today, Vol 44, No 10, p36 (1991).
Sur les expériences d’atomes en cavité :
P.R. BERMAN (éditeur) : « Cavity Quantum Electrodynamics », Academic Press, Boston (1994)
S. HAROCHE, J.M. RAIMOND et M. BRUNE, « Le chat de Schrödinger se prête à l’expérience », La Recherche, 301, p50, Septembre 1997.
Sur l’information quantique :
D. BOUWMEESTER, A. EKERT et A. ZEILINGER (éditeurs) « The physics of quantum information », Springer Verlag, Berlin, Heidelberg (2000).
Légendes des figures :
Figure 1. Représentation des orbitales de l’état fondamental (a), du premier état excité (b) et d’un état de Rydberg très excité (c) de l’électron de l’atome d’hydrogène. La figure (c) n’est pas à l’échelle (une orbitale de Rydberg peut avoir un diamètre mille fois plus grand que celui d’un état fondamental).
Figure 2. Interférences quantiques : (a) Expérience d’Young : chaque particule traverse l’interféromètre suivant deux chemins indiscernables et les points d’impact sur l’écran reproduisent une figure de franges. (b) Si on cherche à déterminer le chemin suivi, l’interférence disparaît (complémentarité). (c) quand on essaye de superposer deux états distincts d’un système macroscopique (superposition symbolisée par le signe + d’un « chat vivant » et d’un « chat mor t » dans une boîte), l’environnement (molécules dans la boîte) s’intrique avec le système, supprimant très rapidement les effets d’interférence (décohérence).
Figure 3. Expérience préparant une paire d’atomes intriqués : deux atomes, le premier dans l’état e, le second dans g sont envoyés dans une cavité initialement v ide, formée de deux miroirs se faisant face. Si les temps d’interaction atome-champ sont convenablement réglés, les deux atomes émergent dans une superposition d’états.
Figure 4 : Principe de la préparation d’un état « chat de Schrödinger » du champ dans la cavité : (a) un atome dans une superposition de deux états traverse la cavité. (b) il donne au champ deux phases à la fois. (c) Chaque composante de phase est représentée par un vecteur pointant dans une direction donnée.
Figure 5 : Expérience de complémentarité : (a) Principe : l’atome suit deux
« chemins » entre les zones de Ramsey et la phase du champ dans la cavité fournit une information levant l’ambiguité. (b) Signal : La probabilité de détecter l’atome dans le niveau g est enregistrée en fonction de la fréquence appliquée dans les zones de Ramsey, pour trois valeurs du déphasage du champ. Les franges sont d’autant moins visibles que les deux composantes du champ dans la cavité sont plus séparées.

Figure 6. Expérience de décohérence : (a) Principe : l’atome 1 prépare la superposition d’états de phases différentes du champ dans la cavité et l’atome 2 la sonde après un délai variable. (b) Signaux de corrélation à deux atomes en fonction du délai entre eux, obtenus en moyennant les résultats d’un grand nombre de réalisations. Le nombre moyen de photons est 3,3. L’expérience est effectuée pour deux séparations différentes des composantes du champ (cercles et triangles expérimentaux). Les courbes sont théoriques.

 

  VIDEO       CANAL  U         LIEN   

 

 

 
 
 
initiation musicale toulon  

La microscopie à force atomique distingue les atomes par la couleur

  initiation musicale

 

 

 

 

 

 

La microscopie à force atomique distingue les atomes par la couleur

27 octobre 2017    RÉSULTAT SCIENTIFIQUE GÉNIE ÉLECTRIQUE ET ÉLECTRONIQUE

Jusqu'ici le microscope à force atomique (AFM) permettait surtout de visualiser la topographie d'une surface à l'échelle de l'atome. Grâce à une méthode développée par des chercheurs français et japonais du laboratoire LIMMS, à Tokyo, l'AFM peut maintenant distinguer les différentes espèces chimiques présentes en leur attribuant une couleur. Ces travaux sont publiés dans la revue Applied Physics Letters.

Voir le relief de la surface d'un matériau à l'échelle des atomes, c'est bien. Mais visualiser et identifier les espèces chimiques en présence, c'est encore mieux. C'est ce que permet la méthode développée par des chercheurs du laboratoire LIMMS (Laboratory for integrated micro mechatronics systems), une unité mixte internationale du CNRS et de l'université de Tokyo, à l'aide d'un microscope à force atomique (AFM). Jusqu'ici, en effet, la fine pointe d'un microscope AFM ne permettait de visualiser que la topographie de la surface étudiée. Distinguer les espèces d'atomes présents en surface était possible, mais au prix de mesures délicates qui pouvaient durer des dizaines d'heures... L'équipe franco-japonaise du LIMMS a trouvé le moyen de le faire en un seul balayage de l'AFM, et en quelques minutes.

Le principe : pendant que la pointe de l'AFM balaye l'échantillon, trois paramètres physiques indépendants sont mesurés, qui donnent une information sur l'espèce chimique en surface. Pour visualiser ces résultats, les chercheurs utilisent ces trois signaux comme canaux RVB (Rouge Vert Bleu), et les trois couleurs primaires sont combinées pour former une image distinguant les différents atomes.

Pour effectuer ces mesures, il faut commencer par mettre en vibration la pointe du microscope, en excitant, à l'aide d'un laser, la minuscule « poutre » (cantilever) qui porte la pointe. Ensuite, quand celle-ci s'approche de l'échantillon, les forces locales agissent sur elle, et modifient sa fréquence de vibration. En mesurant cette fréquence, et en modulant la distance entre la pointe et l'échantillon, il est possible, par des calculs, d'obtenir alors trois paramètres physiques caractéristiques de l'espèce chimique locale : l'énergie de la liaison entre la pointe et l'échantillon, la longueur de l'interaction (la distance à partir de laquelle la pointe « sent » les forces locales), et la distance d'équilibre de l'interaction.

La démonstration, sur un échantillon de silicium amorphe, a montré que l'on pouvait distinguer différents états d'énergie d'atomes de silicium en surface. Mais la méthode est applicable à d'autres matériaux, par exemple pour étudier la contamination de catalyseurs solides, ou des procédés de fonctionnalisation de surfaces.

 Références :
Color atomic force microscopy: A method to acquire three independent potential parameters to generate a color image
P. E. Allain, D. Damiron, Y. Miyazaki, K. Kaminishi, F. V. Pop, D. Kobayashi, N. Sasaki, and H. Kawakatsu
Applied Physics Letters, Volume 111, Issue 12  2017
doi: http://dx.doi.org/10.1063/1.4991790
Contact
Hideki Kawakatsu
Chercheur
kawakatu@iis.u-tokyo.ac.jp
Pierre Allain

pierre.allain@univ-paris-diderot.fr
Communication INSIS

insis.communication@cnrs.fr

 

     DOCUMENT         CNRS         LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 ] - Suivante
 
 
 
Google