ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE

  initiation musicale

 

 

 

 

 

 

LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE

Depuis son émergence dans les années 1920, la Mécanique Quantique n'a cessé d'interpeller les physiciens par le caractère non intuitif de nombre de ses prédictions. On connaît l'intensité du débat entre Bohr et Einstein sur cette question. Le caractère incontournable de la Mécanique quantique au niveau microscopique est très vite apparu évident, puisque cette théorie fournit une description cohérente de la structure de la matière. En revanche, un doute pouvait subsister sur la validité au niveau macroscopique de prédictions étonnantes comme la dualité onde particule, ou les corrélations à distance entre particules intriquées. Après la publication des inégalités de Bell, en 1965, on a réalisé que les prédictions de la Mécanique quantique sur ces corrélations à distance étaient en contradiction avec la vision du monde (réalisme local) défendue par Einstein, et qu'il devenait possible de trancher ce conflit par des tests expérimentaux. Les expériences réalisées depuis plus de deux décennies avec des paires de photons corrélés ont confirmé de façon indubitable la justesse des prédictions quantiques, et donc la nécessité de renoncer à certaines images plus intuitives défendues par Einstein. Ces travaux très fondamentaux débouchent aujourd'hui sur des applications inattendues : cryptographie quantique, ordinateur quantique...

Texte de la 213e conférence de l'Université de tous les savoirs donnée le 1er août 2000.
Quelques tests expérimentaux des fondements de la mécanique quantique (en optique) par Alain Aspect
Je vais vous parler de fondements conceptuels de la mécanique quantique, et de tests expérimentaux directs de ceux-ci. La mécanique quantique est une théorie élaborée au début du XXe siècle entre 1900 et 1925. Cette nouvelle théorie physique a eu immédiatement des succès considérables pour comprendre le monde physique qui nous entoure, de la structure de l’atome à la conduction électrique des solides. Toutes ces propriétés ne peuvent se décrire correctement que dans le cadre de la mécanique quantique.
La mécanique quantique est également le cadre naturel pour décrire l'interaction entre la lumière et la matière, par exemple pour expliquer comment la matière peut émettre de la lumière blanche quand elle est chauffée (c'est ce qui se passe dans les ampoules électriques ordinaires). Un processus d'émission particulier, l’émission stimulée, est à la base du laser dont on connaît les nombreuses applications, des lecteurs de disque compact aux télécommunications par fibre optique.

Est-il bien sérieux de vouloir tester une théorie manifestement bien confirmée par le simple fait qu'elle explique tant de phénomènes ? Nous allons montrer que la mécanique quantique a tellement bouleversé les cadres conceptuels dans lesquels s'exerçait la pensée scientifique, et même la pensée tout court, que dès l'émergence des théories quantiques les physiciens se sont préoccupé de vérifier expérimentalement ses prédictions les plus surprenantes. Cette quête n’a pas cessé, au gré des progrès techniques. Il est remarquable que la plupart de ces tests portent sur la lumière, phénomène au départ de la théorie quantique il y a un siècle, avec les travaux de Planck en 1900, et ceux d’Einstein sur l’effet photoélectrique en 1905.
Je vais aujourd’hui aborder deux points particulièrement fascinants de la mécanique quantique : d’abord la dualité onde-particule ; puis les corrélations Einstein-Podolsky-Rosen, manifestation de l’intrication quantique.
À la fin du XIXe siècle, la physique est solidement établie sur deux piliers. Il y a d'un côté les particules, des corpuscules de matière, dont le mouvement est décrit par la mécanique newtonienne. Cette théorie extrêmement fructueuse est celle qui nous permet aujourd'hui de lancer des fusées aux confins du système solaire. La relativité a apporté quelques corrections à cette mécanique newtonienne mais le cadre conceptuel de la physique a peu changé. On parle toujours de trajectoires des particules soumises à des forces. De l’autre côté il y a les ondes, au rang desquelles la lumière. L'électromagnétisme est une théorie bien établie qui explique parfaitement la propagation de la lumière, et qui a permis l’invention de dispositifs pour générer les ondes radio. Ces ondes ont des propriété typiques : elles interfèrent, elles diffractent. Pour la physique classique, les deux domaines sont parfaitement identifiés : il y a d'un côté, les particules, et de l'autre les ondes.
La mécanique quantique au contraire mélange tout cela. Pour cette théorie, un électron est certes une particule mais aussi une onde, tandis que la lumière est non seulement une onde mais aussi une particule (le photon). Le premier test expérimental que je présenterai portera sur cette dualité onde-particule.
Un deuxième point radicalement incompatible avec les concepts de la physique classique a été mis en lumière en 1935 par Einstein et deux collaborateurs, Podolsky et Rosen. Ils ont en effet découvert que la mécanique quantique prévoyait, dans certaines situations très rares, que deux particules pouvaient avoir des corrélations étonnantes. Un long débat de nature épistémologique s’en est suivi, principalement entre Einstein et Bohr, mais sur le plan expérimental il n’était pas prouvé que ces corrélations EPR pouvaient être observées dans la
1
nature. Ce n’est qu’à partir des années 1970, après la contribution majeure de John Bell, que les expériences on commencé à apporter une réponse. C'est à ce problème que nous allons consacrer la deuxième partie de cette conférence.
Commençons donc par la dualité onde-corpuscule, toujours aussi fascinante. Si elle a été mise en évidence dès 1925 pour l’électron, et largement confirmée depuis, la situation n’est devenu claire pour la lumière que vers les années 70. Une expérience réalisée en 1982 à l’Institut d’Optique avec Philippe Grangier illustre particulièrement bien cette dualité. Dans un premier temps, nous analysons la lumière émise par une source S, à l’aide d’une lame semi-réfléchissante B suivie de deux détecteurs, un dans le faisceau transmis, l’autre dans le faisceau réfléchi (Figure 1). Chaque détecteur (photomultiplicateur) fournit, lorsqu’il reçoit de la lumière, des impulsions électriques, d’autant plus nombreuses que la lumière est plus intense, et dont les taux sont mesurés par les compteurs CT et CR. Comme notre lame semi- réfléchissante est équipée (elle transmet 50 % de la lumière incidente, et elle en réfléchit
50 %), on observe des taux de comptages égaux.
Un compteur de coïncidences CC est alors ajouté au dispositif. Il s'agit d'une sorte d'horloge extrêmement précise, capable de déterminer si deux détections dans les voies transmise et réfléchie sont simultanées à mieux que 5 milliardièmes de seconde près (5 nanosecondes). Qu’attend-on dans le cadre d'une description ondulatoire de la lumière ? L’onde incidente est partagée en deux ondes d’intensités égales, qui donnent lieu sur chaque détecteur à des impulsions produites à des instants aléatoires, mais dont les taux moyens sont égaux. On attend que de temps en temps, de façon aléatoire, deux détections dans les voies transmise et réfléchie se produisent simultanément : on doit observer un certain nombre de coïncidences.
Or lorsque nous avons analysé la lumière issue d’une source très particulière, développée pour l'occasion, aucune coïncidence n’a été observée. Comme nous l’attendions, cette source émet de la lumière dont les propriétés apparaissent manifestement corpusculaires : la seule interprétation raisonnable de l’absence de coïncidences est que cette lumière se comporte non pas comme une onde, mais comme des grains de lumière séparés – des photons- qui sont soit transmis soit réfléchis, mais qui ne sont pas divisés en deux par la lame semi réfléchissante. La source particulière permettant d'obtenir ce résultat est appelée « source de photons uniques ». Les photons y sont émis un par un, bien séparés dans le temps.
2
Figure 1. Mise en évidence du caractère corpusculaire de la lumière émise par la source de photons uniques S. On n’observe aucune détection en coïncidence sur les détecteurs CS et CC , placés derrière la lame semi réfléchissante B. Cette observation nous amène à décrire cette lumière comme formée de grains de lumière (les photons) qui sont soit transmis, soit réfléchis par B, mais pas divisé comme cela serait le cas pour une onde.
Dans un deuxième temps, sans changer de source, nous avons remplacé les détecteurs par des miroirs permettant de recombiner les deux faisceaux lumineux sur une deuxième lame semi-réfléchissante. Les deux détecteurs sont maintenant placés dans les deux voies de sortie de cette lame semi réfléchissante (Figure 2). On a ainsi réalisé un schéma classique d’interféromètre de Mach-Zehnder, qui nous a permis d’observer un comportement habituel d’interférences: lorsqu’on modifie lentement la longueur d’un des deux bras de l’interféromètre (en déplaçant un miroir), on observe que les taux de comptage sont modulés (Figure 3).
Figure 2. Mise en évidence du caractère ondulatoire de la lumière émise par la même source S que pour l’expérience de la figure 1. Les faisceaux issus de B sont réfléchis par les miroirs MR et MT , puis recombinés sur une deuxième lame B’, et détectés sur D1 . On observe que le taux de détection est modulé en fonction de la différence des longueurs des trajets BMTB’ et BMRB’. Cette observation nous amène à décrire la lumière comme une onde partagée sur la lame B, et recombinée sur la lame B’, ce qui donne lieu à interférence.
Figure 3. Interférences à un seul photon, observées avec le montage de la figure 2. On porte le taux de comptage enregistré par le compteur C1 ,en fonction de la position du miroir MT . On observe une modulation complète, de période égale à la longueur d’onde de la lumière, comme on s’y attend pour une onde. Au maximum, on détecte 200 photons en 20
3
secondes d’observation. La source S est la même que celle utilisée dans l’expérience de la figure 1.
Ce comportement s’interprète sans difficulté dans le cadre d’une description ondulatoire de l’expérience de la figure 2. L’onde incidente, décrite comme une vibration sinusoïdale du champ électromagnétique, est divisée par la première lame semi-réfléchissante en deux ondes (plus faibles) qui vont se recombiner sur la deuxième lame semi-réfléchissante. Suivant la différence des chemins parcourus entre les deux bras de l’interféromètre, les deux ondes vont se recombiner en phase ou en opposition de phase, et on comprend que le taux de comptage dépende de la différence des longueurs des deux bras.
Ainsi, dans l’expérience de la figure 2, la lumière émise par notre source se comporte comme une onde qui se partage en deux sur la première lame semi réfléchissante, et qui se recombine sur la deuxième. Mais l'expérience de la figure 1 mettait en évidence un comportement radicalement différent : la lumière y apparaissait formée de corpuscules – les photons – qui, au niveau de la première lame semi réfléchissante, allaient soit dans une direction, soit dans l'autre, mais jamais des deux côté à la fois. Or il s’agit de la même source S, et de la même lame semi-réfléchissante B. Le problème de la dualité onde-corpuscule est contenu dans le fait que, suivant le dispositif expérimental placé après B, les observations nous conduisent à nous représenter la lumière soit comme une onde qui se partage en deux, soit au contraire comme un flux de corpuscules qui ne se divisent pas mais vont aléatoirement d’un côté ou de l’autre.
Les deux descriptions ne peuvent pas être réconciliées. Il s'agit d'un des problèmes conceptuels de base de la mécanique quantique. Bien que le formalisme mathématique de la mécanique quantique rende compte sans difficulté de ce double comportement, il n'existe pas d'image classique qui puisse le représenter.

Ce problème a provoqué de nombreuses interrogations et des réticences sérieuses chez de grands physiciens. Ainsi, lorsqu’en 1913 les quatre grands savants Planck, Warburg, Nernst et Rubens écrivent une lettre pour soutenir la candidature d'Einstein à l'Académie des Sciences de Prusse, ils ne peuvent s’empêcher de faire part de leurs réserves : « Il n’y a quasiment aucun grand problème de la physique moderne auquel Einstein n’a pas apporté une contribution importante. Le fait qu’il se soit parfois fourvoyé, comme par exemple dans son hypothèse des quanta de lumière, ne saurait vraiment être retenu contre lui, car il n’est pas possible d’introduire des idées fondamentalement nouvelles, même dans les sciences les plus exactes, sans prendre occasionnellement un risque ». Il est amusant de constater que c’est précisément pour cette hypothèse jugée hasardeuse qu’Einstein allait recevoir le prix Nobel huit ans plus tard, après que Millikan ait confirmé expérimentalement la valeur de cette hypothèse pour comprendre l’effet photoélectrique. Que cette hypothèse corpusculaire ait été un véritable traumatisme, à la lumière de tout ce qu’on connaissait des phénomènes ondulatoires (interférences, diffraction...) est attesté par Millikan lui même, qui écrit dans ses mémoires, en 1949 : « Je passai dix ans de ma vie à tester cette équation d’Einstein de 1905, et, contre toutes mes attentes, je fus contraint en 1915 de reconnaître sa vérification expérimentale sans ambiguïté, en dépit de son caractère déraisonnable, car elle semblait violer tout ce que nous savions sur les interférences lumineuses... ». En 1932, dans les Procès verbaux des séances de la Société des Sciences Physiques et Naturelles de Bordeaux, le jeune Alfred Kastler (futur prix Nobel de Physique pour ses travaux en optique), ne se montre pas plus rassuré : « Les efforts de conciliation de Louis de Broglie ont abouti à l'admirable synthèse de la mécanique ondulatoire ou mécanique quantique. Mais [...] une telle synthèse [...] continue à inquiéter le physicien. Pour lui, la dualité entre les aspects ondulatoires et corpusculaires de la lumière reste un mystère non résolu. »
4
Le mystère est-il résolu aujourd'hui ? Nous nous sommes habitués à cette dualité, mais je suis toujours incapable de vous donner une image de quelque chose qui soit en même temps une onde et un corpuscule. Tout ce que je peux vous dire c’est que le formalisme mathématique, en ce qui le concerne, englobe de façon harmonieuse et cohérente les deux concepts. Pouvons nous nous en satisfaire ?

Les corrélations quantiques EPR (pour Einstein, Podolsky et Rosen) posent des questions sans doute encore plus troublantes. Le problème fut posé en 1935 au travers de ce qu’on appelle l’expérience de pensée EPR, que je vais vous décrire dans sa version moderne, celle qui est devenu une expérience réelle.
Commençons par expliquer ce qu'est la polarisation de la lumière. Un faisceau lumineux peut être polarisé rectilignement, c'est-à-dire que le champ électrique lumineux oscille dans un plan bien défini, vertical, ou horizontal, ou oblique. (La polarisation peut également être circulaire, elliptique,... mais ne compliquons pas). Un analyseur de polarisation, par exemple un prisme de Wollaston en spath d'Islande (ou le plus moderne séparateur de polarisation à couches diélectriques), permet de mesurer cette polarisation, car la lumière ne suivra pas le même trajet suivant qu’elle est polarisée dans un plan parallèle ou perpendiculaire à la direction d’analyse a que je suppose verticale (Figure 1). Dans le premier cas elle sort vers le haut (résultat +1), dans le deuxième elle sort vers le bas (résultat –1). Si des compteurs de photons disposés dans les voies de sortie montrent que tous les photons sortent dans la voie +1 , je peux en conclure que la polarisation est parallèle à a. S’ils sortent tous dans la voie –1, la polarisation est perpendiculaire à a. Dans les cas intermédiaires, les photons sont détectés aléatoirement dans l’un ou l’autre canal, et on ne peut conclure sur la polarisation qu’en tournant le polariseur pour chercher s’il existe une orientation a’ où tous les photons sortent dans la même voie.
Figure 4. Mesure de la polarisation de la lumière suivant la direction a . Si la lumière est polarisée parallèlement à a, tous les photons sont détectés dans la voie de sortie +1. S’ils sont polarisés perpendiculairement à a , ils sont détectés dans la voie –1. Pour une polarisation intermédiaire, ils sortent en +1 ou –1 avec des probabilités dépendant de la polarisation.

L'expérience d'Einstein-Podolsky-Rosen (Figure 5) suppose que les photons sont émis par paires, dans des directions opposées, dans une situation (appelée aujourd’hui état intriqué, ou état EPR), que nous ne savons décrire que par le formalisme de la mécanique quantique. Cet état est la superposition de deux situations faciles à décrire : dans la première (notée
b , b en mécanique quantique), les deux photons sont polarisés verticalement ; dans la deuxième (notée ↔, ↔ en mécanique quantique), les deux photons sont polarisés horizontalement. Mais pour l’état superposition, noté ( b ,b + ↔, ↔ ), je n’ai plus de mots :
les deux photons sont à la fois tous les deux verticaux et tous les deux horizontaux. Les deux photons sont liés de façon totalement indissoluble et seule la polarisation de l'ensemble, de la paire, a un sens. Dans un état intriqué, on ne peut pas parler des propriétés individuelles de
5
chacun des photons, bien qu'ils soient en train de s'éloigner l'un de l'autre et n'interagissent plus.
A quoi puis-je m’attendre si je mesure les polarisations de ces deux photons (Figure 5) ?. La mécanique quantique nous donne les moyens mathématiques de calculer, pour un état intriqué, les probabilités d'observer les différents résultats : premier photon dans le canal +1 ou -1 de l'analyseur I, deuxième photon dans le canal +1 ou -1 de analyseur II. On peut ainsi calculer les probabilités simples, ou conjointes. Commençons par les simples. On trouve par exemple que la probabilité de trouver +1 pour le premier photon est de 1/2, quelle que soit l’orientation a de l'analyseur ; la probabilité de trouver -1 est aussi de 1/2. On peut conclure que le premier photon n’a pas de polarisation définie, puisque le résultat de la mesure est totalement aléatoire quelle que soit la direction de mesure. Les mêmes résultats sont trouvés pour le deuxième photon, le résultat étant aléatoire quelle que soit la direction d’analyse b.
En fait la situation se révèle beaucoup plus intéressante quand on calcule la probabilité conjointe des résultats pour les deux photons. On peut par exemple calculer la probabilité de trouver +1 pour le premier photon et +1 pour le second, les analyseurs de polarisation étant respectivement dans les orientations a et b. Si les deux analyseurs sont parallèles, l'angle entre a et b est nul, et on trouve que cette probabilité est de 1/2. On peut en conclure que les résultats de mesures qui pris séparément semblent aléatoires, sont en fait totalement corrélés. En effet, si la probabilité de trouver +1 pour premier photon vaut 1/2, et que la probabilité conjointe de trouver +1 pour le premier et +1 pour le deuxième vaut également 1/2, alors la probabilité conditionnelle de trouver +1 pour le deuxième quand on a trouvé +1 pour le premier vaut 1. Une autre façon de présenter le résultat est la suivante : on a des probabilités égales de trouver +1 ou –1 pour le premier photon, et de même pour le deuxième. Mais si on trouve +1 pour le premier, alors on est certain de trouver +1 pour le deuxième. Et si on trouve –1 pour le premier, on est certain de trouver –1 pour le deuxième.

Figure 5. Expérience de pensée d'Einstein-Podolsky-Rosen, sur des photons ν1 et ν2, émis par paires dans des directions opposées. Pour des paires intriquées (états EPR), la mesure simple sur chaque photon donne un résultat +1 ou –1 avec la même probabilité 1/2. Mais la mesure conjointe sur ν1 et ν2 montre une corrélation qui est totale pour des analyseurs de polarisation parallèles (a parallèle à b). Dans ce cas, si on trouve +1 pour ν1, on est certain de trouver +1 pour ν2 ; mais si on trouve –1 pour ν1, on est certain de trouver -1 pour ν2.
Einstein-Podolsky-Rosen se sont demandé comment se représenter ces corrélations prédites par la Mécanique Quantique entre les résultats de deux mesures effectuées à des endroits différents mais à des instants quasiment identiques.
On peut essayer de construire une image à partir du formalisme quantique. En voici une, dans laquelle on suppose que le photon ν1 atteint le polariseur I en premier : le résultat de la mesure sur ν1 est alors aléatoire (+1 ou –1), mais aussitôt un résultat particulier obtenu, le postulat de réduction du paquet d’onde entraîne que le photon éloigné ν2 acquiert instantanément la polarisation (parallèle ou perpendiculaire à a) trouvée pour ν1. Ceci permet
6
de comprendre la corrélation, mais au prix d’une image inacceptable pour le père de la relativité : comment un événement situé au premier polariseur pourrait-il affecter instantanément le photon éloigné, s’il n’existe pas d’interaction se propageant plus vite que la lumière ?
En fait, on peut proposer une autre image dans l’esprit de la vision du monde défendue par Einstein, où les objets ont des propriétés physiques qui leur sont attachées, et où aucune interaction ne va plus vite que la lumière. Dans cette image, les corrélations entre les résultats de mesures en I et II sont dues à l’existence de propriétés identiques pour les deux membres de la paire. Plus précisément, on peut imaginer que lors de leur émission conjointe, les deux photons d’une même paire vont acquérir une même propriété de polarisation, qui prédétermine le résultat des mesures qui seront faites sur chaque photon. Il n’y a alors plus de difficulté à comprendre que les mesures soient corrélées. Si de plus cette propriété initiale commune fluctue aléatoirement d’une paire à l’autre, on rend compte sans problème du caractère aléatoire observé sur chaque mesure considérée séparément.
Cette image est extrêmement naturelle et raisonnable. Elle suit la démarche adoptée par des médecins qui, constatant que les jumeaux vrais sont touchés de façon corrélée par une certaine affection (les deux sont malades, ou les deux sont indemnes, mais on ne trouve jamais un jumeau malade et son frère indemne), en concluent que cette affection est de nature génétique, liée à l’existence d’un ou plusieurs chromosomes identiques.

Niels Bohr refusa immédiatement cette conclusion d’Einstein. En effet, le physicien Danois était convaincu que la mécanique quantique donnait la connaissance ultime des choses, et qu'il ne pouvait donc pas y avoir de connaissance plus complète. Or le formalisme quantique décrit toutes les paires EPR par le même état quantique (b,b + ↔,↔ ), tandis
que dans l'interprétation d'Einstein, les paires de photons ne sont pas toutes identiques, puisqu’il y a une caractéristique supplémentaire, cachée, qui distingue les paires : par exemple certaines sont b , b , et d’autres sont ↔, ↔ .
Le débat entre les deux géants de la physique dura vingt ans, jusqu’à leur mort. Il ne s’agissait pas d’une divergence sur les faits, mais d’un débat sur l’interprétation de la mécanique quantique. Einstein ne remettait pas en doute le résultat du calcul quantique prévoyant les corrélations EPR. Il pensait simplement que le formalisme quantique ne constituait pas la description ultime des paires de photons, qu’il devait être complété. L’analyse de la situation EPR l’avait conduit à la conclusion qu'il y a une réalité physique sous-jacente plus fine, et qu'il fallait trouver le bon formalisme pour la décrire. Mais Bohr pensait que cette quête était vouée à l’échec, et que notre connaissance était fondamentalement limitée, les relations de Heisenberg indiquant l’existence d’une telle limite. S’il était fondamental sur le plan des concepts, ce débat purement épistémologique semblait sans grandes conséquences pour la physique.

En 1965, le problème change de nature avec l’entrée en scène de John Bell (du CERN à Genève). Poussant au bout de leur logique les idées d'Einstein, il introduit explicitement des paramètres supplémentaires λ (aussi parfois appelés variables cachées) identiques pour les deux membres d’une même paire, et déterminant le résultat de la mesure sur chaque membre de la paire. Il existe donc une fonction A(λ,a) indiquant le résultat -1 ou +1 de la mesure au polariseur I (dans l’orientation a), pour un photon porteur du paramètre λ ; de façon analogue une fonction B(λ,b) indique le résultat au polariseur II. Dans la source, un processus aléatoire va déterminer le paramètre λ particulier pris par chaque paire, et on le caractérise par une densité de probabilité ρ(λ).
Une fois les quantités A(λ,a), B(λ,b), et ρ(λ) données (ce qui correspond à un modèle à paramètres supplémentaires particulier), on peut en déduire les probabilités des résultats de mesures, simples ou conjointes. Il est en particulier possible de calculer le coefficient de
7
corrélation de polarisation E(a,b) caractérisant le degré de corrélation entre les résultats de mesure, en fonction de l’angle (a,b) entre les polariseurs. L'espoir est alors de trouver un modèle particulier qui donne un coefficient de corrélation de polarisation E(a,b) identique à la prédiction EMQ(a,b) de la mécanique quantique. Dans ce cas les corrélations EPR pourraient être interprétées par une image « à la Einstein ».
La découverte de Bell, c’est que cet espoir est vain. Le théorème de Bell montre qu’il est impossible de reproduire avec un modèle de ce type, toutes les prédictions de la mécanique quantique, pour toutes les orientations possibles a et b des polariseurs. Plus précisément, il s'intéresse à une quantité S combinaison des 4 coefficients de corrélation associés à deux orientations a et a’ du polariseur I, et deux orientations b et b’ du polariseur II. Et il montre que si ces corrélations peuvent être décrites à partir de paramètres supplémentaires suivant le schéma ci-dessus, alors S ne peut valoir plus de 2, ni moins de –2. Or il est facile de trouver des combinaisons d’orientations (a,a’,b,b’) pour lesquelles le résultat du calcul quantique donne une quantité S nettement supérieure à 2 (par exemple on
peut avoir SMQ = 2 2 = 2.83..). Dans ces situations, la mécanique quantique viole les
inégalités de Bell : elle est donc incompatible avec les modèles à variables cachées. Contrairement à ce que pensait Einstein, on ne peut donc à la fois croire aux
prédictions quantiques pour les corrélations EPR, et vouloir décrire ces corrélations par ce modèle si naturel, dans le droit fil des idées d’Einstein, selon lequel les paires de photons possèdent dès le départ la propriété qui déterminera le résultat de la mesure ultérieure. A ce point, on pourrait penser que la Mécanique Quantique a été si souvent validée par les observations expérimentales que la cause est entendue, et qu’il faut renoncer aux modèles à paramètres supplémentaires. En fait, dans les années qui suivirent la parution de l’article de Bell, on s’aperçut que les situations d’intrication où l’incompatibilité apparaît sont extrêmement rares, et qu’il n’existait aucune donnée expérimentale permettant de trancher. Ne pouvait-on alors imaginer que le conflit entre prédictions quantiques et inégalités de Bell indiquait une frontière où la mécanique quantique atteindrait ses limites ? Pour le savoir, il fallait se tourner vers expériences nouvelles.
Une première série d'expériences fut conduite aux USA dans la première moitié des années 1970. Après quelques résultats contradictoires, ces expériences de première génération penchèrent en faveur de la mécanique quantique. Cependant, les schémas expérimentaux de l’époque ne suivaient pas vraiment le schéma idéal de la figure 5, et leur interprétation reposait sur un certain nombre d’hypothèses supplémentaires raisonnables certes, mais qui pouvaient être contestées par les partisans des variables cachées.

C’est pour se rapprocher du schéma idéal que nous avons construit à l’Institut d’Optique d’Orsay, au début des années 80, une expérience bénéficiant des énormes progrès dans le domaine des lasers, de l’optoélectronique, du pilotage des expériences par ordinateur... Nous avons d’abord construit, grâce à une excitation à deux photons par deux lasers, une source de paires de photons intriqués des milliers de fois plus efficace que les sources précédentes. De plus, les progrès dans les traitements multicouches diélectriques nous ont permis de construire de véritables analyseurs de polarisation. Finalement, nous avons emprunté à la physique nucléaire les techniques de détection en coïncidence à plus de deux détecteurs, et l’ensemble nous a permis de faire en 1982, avec Philippe Grangier et Gérard Roger, une expérience suivant très exactement le schéma de la figure 5. Un point remarquable est qu’en une seule acquisition de durée 100 secondes, on peut mesurer les 4 taux de coïncidences N++ , N+− , N−+ , et N−− relatifs à une orientation donnée (a,b) des polariseurs,
et en déduire le coefficient de corrélation E(a,b)mesuré pour cette orientation. En répétant la mesure pour trois autres orientations (a,b’), (a’,b) et (a’,b’), on en tire une valeur mesurée
Sexp (a,a',b,b') de la quantité soumise à l’inégalité de Bell. Pour un jeu d’orientations bien
8
9
choisies (celui où la mécanique quantique prédit la plus grande violation), on a trouvé
Sexp = 2, 697 ± 0, 015 ce qui viole manifestement très fortement l’inégalité de Bell S ≤ 2 et
qui est en excellent accord avec la prédiction quantique pour cette situation expérimentale. La cause était-elle définitivement entendue ?
En fait, dès le début de notre programme, nous souhaitions aller plus loin et approfondir une question soulevée par John Bell dès son article initial : celle de la localité. De quoi s’agit-il ? Si on reprend le formalisme conduisant aux inégalités de Bell, on constate qu’il contient de façon implicite l’hypothèse que le résultat de la mesure par le polariseur I ne dépend pas de l’orientation b choisie pour le polariseur éloigné II (car sinon on aurait écrit
A(λ,a,b) au lieu de A(λ,a) ). Il en est évidemment de même pour la réponse du polariseur II
que l’on suppose indépendante de l’orientation de I, et également pour la préparation des paires dans la source supposée indépendante des orientations a et b des polariseurs qui feront la mesure (puisqu’on l’écrit ρ(λ) et non ρ(λ,a,b) ). Cette hypothèse est indispensable pour
l’établissement des inégalités de Bell. Elle semble naturelle, mais comme l’a fait remarquer John Bell rien ne s’oppose, dans une expérience où les polariseurs sont statiques, à ce qu’une interaction entre les polariseurs, ou entre les polariseurs et la source, mette cette hypothèse en défaut. En revanche, si on pouvait réaliser une expérience dans laquelle les orientations des polariseurs seraient changées aléatoirement et très vite, avec des temps caractéristiques courts devant le temps de propagation de la lumière entre les polariseurs, alors l’hypothèse de localité deviendrait une conséquence immédiate du principe de causalité relativiste suivant lequel aucune interaction ne se propage plus vite que la lumière. On comprend que dans ce cas la façon dont une paire est préparée ne puisse dépendre des orientations a et b des polariseurs qui feront la mesure, puisque ces orientations seront choisies après l’émission des photons, pendant leur propagation vers les polariseurs. Une telle expérience mettrait donc encore mieux l’accent sur le conflit entre les conceptions d’Einstein et la Mécanique Quantique.

Dans notre expérience, nous utilisions des analyseurs de polarisation ayant une masse de plusieurs dizaines de kilogrammes, et il était hors de question de les tourner en quelques nanosecondes. Pourtant, nous avons réussi à faire la première expérience avec polariseurs variables, avec Jean Dalibard qui était venu rejoindre notre équipe. L'astuce consistait à utiliser un aiguillage optique de notre invention, un commutateur rapide capable d’envoyer le photon ν1 soit vers un polariseur I dans l’orientation a, soit vers un deuxième polariseur I’ dans l’orientation a’. L’ensemble est équivalent à un polariseur unique basculant rapidement entre les orientations a et a’. Un dispositif analogue permet d’analyser le photon ν2 soit suivant l’orientation b, soit suivant l’orientation b’. Les deux commutateurs rapides, placés à 12 mètres l’un de l’autre, étaient capables de basculer toutes les 10 nanosecondes, plus vite que le temps de propagation de la lumière entre eux (40 nanosecondes). Cette expérience était à limite de ce qu'il était possible de faire en 1982, et elle n’était pas idéale parce que le basculement des polariseurs n’était pas strictement aléatoire. On avait pourtant toutes les raisons de penser que si la mécanique quantique devait être mise en défaut dans une expérience de ce type, cela se manifesterait sur les signaux expérimentaux. Mais les résultats furent sans appel en faveur de la mécanique quantique, contre les théories locales à variables cachées.

En 1998, une deuxième expérience avec polariseurs variables a abouti à Innsbruck dans l'équipe d'Anton Zeilinger. Cette expérience a tiré profit de la mise au point depuis une dizaine d’années de sources de photons EPR de troisième génération. Un avantage crucial de ces sources et que les photons peuvent être injectés dans des fibres optiques, ce qui conduit à des résultats spectaculaires. Ainsi, en utilisant le réseau de fibres optiques du téléphone Suisse, Nicolas Gisin a pu éloigner ses polariseurs à 30 kilomètres de la source ! Dans
l’expérience d’Innsbruck, les photons se propagent dans 400 mètres de fibre optique seulement, mais ce délai est suffisant pour autoriser un basculement vraiment aléatoire des polariseurs. Cette expérience encore plus proche d’une expérience idéale a confirmé que même avec des polariseurs rapidement variables, on observe bien les corrélations quantiques, et on viole les inégalités de Bell.
Il faut se rendre à l’évidence : les photons intriqués ont un comportement « jumeau quantique » : les corrélations observées vont au delà de ce qui serait explicable en terme de propriété classique commune, analogue à un patrimoine génétique commun. Les corrélations quantiques sont d’une autre nature, et on peut le vérifier par l’expérience.
Que conclure ? Einstein, qui ne connaissait pas le théorème de Bell, avait envisagé comme une hypothèse absurde la possibilité que l’on soit contraint de renoncer à une explication des corrélations par un modèle où chacun des photons, une fois séparé de son jumeau, possède une réalité physique autonome, et où les corrélations sont dues aux éléments communs de ces réalités physiques séparées dans l’espace temps. Si on renonçait à une telle description–nous dit Einstein- alors il faudrait :
- soit laisser tomber l'exigence d'une existence autonome de la réalité physique présente en différentes portions de l'espace ;
- soit accepter que la mesure sur un système change (instantanément) la situation réelle de l’autre système éloigné.

La première option revient à considérer qu'une fois les deux photons séparés dans l’espace-temps, ils constituent deux entités indépendantes. Y renoncer conduit à admettre que deux particules intriquées, même éloignées, constituent un tout inséparable, qui ne peut être décrit que comme une entité globale. En fait le formalisme de la mécanique quantique (où une paire intriquée est décrite par un vecteur d’état global) suggère d’accepter cette conclusion.
La deuxième option revient à accepter que des influences se propagent plus vite que la lumière, au moins au niveau des réalités physiques des systèmes séparés dans l’espace temps. Notons ici que même si on l’acceptait, cette conclusion n’entraînerait pas pour autant la possibilité de transmettre plus vite que la lumière de vrais messages utilisables, dont on pourrait par exemple se servir pour déclencher le lancement d’un missile, ou pour passer un ordre à la bourse de Tokyo... ou qui nous permettrait d’assassiner nos parents avant qu’ils ne nous aient conçus !
En fait, je ne suis pas sûr que la deuxième option (il y a des influences instantanées entre les systèmes séparés) soit radicalement différente de la première (les photons intriqués constituent un tout inséparable). Comment imaginer que deux objets en interaction instantanée soient réellement séparés ? C’est pourquoi je préfère conclure que deux systèmes intriqués forment un tout inséparable dans l’espace-temps.
Pour conclure, je voudrais vous partager mon étonnement d’avoir vu ces discussions sur les fondements conceptuels de la Mécanique Quantique, a priori très formelles, déboucher ces dernières années sur des idées d’applications de l’intrication quantique. Certes il ne s’agit pas de télégraphier plus vite que la lumière. Mais en revanche la cryptographie quantique met à profit les propriétés des mesures quantiques (qui perturbent nécessairement l’état quantique du système mesuré) pour garantir qu’une communication n’a pas pu être interceptée. Vous avez aussi certainement entendu parler de téléportation quantique, expression utilisée à tort et à travers, mais phénomène qui laisse le physicien admiratif puisqu’il permet de faire une copie fidèle à distance d’un état quantique (en détruisant l’original) alors même que les lois fondamentales de la mécanique quantique nous interdisent de connaître la totalité de cet état. Quant à l’ordinateur quantique basé sur les états intriqués, il aurait une puissance de calcul formidablement plus grande que les ordinateurs actuels, à condition de savoir répondre à la question suivante (cf. la conférence de Serge Haroche) : ces phénomènes quantiques sont ils réservés à l’infiniment petit, ou peut-on les observer avec des objets macroscopiques, voire
10
vivants (comme le malheureux chat de Schrödinger) ? On sait aujourd’hui que les phénomènes de décohérence détruisent l’intrication quantique de façon d’autant plus efficace que les objets sont plus gros. Mais on n’a pas démontré l’impossibilité absolue de paires EPR avec des objets bien plus complexes que de simples photons. Il y a encore de beaux défis pour les expérimentateurs !

 

VIDEO       CANAL  U         LIEN 

 
 
 
initiation musicale toulon  

CONDUCTIVITÉ ET SUPRACONDUCTIVITÉ

  initiation musicale

 

 

 

 

 

 

CONDUCTIVITÉ ET SUPRACONDUCTIVITÉ

La matière est constituée d'atomes qui présentent beaucoup de points communs : un noyau, autour duquel des électrons gravitent. Dans ces conditions, pourquoi certains matériaux sont-ils isolants et empêchent le passage du courant électrique, alors que d'autres matériaux, laissant les électrons libres de se déplacer, sont conducteurs. Pourquoi un électron, initialement attaché à son noyau, décide-t-il de l'abandonner en se laissant entraîner par des attractions qu'il ressent pour d'autres ? Les électrons ont-ils si peu de principes qu'ils sont prêts à rejoindre le premier noyau qui les attire. Dans cette conférence, on montrera que les électrons, qui sont naturellement assez volages, respectent néanmoins un principe et que ceci explique la plupart des propriétés électriques de la matière. On abordera le cas des isolants, des conducteurs et des supraconducteurs. Ces derniers constituent une énigme non encore résolue. Leur maîtrise pourrait provoquer une révolution industrielle.

Texte de la 226e conférence de l’Université de tous les savoirs donnée le 13 août 2000.
Les propriétés électriques de la matière par Jacques Lewiner
L’observation
Chacun de nous a pu constater que certains matériaux transportent ou laissent passer l’électricité alors que d’autres l’arrêtent. Les fils électriques qui alimentent les nombreux appareils que nous utilisons comportent une partie métallique conductrice de l’électricité et une enveloppe extérieure isolante qui ne la laisse pas passer. Or, la matière est constituée d’atomes qui présentent beaucoup de points communs : un noyau autour duquel des électrons gravitent. Dans ces conditions, pourquoi certains matériaux sont-ils isolants et empêchent le passage du courant électrique alors que d’autres laissant les électrons libres de se déplacer sont des conducteurs ?
Pourquoi un électron initialement attaché à son noyau déciderait-il de l’abandonner en se laissant entraîner par des forces qui le sollicitent ? Les électrons ont-ils si peu de principes qu’ils seraient prêts à rejoindre le premier noyau qui les attire ?
Nous allons voir que les électrons qui sont naturellement assez volages respectent néanmoins un principe fort et que ceci explique la plupart des propriétés électriques de la matière.
On abordera ainsi le cas des isolants, des conducteurs et des supraconducteurs. Ces derniers, qui constituent encore une énigme majeure pourraient provoquer une révolution industrielle.
L’atome
Nous allons décrire la matière en utilisant comme composant élémentaire l’atome. Il comporte, comme montré sur la figure 1, un noyau chargé positivement, formé de neutrons et de protons autour duquel gravitent des électrons qui sont chargés négativement. La charge totale des électrons compensant la charge du noyau, l’atome est électriquement neutre. Si l’on applique un champ électrique à un tel atome les électrons sont soumis à une force dans le sens opposé à celui du champ alors que le noyau est soumis à une force dans le même sens.
Compte tenu des forces internes à l’atome, les électrons et le noyau ne s’écartent que très peu les uns des autres et les électrons restent attachés à leur noyau. Cette situation est celle que l’on trouve dans les gaz ou dans les systèmes dans lesquels les atomes sont assez distants les uns des autres.
Pour voir apparaître un courant électrique il faudrait arracher un ou plusieurs électrons de leur atome et pour cela leur fournir une énergie supérieure à celle qui les retient. En fait les électrons autour du noyau occupent des orbites caractérisées par des énergies très précises. Chaque orbite ne peut contenir qu’un nombre fini d’électrons. Pour passer d’une orbite à une autre ou pour arracher un électron de l’atome il faut donc lui fournir soit l’énergie qui sépare les deux niveaux dans le cas d’un changement de niveau, soit l’énergie d’attachement à l’atome, dans le cas d’un arrachement de l’électron.
La nature nous fournit de telles possibilités. Ainsi les rayons cosmiques qui nous viennent de l’espace sont porteurs d’une grande énergie susceptible d’arracher les électrons. La radioactivité naturelle a le même effet. On a affaire dans les deux cas à des rayons ionisants. Ils transforment un atome neutre en un atome dont on a arraché un ou plusieurs électrons que l’on appelle ion, et des électrons. On a donc créé deux charges électriques qui sont, chacune, susceptibles d’être entraînées dans des directions opposées par application d’un champ électrique. On peut ainsi observer un léger courant électrique. C’est ce principe qui est utilisé dans de très nombreux instruments de mesure des rayonnements ionisants. C’était la technique utilisée par Pierre et Marie Curie pour mesurer les premiers radioéléments, le radium, le polonium, etc.
Lorsque l’on approche les atomes les uns des autres jusqu’à constituer un solide comme montré sur la figure 2, les orbites électroniques sont du même ordre de grandeur que la distance qui sépare les atomes. La tentation peut donc devenir grande pour un électron d’abandonner son noyau pour rejoindre le noyau voisin et ainsi, pour peu qu’un champ électrique exerce une force sur cet électron, de passer d’atome en atome en adoptant un comportement d’électron « libre ».
Afin de minimiser les énergies, les atomes s’organisent en général de manière très régulière dans un arrangement périodique presque parfait au moins sur des distances courtes. Les électrons des couches profondes, les plus proches du noyau, sont fortement liés à leur atome. Au
2
contraire, les électrons dans la dernière couche habitée sont ceux qui sont le plus susceptibles de se déplacer.
Nous désignerons par cœur de l’atome l’ensemble constitué par le noyau et les électrons des couches profondes. De cette manière l’atome peut être décrit comme un ou plusieurs électrons négatifs relativement libres gravitant autour d’un cœur d’atome positif. L’arrangement régulier des atomes est donc associé à un arrangement régulier des cœurs d’atomes, positifs, qui créent un potentiel électrique ayant la même périodicité que celle de l’arrangement des atomes.
Les électrons des couches périphériques sont soumis à ce potentiel périodique. Cette périodicité conduit à imposer aux électrons des valeurs de l’énergie permises et des valeurs de l’énergie interdites. Cette loi générale de la physique, liée aux systèmes périodiques, est dans certains cas directement sensible à nos sens par exemple quand nous regardons la surface d’un CD. En observant la lumière réfléchie par une telle surface, nous voyons apparaître des couleurs ou irisations qui résultent de l’extinction de certaines bandes de fréquence dans la lumière reçue. Cette lumière qui arrivait « blanche » c’est-à-dire comportant toutes les longueurs d’ondes que l’œil est capable de détecter, après réflexion sur la structure périodique que constitue l’arrangement régulier de micro trous du CD, est devenue colorée pour l’œil. Certaines longueurs d’onde n’ont pu être réfléchies.
Les énergies permises pour les électrons d’un solide sont réparties de manière continue dans des bandes d’énergies permises, séparées les unes des autres par des zones d’énergies interdites que l’on appelle bandes interdites.
Les électrons doivent donc se répartir à l’intérieur des bandes d’énergies permises. Selon une loi générale de la nature ils vont chercher à se mettre dans les états d’énergie les plus faibles. Dans ces conditions pourquoi ne se regroupent-ils pas tous dans l’état d’énergie minimum? Car ils respectent un principe , le principe de Pauli, qui stipule que dans un état donné on ne peut mettre qu’un électron. La vie des électrons serait bien triste. Heureusement la nature leur a donné un mouvement de rotation sur eux-mêmes que l’on appelle spin. Or le spin de l’électron peut prendre deux valeurs, ce qui permet de créer deux petites maisons d’électrons à l’intérieur des états énergétiques tels que décrits précédemment. Grâce au spin on peut ainsi associer deux électrons sans s’opposer au principe de Pauli.
En respectant cette règle, les électrons de notre solide vont occuper progressivement tous les états permis en partant du plus profond. Ils vont ainsi remplir une première bande, puis lorsqu’elle sera pleine, la première bande libre au dessus et ainsi de suite jusqu’à ce que tous les électrons aient été placés. On symbolise sur la figure 3 le remplissage des bandes par des hachures. Deux situations sont donc possibles, telles qu’illustrées en a et b.

3
Soit la dernière énergie occupée par les électrons se trouve au sommet d’une bande permise (figure 3a), soit elle se trouve au milieu d’une telle bande (figure 3b). Cette différence apparemment minime a pourtant des conséquences considérables sur le comportement électrique du solide.
Les isolants
Considérons tout d’abord le cas présenté sur la figure 3a à savoir 2 bandes permises sont pleines et toutes les bandes permises au-dessus sont vides. Appliquons maintenant un champ électrique E en imposant par exemple une tension électrique aux bornes de notre matériau. Ce champ exerce une force F = qE où q est la charge de l’électron. On serait tenté de penser que les électrons soumis à cette force vont être entraînés dans un mouvement à accélération constante. En réalité, le mouvement n’est pas possible. Comme tous les états autorisés sont pleins, les électrons ne peuvent malgré la force qui les sollicite, se laisser entraîner.
Tout se passe comme si à l’heure de pointe dans un wagon de métro on apercevait à l’autre extrémité du wagon une personne vers laquelle ont aimerait aller (la force qui nous attire) mais on ne le peut car il n’y a pas de places libres par lesquelles on pourrait, par une succession de déplacements élémentaires, avancer. Cette absence de mouvement des électrons en présence d’un champ électrique permet d’interpréter un tel matériau comme un isolant de l’électricité.
Les isolants sont très utilisés dans les systèmes électriques pour séparer des conducteurs, pour nous protéger des dangers de l’électricité ou même pour transporter des informations comme dans les fibres optiques. Certains isolants possèdent en outre des propriétés tout à fait
4
étonnantes. Par exemple, il existe des matériaux dans lesquels l’application d’une contrainte mécanique se traduit par l’apparition de charges électriques. Ceci permet de transformer une action mécanique en un signal électrique. Le processus inverse existe par lequel l’application d’une tension ou d’un champ électrique engendre une déformation ou une contrainte mécanique des matériaux. De tels matériaux, très particuliers, sont dits piézoélectriques.. Ils ont révolutionné de nombreux domaines de notre vie courante : les télécommunications, la mesure du temps et bien d’autres. Le quartz, très connu, est utilisé pour stabiliser des fréquences ou mesurer avec précision des temps. Les montres à quartz sont des produits de grande consommation.
Les corps piézoélectriques sont utilisés également dans d’autres applications, par exemple en détection sous-marine. Le sonar, qui permet d’explorer sous l’eau la zone devant un bateau évite les accidents face à des écueils ou des icebergs. L’échographie médicale, maintenant largement répandue, par exemple en gynécologie, utilise des ondes ultrasonores produites et détectées par des transducteurs piézoélectriques.
D’autres isolants possèdent encore de nombreuses propriétés étonnantes. Ainsi certains corps, dits pyroélectriques, génèrent des charges électriques lorsqu’ ils sont soumis à un léger réchauffement. Le simple rayonnement émis par le corps humain sous forme d’ondes infrarouges permet de déclencher l’ouverture de portes automatiques ou de détecter des intrus dans un local surveillé. Peut-être ces matériaux pyroélectriques permettront-ils de détecter un jour, de manière précoce, les cancers du sein.
Les semi conducteurs
Supposons maintenant que l’écart entre la dernière bande pleine, dite bande de valence et la première bande vide, dite bande de conduction soit du même ordre de grandeur que l’énergie due à l’agitation thermique. Dans ce cas on peut imaginer, tout en respectant la conservation de l’énergie, que des grains d’énergie thermique sont absorbés par certains électrons qui sautent dans la bande de conduction. Un tel matériau possède des propriétés bien étranges. En le refroidissant on diminue la probabilité que de telles transitions se produisent alors qu’en augmentant la température on augmente cette probabilité. De cette manière, à basse température, on a des bandes pleines surmontées de bandes vides. C’est donc un isolant. Au contraire, à haute température lorsque des électrons sont envoyés de la bande de valence vers la bande de conduction, deux effets complémentaires apparaissent. Dans la bande de valence les absences d’électrons constituent des opportunités pour permettre à ceux qui sont restés de se déplacer sous l’effet du champ (le wagon de métro s’est partiellement vidé et le mouvement devient possible). On a donc un courant en présence d’un champ électrique appliqué.
Mais de la même manière les quelques électrons qui ont été envoyés dans la bande de conduction et qui sont entourés d’états libres peuvent très facilement se déplacer sous l’effet de la force due au champ appliqué. Ils produisent eux aussi un courant électrique. Ce matériau étrange, isolant à basse température et conducteur à température plus élevée est ce qu’on appelle un semi- conducteur intrinsèque. Ses propriétés électriques dépendent considérablement de la température ce qui le rend peu propice à être utilisé dans des applications industrielles. Qui accepterait d’avoir une télévision, une radio ou un téléphone qui ne fonctionnerait de manière satisfaisante qu’entre 20 et 21°C ? Pour cette raison, l’industrie des semi-conducteurs utilise un artifice : le dopage. Cette opération consiste à rajouter à la place de certains atomes constituant le matériau des atomes autres ne possédant pas le même nombre d’électrons. Ainsi en substituant à un atome possédant 4 électrons périphériques comme dans le cas du germanium, un atome d’arsenic possédant 5 électrons, on se trouve avec un électron supplémentaire sans avoir créé une absence d’électrons dans la bande de valence. On a affaire à un semi-conducteur extrinsèque. Ce type de
5
semi-conducteurs est tellement répandu qu’en général on n’ajoute même pas le mot
« extrinsèque » mais on utilise tout simplement l’appellation réduite de semi-conducteurs.
Les Photoconducteurs
Revenons à la Figure 3a dans laquelle la bande de valence est pleine et la bande de conduction vide. Au lieu d’utiliser l’énergie d’agitation thermique pour envoyer un électron d’une bande vers la bande de conduction on utilise maintenant l’énergie d’un rayonnement électromagnétique. Une telle énergie est constituée de grains élémentaires appelés photons. Dans ce cas l’absorption d’un photon permet, en respectant le principe de conservation de l’énergie, d’envoyer un électron de la bande de valence vers la bande de conduction. On se retrouve ainsi dans une situation comparable à celle précédemment décrite : le matériau est devenu conducteur. Ces matériaux possèdent l’étrange propriété d’être isolants dans le noir et conducteurs à la lumière. On les appelle des photoconducteurs.
Nous utilisons sans le savoir dans notre environnement quotidien de tels matériaux, par exemple dans les photocopieurs ou dans les imprimantes laser. Quel en est le principe ? Comme présenté sur la figure 4, un cylindre conducteur, tournant autour de son axe, est recouvert d’une couche photoconductrice. On dépose le long d’une ligne sur ce cylindre une couche uniforme de charges électriques supposées ici positives. Ces charges réparties à la surface du photoconducteur ne peuvent s’écouler compte tenu de la nature isolante de ce matériau maintenu dans le noir. Si on projette par un système d’optique classique l’image d’un document à reproduire, certaines zones éclairées deviennent conductrices alors que d’autres zones restent dans le noir correspondant respectivement aux zones blanche (éclairées) ou noires (écrites) du document d’origine. De cette manière on crée une répartition de charges électriques à la surface du photoconducteur qui reproduit exactement la répartition des zones noires sur le document d’origine. On a ainsi obtenu une image électrique. Reste à révéler cette image. Pour cela il suffit de projeter une poudre colorée, noire par exemple, qui va être attirée par les zones chargées électriquement et d’amener une feuille de papier en contact avec la surface du photoconducteur porteur de ces grains colorés pour les transférer sur le papier. Enfin, en chauffant vigoureusement et rapidement la feuille porteuse de ces grains on les fait fondre ce qui leur permet de pénétrer légèrement dans le papier. Notre photocopie est terminée.

6
Le même principe s’applique aux imprimantes laser, sauf qu’au lieu d’utiliser un système optique pour projeter, sur le photoconducteur, l’image du document à reproduire, on utilise une source de lumière, par exemple des diodes laser, qui éclairent sélectivement le photoconducteur en fonction d’instructions reçues d’un ordinateur, ou dans le cas des télécopies d’une ligne téléphonique.
Les conducteurs
Revenons maintenant à la situation décrite dans la figure 3b lorsque le niveau maximum de remplissage des électrons se situe à l’intérieur d’une bande d’énergie permise. Dans ce cas l’application d’un champ électrique et donc d’une force sur les électrons se traduit par un déplacement des électrons situés à la frontière entre les états occupés et les états libres. En effet, ces électrons, entourés d’états libre, peuvent se déplacer sous l’effet de ce champ. Un courant électrique s’établit. De tels matériaux sont des conducteurs de l’électricité, par exemple des métaux.
Les électrons d’un métal sont entraînés par le champ appliqué et soumis à un mouvement uniformément accéléré. Le courant devrait donc croître de manière ininterrompue or nous savons qu’il n’en est rien. Le courant se stabilise à une certaine valeur qui dépend de la résistance du conducteur utilisé.
D’où vient cette résistance ? Si le matériau était parfait, c’est-à-dire si le potentiel dans lequel navigue l’électron était strictement périodique, la trajectoire suivie ne serait pas perturbée. Dans la réalité, plusieurs phénomènes détruisent cette périodicité idéale. Les impuretés chimiques, tout comme les failles ou dislocations du matériau, se traduisent, en effet, par des ruptures locales de la périodicité.
Ces deux facteurs conduisent à limiter la distance que peut franchir un électron sans
« collision », distance que l’on appelle libre parcours moyen. Cette distance dépend de la pureté

7
chimique et de la qualité cristallographique. Ainsi du cuivre pur est beaucoup moins résistant que du cuivre pollué. D’où l’importance du raffinage du cuivre dans l’industrie des fils électriques.
Par ailleurs, l’agitation thermique qui fait vibrer les atomes autour de leur position d’équilibre conduit à des déformations du potentiel périodique et, donc, à une limitation du libre parcours moyen.. On voit donc apparaître un nouveau facteur influant la résistance électrique.
A haute température le libre parcours moyen des électrons est petit et la résistance est grande. En réduisant la température on augmente le libre parcours moyen, ce qui réduit la résistance comme indiqué sur la figure 5. Ainsi la résistance électrique du filament d’une ampoule à incandescence n’est pas la même selon que l’ampoule est allumée (chaude) ou éteinte (froide). En baissant la température d’un conducteur on réduit sa résistance jusqu’à ce que cette dernière soit conditionnée majoritairement par les collisions avec les impuretés chimiques ou les défauts cristallographiques et non par les défauts de périodicité engendrés par l’agitation thermique. Une telle situation correspondant sur la figure 5 au plateau horizontal dont le niveau caractérise la qualité du matériau.
Les supraconducteurs
Dans certains cas un phénomène étrange apparaît. En dessous d’une certaine température, dite température critique, la résistance électrique s’annule, et de nombreuses propriétés remarquables apparaissent, en particulier des propriétés magnétiques. Les matériaux qui présentent ce comportement sont dits supraconducteurs. Pourquoi ces matériaux ne sont-ils pas omniprésents dans notre vie quotidienne et dans l’industrie ? Pour une raison simple : la faible valeur de la température critique. Lors de leur découverte à Leiden en 1911, les températures critiques étaient de l’ordre de –269°C soit 4,2°K. L’intérêt scientifique et industriel pour les supraconducteurs a suscité des efforts considérables pour augmenter cette température. Jusqu’en 1986, que de travaux pour des résultats limités. En 75 ans ce sont environ 20 degrés qui sont gagnés en faisant passer de –269°C à environ –250°C. Une telle température est encore bien décourageante. Là encore, qui aimerait avoir une radio, une télévision ou un téléphone fonctionnant dans ces conditions ?

8
Quelques applications industrielles ont néanmoins vu le jour, en particulier pour créer de forts champs magnétiques avec ce que l’on appelle des bobines supraconductrices. Par exemple, dans les hôpitaux beaucoup d’imageurs par résonance magnétique nucléaire utilisent de tels systèmes.
Pourquoi les électrons dans les supraconducteurs n’obéissent-t-ils plus aux lois qui expliquaient les comportements classiquement observés. En dessous de la température critique les électrons se trouvent couplés par paires que l’on appelle des paires de Cooper. L’énergie d’une paire de Cooper est inférieure à la somme des énergies des deux électrons célibataires. Là encore, la nature va peupler rapidement ce niveau particulier d’énergie au détriment des états célibataires. car les paires de Cooper n’obéissent plus, contrairement aux électrons célibataires au principe de Pauli. Leur comportement est donc complètement différent.
En 1986 une révolution secoue la communauté scientifique internationale et par ondes successives le monde industriel puis le monde politique : deux chercheurs Bednoz et Muller gagnent quelques degrés et dans les semaines qui suivent une frénésie s’empare de tous les laboratoires du monde. La température critique monte à grande vitesse et dépasse bientôt 77°K (environ –200°C), température de l’azote liquide, produit industriel facile à obtenir et d’usage courant.
Ces découvertes ouvrent la voie à de nombreux travaux et suscitent d’immenses espoirs de pouvoir augmenter encore cette température.
Divers laboratoires dans le monde travaillent aujourd’hui sur ces phénomènes encore mal compris. Sur la figure 6 on voit un petit aimant magnétique en lévitation au dessus d’un supraconducteur plongé dans de l’azote liquide. C’est l’une des très nombreuses applications de ces effets. Certains envisagent même de créer ainsi des trains en sustentation magnétique.
La découverte des supraconducteurs à température ambiante est-elle un rêve ou une réalité de demain ? Nul ne peut le prédire aujourd’hui. Les espoirs et la curiosité motivent cependant de nombreux chercheurs de par le monde.
Conclusion
Nous avons vu comment des différences apparemment très minimes de la structure des solides peuvent donner des propriétés électriques totalement différentes. Nous sommes ainsi passés de matériaux très isolants s’opposant vigoureusement au passage de l’électricité aux matériaux supraconducteurs dans lesquels rien ne s’oppose au passage de l’électricité.
9
Ce grand domaine de la science a apporté de multiples applications dans notre vie quotidienne. La curiosité des scientifiques reste totale pour tenter de comprendre les nombreux mystères qui sont encore aujourd’hui inexpliqués.
Légendes
Figure 1 : Les électrons gravitent sur différentes orbites autour du noyau.
Figure 2 : Structure atomique d'un solide ; un électron « libre » peut passer d'un atome à l'autre.
Figure 3 : Bandes d'énergie des électrons. La dernière énergie occupée par les électrons est a) au sommet, b) au milieu d'une bande permise (les hachures indiquent les niveaux d'énergie occupés).
Figure 4 : Principe de fonctionnement d'un photocopieur.
Figure 5 : Variation de la résistivité d'un conducteur en fonction de la température. Dans le cas présenté on observe, en outre, l'existence d'une température critique Tc en dessous de laquelle le matériau est supraconducteur.
Figure 6 : Aimant en lévitation au-dessus d'un supraconducteur plongé dans l'azote liquide.

 

   VIDEO       CANAL  U         LIEN 

 



 

 
 
 
initiation musicale toulon  

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

  initiation musicale

 

 

 

 

 

 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

Au voisinage du zéro absolu de température, la matière se transforme, adoptant des comportements que notre intuition a de la peine à appréhender. Certains gaz liquéfiés deviennent superfluides, s'échappant du réservoir qui les contient comme s'ils défiaient la pesanteur. La supraconductivité apparaît dans les métaux et donne lieu à des courants électriques permanents, utilisés aujourd'hui pour la production de champs magnétiques intenses. L'explication de ces phénomènes étranges apporte un nouvel éclairage dans des domaines que l'on aurait crus très éloignés, comme la dynamique des étoiles à neutrons ou l'évolution de l'Univers après le Big Bang, contribuant ainsi à établir des concepts physiques fondamentaux. Pour atteindre des basses températures qui n'existent pas dans la Nature, les chercheurs ont mis au point des méthodes de réfrigération sophistiquées. Celles-ci ont ouvert un nouveau domaine de recherche, la Physique des très basses températures, particulièrement riche en phénomènes physiques nouveaux qui constituent la source d'applications technologiques de pointe. Au cours d'une promenade à la limite du zéro absolu de température nous explorerons ensemble le royaume du froid.

Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu

par Henri Godfrin

Température et intuition...

Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.
Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...

Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !

La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.

Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.
La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.

La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.

Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.
Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !

L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !

Les fluides cryogéniques

Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.
Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.

Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.
L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !
La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !
H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.

On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.
Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].

Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.

Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.

Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.

Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.

D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.

Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».

Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannou
dji.

 


            VIDEO     canal U       LIEN    

 
 
 
initiation musicale toulon  

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER

  initiation musicale

 

 

 

 

 

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER

En utilisant des échanges quasi-résonnants d'énergie, d'impulsion et de moment cinétique entre atomes et photons, il est possible de contrôler au moyen de faisceaux laser la vitesse et la position d'un atome neutre et de le refroidir à des températures très basses, de l'ordre du microKelvin, voire du nanoKelvin. Quelques mécanismes physiques de refroidissement seront passés en revue, de même que quelques applications possibles des atomes ultra-froids ainsi obtenus (horloges atomiques, interférométrie atomique, condensation de Bose-Einstein, lasers à atomes, etc.).

Texte de la 217e conférence de l’Université de tous les savoirs donnée le 4 août 2000.
Le refroidissement des atomes par laser par Claude Cohen-Tannoudji
Introduction
Au cours des deux dernières décennies, des progrès spectaculaires ont été réalisés dans notre maîtrise du mouvement des atomes. En faisant interagir ces atomes avec des faisceaux laser de direction, de fréquence et de polarisation convenablement choisies, nous pouvons maintenant contrôler la vitesse de ces atomes, réduire leurs mouvements d’agitation désordonnée, en quelque sorte les assagir, ce qui revient à diminuer leur température. Ces nouvelles méthodes portent le nom de «refroidissement laser». On sait également depuis peu contrôler la position des atomes et les maintenir confinés dans de petites régions de l’espace appelées « pièges ».
Le sujet de cet exposé est le refroidissement laser. Son objectif est double. Je voudrais tout d’abord expliquer en termes très simples comment fonctionne le refroidissement laser. Lorsqu’un atome absorbe ou émet de la lumière, il subit un recul. Comment peut-on utiliser ce recul pour ralentir et refroidir des atomes ? Je voudrais également dans cet exposé passer en revue les principales motivations de ces travaux, les nouvelles perspectives qu’ils ouvrent et essayer de répondre à quelques interrogations : À quoi peuvent servir les atomes ultrafroids ? Quels problèmes nouveaux permettent-ils d’aborder ? Quelles nouvelles applications peut-on envisager ?
Pour ceux d’entre vous qui ne sont pas familiers avec la physique des atomes et du rayonnement, j’ai pensé qu’il serait utile de commencer cet exposé par un rappel succinct de quelques notions de base très simples sur les photons et les atomes, sur les mécanismes d’absorption et d’émission de photons par les atomes. J’aborderai ensuite la description de quelques mécanismes physiques à la base du refroidissement laser : le recul de l’atome émettant ou absorbant un photon, ce qui se passe lorsqu’on place l’atome dans un faisceau laser résonnant, comment les reculs successifs que subit alors l’atome permettent de le ralentir et de le refroidir. Je terminerai enfin mon exposé en passant en revue quelques applications de ces travaux : les horloges à atomes froids, d’une extrême précision, puis l’interférométrie atomique qui utilise des phénomènes d’interférence résultant de la superposition des ondes de de Broglie atomiques, et enfin ces nouveaux états de la matière qui sont nommés condensats de Bose-Einstein. L’apparition, à des températures très basses, de ces nouveaux objets ouvre la voie vers de nouvelles applications comme les lasers à atomes qui sont analogues à des lasers ordinaires dans lesquels les ondes lumineuses seraient remplacées par des ondes de de Broglie.
Quelques notions de base
La lumière
La lumière est un objet d’études qui a toujours fasciné les physiciens et les scientifiques en général. Elle est apparue successivement au cours des siècles comme un jet de corpuscules ou comme une onde. Nous savons aujourd’hui qu’elle est à la fois une onde et un ensemble de corpuscules.
La lumière est tout d’abord une onde électromagnétique, c’est-à-dire un champ électrique et un champ magnétique oscillant à la fréquence ν et se propageant dans le vide à une vitesse
considérable c = 3×108 m/s. Comme toute onde, la lumière donne naissance à des phénomènes d’interférence. Lorsqu’on superpose deux ondes différentes d’égale amplitude,
1
en certains points, les ondes vibrent en phase et l’amplitude est doublée, en d’autres points, les ondes vibrent en opposition de phase et l’interférence est destructive. Sur un écran, on peut ainsi apercevoir une succession de zones brillantes et de zones sombres appelées franges d’interférence.
La couleur de la lumière est liée à sa fréquence ν . Le spectre de fréquence des ondes électromagnétiques s’étend de quelques Hertz aux rayons X et gamma. La lumière visible ne couvre qu’une très petite région de ce domaine spectral. Il est possible d’analyser le contenu spectral d’un rayonnement grâce à des appareils dits dispersifs qui font subir à un rayon lumineux une déviation qui dépend de la fréquence. Ainsi, si l’on fait passer un rayon solaire à travers un prisme, ses différentes composantes de couleur sont déviées de manière différente et on observe ce que l’on appelle un spectre.
Au début du siècle, à la suite des travaux de Planck et d’Einstein, il est apparu que la lumière n’était pas seulement une onde, mais qu’elle était aussi une assemblée de corpuscules : les
« photons ». A une onde lumineuse de fréquence ν , sont ainsi associés des corpuscules, les photons, qui possèdent une énergie E = hν proportionnelle à ν , une quantité de mouvement
p = hν / c également proportionnelle à ν . Dans ces équations, c est la vitesse de la lumière,
ν sa fréquence et h une constante que l’on appelle la constante de Planck, introduite en physique par Planck il y a exactement 100 ans.
L’idée importante qui s’est dégagée au cours du siècle précédent est la dualité onde- corpuscule. La lumière est à la fois une onde et un ensemble de corpuscules. Il est impossible de comprendre les divers phénomènes observés en termes d’ondes uniquement ou de corpuscules uniquement. Ces deux aspects de la lumière sont tous deux indispensables et indissociables.
Les atomes
Les atomes sont des systèmes planétaires analogues au système solaire. Ils sont formés de particules très légères, « les électrons », particules de charge négative, qui gravitent autour d’une particule de masse beaucoup plus élevée, dont la charge est positive : « le noyau ». Pour comprendre le mouvement de ces électrons autour du noyau, les physiciens se sont vite rendu compte que la mécanique classique était inadéquate et conduisait à des absurdités. Ils ont alors « inventé » la mécanique quantique, qui régit la dynamique du monde à l’échelle microscopique. Il s’agit là d’une révolution conceptuelle aussi importante que la révolution de la relativité restreinte et de la relativité générale. Une des prédictions les plus importantes de la mécanique quantique est la quantification des grandeurs physiques, en particulier, la quantification de l’énergie.
Dans le système du centre de masse de l’atome, système qui coïncide pratiquement avec le noyau car le noyau est beaucoup plus lourd que les électrons, on observe que les énergies des électrons ne peuvent prendre que des valeurs discrètes, quantifiées, repérées par des
« nombres quantiques ». Pour illustrer la quantification de l’énergie, j’ai représenté ici le niveau fondamental d’énergie la plus basse, le premier niveau excité, le deuxième niveau excité.
2
E2 E1
E0
2e Niveau excité 1er Niveau excité
Niveau fondamental
Figure 1 : Niveaux d'énergie d'un atome. Chaque trait horizontal a une altitude proportionnelle à l'énergie du niveau correspondant.
Interaction matière-lumière
Comment un tel atome interagit-il avec la lumière ? Émission et absorption de lumière par un atome
Un atome, initialement dans un état supérieur Eb , peut passer de ce niveau à un niveau inférieur Ea . Il émet alors de la lumière de fréquence ν , plus précisément un photon d’énergie
hν , telle que Eb − Ea = hν . Autrement dit, l’énergie perdue par l’atome, lorsqu’il passe du
niveau Eb au niveau Ea , est évacuée par le photon d’énergie hν . La relation entre la perte
d’énergie de l’atome et la fréquence de la lumière émise n'est donc en fait que la traduction exacte de la conservation de l’énergie.
Eb
Ea
ν Eb −Ea =hν ν
Emission
Absorption
Eb
Ea
Figure 2 : Processus élémentaires d'émission (figure de gauche) et d'absorption (figure de droite) d'un photon par un atome.
Le processus inverse existe, bien sûr : le processus d’absorption de lumière par un atome. L’atome, initialement dans un état inférieur Ea peut passer dans un niveau supérieur Eb en
gagnant l’énergie hν du photon absorbé. En d’autres termes, l’atome absorbe un photon et l’énergie du photon qu’il absorbe lui permet de passer de Ea à Eb . Il apparaît ainsi clairement
que la quantification de l’énergie atomique sous forme de valeurs discrètes entraîne le caractère discret du spectre de fréquences émises ou absorbées par un atome.
La lumière : une source essentielle d’informations sur la structure des atomes 3
Un atome ne peut émettre toutes les fréquences possibles, il ne peut émettre que les fréquences correspondant aux différences des énergies de ses niveaux. Ce résultat est extrêmement important. Il montre en effet que la lumière est une source d’information essentielle sur le monde atomique. En effet, en mesurant les fréquences émises ou absorbées, on peut reconstituer les différences Eb − Ea et obtenir le diagramme d’énergie d’un atome.
C’est ce que l’on appelle la « spectroscopie ». Le spectre d’un atome varie d’un atome à l’autre. Les fréquences émises par l’atome d’hydrogène diffèrent de celles émises par l’atome de sodium, de rubidium ou de potassium. Le spectre de raies émises par un atome constitue en quelque sorte son « empreinte digitale » ou, pour utiliser des termes plus actuels, son
« empreinte génétique ». Il est possible d’identifier un atome par l’observation des fréquences qu’il émet. Autrement dit, en observant la lumière provenant de différents types de milieux, on peut obtenir des informations sur les constituants de ces milieux. Ainsi, en astrophysique, par exemple, c'est la spectroscopie qui permet de déterminer la composition des atmosphères planétaires et stellaires et d'identifier les molécules qui sont présentes dans l’espace interstellaire. L’observation du décalage des fréquences émises par des objets astrophysiques permet de mieux comprendre la vitesse de ces objets et de mesurer ainsi l’expansion de l’univers. L’observation du spectre de la lumière émise ou absorbée permet aussi d’étudier des milieux hostiles comme des plasmas ou des flammes et d’analyser in situ les constituants de ces milieux.
Durée de vie d'un état excité
Considérons un atome isolé, initialement préparé dans un état excité Eb . L’expérience montre qu’au bout d’un certain temps, très court, l’atome retombe spontanément dans un état
inférieur Ea , en émettant et dans n’importe quelle direction, un photon d’énergie
hν = Eb − Ea . Ce laps de temps, très court, à la fin duquel se produit le processus d'émission
est appelé la durée de vie de l’état excité Eb .
Il apparaît ainsi qu'un atome ne peut pas rester excité indéfiniment. La durée de vie de l’état excité, qui varie d’un atome à l’autre, est typiquement de 10-8 s, c’est-à-dire 10 milliardièmes de seconde.
Les mécanismes physiques
Après ces brefs rappels de notions de base, abordons maintenant la seconde partie de cet exposé qui traite des mécanismes physiques à la base du refroidissement laser.
Le recul de l’atome lors de l’émission ou de l’absorption d’un photon
(3a)
Eb Ea M u
hν / c
Ea
Eb
hν / c
4
Mu
(3b)
Figure 3 : Recul d'un atome lors de l'émission (figure 3a) ou de l'absorption (figure 3b) d'un photon par cet atome.
En physique, il y a une loi fondamentale qui est « la conservation de la quantité de mouvement ». Considérons un atome excité dans un état Eb supérieur, initialement immobile,
et supposons qu’à l’instant t = 0 , cet atome émette un photon, lequel a une quantité de mouvement hν / c . Dans l’état initial, l’atome étant tout seul et immobile, la quantité de
mouvement globale est nulle. Dans l’état final, comme le photon part avec une quantité de mouvement hν / c , l’atome recule avec la quantité de mouvement opposée Mv = −hν / c .
Vous avez certainement déjà vu, en réalité ou à la télévision, un canon tirer un obus : lorsque le canon tire un obus, il recule. De même, lorsqu’un atome émet un photon, il recule à cause de la conservation de la quantité de mouvement. Sa vitesse de recul est donnée par
vrec =hν/Mc.
Le même phénomène de recul s’observe lors de l’absorption. Considérons un atome dans un
état fondamental Ea , initialement immobile, et supposons qu’on envoie sur lui un photon : l’atome absorbe le photon et parvient à l’état excité. Il recule alors avec la même vitesse de
recul hν / Mc . De même, lorsqu’on tire une balle sur une cible, la cible recule à cause de la
quantité de mouvement qui lui est communiquée par le projectile.
Par ailleurs, nous savons que l’absorption de photon qui porte l’atome, initialement immobile, à l’état excité, est nécessairement suivie d’une émission puisque l’atome ne peut rester excité indéfiniment. Il retombe donc, au bout d’un temps qui est la durée de vie de l'état excité, dans l’état inférieur, en émettant spontanément un photon. Dans ce cycle absorption-émission au cours duquel l’atome absorbe un photon, recule puis émet un photon, la probabilité qu’il émette ce photon dans telle direction ou dans telle autre, dans un sens ou dans le sens opposé, est la même de sorte, qu’en moyenne, la vitesse qu’il perd lors de l’émission est nulle. Il s'ensuit donc que le changement de vitesse de l’atome est, en moyenne, uniquement lié au processus d’absorption et a pour valeur vrec = hν / Mc . Ce résultat est important pour la suite.
L’atome dans un faisceau laser
Essayons maintenant de comprendre comment réagit l’atome en présence, non pas d’un seul photon incident, mais d’un faisceau laser résonnant. Un flot de photons arrive alors sur lui. Il en absorbe un premier, monte dans l’état excité, retombe en émettant un photon, puis absorbe un second photon laser, monte dans l’état excité, retombe en émettant un autre photon , puis en absorbe un troisième et ainsi de suite. L’atome, ainsi plongé dans un faisceau laser, enchaîne les cycles absorption-émission sans pouvoir s’arrêter et, à chacun de ces cycles, sa vitesse change en moyenne de vrec = hν / Mc . Comme la durée de vie moyenne de l’atome
excité est de 10-8 s, il se produit de l'ordre de108 cycles absorption-émission par seconde, c’est-à-dire 100 millions de cycles par seconde ! A chacun de ces cycles, la vitesse de l’atome change de hν / Mc . Pour l'atome de sodium, le calcul de cette vitesse de recul donne 3cm/s.
Pour l'atome de césium, on obtient 3mm/s. Ces vitesses sont très faibles, comparées par exemple aux vitesses des molécules de l'air qui nous entoure, qui sont de l'ordre de 300m/s. C'est pourquoi pendant longtemps les changements de vitesse d'un atome dûs aux effets de recul ont été considérés comme négligeables. En fait la situation est radicalement différente pour un atome dans un faisceau laser. Les cycles d'absorption-émission se répètent 100 millions de fois par seconde, générant un changement de vitesse par seconde de l'ordre de 100 millions de fois la vitesse de recul. On obtient ainsi des accélérations (ou décélérations) de l'ordre de 106 m/s2. A titre de comparaison, prenons un exemple dans la vie courante : quand
5
un objet tombe, l’accélération g qu'il subit du fait de la pesanteur est de 10 m/s2. Un atome de
sodium irradié par un faisceau laser est soumis à une accélération, ou une décélération, qui peut atteindre 105g. A titre de comparaison encore, cette accélération est 100 000 fois supérieure à celle, de l’ordre de 1g, que subit une voiture qui roule à 36 km/heure et qui s’arrête en 1 seconde.
Ralentissement d’un jet atomique
Cette force considérable qu’exerce la lumière sur les atomes, résultant de l'accumulation d'un très grand nombre de petits changements de vitesse, permet d’arrêter un jet atomique. Considérons un jet d’atomes sortant d’un four à la température de 300°K ou 400°K et se propageant à une vitesse de l'ordre de 1 km/s. Si ce jet est éclairé tête bêche par un faisceau laser résonnant, la force de pression de radiation que les atomes subissent va ralentir ces atomes, les arrêter et même leur faire rebrousser chemin. Un atome de vitesse initiale v0 de
1 km/s, soit 103 m/s, va être arrêté avec une décélération de 106m/s2, au bout de 10-3seconde, c’est-à-dire en une milliseconde. En une milliseconde, il passe ainsi de 1 km/s à zéro ! La distance L parcourue par l'atome avant qu'il ne s'arrête est donnée par une formule classique de terminale. Elle est égale au carré de la vitesse initiale divisée par deux fois la décélération subie. On obtient ainsi L = 0, 5m . On peut donc ainsi, dans un laboratoire, sur une distance
de l'ordre du mètre, arrêter un jet d’atomes avec un faisceau laser approprié. Evidemment, au fur et à mesure que les atomes sont ralentis, à cause de l’effet Doppler, ils sortent de résonance. Il faut donc modifier la fréquence du faisceau laser ou modifier la fréquence des atomes pour maintenir la condition de résonance et conserver la force à sa valeur maximale tout au long du processus de décélération.
Ralentir les atomes consiste à diminuer leur vitesse moyenne. Par contre la dispersion des valeurs de la vitesse autour de la valeur moyenne demeure en général inchangée. Il faut en fait faire une distinction très claire entre le mouvement d’ensemble caractérisé par la vitesse moyenne et le mouvement d’agitation désordonnée autour de la valeur moyenne de la vitesse. En physique, c’est cette vitesse d’agitation désordonnée qui caractérise la température. Plus un milieu est chaud, plus les vitesses d’agitation désordonnée de ses constituants sont élevées. Refroidir un système, cela veut dire diminuer les vitesses d’agitation désordonnée de ses constituants. Comment peut-on refroidir des atomes avec des faisceaux laser ?
Refroidissement Laser Doppler
(4a)
(4b)
Figure 4 : Principe du mécanisme de refroidissement laser par effet Doppler. Pour un atome au repos (figure 4a) les deux forces de pression de radiation s'équilibrent exactement. Pour
νL <νA νA νL <νA
Atome v=0
νapp <ν ν νapp >ν LLALL
Atome v v≠0
6
un atome en mouvement (figure 4b), la fréquence apparente de l'onde se propageant en sens opposé augmente et se rapproche de résonance. Elle exerce une force de pression de radiation plus grande que celle de l'onde qui se propage dans le même sens que l'atome et dont la fréquence apparente, diminuée par effet Doppler, s'éloigne de résonance.
Le mécanisme de refroidissement laser le plus simple utilise l'effet Doppler et a été proposé au milieu des années 70 par Hansch, Schawlow, Wineland et Dehmelt. L’idée est simple : l'atome est éclairé non plus par une seule onde laser, mais par deux ondes laser se propageant dans des sens opposés. Ces deux ondes laser ont même intensité, et même fréquenceνL , cette
fréquence νL étant légèrement inférieure à celle, νA , de la transition atomique. Que se passe-
t-il alors ? Si l’atome est immobile, avec donc une vitesse nulle, v = 0 , il n’y a pas d’effet Doppler. Dans ce cas, les deux faisceaux laser ont la même fréquence apparente. Les forces qu'ils exercent ont même module et des signes opposés. La force de pression de radiation venant de la gauche et la force de pression de radiation venant de la droite s’équilibrent donc exactement et l’atome n’est soumis à aucune force. Si l’atome se déplace vers la droite, avec une vitesse v non nulle, à cause de l’effet Doppler, la fréquence de l’onde qui se propage en sens opposé apparaît plus élevée. Cette fréquence apparente est ainsi augmentée et se rapproche de résonance. Le nombre de photons absorbés est alors plus élevé et la force augmente. Par contre, l'onde qui se propage dans le même sens que l'atome a sa fréquence apparente qui est diminuée par effet Doppler et qui s'éloigne donc de résonance. Le nombre de photons absorbés est alors moins élevé et la force diminue. A cause de l'effet Doppler, les deux forces de pression de radiation ne s'équilibrent plus. C'est la force opposée à la vitesse qui l'emporte et l'atome est ainsi soumis à une force globale non nulle, opposée à sa vitesse. Cette force globale F peut être écrite pour une vitesse v assez faible sous la forme
F = −α v où α est un coefficient de friction. Autrement dit, l’atome qui se déplace dans
cette configuration de deux faisceaux laser se propageant dans des sens opposés est soumis à une force de friction opposée à sa vitesse. Il se retrouve dans un milieu visqueux, que l’on appelle une mélasse optique par analogie avec un pot de miel. Sous l’effet de cette force, la vitesse de l’atome va être amortie et tendre vers zéro.
Refroidissement Sisyphe
L’étude théorique du mécanisme de refroidissement laser Doppler permet de prédire les températures qui pourraient être obtenues par un tel mécanisme et qu'on trouve de l’ordre de quelques centaines de microkelvin soit quelques 10-4 K. Ce sont des températures très basses comparées à la température ordinaire qui est de l’ordre de 300 K. En fait, quand, à la fin des années 80, on a pu mesurer ces températures de manière plus précise, on s’est aperçu, et ce fut une réelle surprise, que les températures mesurées étaient 100 fois plus basses que prévues, ce qui signifiait que d’autres mécanismes étaient en jeu. C’est l’un deux, le refroidissement Sisyphe que nous avons, mon collègue Jean Dalibard et moi-même, identifié et étudié en détail.
7
Figure 5 : l'effet Sisyphe
Sans entrer dans les détails d’un tel mécanisme, essayons d’en donner une idée générale. Les expériences de refroidissement laser utilisent des paires d’ondes laser se propageant dans des sens opposés (voir par exemple la figure 4). Ces ondes interfèrent et l’onde résultante a donc une intensité et une polarisation qui varient périodiquement dans l’espace. Or, on peut montrer que les niveaux d’énergie d’un atome sont légèrement déplacés par la lumière, d’une quantité proportionnelle à l’intensité lumineuse et qui dépend de la polarisation lumineuse. De plus, chaque atome possède en général plusieurs « sous-niveaux » d’énergie dans son état fondamental, qui correspondent chacun à une valeur différente d’une grandeur physique qui, comme l’énergie, est quantifiée. En l’occurrence, il s’agit ici du moment cinétique, l’atome pouvant être considéré comme une petite toupie qui tourne sur elle même. La figure 5 représente deux tels sous-niveaux dont les énergies sont modulées dans l’espace sous l’effet de la lumière. L’atome en mouvement se déplace donc dans un paysage de collines et de vallées de potentiel, paysage qui change suivant le sous-niveau dans lequel il se trouve. Considérons alors un atome se déplaçant vers la droite et initialement au fond d’une vallée de potentiel, dans un certain sous-niveau (Fig.5). Cet atome gravit la colline de potentiel et atteint le sommet de cette colline où il peut avoir une probabilité importante d’absorber et d’émettre un photon, processus à l’issue duquel il va se retrouver dans l’autre sous-niveau d’énergie, au fond d’une vallée. Le même scénario peut alors se reproduire, l’atome gravissant à nouveau une colline de potentiel avant d’atteindre le sommet et d’être transféré dans l’autre sous-niveau au fond d’une vallée, et ainsi de suite...Comme le héros de la mythologie grecque, l’atome est ainsi condamné à recommencer sans cesse la même ascension, perdant à chaque fois une partie de son énergie cinétique. Au bout d’un certain temps, il est tellement épuisé qu’il n’arrive plus à gravir les collines et se retrouve pris au piège au fond d’un puits. L’étude théorique et la comparaison avec les résultats expérimentaux ont conforté la réalité de ce mécanisme de refroidissement qui permet d'atteindre le microkelvin, c’est-à-dire une température de 10-6 K. Nous avons aussi mis au point au laboratoire d’autres méthodes, que je n’ai pas le temps d’approfondir aujourd’hui, qui permettent d'aller encore plus loin et d’atteindre le nanokelvin, c’est-à-dire 10-9 K, un milliardième de Kelvin.
À de telles températures, les vitesses des atomes sont de l’ordre du cm/s voire du mm/s alors qu’à température ordinaire, elles sont de l’ordre du km/s. Ces méthodes de refroidissement ont donc permis d’assagir considérablement le mouvement d'agitation désordonnée des atomes, de les rendre presque immobiles. Mentionnons également, sans entrer dans le détail des phénomènes, qu'on peut confiner les atomes dans une petite région de l'espace, appelée piège, grâce à l'utilisation de gradients d’intensité lumineuse ou de gradients de champ magnétique.
Description de quelques applications
Les horloges atomiques
8
∆ν ν0
Figure 6 : Principe d'une horloge atomique
Les applications des atomes froids et les nouvelles perspectives qu’ils ouvrent sont essentiellement liées au fait qu’ils sont animés d’une très faible vitesse. Cette particularité permet de les observer pendant une durée beaucoup plus longue. Or, en physique, une mesure est d’autant plus précise que le temps d’observation est plus long. On comprend très bien alors que, grâce à l’extrême précision des mesures pouvant être faites sur des atomes ultrafroids, des progrès ont pu être réalisés, dans la conception des horloges notamment. Rappelons tout d'abord en quoi consiste une horloge. C’est essentiellement un oscillateur, par exemple un quartz qui oscille à une certaine fréquence. Cependant, la fréquence d'un quartz livré à lui-même, fluctue au cours du temps. Elle accélère ou ralentit. Pour réaliser une horloge stable, il est donc nécessaire d'empêcher sa fréquence de dériver. Pour ce faire, on va maintenir la fréquence du quartz égale à la fréquence centrale d'une raie atomique.
Le principe de cette opération est schématisé sur la figure 6. Un oscillateur, piloté par le quartz, délivre une onde électromagnétique de même fréquence ν que la fréquence d’oscillation du quartz. Cette onde permet une « interrogation » des atomes utilisés pour stabiliser l’horloge. En l’envoyant sur les atomes et en balayant la fréquence ν du quartz, on observe une « résonance » quand ν coïncide avec la fréquence ν0 = (Eb − Ea ) / h
correspondant à l’écart d’énergie Eb − Ea entre deux niveaux d’énergie de cet atome. Un dispositif « d’asservissement » ajuste alors en permanence la fréquence ν du quartz pour la
maintenir au centre de la raie atomique. On stabilise ainsi ν en forçant ν à rester égal à ν0 .
En fait, c’est l’atome de césium qui est utilisé pour définir l’unité de temps, la seconde. Par convention internationale, la seconde correspond à 9 192 631 770 périodes d’oscillation
T0 =1/ν0 ,oùν0 estlafréquencecorrespondantàunecertainetransitionreliantdeuxsous- niveaux d’énergie de l’état fondamental de l’atome de césium. Cette fréquence ν0 est
universelle. Elle est la même pour tous les atomes de césium, où qu’ils se trouvent.
Les raies de résonance atomiques ne sont pas infiniment étroites. Elles ont une « largeur » ∆ν (voir figure 6). Plus cette largeur est faible, plus l’asservissement sera efficace, et plus l’horloge sera stable. Or, on peut montrer que la largeur d’une transition atomique reliant deux sous-niveaux de l’état fondamental d’un atome est inversement proportionnelle au temps d’observationTobs.PlusTobs estlong,pluslaraieestfine.Commelesatomesfroids
permettent d’allonger la durée de ce temps d’observation et par conséquence de disposer de raies très fines, il est aujourd’hui possible de réaliser des horloges extrêmement précises. Les horloges qui ont été réalisées jusqu’à ces dernières années utilisent des jets d’atomes de
9
césium se propageant à des vitesses de l’ordre du km/s, dans des appareils dont la longueur de l’ordre du mètre. Le temps d’observation accessible avec de tels systèmes est donc de l'ordre d’une milliseconde. Avec des atomes froids, il a été possible d’allonger ce temps d’observation par un facteur 100 et d’améliorer donc les performances des horloges atomiques par le même facteur. En fait, on n’utilise pas dans ces nouveaux dispositifs un jet horizontal d’atomes ralentis, car ils tomberaient rapidement dans le champ de pesanteur. Dans les nouvelles horloges, les jets atomiques sont verticaux. Plus précisément, les atomes refroidis dans une mélasse optique sont lancés vers le haut au moyen d’une impulsion laser et forment une sorte de « fontaine ». Ils traversent la cavité électromagnétique dans laquelle la résonance atomique est mesurée, une première fois dans leur mouvement ascendant, une seconde fois dans leur mouvement descendant quand ils retombent sous l’effet du champ de pesanteur. Les temps d’observation peuvent atteindre alors quelques dixièmes de seconde et être ainsi de l’ordre de cent fois plus longs que dans les horloges précédentes. De telles horloges à atomes froids ont été réalisées à Paris par un des mes collègues, Christophe Salomon en collaboration avec André Clairon du L.P.T.F-B.N.M. (Laboratoire Primaire du Temps et des Fréquences et Bureau National de Métrologie). Ils ont pu ainsi mettre au point, avec une fontaine haute de 1m , l’horloge la plus stable et la plus précise jamais réalisée dans le monde. Deux critères permettent de définir la qualité d’une horloge. Le premier, la stabilité, indique la fluctuation relative de fréquence au cours du temps. Elle est de l’ordre de quelques 10-16 pour un temps de Moyen-Âge de l’ordre de 104 s. Concrètement, cela signifie qu’une horloge atomique qui aurait été mise en marche au début de la création de l’univers ne serait, dix milliards d’années plus tard, désaccordée que de quelques secondes. Le second critère, c’est la précision. Si on réalise deux horloges, leur fréquence coïncide à 10-15 près, compte tenu des déplacements de fréquence liés à des effets parasites.
Ces horloges à atomes froids ont de multiples applications : le GPS ("Global Positioning System"), système de positionnement par satellite, la synchronisation des réseaux de télécommunications à haut débit, les tests de physique fondamentale (relativité générale, variation des constantes fondamentales). Pourrait-on encore augmenter leurs performances en réalisant des fontaines plus hautes, de 10 mètres par exemple ? En fait, un tel projet ne serait pas réaliste car le temps d'observation ne croît que comme la racine carrée de la hauteur et il faudrait blinder le champ magnétique terrestre (qui peut déplacer la fréquence de l'horloge) sur des distances de plus en plus grandes. La solution qui s’impose alors de manière évidente consiste à se débarrasser de la gravité et c’est la raison pour laquelle nous nous sommes engagés en France dans des expériences de microgravité depuis 1993. Ces expériences se déroulent à bord d’un avion avec lequel le pilote effectue plusieurs paraboles d’une vingtaine de secondes chacune. Pour ce faire, le pilote accélère l’avion à 45° en phase ascendante, puis coupe brutalement les gaz. Pendant les 20 secondes qui suivent l’avion est en chute libre et sa trajectoire est une parabole. A l'intérieur de l'avion, les objets flottent et ne tombent plus sur les parois de l'avion. Tout se passe comme s'il n'y avait plus de gravité. Puis le pilote remet les gaz et redresse la trajectoire de l'avion pour se remettre en phase ascendante et effectuer une nouvelle parabole. On a donc pu ainsi effectuer des tests sur le comportement des divers composants de l'expérience dans ces conditions, et leurs résultats ont montré qu’il est possible de réaliser des horloges à atomes froids en apesanteur. A la suite de ces tests, un accord a été signé pour prolonger l’expérience et placer une horloge atomique à atomes froids à bord de la station spatiale internationale qui doit être mise en orbite en 2004.
Les interférences atomiques
Depuis les travaux de Louis de Broglie, nous savons qu’à toute particule de masse M est associée une onde qu’on appelle « l’onde de de Broglie » dont la longueur d’onde λdB ,
10
donnée par l’équation λdB = h / M v , est inversement proportionnelle à la vitesse v . Plus la
vitesse est faible, plus la longueur d’onde de de Broglie est grande. Les atomes froids qui sont animés de faibles vitesses ont donc de grandes longueurs d’onde de de Broglie et leur comportement ondulatoire sera par suite beaucoup plus facile à mettre en évidence. Considérons par exemple l’expérience des fentes de Young réalisée avec des ondes lumineuses. Une source lumineuse éclaire un écran percé d’une fente. La lumière issue de cette fente arrive sur une plaque percée de deux fentes en dessous de laquelle est placé un écran. L’onde lumineuse suit ainsi deux trajets passant par l’une ou l’autre de ces fentes avant d’arriver sur l’écran d’observation qui enregistre l’intensité lumineuse. Selon la position du point d’observation sur cet écran, les deux ondes qui arrivent en ce point et qui sont passées par les deux trajets possibles se superposent, en phase ou en opposition de phase. L’intensité de l’onde résultante varie donc entre une valeur élevée et une valeur nulle et on observe ce qu’on appelle « les franges d’interférence d’Young ».
Depuis quelques années, plusieurs expériences analogues ont été réalisées, non plus avec des ondes lumineuses, mais avec les ondes de de Broglie associées à des atomes froids. Des physiciens japonais de l’université de Tokyo, le Professeur Fujio Shimizu et ses collègues, ont ainsi réalisé une expérience tout à fait spectaculaire. Elle consiste à laisser tomber en chute libre un nuage d’atomes froids initialement piégés au-dessus d’une plaque percée de deux fentes. Après traversée des deux fentes, les atomes viennent frapper une plaque servant de détecteur et l’on observe une succession d’impacts localisés. Au début, la localisation de ces impacts semble tout à fait aléatoire. Puis, au fur et à mesure que le nombre d’impacts augmente, on constate qu’ils s’accumulent préférentiellement dans certaines zones et on voit apparaître nettement une alternance de franges brillantes avec des impacts très denses et de franges sombres avec très peu d’impacts. Cette expérience illustre parfaitement la dualité onde-corpuscule. Les atomes sont des corpuscules dont on peut observer l’impact localisé sur un écran de détection. Mais en même temps, il leur est associé une onde et c’est l’onde qui permet de calculer la probabilité pour que le corpuscule se manifeste. Comme l’onde associée aux atomes peut passer par les deux fentes de la plaque, elle donne naissance au niveau de l’écran de détection à deux ondes qui interfèrent et qui modulent donc spatialement la probabilité de détection de l’atome. On est là au cœur de la mécanique quantique, de la dualité onde-corpuscule qui régit le comportement de tous les objets physiques.

La condensation de Bose-Einstein
Depuis quelques années, des progrès spectaculaires ont été réalisés dans un autre domaine : la condensation de Bose-Einstein. A température très basse et à densité suffisamment élevée, l’extension spatiale des ondes de de Broglie associée à chaque atome devient plus grande que la distance moyenne entre deux atomes de sorte que les paquets d’ondes se recouvrent et interfèrent. Il apparaît alors un phénomène nouveau, qu’on appelle « la condensation de Bose- Einstein » : Tous les atomes se condensent dans le même état quantique, le niveau fondamental du puits qui les contient. Ce phénomène, prévu il y a longtemps par Bose et Einstein, joue un rôle important dans certains fluides, comme l’helium superfluide. Il a été observé également il y a cinq ans, pour la première fois aux Etats-Unis, sur des systèmes gazeux, formés d’atomes ultrafroids. Il fait actuellement l’objet de nombreuses études, tant théoriques qu’expérimentales dans de nombreux laboratoires.
L’ensemble des atomes condensés dans l’état fondamental du piège qui les contient porte le nom de « condensat ». Tous les atomes sont décrits par la même fonction d’onde. On obtient ainsi une onde de matière géante. De tels systèmes quantiques macroscopiques ont des propriétés tout à fait originales : cohérence, superfluidité, qui ont pu être observées et étudiées en grand détail. Plusieurs groupes s’efforcent également d’extraire d’un condensat de Bose- Einstein un faisceau cohérent d’atomes, réalisant ainsi un « laser à atomes », qui peut être
11
considéré comme l’équivalent, pour les ondes de de Broglie atomiques, des lasers mis au point, il y a trente ans, pour les ondes électromagnétiques . Quand de telles sources cohérentes d’ondes de de Broglie atomiques deviendront opérationnelles, on peut raisonnablement penser qu’elles stimuleront un développement spectaculaire de nouveaux champs de recherche, comme l’interférométrie atomique, la lithographie atomique.
Conclusion
L’étude des propriétés de la lumière et de ses interactions avec la matière a fait faire à la physique des progrès fantastiques au cours du XXe siècle. Ces avancées ont eu plusieurs retombées. Elles ont donné lieu à une nouvelle compréhension du monde microscopique. La mécanique quantique est née. La dualité onde-corpuscule est maintenant une évidence. De nouvelles sources de lumière, les lasers, sont apparues.
J’espère vous avoir convaincu que la lumière n’est pas seulement une source d’information sur les atomes mais également un moyen d’agir sur eux. On sait maintenant « manipuler » les divers degrés de liberté d’un atome, contrôler sa position et sa vitesse. Cette maîtrise accrue de la lumière et de la matière ouvre aujourd’hui de nouvelles perspectives à la recherche . De nouveaux objets d’étude sont apparus, comme les ondes de matière, les lasers à atomes, les systèmes quantiques dégénérés, dont les applications, encore insoupçonnées, verront le jour demain, au XXIe siècle.
Pour en savoir plus :
http://www.lkb.ens.fr/recherche/atfroids/tutorial/welcome.htm
De la lumière laser aux atomes ultrafroids.
Des explications simples sur le refroidissement et le piégeage d’atomes par laser et les applications de ce champ de recherche.
http://www.ens.fr/cct
Le cours de Claude Cohen-Tannoudji au Collège de France
Etude et analyse des travaux de recherche récents sur la Condensation de Bose-Einstein
L’auteur remercie Nadine Beaucourt pour son aide dans la rédaction de ce texte à partir de l’enregistrement de la conférence et Nicole Neveux pour la mise en forme du manuscrit.

 

  VIDEO       CANAL  U         LIEN

 


 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante
 
 
 
Google