ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

  initiation musicale

 

 

 

 

 

 

L'UNIVERS ÉTRANGE DU FROID : À LA LIMITE DU ZÉRO ABSOLU

Au voisinage du zéro absolu de température, la matière se transforme, adoptant des comportements que notre intuition a de la peine à appréhender. Certains gaz liquéfiés deviennent superfluides, s'échappant du réservoir qui les contient comme s'ils défiaient la pesanteur. La supraconductivité apparaît dans les métaux et donne lieu à des courants électriques permanents, utilisés aujourd'hui pour la production de champs magnétiques intenses. L'explication de ces phénomènes étranges apporte un nouvel éclairage dans des domaines que l'on aurait crus très éloignés, comme la dynamique des étoiles à neutrons ou l'évolution de l'Univers après le Big Bang, contribuant ainsi à établir des concepts physiques fondamentaux. Pour atteindre des basses températures qui n'existent pas dans la Nature, les chercheurs ont mis au point des méthodes de réfrigération sophistiquées. Celles-ci ont ouvert un nouveau domaine de recherche, la Physique des très basses températures, particulièrement riche en phénomènes physiques nouveaux qui constituent la source d'applications technologiques de pointe. Au cours d'une promenade à la limite du zéro absolu de température nous explorerons ensemble le royaume du froid.

Texte de la 228e conférence de l'Université de tous les savoirs donnée le 15 août 2000.
L'Univers étrange du froid : à la limite du zéro absolu

par Henri Godfrin

Température et intuition...

Qu'est-ce que le froid ? Nous avons tous une réponse à cette question, car nos sens nous permettent de déceler avec une précision remarquable de très faibles différences de température. Nous avons pris l'habitude d'utiliser des thermomètres, soigneusement gradués en degrés Celsius aussi bien vers les températures positives que vers les négatives. Bien que ceux-ci ne couvrent qu'une petite gamme, par exemple de -20 à +40°C, tout nous pousse à croire que l'on peut prolonger indéfiniment les graduations vers des températures infinies dans les deux sens. Pourtant, s'il est vrai que l'on peut chauffer un corps sans limitation en lui apportant une énergie aussi importante qu'il sera nécessaire, la Physique nous montre que la descente vers les basses températures bute contre un obstacle infranchissable : le Zéro Absolu.
Le premier qui semble avoir posé clairement la question de l'existence d'une limite inférieure à l'échelle de températures est un physicien français, Guillaume Amontons (1663-1705). Expérimentateur de génie, il arrive à une conclusion stupéfiante : la pression des gaz devient nulle à une température qu'il estime à une valeur correspondant à -240 de nos degrés Celsius. Une précision remarquable pour l'époque !
Ce n'est qu'au XIXe siècle que se dégagent les grandes lignes de la science de la chaleur, la Thermodynamique. Ses lois, appelés « principes », sont déduites de l'expérience. La Thermodynamique apporte aussi sa contribution au problème des très basses températures : Carnot, dans son ouvrage Réflexions sur la puissance motrice du feu et des machines propres à développer cette puissance publié en 1824, introduit la notion de température absolue T. Le zéro de cette échelle de température, le Zéro Absolu, est associé à l'efficacité maximale des machines thermiques : 100 % si la source froide est à T=0.
Température absolue et entropie
Les physiciens utilisent aujourd'hui l'échelle de températures absolues proposée en 1848 par William Thomson (Lord Kelvin). Celle-ci est définie par le Zéro Absolu (T=0) et la valeur 273,16 degrés attribuée au point triple de l'eau, la température unique où coexistent la glace, l'eau et sa vapeur, qui correspond à t=0,01 °C. Un degré de la nouvelle échelle (degré Kelvin) est identique à un degré Celsius, mais l'origine des deux échelles est décalée de 273,15 degrés : la température en Kelvins (T) s'exprime donc simplement en fonction de la température en degrés Celsius (t) par la formule T(K)=t(°C)+273,15.
Par ailleurs, la description des échanges de chaleur fait intervenir une nouvelle grandeur physique, introduite par Clausius en 1850 : l'entropie. Elle caractérise l'état de la matière ; fournir de la chaleur à un corps revient à augmenter son entropie. La Thermodynamique nous propose aussi le principe de l'entropie maximum : l'entropie d'un système isolé ne peut que croître ou rester constante, ce qui définit l'évolution d'un système physique hors équilibre ; on introduit ainsi une distinction entre les deux sens du temps : contrairement aux Lois de la Mécanique, passé et futur ne sont plus symétriques !
Cependant, la Physique Thermique ne fournit qu'une description macroscopique : nous sommes bien loin des « atomes » imaginés Démocrite...

Température et jeux de hasard : l'apport de la Statistique
Pourtant, grâce aux travaux de R. Clausius, J. Maxwell et L. Boltzmann, la Théorie Cinétique des gaz se met progressivement en place. Elle explique les propriétés des gaz par le mouvement désordonné de « molécules » : la pression exercée par un gaz sur un récipient est due aux très nombreuses collisions de ces molécules avec les parois. La température devient une mesure de l'énergie moyenne des molécules.
Le sort d'une molécule individuelle ne présente pas d'intérêt, lorsque l'on cherche à décrire les propriétés macroscopiques d'un corps. La Physique Statistique, développée dans l'incrédulité générale par L. Boltzmann, réussira l'exploit d'associer le comportement macroscopique d'un corps aux propriétés microscopiques sous-jacentes. Un exemple éclatant est l'obtention de l'équation d'état du gaz parfait, PV=NRT.
L'un des acquis fondamentaux de la Physique Statistique est la compréhension de l'origine de l'entropie. Du fait de la présence d'un grand nombre de molécules pouvant occuper un grand nombre d'états, il existe un très grand nombre de configurations possibles pour le système dans son ensemble, d'autant plus important que l'énergie totale à distribuer entre les molécules est élevée. Ce nombre de configurations est calculable par l'analyse combinatoire ; il est tellement grand que l'on est forcé de considérer son logarithme ! L'entropie est donc une mesure de la quantité d'états microscopiques accessibles au système : plus familièrement nous dirons qu'elle mesure le désordre !

La révolution de la Mécanique Quantique
L'avènement de la Mécanique Quantique, développée par M. Planck, N. Bohr, W. Heisenberg, P.A.M. Dirac et bien d'autres, allait permettre un nouveau progrès de la Physique Thermique, tout en s'appuyant fortement sur celle-ci. La Matière n'existe que dans des états « quantifiés », caractérisés par un nombre entier appelé nombre quantique, et par conséquent séparés en énergie. Ces états quantiques, similaires à ceux de l'électron autour d'un atome, fournissent l'outil idéal pour effectuer des calculs statistiques. En fait, ce que nous observons résulte d'une moyenne sur un nombre inimaginable de configurations (« états » ) microscopiques. La température est une grandeur associée au « peuplement » de ces états quantiques par les molécules. La probabilité de trouver une molécule dans un état d'énergie E est donnée par le facteur de Boltzmann exp[-E/kBT] : plus la température T est élevée, plus on aura des chances de trouver une molécule dans un état d'énergie E élevée. La constante de Boltzmann kB permet de comparer une température T à une énergie caractéristique du problème. Par exemple, la fusion d'un corps a lieu lorsque kBT est de l'ordre de E0, énergie de liaison des atomes de ce corps. À chaque domaine d'énergie est associé un domaine de température.
La Mécanique Quantique apporte un nouvel éclairage au problème du Zéro Absolu. En effet, parmi tous les états quantiques, il en existe un qui nous intéresse au plus haut degré : c'est l'état de plus basse énergie, appelé « état fondamental ». À ce stade, la matière ne peut plus céder d'énergie : il n'existe aucun état d'énergie inférieure ! Ce qui ne signifie aucunement que son énergie soit nulle. Les molécules continuent d'être animées de mouvement : il subsiste une énergie dite « de point zéro », que l'on peut associer au principe d'incertitude de Heisenberg de la Mécanique Quantique.

Zéro Absolu et excitations élémentaires
Le Zéro Absolu de température correspond donc à la situation où la Matière est dans l'état fondamental. Mais il n'y a plus aucun désordre quand il ne reste qu'un choix possible. Contrairement à ce que l'on pensait encore au début du siècle, ce n'est pas l'énergie qui devient nulle au Zéro Absolu, mais l'entropie.
La Physique des basses températures est ainsi, d'une certaine manière, la Physique de l'ordre. Elle permet également de comprendre toute la riche panoplie des effets thermiques. En effet, si l'on laisse de côté le cas un peu scolaire du gaz parfait, nous sommes immédiatement confrontés au problème complexe des atomes en interaction. Considérons par exemple le cas d'un corps solide simple. Le mouvement des atomes consiste en de petites oscillations autour de leur position d'équilibre. Mathématiquement, le problème est équivalent à celui d'une collection de pendules, ou « oscillateurs harmoniques ». Mais l'énergie de ces pendules est quantifiée ! A température nulle, ils seront soumis à une vibration de point zéro d'origine quantique. Quand on chauffe le système, on augmente le degré de vibration des atomes. En proposant un modèle des solides décrivant leurs propriétés thermiques au moyen d'une collection d'oscillateurs harmoniques quantifiés indépendants, Einstein faisait faire à la Physique un énorme progrès : pour la première fois on comprenait l'origine quantique de la décroissance de la capacité calorifique des corps à basse température. Cette grandeur, qui correspond à la quantité de chaleur que l'on doit fournir à un corps pour élever sa température d'un degré, nous renseigne sur l'énergie des états quantiques de la Matière. Elle doit tendre vers zéro à basse température, tout comme l'entropie, et c'est bien ce que l'on observe expérimentalement.

La Matière à basse température
Le modèle d'Einstein s'applique à des oscillateurs indépendants, alors que dans un très grand nombre de corps solides les vibrations des atomes sont fortement couplées. Tout se passe comme si les atomes étaient des petites masses reliées les unes aux autres par des « ressorts », ceux-ci symbolisant les forces atomiques. Debye a pu monter que des ondes sonores quantifiées, les « phonons », constituent les « excitations élémentaires » d'un solide.
Les propriétés électroniques de la matière sont également un domaine de recherches très fructueuses. L'un des effets les plus spectaculaires est l'apparition de la supraconductivité dans certains métaux[1]. À basse température, en effet, les électrons peuvent former des paires (paires de Cooper) et « condenser dans un état macroscopique cohérent » : tous les électrons de conduction du métal se comportent « en bloc », comme une molécule géante. Les impuretés et les défauts du métal qui donnaient lieu à une résistance électrique dans l'état « normal » ne peuvent plus arrêter cet « objet quantique » géant que sont devenus les électrons supraconducteurs : le courant circule sans dissipation. On a pu montrer que le courant piégé dans un anneau supraconducteur continuait de tourner sans faiblir pendant des années !
Les électrons d'un métal ou d'un semi-conducteur peuvent présenter bien d'autres propriétés très surprenantes à basse température comme, par exemple, l' Effet Hall Quantique Entier et l' Effet Hall Quantique Fractionnaire, la Transition Métal-Isolant, ou le Blocage de Coulomb.

Le froid est également intéressant pour étudier les phénomènes magnétiques. Ceux-ci sont dus à l'existence d'un « spin » associé à l'électron, c'est-à-dire une rotation de l'électron sur lui-même. De ce fait, l'électron se comporte comme un petit aimant élémentaire, qui aura tendance à s'aligner comme une boussole suivant un champ magnétique. Le désordre imposé par la température s'oppose à cet alignement. On voit alors évoluer les propriétés magnétiques des corps en fonction de la température et du champ magnétique. Au Zéro Absolu, les « spins » s'organisent pour former différentes structures magnétiques ordonnées : ferromagnétique, anti-ferromagnétique, hélicoïdale, etc.
Le domaine de prédilection des basses températures est l'étude des deux isotopes de l'hélium : 4He et 3He. L'4He est dépourvu de spin, et rentre de ce fait dans la catégorie des « bosons », regroupant toutes les particules de la Nature ayant un spin entier (0,1,2, etc.). L'3He, par contre, a un spin 1/2, et fait partie des « fermions ». La Mécanique Quantique est à nouveau mise à contribution lorsque l'on tente de décrire les propriétés d'une collection de ces atomes, réalisée en pratique par l'hélium liquide. En effet, l'état fondamental des bosons est obtenu en plaçant tous les atomes dans le même état quantique ; pour l'4He, on obtient un état macroscopique cohérent similaire à la supraconductivité des paires de Cooper électroniques. On observe la superfluidité de l'4He liquide en dessous de T=2.17 Kelvins : il s écoule alors sans aucun signe de frottement ou de viscosité, remontant même le long des parois du récipient qui le contient !

L'3He se comporte de manière très différente. Les fermions, en effet, ne peuvent se retrouver dans le même état (cette interdiction quantique reçoit le nom de « principe d'exclusion de Pauli »). Les nombreux atomes que comporte un volume donné d'3He liquide sont donc nécessairement dans des états quantiques différents ; si des atomes réussissent à se caser dans des états de basse énergie, les autres sont réduits à occuper des niveaux de plus en plus énergétiques : les états sont ainsi occupés jusqu'au « niveau de Fermi ». Cette physique se retrouve dans les métaux, car les électrons sont également des fermions. C'est pour cela que les études effectuées sur l'3He liquide ont permis de mieux comprendre la physique des métaux.
Il serait injuste de ne pas citer ici l'un des plus beaux effets de la physique des basses températures : la superfluidité de l'3He, observée par D.D. Osheroff, R.C. Richardson et D. Lee, Prix Nobel de Physique. Tout comme les électrons, les atomes d'3He forment des paires de Cooper qui condensent pour donner lieu à l'état superfluide. Les études conduites sur ce système ont permis de comprendre les propriétés observées 20 ans plus tard dans les « supraconducteurs à haute température critique ». D'autres analogies ont été développées, peut-être plus surprenantes comme, par exemple la description de la formation de cordes cosmiques dans l'Univers primordial à partir d'expériences réalisées dans l'3He superfluide à ultra-basse température. En fait, l'ordre de la matière de l'Univers après le big-bang est décrit par des symétries similaires à celles de l'3He superfluide !

Les fluides cryogéniques

Si l'hélium joue un rôle important pour la physique des basses températures, il en est de même en ce qui concerne la technologie qui lui est associée : la Cryogénie. Des réservoirs contenant de l'4He liquide sont présents dans tous les laboratoires de basses températures. Pourtant, la liquéfaction de l'hélium est relativement récente. Auparavant, des pionniers avaient ouvert la voie : Cailletet et Pictet, en liquéfiant l'oxygène (1877), Cailletet en obtenant de l'azote liquide la même année ; puis James Dewar, en 1898, en réussissant la liquéfaction de l'hydrogène. Finalement, en 1906 Heike Kammerlingh Onnes réussit à obtenir de l'hélium (4He) liquide, dont il observera la superfluidité.
Actuellement, l'azote liquide et l'hélium liquide constituent la source de froid préférée des cryogénistes. L'azote liquide, sous la pression atmosphérique, est en équilibre avec sa vapeur à une température de 77 Kelvins. Le liquide se manipule facilement, même si des précautions doivent être prises pour éviter les « brûlures cryogéniques ». Afin de limiter son évaporation, on le stocke dans des conteneurs isolés thermiquement à partir desquels il est transféré dans les dispositifs que l'on souhaite refroidir : vases d'azote liquide destinés à des expériences, pièges cryogéniques, etc. Parfois, le stockage cryogénique n'est motivé que par le gain de place, le liquide étant plus dense que le gaz.
Le stockage et la manipulation de l'hélium posent des problèmes plus sévères. En effet, l'hélium liquide n'est qu'à 4.2 Kelvins (en équilibre avec sa vapeur, sous la pression atmosphérique). De plus, sa chaleur latente d'évaporation est très faible, ce qui conduit à l'utilisation de vases très bien isolés thermiquement. Les vases de Dewar, du nom de leur inventeur, sont constitués d'une double enceinte sous vide. Les parois du vase sont réalisées avec des matériaux conduisant très mal la chaleur. Grâce aux progrès de la Cryogénie, on réussit actuellement à limiter l'évaporation des conteneurs d'hélium à quelques litres par mois.

Réfrigération au-dessous de 1 K
Kammerlingh Onnes ne s'était pas contenté des 4.2 Kelvins correspondant à la température de l'hélium liquide sous la pression atmosphérique. En utilisant des pompes très puissantes, il avait rapidement obtenu des températures de l'ordre de 0.8 Kelvins. À basse pression, en effet, l'équilibre liquide-gaz se trouve décalé vers les basses températures. Malheureusement, la pression décroît exponentiellement à basse température, et à ce stade même les pompes les plus puissantes ne réussiront à arracher au liquide que très peu d'atomes. Le processus de réfrigération par pompage de l'4He s'essouffle au voisinage de 1 Kelvin !
Les appareils de réfrigération (cryostats) utilisés dans les laboratoires comportent un vase de Dewar extérieur contenant de l'azote liquide (77 K) servant de première garde thermique et, à l'intérieur, un deuxième vase de Dewar contenant de l'hélium liquide (4,2 K). Au sein de l'hélium liquide se trouve un récipient étanche, sous vide, appelé « calorimètre ». C'est dans ce dernier, grâce à l'isolation thermique procurée par le vide et des écrans contre le rayonnement thermique, que l'on va pouvoir atteindre des températures encore plus basses. Pour refroidir un échantillon placé dans le calorimètre, on utilise une petite boîte « à 1 K », dans laquelle on laisse entrer par un tube capillaire un petit filet d'hélium liquide à partir du « bain » (c'est-à-dire du vase de Dewar contenant l'hélium). Un tuyau de grand diamètre permet de pomper efficacement cette boîte pour atteindre environ 1,4 K.
L'3He, particulièrement cher, peut être mis en Suvre grâce à une technique similaire. Le cryostat décrit ci-dessus permet en effet d'atteindre une température suffisamment basse pour condenser, sous une faible pression, de l'3He gazeux. Celui-ci est apporté dans le cryostat (circuit d'injection) par un tube capillaire passant dans l'hélium du « bain », puis rentrant dans le calorimètre où il est mis en contact thermique avec la boîte à 1 K afin de le condenser. L'3He devenu liquide est introduit dans un petit récipient où il est pompé. Ces « cryostats à 3He » opèrent « en mode continu » : en effet, le gaz pompé est réintroduit par le circuit d'injection, complétant le cycle. On atteint avec ces machines une température de l'ordre de 0,3 Kelvins !
La course vers le zéro absolu devait-elle s'arrêter là ? Il ne restait plus de candidats : l'hélium avait eu l'honneur d'être le dernier élément à subir la liquéfaction !
H. London proposa alors une idée séduisante : la dilution de 3He dans 4He liquide. Les premiers prototypes de réfrigérateurs à dilution atteignirent une température de 0,22 K, apportant la preuve que le principe fonctionnait. Plusieurs laboratoires, notamment à La Jolla et à Grenoble, ont développé des méthodes permettant de d'obtenir en mode continu des températures de l'ordre de 2 milliKelvins.
Si l'on ne connaît pas aujourd'hui d'autre méthode permettant de refroidir en continu, il existe un moyen d'atteindre de manière transitoire des températures encore plus basses. Le principe, énoncé par W.F. Giauque en 1926, est fondé sur les propriétés des substances paramagnétiques. En appliquant un champ élevé on peut aimanter les corps en question, ce qui produit un dégagement de chaleur, associé à la réduction de l'entropie : le système est « ordonné » par le champ. On isole ensuite le système en le découplant de son environnement au moyen d'un « interrupteur thermique ». L'entropie du système isolé reste constante si l'on procède à une réduction très lente du champ magnétique : il n'y a pas d'apport de chaleur, mais uniquement un « travail magnétique ». Cette « désaimantation adiabatique » permet de préserver le degré d'ordre des spins ; en réduisant progressivement le champ magnétique, l'agent extérieur qui avait induit cet ordre, on obtient donc une diminution de la température.

On peut atteindre des températures très inférieures à 1 milliKelvin en utilisant les spins nucléaires de certains atomes. Des fils de cuivre constituant l'étage à désaimantation nucléaire sont d'abord refroidis à moins de 10 milliKelvins au moyen d'un réfrigérateur à dilution sous un champ magnétique élevé (8 Teslas). On isole le système puis on le désaimante lentement. Cette méthode (« désaimantation adiabatique nucléaire ») permet d'atteindre des températures extrêmement basses : les spins nucléaires peuvent être refroidis à des nanoKelvins !
Les vibrations atomiques (« phonons ») et les électrons, par contre, resteront plus chauds, car le couplage thermique devient très faible à basse température et les entrées de chaleur parasites sont inévitables. Les difficultés deviennent rapidement très importantes lorsque l'on souhaite refroidir un échantillon à ultra-basse température ; par exemple, l'3He superfluide a été étudié à une centaine de microKelvins à Lancaster et à Grenoble en utilisant les dispositifs les plus performants.
Des méthodes très différentes, issues de l'optique et mettant en Suvre des lasers, ont permis récemment de refroidir à des températures de l'ordre des nanoKelvins des gaz très dilués d'atomes de Césium ou de Rubidium. Ce tour de force a montré de nombreux phénomènes analogues à ceux que nous avons évoqués pour l'hélium, comme la condensation de Bose, la cohérence quantique, la formation de tourbillons quantifiés, etc. Ce nouveau domaine de recherches est très riche et en fort développement[2].

Thermométrie à basse température
La mesure de la température est une entreprise délicate, car il n'existe aucun thermomètre susceptible de fournir la température absolue T dans toute la gamme de températures ! On a donc mis au point une série de dispositifs thermométriques. Ceux-ci sont appelés « primaires » lorsqu'ils fournissent la température à partir de grandeurs mesurées indépendamment. C'est le cas du thermomètre à gaz, malheureusement limité à des températures supérieures à 10 K, de certains thermomètres magnétiques permettant d'effectuer des cycles thermodynamiques entre deux températures, et des thermomètres à bruit Johnson, où la température est déduite du bruit électrique sur une résistance. Les thermomètres secondaires, par contre, doivent être étalonnés par rapport à des thermomètres primaires. Dans certains cas, il est possible d'établir des « tables » de propriétés mesurées permettant de reproduire facilement l'échelle thermométrique officielle. C'est le cas de la tension de vapeur de l'3He et l'4He : la mesure de la pression d'équilibre liquide-vapeur permet de déterminer la température aux alentours de 1 Kelvin à partir des valeurs tabulées. L'Echelle Internationale de Températures reconnue actuellement, ITS90, ne défint la température que jusqu'à 0,65 K. En octobre 2000 le Comité International des Poids et Mesures a adopté une échelle provisoire pour les bases températures, définie par la courbe de fusion de l'3He (PLTS2000). Elle couvre la gamme de températures allant de 0,9 milliKelvins à 1 Kelvin.

Applications des basses températures
Les techniques cryogéniques permettent d'obtenir des gaz très purs. De ce fait, l'activité industrielle dans le domaine des gaz liquéfiés est très importante, notamment en France. Elle concerne le gaz naturel, l'azote, l'oxygène, l'hydrogène, l'hélium, etc. Les fluides cryogéniques sont utilisés dans de nombreux secteurs : électronique, métallurgie, chimie, espace, etc. Par exemple, le combustible des fusées Ariane 5 est constitué d'oxygène et d'hydrogène liquides, et la fabrication de composants semi-conducteurs, comme les microprocesseurs de nos ordinateurs, exige l'utilisation d'azote très pur obtenu par évaporation du liquide.

Des applications médicales de pointe ont vu le jour récemment. Les scanners RMN utilisent le champ magnétique produit par des bobines supraconductrices placées dans un vase de Dewar contenant de l'hélium liquide. La cryopréservation d'organes ou de cellules (sang, sperme, etc...) fait intervenir de l'azote liquide et des réservoirs de stockage cryogénique. On utilise également l'azote liquide dans le domaine de la cryochirurgie.
Les grands instruments scientifiques comptent parmi les utilisateurs du froid. Le futur accélérateur de particules du CERN, le LHC, sera équipé d'aimants supraconducteurs situés dans de l'4He superfluide, sur un périmètre de 27 kilomètres. De nombreux laboratoires ont installé des aimants supraconducteurs destinés à fournir des champs très intenses. On les retrouve dans les installations d'expérimentation sur les plasmas (Tore Supra, par exemple), dont on espère obtenir une source d'énergie pour l'avenir.
A basse température, un très faible apport de chaleur provoque une augmentation de température perceptible, d'où l'idée d'utiliser les techniques cryogéniques pour détecter des particules cosmiques. Plusieurs instruments dits « bolométriques » existent actuellement dans les laboratoires d'Astrophysique.
Les propriétés quantiques de la matière permettent de concevoir de nouveaux étalons de grandeurs fondamentales ou appliquées : c'est le cas du Volt ou de l'Ohm, définis par l'effet Josephson et l'effet Hall Quantique et réalisés par des dispositifs à très basse température.

Les dispositifs électrotechniques supraconducteurs sont susceptibles d'autoriser un gain d'énergie important par rapport aux systèmes classiques. Dans le domaine de la forte puissance, transformateurs, alternateurs et limiteurs de courant sont progressivement installés sur les réseaux électriques. D'autre part, les applications dans le domaine des télécommunications se sont rapidement développées depuis quelques années, en particulier au niveau des filtres très sélectifs pour les téléphones mobiles, réalisés au moyen de supraconducteurs à « haute température critique » maintenus à la température de l'azote liquide.

D autres applications ont pour motivation la très grande sensibilité et le faible bruit électrique de certains dispositifs fonctionnant à basse température, comme les amplificateurs cryogéniques. Les SQUIDs, instruments révolutionnaires, constituent les magnétomètres les plus sensibles existant actuellement ; ils sont capables de mesurer des tensions de l'ordre du picoVolt !
Les circuits électroniques atteignent des tailles nanométriques, et de ce fait ils sont particulièrement sensibles aux perturbations thermiques. Les nano-objets actuellement étudiés dans les laboratoires au voisinage du Zéro Absolu de température sont la source de nombreuses découvertes fondamentales sur lesquelles se bâtit la technologie de demain.

Bibliographie
Livres
- Mendelssohn (K.), La recherche du Zéro Absolu, Hachette, 1966.
- Conte (R. R.), Éléments de Cryogénie, Masson, 1970.
- Pobell (F.), Matter and Methods at Low Temperatures, Springer,1996.
- Tilley (D. R.) and Tilley (J.), Superfluidity and Superconductivity, Institute of Physics Publishing, IOP London, 1996.
- La Science au Présent (recueil), Ed. Encyclopaedia Universalis, Godfrin (H.), « Vers le Zéro Absolu ».

Articles de revues
- Balibar (S.), « L'Hélium, un liquide exemplaire », La Recherche 256, Juillet-Août 1993.
- Pobell (F.), « La quête du Zéro Absolu », La Recherche 200, Juin 1988.
- Lounasmaa (O.), « Towards the Absolute Zero », Physics Today, p. 32, Déc. 1979.
- Balibar (S.), « Aux frontières du Zéro Absolu », La Recherche 157, Juillet-Août 1984.
- Bäuerle (C.), Bunkov (Y.), Fisher (S. N.), Godfrin (H.) et Pickett (G. R.), « L'Univers dans une éprouvette », La Recherche 291, 1996.
[1] Voir à ce sujet les 220e et 223e conférences de l'Université de tous les savoirs données respectivement par E. Brézin et S. Balibar.
[2] Voir à ce sujet la 217e conférence de l'Université de tous les savoirs donnée par Claude Cohen-Tannou
dji.

 


            VIDEO     canal U       LIEN    

 
 
 
initiation musicale toulon  

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER

  initiation musicale

 

 

 

 

 

LE REFROIDISSEMENT D'ATOMES PAR DES FAISCEAUX LASER

En utilisant des échanges quasi-résonnants d'énergie, d'impulsion et de moment cinétique entre atomes et photons, il est possible de contrôler au moyen de faisceaux laser la vitesse et la position d'un atome neutre et de le refroidir à des températures très basses, de l'ordre du microKelvin, voire du nanoKelvin. Quelques mécanismes physiques de refroidissement seront passés en revue, de même que quelques applications possibles des atomes ultra-froids ainsi obtenus (horloges atomiques, interférométrie atomique, condensation de Bose-Einstein, lasers à atomes, etc.).

Texte de la 217e conférence de l’Université de tous les savoirs donnée le 4 août 2000.
Le refroidissement des atomes par laser par Claude Cohen-Tannoudji
Introduction
Au cours des deux dernières décennies, des progrès spectaculaires ont été réalisés dans notre maîtrise du mouvement des atomes. En faisant interagir ces atomes avec des faisceaux laser de direction, de fréquence et de polarisation convenablement choisies, nous pouvons maintenant contrôler la vitesse de ces atomes, réduire leurs mouvements d’agitation désordonnée, en quelque sorte les assagir, ce qui revient à diminuer leur température. Ces nouvelles méthodes portent le nom de «refroidissement laser». On sait également depuis peu contrôler la position des atomes et les maintenir confinés dans de petites régions de l’espace appelées « pièges ».
Le sujet de cet exposé est le refroidissement laser. Son objectif est double. Je voudrais tout d’abord expliquer en termes très simples comment fonctionne le refroidissement laser. Lorsqu’un atome absorbe ou émet de la lumière, il subit un recul. Comment peut-on utiliser ce recul pour ralentir et refroidir des atomes ? Je voudrais également dans cet exposé passer en revue les principales motivations de ces travaux, les nouvelles perspectives qu’ils ouvrent et essayer de répondre à quelques interrogations : À quoi peuvent servir les atomes ultrafroids ? Quels problèmes nouveaux permettent-ils d’aborder ? Quelles nouvelles applications peut-on envisager ?
Pour ceux d’entre vous qui ne sont pas familiers avec la physique des atomes et du rayonnement, j’ai pensé qu’il serait utile de commencer cet exposé par un rappel succinct de quelques notions de base très simples sur les photons et les atomes, sur les mécanismes d’absorption et d’émission de photons par les atomes. J’aborderai ensuite la description de quelques mécanismes physiques à la base du refroidissement laser : le recul de l’atome émettant ou absorbant un photon, ce qui se passe lorsqu’on place l’atome dans un faisceau laser résonnant, comment les reculs successifs que subit alors l’atome permettent de le ralentir et de le refroidir. Je terminerai enfin mon exposé en passant en revue quelques applications de ces travaux : les horloges à atomes froids, d’une extrême précision, puis l’interférométrie atomique qui utilise des phénomènes d’interférence résultant de la superposition des ondes de de Broglie atomiques, et enfin ces nouveaux états de la matière qui sont nommés condensats de Bose-Einstein. L’apparition, à des températures très basses, de ces nouveaux objets ouvre la voie vers de nouvelles applications comme les lasers à atomes qui sont analogues à des lasers ordinaires dans lesquels les ondes lumineuses seraient remplacées par des ondes de de Broglie.
Quelques notions de base
La lumière
La lumière est un objet d’études qui a toujours fasciné les physiciens et les scientifiques en général. Elle est apparue successivement au cours des siècles comme un jet de corpuscules ou comme une onde. Nous savons aujourd’hui qu’elle est à la fois une onde et un ensemble de corpuscules.
La lumière est tout d’abord une onde électromagnétique, c’est-à-dire un champ électrique et un champ magnétique oscillant à la fréquence ν et se propageant dans le vide à une vitesse
considérable c = 3×108 m/s. Comme toute onde, la lumière donne naissance à des phénomènes d’interférence. Lorsqu’on superpose deux ondes différentes d’égale amplitude,
1
en certains points, les ondes vibrent en phase et l’amplitude est doublée, en d’autres points, les ondes vibrent en opposition de phase et l’interférence est destructive. Sur un écran, on peut ainsi apercevoir une succession de zones brillantes et de zones sombres appelées franges d’interférence.
La couleur de la lumière est liée à sa fréquence ν . Le spectre de fréquence des ondes électromagnétiques s’étend de quelques Hertz aux rayons X et gamma. La lumière visible ne couvre qu’une très petite région de ce domaine spectral. Il est possible d’analyser le contenu spectral d’un rayonnement grâce à des appareils dits dispersifs qui font subir à un rayon lumineux une déviation qui dépend de la fréquence. Ainsi, si l’on fait passer un rayon solaire à travers un prisme, ses différentes composantes de couleur sont déviées de manière différente et on observe ce que l’on appelle un spectre.
Au début du siècle, à la suite des travaux de Planck et d’Einstein, il est apparu que la lumière n’était pas seulement une onde, mais qu’elle était aussi une assemblée de corpuscules : les
« photons ». A une onde lumineuse de fréquence ν , sont ainsi associés des corpuscules, les photons, qui possèdent une énergie E = hν proportionnelle à ν , une quantité de mouvement
p = hν / c également proportionnelle à ν . Dans ces équations, c est la vitesse de la lumière,
ν sa fréquence et h une constante que l’on appelle la constante de Planck, introduite en physique par Planck il y a exactement 100 ans.
L’idée importante qui s’est dégagée au cours du siècle précédent est la dualité onde- corpuscule. La lumière est à la fois une onde et un ensemble de corpuscules. Il est impossible de comprendre les divers phénomènes observés en termes d’ondes uniquement ou de corpuscules uniquement. Ces deux aspects de la lumière sont tous deux indispensables et indissociables.
Les atomes
Les atomes sont des systèmes planétaires analogues au système solaire. Ils sont formés de particules très légères, « les électrons », particules de charge négative, qui gravitent autour d’une particule de masse beaucoup plus élevée, dont la charge est positive : « le noyau ». Pour comprendre le mouvement de ces électrons autour du noyau, les physiciens se sont vite rendu compte que la mécanique classique était inadéquate et conduisait à des absurdités. Ils ont alors « inventé » la mécanique quantique, qui régit la dynamique du monde à l’échelle microscopique. Il s’agit là d’une révolution conceptuelle aussi importante que la révolution de la relativité restreinte et de la relativité générale. Une des prédictions les plus importantes de la mécanique quantique est la quantification des grandeurs physiques, en particulier, la quantification de l’énergie.
Dans le système du centre de masse de l’atome, système qui coïncide pratiquement avec le noyau car le noyau est beaucoup plus lourd que les électrons, on observe que les énergies des électrons ne peuvent prendre que des valeurs discrètes, quantifiées, repérées par des
« nombres quantiques ». Pour illustrer la quantification de l’énergie, j’ai représenté ici le niveau fondamental d’énergie la plus basse, le premier niveau excité, le deuxième niveau excité.
2
E2 E1
E0
2e Niveau excité 1er Niveau excité
Niveau fondamental
Figure 1 : Niveaux d'énergie d'un atome. Chaque trait horizontal a une altitude proportionnelle à l'énergie du niveau correspondant.
Interaction matière-lumière
Comment un tel atome interagit-il avec la lumière ? Émission et absorption de lumière par un atome
Un atome, initialement dans un état supérieur Eb , peut passer de ce niveau à un niveau inférieur Ea . Il émet alors de la lumière de fréquence ν , plus précisément un photon d’énergie
hν , telle que Eb − Ea = hν . Autrement dit, l’énergie perdue par l’atome, lorsqu’il passe du
niveau Eb au niveau Ea , est évacuée par le photon d’énergie hν . La relation entre la perte
d’énergie de l’atome et la fréquence de la lumière émise n'est donc en fait que la traduction exacte de la conservation de l’énergie.
Eb
Ea
ν Eb −Ea =hν ν
Emission
Absorption
Eb
Ea
Figure 2 : Processus élémentaires d'émission (figure de gauche) et d'absorption (figure de droite) d'un photon par un atome.
Le processus inverse existe, bien sûr : le processus d’absorption de lumière par un atome. L’atome, initialement dans un état inférieur Ea peut passer dans un niveau supérieur Eb en
gagnant l’énergie hν du photon absorbé. En d’autres termes, l’atome absorbe un photon et l’énergie du photon qu’il absorbe lui permet de passer de Ea à Eb . Il apparaît ainsi clairement
que la quantification de l’énergie atomique sous forme de valeurs discrètes entraîne le caractère discret du spectre de fréquences émises ou absorbées par un atome.
La lumière : une source essentielle d’informations sur la structure des atomes 3
Un atome ne peut émettre toutes les fréquences possibles, il ne peut émettre que les fréquences correspondant aux différences des énergies de ses niveaux. Ce résultat est extrêmement important. Il montre en effet que la lumière est une source d’information essentielle sur le monde atomique. En effet, en mesurant les fréquences émises ou absorbées, on peut reconstituer les différences Eb − Ea et obtenir le diagramme d’énergie d’un atome.
C’est ce que l’on appelle la « spectroscopie ». Le spectre d’un atome varie d’un atome à l’autre. Les fréquences émises par l’atome d’hydrogène diffèrent de celles émises par l’atome de sodium, de rubidium ou de potassium. Le spectre de raies émises par un atome constitue en quelque sorte son « empreinte digitale » ou, pour utiliser des termes plus actuels, son
« empreinte génétique ». Il est possible d’identifier un atome par l’observation des fréquences qu’il émet. Autrement dit, en observant la lumière provenant de différents types de milieux, on peut obtenir des informations sur les constituants de ces milieux. Ainsi, en astrophysique, par exemple, c'est la spectroscopie qui permet de déterminer la composition des atmosphères planétaires et stellaires et d'identifier les molécules qui sont présentes dans l’espace interstellaire. L’observation du décalage des fréquences émises par des objets astrophysiques permet de mieux comprendre la vitesse de ces objets et de mesurer ainsi l’expansion de l’univers. L’observation du spectre de la lumière émise ou absorbée permet aussi d’étudier des milieux hostiles comme des plasmas ou des flammes et d’analyser in situ les constituants de ces milieux.
Durée de vie d'un état excité
Considérons un atome isolé, initialement préparé dans un état excité Eb . L’expérience montre qu’au bout d’un certain temps, très court, l’atome retombe spontanément dans un état
inférieur Ea , en émettant et dans n’importe quelle direction, un photon d’énergie
hν = Eb − Ea . Ce laps de temps, très court, à la fin duquel se produit le processus d'émission
est appelé la durée de vie de l’état excité Eb .
Il apparaît ainsi qu'un atome ne peut pas rester excité indéfiniment. La durée de vie de l’état excité, qui varie d’un atome à l’autre, est typiquement de 10-8 s, c’est-à-dire 10 milliardièmes de seconde.
Les mécanismes physiques
Après ces brefs rappels de notions de base, abordons maintenant la seconde partie de cet exposé qui traite des mécanismes physiques à la base du refroidissement laser.
Le recul de l’atome lors de l’émission ou de l’absorption d’un photon
(3a)
Eb Ea M u
hν / c
Ea
Eb
hν / c
4
Mu
(3b)
Figure 3 : Recul d'un atome lors de l'émission (figure 3a) ou de l'absorption (figure 3b) d'un photon par cet atome.
En physique, il y a une loi fondamentale qui est « la conservation de la quantité de mouvement ». Considérons un atome excité dans un état Eb supérieur, initialement immobile,
et supposons qu’à l’instant t = 0 , cet atome émette un photon, lequel a une quantité de mouvement hν / c . Dans l’état initial, l’atome étant tout seul et immobile, la quantité de
mouvement globale est nulle. Dans l’état final, comme le photon part avec une quantité de mouvement hν / c , l’atome recule avec la quantité de mouvement opposée Mv = −hν / c .
Vous avez certainement déjà vu, en réalité ou à la télévision, un canon tirer un obus : lorsque le canon tire un obus, il recule. De même, lorsqu’un atome émet un photon, il recule à cause de la conservation de la quantité de mouvement. Sa vitesse de recul est donnée par
vrec =hν/Mc.
Le même phénomène de recul s’observe lors de l’absorption. Considérons un atome dans un
état fondamental Ea , initialement immobile, et supposons qu’on envoie sur lui un photon : l’atome absorbe le photon et parvient à l’état excité. Il recule alors avec la même vitesse de
recul hν / Mc . De même, lorsqu’on tire une balle sur une cible, la cible recule à cause de la
quantité de mouvement qui lui est communiquée par le projectile.
Par ailleurs, nous savons que l’absorption de photon qui porte l’atome, initialement immobile, à l’état excité, est nécessairement suivie d’une émission puisque l’atome ne peut rester excité indéfiniment. Il retombe donc, au bout d’un temps qui est la durée de vie de l'état excité, dans l’état inférieur, en émettant spontanément un photon. Dans ce cycle absorption-émission au cours duquel l’atome absorbe un photon, recule puis émet un photon, la probabilité qu’il émette ce photon dans telle direction ou dans telle autre, dans un sens ou dans le sens opposé, est la même de sorte, qu’en moyenne, la vitesse qu’il perd lors de l’émission est nulle. Il s'ensuit donc que le changement de vitesse de l’atome est, en moyenne, uniquement lié au processus d’absorption et a pour valeur vrec = hν / Mc . Ce résultat est important pour la suite.
L’atome dans un faisceau laser
Essayons maintenant de comprendre comment réagit l’atome en présence, non pas d’un seul photon incident, mais d’un faisceau laser résonnant. Un flot de photons arrive alors sur lui. Il en absorbe un premier, monte dans l’état excité, retombe en émettant un photon, puis absorbe un second photon laser, monte dans l’état excité, retombe en émettant un autre photon , puis en absorbe un troisième et ainsi de suite. L’atome, ainsi plongé dans un faisceau laser, enchaîne les cycles absorption-émission sans pouvoir s’arrêter et, à chacun de ces cycles, sa vitesse change en moyenne de vrec = hν / Mc . Comme la durée de vie moyenne de l’atome
excité est de 10-8 s, il se produit de l'ordre de108 cycles absorption-émission par seconde, c’est-à-dire 100 millions de cycles par seconde ! A chacun de ces cycles, la vitesse de l’atome change de hν / Mc . Pour l'atome de sodium, le calcul de cette vitesse de recul donne 3cm/s.
Pour l'atome de césium, on obtient 3mm/s. Ces vitesses sont très faibles, comparées par exemple aux vitesses des molécules de l'air qui nous entoure, qui sont de l'ordre de 300m/s. C'est pourquoi pendant longtemps les changements de vitesse d'un atome dûs aux effets de recul ont été considérés comme négligeables. En fait la situation est radicalement différente pour un atome dans un faisceau laser. Les cycles d'absorption-émission se répètent 100 millions de fois par seconde, générant un changement de vitesse par seconde de l'ordre de 100 millions de fois la vitesse de recul. On obtient ainsi des accélérations (ou décélérations) de l'ordre de 106 m/s2. A titre de comparaison, prenons un exemple dans la vie courante : quand
5
un objet tombe, l’accélération g qu'il subit du fait de la pesanteur est de 10 m/s2. Un atome de
sodium irradié par un faisceau laser est soumis à une accélération, ou une décélération, qui peut atteindre 105g. A titre de comparaison encore, cette accélération est 100 000 fois supérieure à celle, de l’ordre de 1g, que subit une voiture qui roule à 36 km/heure et qui s’arrête en 1 seconde.
Ralentissement d’un jet atomique
Cette force considérable qu’exerce la lumière sur les atomes, résultant de l'accumulation d'un très grand nombre de petits changements de vitesse, permet d’arrêter un jet atomique. Considérons un jet d’atomes sortant d’un four à la température de 300°K ou 400°K et se propageant à une vitesse de l'ordre de 1 km/s. Si ce jet est éclairé tête bêche par un faisceau laser résonnant, la force de pression de radiation que les atomes subissent va ralentir ces atomes, les arrêter et même leur faire rebrousser chemin. Un atome de vitesse initiale v0 de
1 km/s, soit 103 m/s, va être arrêté avec une décélération de 106m/s2, au bout de 10-3seconde, c’est-à-dire en une milliseconde. En une milliseconde, il passe ainsi de 1 km/s à zéro ! La distance L parcourue par l'atome avant qu'il ne s'arrête est donnée par une formule classique de terminale. Elle est égale au carré de la vitesse initiale divisée par deux fois la décélération subie. On obtient ainsi L = 0, 5m . On peut donc ainsi, dans un laboratoire, sur une distance
de l'ordre du mètre, arrêter un jet d’atomes avec un faisceau laser approprié. Evidemment, au fur et à mesure que les atomes sont ralentis, à cause de l’effet Doppler, ils sortent de résonance. Il faut donc modifier la fréquence du faisceau laser ou modifier la fréquence des atomes pour maintenir la condition de résonance et conserver la force à sa valeur maximale tout au long du processus de décélération.
Ralentir les atomes consiste à diminuer leur vitesse moyenne. Par contre la dispersion des valeurs de la vitesse autour de la valeur moyenne demeure en général inchangée. Il faut en fait faire une distinction très claire entre le mouvement d’ensemble caractérisé par la vitesse moyenne et le mouvement d’agitation désordonnée autour de la valeur moyenne de la vitesse. En physique, c’est cette vitesse d’agitation désordonnée qui caractérise la température. Plus un milieu est chaud, plus les vitesses d’agitation désordonnée de ses constituants sont élevées. Refroidir un système, cela veut dire diminuer les vitesses d’agitation désordonnée de ses constituants. Comment peut-on refroidir des atomes avec des faisceaux laser ?
Refroidissement Laser Doppler
(4a)
(4b)
Figure 4 : Principe du mécanisme de refroidissement laser par effet Doppler. Pour un atome au repos (figure 4a) les deux forces de pression de radiation s'équilibrent exactement. Pour
νL <νA νA νL <νA
Atome v=0
νapp <ν ν νapp >ν LLALL
Atome v v≠0
6
un atome en mouvement (figure 4b), la fréquence apparente de l'onde se propageant en sens opposé augmente et se rapproche de résonance. Elle exerce une force de pression de radiation plus grande que celle de l'onde qui se propage dans le même sens que l'atome et dont la fréquence apparente, diminuée par effet Doppler, s'éloigne de résonance.
Le mécanisme de refroidissement laser le plus simple utilise l'effet Doppler et a été proposé au milieu des années 70 par Hansch, Schawlow, Wineland et Dehmelt. L’idée est simple : l'atome est éclairé non plus par une seule onde laser, mais par deux ondes laser se propageant dans des sens opposés. Ces deux ondes laser ont même intensité, et même fréquenceνL , cette
fréquence νL étant légèrement inférieure à celle, νA , de la transition atomique. Que se passe-
t-il alors ? Si l’atome est immobile, avec donc une vitesse nulle, v = 0 , il n’y a pas d’effet Doppler. Dans ce cas, les deux faisceaux laser ont la même fréquence apparente. Les forces qu'ils exercent ont même module et des signes opposés. La force de pression de radiation venant de la gauche et la force de pression de radiation venant de la droite s’équilibrent donc exactement et l’atome n’est soumis à aucune force. Si l’atome se déplace vers la droite, avec une vitesse v non nulle, à cause de l’effet Doppler, la fréquence de l’onde qui se propage en sens opposé apparaît plus élevée. Cette fréquence apparente est ainsi augmentée et se rapproche de résonance. Le nombre de photons absorbés est alors plus élevé et la force augmente. Par contre, l'onde qui se propage dans le même sens que l'atome a sa fréquence apparente qui est diminuée par effet Doppler et qui s'éloigne donc de résonance. Le nombre de photons absorbés est alors moins élevé et la force diminue. A cause de l'effet Doppler, les deux forces de pression de radiation ne s'équilibrent plus. C'est la force opposée à la vitesse qui l'emporte et l'atome est ainsi soumis à une force globale non nulle, opposée à sa vitesse. Cette force globale F peut être écrite pour une vitesse v assez faible sous la forme
F = −α v où α est un coefficient de friction. Autrement dit, l’atome qui se déplace dans
cette configuration de deux faisceaux laser se propageant dans des sens opposés est soumis à une force de friction opposée à sa vitesse. Il se retrouve dans un milieu visqueux, que l’on appelle une mélasse optique par analogie avec un pot de miel. Sous l’effet de cette force, la vitesse de l’atome va être amortie et tendre vers zéro.
Refroidissement Sisyphe
L’étude théorique du mécanisme de refroidissement laser Doppler permet de prédire les températures qui pourraient être obtenues par un tel mécanisme et qu'on trouve de l’ordre de quelques centaines de microkelvin soit quelques 10-4 K. Ce sont des températures très basses comparées à la température ordinaire qui est de l’ordre de 300 K. En fait, quand, à la fin des années 80, on a pu mesurer ces températures de manière plus précise, on s’est aperçu, et ce fut une réelle surprise, que les températures mesurées étaient 100 fois plus basses que prévues, ce qui signifiait que d’autres mécanismes étaient en jeu. C’est l’un deux, le refroidissement Sisyphe que nous avons, mon collègue Jean Dalibard et moi-même, identifié et étudié en détail.
7
Figure 5 : l'effet Sisyphe
Sans entrer dans les détails d’un tel mécanisme, essayons d’en donner une idée générale. Les expériences de refroidissement laser utilisent des paires d’ondes laser se propageant dans des sens opposés (voir par exemple la figure 4). Ces ondes interfèrent et l’onde résultante a donc une intensité et une polarisation qui varient périodiquement dans l’espace. Or, on peut montrer que les niveaux d’énergie d’un atome sont légèrement déplacés par la lumière, d’une quantité proportionnelle à l’intensité lumineuse et qui dépend de la polarisation lumineuse. De plus, chaque atome possède en général plusieurs « sous-niveaux » d’énergie dans son état fondamental, qui correspondent chacun à une valeur différente d’une grandeur physique qui, comme l’énergie, est quantifiée. En l’occurrence, il s’agit ici du moment cinétique, l’atome pouvant être considéré comme une petite toupie qui tourne sur elle même. La figure 5 représente deux tels sous-niveaux dont les énergies sont modulées dans l’espace sous l’effet de la lumière. L’atome en mouvement se déplace donc dans un paysage de collines et de vallées de potentiel, paysage qui change suivant le sous-niveau dans lequel il se trouve. Considérons alors un atome se déplaçant vers la droite et initialement au fond d’une vallée de potentiel, dans un certain sous-niveau (Fig.5). Cet atome gravit la colline de potentiel et atteint le sommet de cette colline où il peut avoir une probabilité importante d’absorber et d’émettre un photon, processus à l’issue duquel il va se retrouver dans l’autre sous-niveau d’énergie, au fond d’une vallée. Le même scénario peut alors se reproduire, l’atome gravissant à nouveau une colline de potentiel avant d’atteindre le sommet et d’être transféré dans l’autre sous-niveau au fond d’une vallée, et ainsi de suite...Comme le héros de la mythologie grecque, l’atome est ainsi condamné à recommencer sans cesse la même ascension, perdant à chaque fois une partie de son énergie cinétique. Au bout d’un certain temps, il est tellement épuisé qu’il n’arrive plus à gravir les collines et se retrouve pris au piège au fond d’un puits. L’étude théorique et la comparaison avec les résultats expérimentaux ont conforté la réalité de ce mécanisme de refroidissement qui permet d'atteindre le microkelvin, c’est-à-dire une température de 10-6 K. Nous avons aussi mis au point au laboratoire d’autres méthodes, que je n’ai pas le temps d’approfondir aujourd’hui, qui permettent d'aller encore plus loin et d’atteindre le nanokelvin, c’est-à-dire 10-9 K, un milliardième de Kelvin.
À de telles températures, les vitesses des atomes sont de l’ordre du cm/s voire du mm/s alors qu’à température ordinaire, elles sont de l’ordre du km/s. Ces méthodes de refroidissement ont donc permis d’assagir considérablement le mouvement d'agitation désordonnée des atomes, de les rendre presque immobiles. Mentionnons également, sans entrer dans le détail des phénomènes, qu'on peut confiner les atomes dans une petite région de l'espace, appelée piège, grâce à l'utilisation de gradients d’intensité lumineuse ou de gradients de champ magnétique.
Description de quelques applications
Les horloges atomiques
8
∆ν ν0
Figure 6 : Principe d'une horloge atomique
Les applications des atomes froids et les nouvelles perspectives qu’ils ouvrent sont essentiellement liées au fait qu’ils sont animés d’une très faible vitesse. Cette particularité permet de les observer pendant une durée beaucoup plus longue. Or, en physique, une mesure est d’autant plus précise que le temps d’observation est plus long. On comprend très bien alors que, grâce à l’extrême précision des mesures pouvant être faites sur des atomes ultrafroids, des progrès ont pu être réalisés, dans la conception des horloges notamment. Rappelons tout d'abord en quoi consiste une horloge. C’est essentiellement un oscillateur, par exemple un quartz qui oscille à une certaine fréquence. Cependant, la fréquence d'un quartz livré à lui-même, fluctue au cours du temps. Elle accélère ou ralentit. Pour réaliser une horloge stable, il est donc nécessaire d'empêcher sa fréquence de dériver. Pour ce faire, on va maintenir la fréquence du quartz égale à la fréquence centrale d'une raie atomique.
Le principe de cette opération est schématisé sur la figure 6. Un oscillateur, piloté par le quartz, délivre une onde électromagnétique de même fréquence ν que la fréquence d’oscillation du quartz. Cette onde permet une « interrogation » des atomes utilisés pour stabiliser l’horloge. En l’envoyant sur les atomes et en balayant la fréquence ν du quartz, on observe une « résonance » quand ν coïncide avec la fréquence ν0 = (Eb − Ea ) / h
correspondant à l’écart d’énergie Eb − Ea entre deux niveaux d’énergie de cet atome. Un dispositif « d’asservissement » ajuste alors en permanence la fréquence ν du quartz pour la
maintenir au centre de la raie atomique. On stabilise ainsi ν en forçant ν à rester égal à ν0 .
En fait, c’est l’atome de césium qui est utilisé pour définir l’unité de temps, la seconde. Par convention internationale, la seconde correspond à 9 192 631 770 périodes d’oscillation
T0 =1/ν0 ,oùν0 estlafréquencecorrespondantàunecertainetransitionreliantdeuxsous- niveaux d’énergie de l’état fondamental de l’atome de césium. Cette fréquence ν0 est
universelle. Elle est la même pour tous les atomes de césium, où qu’ils se trouvent.
Les raies de résonance atomiques ne sont pas infiniment étroites. Elles ont une « largeur » ∆ν (voir figure 6). Plus cette largeur est faible, plus l’asservissement sera efficace, et plus l’horloge sera stable. Or, on peut montrer que la largeur d’une transition atomique reliant deux sous-niveaux de l’état fondamental d’un atome est inversement proportionnelle au temps d’observationTobs.PlusTobs estlong,pluslaraieestfine.Commelesatomesfroids
permettent d’allonger la durée de ce temps d’observation et par conséquence de disposer de raies très fines, il est aujourd’hui possible de réaliser des horloges extrêmement précises. Les horloges qui ont été réalisées jusqu’à ces dernières années utilisent des jets d’atomes de
9
césium se propageant à des vitesses de l’ordre du km/s, dans des appareils dont la longueur de l’ordre du mètre. Le temps d’observation accessible avec de tels systèmes est donc de l'ordre d’une milliseconde. Avec des atomes froids, il a été possible d’allonger ce temps d’observation par un facteur 100 et d’améliorer donc les performances des horloges atomiques par le même facteur. En fait, on n’utilise pas dans ces nouveaux dispositifs un jet horizontal d’atomes ralentis, car ils tomberaient rapidement dans le champ de pesanteur. Dans les nouvelles horloges, les jets atomiques sont verticaux. Plus précisément, les atomes refroidis dans une mélasse optique sont lancés vers le haut au moyen d’une impulsion laser et forment une sorte de « fontaine ». Ils traversent la cavité électromagnétique dans laquelle la résonance atomique est mesurée, une première fois dans leur mouvement ascendant, une seconde fois dans leur mouvement descendant quand ils retombent sous l’effet du champ de pesanteur. Les temps d’observation peuvent atteindre alors quelques dixièmes de seconde et être ainsi de l’ordre de cent fois plus longs que dans les horloges précédentes. De telles horloges à atomes froids ont été réalisées à Paris par un des mes collègues, Christophe Salomon en collaboration avec André Clairon du L.P.T.F-B.N.M. (Laboratoire Primaire du Temps et des Fréquences et Bureau National de Métrologie). Ils ont pu ainsi mettre au point, avec une fontaine haute de 1m , l’horloge la plus stable et la plus précise jamais réalisée dans le monde. Deux critères permettent de définir la qualité d’une horloge. Le premier, la stabilité, indique la fluctuation relative de fréquence au cours du temps. Elle est de l’ordre de quelques 10-16 pour un temps de Moyen-Âge de l’ordre de 104 s. Concrètement, cela signifie qu’une horloge atomique qui aurait été mise en marche au début de la création de l’univers ne serait, dix milliards d’années plus tard, désaccordée que de quelques secondes. Le second critère, c’est la précision. Si on réalise deux horloges, leur fréquence coïncide à 10-15 près, compte tenu des déplacements de fréquence liés à des effets parasites.
Ces horloges à atomes froids ont de multiples applications : le GPS ("Global Positioning System"), système de positionnement par satellite, la synchronisation des réseaux de télécommunications à haut débit, les tests de physique fondamentale (relativité générale, variation des constantes fondamentales). Pourrait-on encore augmenter leurs performances en réalisant des fontaines plus hautes, de 10 mètres par exemple ? En fait, un tel projet ne serait pas réaliste car le temps d'observation ne croît que comme la racine carrée de la hauteur et il faudrait blinder le champ magnétique terrestre (qui peut déplacer la fréquence de l'horloge) sur des distances de plus en plus grandes. La solution qui s’impose alors de manière évidente consiste à se débarrasser de la gravité et c’est la raison pour laquelle nous nous sommes engagés en France dans des expériences de microgravité depuis 1993. Ces expériences se déroulent à bord d’un avion avec lequel le pilote effectue plusieurs paraboles d’une vingtaine de secondes chacune. Pour ce faire, le pilote accélère l’avion à 45° en phase ascendante, puis coupe brutalement les gaz. Pendant les 20 secondes qui suivent l’avion est en chute libre et sa trajectoire est une parabole. A l'intérieur de l'avion, les objets flottent et ne tombent plus sur les parois de l'avion. Tout se passe comme s'il n'y avait plus de gravité. Puis le pilote remet les gaz et redresse la trajectoire de l'avion pour se remettre en phase ascendante et effectuer une nouvelle parabole. On a donc pu ainsi effectuer des tests sur le comportement des divers composants de l'expérience dans ces conditions, et leurs résultats ont montré qu’il est possible de réaliser des horloges à atomes froids en apesanteur. A la suite de ces tests, un accord a été signé pour prolonger l’expérience et placer une horloge atomique à atomes froids à bord de la station spatiale internationale qui doit être mise en orbite en 2004.
Les interférences atomiques
Depuis les travaux de Louis de Broglie, nous savons qu’à toute particule de masse M est associée une onde qu’on appelle « l’onde de de Broglie » dont la longueur d’onde λdB ,
10
donnée par l’équation λdB = h / M v , est inversement proportionnelle à la vitesse v . Plus la
vitesse est faible, plus la longueur d’onde de de Broglie est grande. Les atomes froids qui sont animés de faibles vitesses ont donc de grandes longueurs d’onde de de Broglie et leur comportement ondulatoire sera par suite beaucoup plus facile à mettre en évidence. Considérons par exemple l’expérience des fentes de Young réalisée avec des ondes lumineuses. Une source lumineuse éclaire un écran percé d’une fente. La lumière issue de cette fente arrive sur une plaque percée de deux fentes en dessous de laquelle est placé un écran. L’onde lumineuse suit ainsi deux trajets passant par l’une ou l’autre de ces fentes avant d’arriver sur l’écran d’observation qui enregistre l’intensité lumineuse. Selon la position du point d’observation sur cet écran, les deux ondes qui arrivent en ce point et qui sont passées par les deux trajets possibles se superposent, en phase ou en opposition de phase. L’intensité de l’onde résultante varie donc entre une valeur élevée et une valeur nulle et on observe ce qu’on appelle « les franges d’interférence d’Young ».
Depuis quelques années, plusieurs expériences analogues ont été réalisées, non plus avec des ondes lumineuses, mais avec les ondes de de Broglie associées à des atomes froids. Des physiciens japonais de l’université de Tokyo, le Professeur Fujio Shimizu et ses collègues, ont ainsi réalisé une expérience tout à fait spectaculaire. Elle consiste à laisser tomber en chute libre un nuage d’atomes froids initialement piégés au-dessus d’une plaque percée de deux fentes. Après traversée des deux fentes, les atomes viennent frapper une plaque servant de détecteur et l’on observe une succession d’impacts localisés. Au début, la localisation de ces impacts semble tout à fait aléatoire. Puis, au fur et à mesure que le nombre d’impacts augmente, on constate qu’ils s’accumulent préférentiellement dans certaines zones et on voit apparaître nettement une alternance de franges brillantes avec des impacts très denses et de franges sombres avec très peu d’impacts. Cette expérience illustre parfaitement la dualité onde-corpuscule. Les atomes sont des corpuscules dont on peut observer l’impact localisé sur un écran de détection. Mais en même temps, il leur est associé une onde et c’est l’onde qui permet de calculer la probabilité pour que le corpuscule se manifeste. Comme l’onde associée aux atomes peut passer par les deux fentes de la plaque, elle donne naissance au niveau de l’écran de détection à deux ondes qui interfèrent et qui modulent donc spatialement la probabilité de détection de l’atome. On est là au cœur de la mécanique quantique, de la dualité onde-corpuscule qui régit le comportement de tous les objets physiques.

La condensation de Bose-Einstein
Depuis quelques années, des progrès spectaculaires ont été réalisés dans un autre domaine : la condensation de Bose-Einstein. A température très basse et à densité suffisamment élevée, l’extension spatiale des ondes de de Broglie associée à chaque atome devient plus grande que la distance moyenne entre deux atomes de sorte que les paquets d’ondes se recouvrent et interfèrent. Il apparaît alors un phénomène nouveau, qu’on appelle « la condensation de Bose- Einstein » : Tous les atomes se condensent dans le même état quantique, le niveau fondamental du puits qui les contient. Ce phénomène, prévu il y a longtemps par Bose et Einstein, joue un rôle important dans certains fluides, comme l’helium superfluide. Il a été observé également il y a cinq ans, pour la première fois aux Etats-Unis, sur des systèmes gazeux, formés d’atomes ultrafroids. Il fait actuellement l’objet de nombreuses études, tant théoriques qu’expérimentales dans de nombreux laboratoires.
L’ensemble des atomes condensés dans l’état fondamental du piège qui les contient porte le nom de « condensat ». Tous les atomes sont décrits par la même fonction d’onde. On obtient ainsi une onde de matière géante. De tels systèmes quantiques macroscopiques ont des propriétés tout à fait originales : cohérence, superfluidité, qui ont pu être observées et étudiées en grand détail. Plusieurs groupes s’efforcent également d’extraire d’un condensat de Bose- Einstein un faisceau cohérent d’atomes, réalisant ainsi un « laser à atomes », qui peut être
11
considéré comme l’équivalent, pour les ondes de de Broglie atomiques, des lasers mis au point, il y a trente ans, pour les ondes électromagnétiques . Quand de telles sources cohérentes d’ondes de de Broglie atomiques deviendront opérationnelles, on peut raisonnablement penser qu’elles stimuleront un développement spectaculaire de nouveaux champs de recherche, comme l’interférométrie atomique, la lithographie atomique.
Conclusion
L’étude des propriétés de la lumière et de ses interactions avec la matière a fait faire à la physique des progrès fantastiques au cours du XXe siècle. Ces avancées ont eu plusieurs retombées. Elles ont donné lieu à une nouvelle compréhension du monde microscopique. La mécanique quantique est née. La dualité onde-corpuscule est maintenant une évidence. De nouvelles sources de lumière, les lasers, sont apparues.
J’espère vous avoir convaincu que la lumière n’est pas seulement une source d’information sur les atomes mais également un moyen d’agir sur eux. On sait maintenant « manipuler » les divers degrés de liberté d’un atome, contrôler sa position et sa vitesse. Cette maîtrise accrue de la lumière et de la matière ouvre aujourd’hui de nouvelles perspectives à la recherche . De nouveaux objets d’étude sont apparus, comme les ondes de matière, les lasers à atomes, les systèmes quantiques dégénérés, dont les applications, encore insoupçonnées, verront le jour demain, au XXIe siècle.
Pour en savoir plus :
http://www.lkb.ens.fr/recherche/atfroids/tutorial/welcome.htm
De la lumière laser aux atomes ultrafroids.
Des explications simples sur le refroidissement et le piégeage d’atomes par laser et les applications de ce champ de recherche.
http://www.ens.fr/cct
Le cours de Claude Cohen-Tannoudji au Collège de France
Etude et analyse des travaux de recherche récents sur la Condensation de Bose-Einstein
L’auteur remercie Nadine Beaucourt pour son aide dans la rédaction de ce texte à partir de l’enregistrement de la conférence et Nicole Neveux pour la mise en forme du manuscrit.

 

  VIDEO       CANAL  U         LIEN

 


 

 
 
 
initiation musicale toulon  

QU'EST-CE QU'UNE PARTICULE ? (LES INTERACTIONS DES PARTICULES)

  initiation musicale

 

 

 

 

 

 

QU'EST-CE QU'UNE PARTICULE ? (LES INTERACTIONS DES PARTICULES)

En principe, une particule élémentaire est un constituant de la matière (électron par exemple) ou du rayonnement (photon) qui n'est composé d'aucun autre constituant plus élémentaire. Une particule que l'on croit élémentaire peut par la suite se révéler composée, le premier exemple rencontrée ayant été l'atome, qui a fait mentir son nom dès le début du XXe siècle. Nous décrirons d'abord l'état présent des connaissances, résultat des quarante dernières années de poursuite de l'ultime dans la structure intime de la matière, de l'espace et du temps, qui ont bouleverse notre vision de l'infiniment petit. Puis, nous essaierons de conduire l'auditeur dans un paysage conceptuel d'une richesse extraordinaire qui nous a permis d'entrevoir un peuple d'êtres mathématiques - déconcertants outils permettant d'appréhender des réalités inattendues - et dans lequel de nombreuses régions restent inexplorées, où se cachent sans doute des explications sur la naissance même de notre univers.

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 27 juillet 2000.Qu'est-ce qu'une particule élémentaire?par André NeveuIntroduction De façon extrêmement pragmatique, une particule élémentaire est un constituant de la matière (ou du rayonnement) qui ne nous apparaît pas comme lui-même composé d'éléments encore plus élémentaires. Ce statut, composé ou élémentaire, est à prendre à un instant donné, et à revoir éventuellement avec l'affinement des procédés d'investigation. Mais il y a plus profond dans cet énoncé : chaque étape de l'investigation s'accompagne d'une interprétation, d'une recherche d'explication sur la manière dont ces particules interagissent pour former des entités composées à propriétés nouvelles, c'est à dire d'une construction théorique qui s'appuie sur des mathématiques de plus en plus abstraites, et qui, au cours de ce siècle, a contribué à plusieurs reprises au développement de celles-ci. Le long de cette quête d'une construction théorique cohérente, des problèmes peuvent apparaître, qui conduisent à la prédiction de particules ou d'interactions non encore découvertes, et ce va et vient entre théorie et expérience également raffinées où chacune interpelle l'autre, n'est pas le moins fascinant des aspects de cette quête de l'ultime. Aspect qui se retrouve d'ailleurs dans bien d'autres domaines de la physique. C'est là qu'est la vie de la recherche, plus que dans la construction achevée : les faits nous interpellent et à notre tour nous les interpellons. Où en sommes-nous aujourd'hui ? Une brève descente dans l'infiniment petit Comme chacun sait, la chimie et la biologie sont basées sur le jeu presque infini de molécules constituées d'atomes. Comme l'étymologie l'indique, on a cru ceux-ci élémentaires, et, effectivement, pour la chimie et la biologie, on parle toujours à juste titre d'éléments chimiques, oxygène, hydrogène, carbone, etc. L'ordre de grandeur de la dimension d'un atome est le dix milliardième de mètre. Depuis le début du siècle, on sait que chaque atome est formé d'électrons autour d'un noyau, cent mille fois plus petit que l'atome. Le noyau est lui-même constitué de protons et de neutrons liés entre eux par des forces de liaison nucléaires mille à dix mille fois plus grandes que les forces électrostatiques qui lient les électrons au noyau. Alors que les électrons restent à ce jour élémentaires, on a découvert il y a quarante ans environ que les protons et les neutrons eux-mêmes sont composés de quarks liés entre eux par des forces encore plus grandes, et nommées interactions fortes à ce titre (en fait, elles sont tellement fortes qu'il est impossible d'observer un quark isolé). Au cours de cette quête des cinquante dernières années, à l'aide principalement des grands accélérateurs comme ceux du CERN, on a découvert d'autres particules, neutrinos par exemples et des espèces d'électrons lourds (muon et lepton τ), et diverses espèces de quarks, la plupart de durée de vie extrêmement courte, leur laissant, même à la vitesse de la lumière, à peine le temps de faire une trace de quelques millimètres dans les appareils de détection, et aussi les antiparticules correspondantes. quarksuctgluonsdsb interactions fortesleptonsneutrinosυeυμυτW+ γ Z0 W-chargéseμτ interactions électrofaiblesgravitontrois « générations » de matièrevecteurs de forces Figure 1 Les particules élémentaires actuellement connues. À gauche les trois générations de fermions (quarks et leptons). Chaque quark existe en trois « couleurs », « vert », « rouge » et « bleu ». Chaque lepton chargé (électron e , muon μ et tau τ ) est accompagné d'un neutrino. À droite les vecteurs de forces : gluons, photon γ , bosons W et Z , graviton. La figure 1 présente l'ensemble des particules actuellement connues et considérées comme élémentaires, quarks et leptons, et des vecteurs de forces (voir plus bas) entre eux. Alors que les leptons s'observent isolément, les quarks n'apparaissent qu'en combinaisons « non colorées » : par exemple, le proton est formé de trois quarks (deux u et un d), un de chaque « couleur », (laquelle n'a rien à voir avec la couleur au sens usuel) « vert », « bleu », « rouge », pour que l'ensemble soit « non coloré ». D'autres particules, pions π et kaons K par exemple, sont constituées d'un quark et d'un antiquark, etc., tout cela de façon assez analogue à la formation de molécules en chimie à partir d'atomes. Pour avoir une idée de toute la richesse de combinaisons possibles et en même temps de la complexité et du gigantisme des appareils utilisés pour les détecter, je vous invite vivement à visiter le site du CERN, http ://www.cern.ch. Figure 2 Un événement observé aux anneaux de collision électrons-positrons du LEP. La figure 2 est un piètre exemple en noir et blanc de ce qu'on peut trouver en splendides couleurs sur ce site, une donnée expérimentale presque brute sortie du grand détecteur Aleph au collisionneur électrons-positrons LEP : les faisceaux d'électrons et positrons arrivent perpendiculairement à la figure, de l'avant et de l'arrière, au point d'interaction IP, où ils ont formé un boson Z de durée de vie extrêmement courte, qui s'est désintégré en une paire quark-antiquark, rapidement suivis de la création d'autres paires qui se sont réarrangées pour donner les traces visibles issues de IP et d'autres invisibles, car électriquement neutres, mais éventuellement détectables au moment de leur désintégration en particules chargées (pion, kaons et électrons en l'occurrence). En mesurant les longueurs des traces et les énergies des produits de désintégration et leur nature, on parvient à remonter aux propriétés des quarks produits au point IP et des mésons qu'ils ont formés. Cette figure, par son existence même, est un exemple de va et vient théorie-expérience : il faut avoir une idée très précise du genre d'événement que l'on cherche, et d'une interprétation possible, car il s'agit vraiment de chercher une aiguille dans une meule de foin : il y a un très grand nombre d'événements sans intérêt, que les ordinateurs qui pilotent l'expérience doivent rejeter avec fiabilité. Il est intéressant de noter que plusieurs membres de la figure 1 ont été prédits par cohérence de la théorie (voir plus bas), les quarks c, b, t, et le neutrino du τ, détecté pour la première fois il y a quinze jours, et, dans une certaine mesure, les bosons W et Z. Comme l'appellation des trois « couleurs », les noms de beaucoup de ces particules relèvent de la facétie d'étudiants ! Après la liste des particules, il nous faut parler de leurs interactions, car si elles n'interagissent pas entre elles, et finalement avec un détecteur, nous ne les connaîtrions pas ! En même temps que leurs interactions, c'est à dire leur comportement, nous aimerions comprendre comment on en a prédit certaines par cohérence de la théorie, mais aussi la raison de leur nombre, des caractéristiques de chacune, bref le pourquoi de tout (une ambition qui est fortement tempérée par l'indispensable humilité devant les faits) ! Dans le prochain paragraphe, nous tenterons cette explication. Comprendre Symétries et dynamique : la théorie quantique des champs Ici, les choses deviennent plus difficiles. Vous savez que les électrons tournent autour du noyau parce qu'ils sont négatifs et le noyau positif, et qu'il y a une attraction électrostatique entre les deux. Cette notion de force (d'attraction en l'occurrence) à distance n'est pas un concept compatible avec la relativité restreinte : une force instantanée, par exemple d'attraction électrostatique entre une charge positive et une charge négative, instantanée pour un observateur donné, ne le serait pas pour un autre en mouvement par rapport au premier. Pour les forces électrostatiques ou magnétiques par exemple, il faut remplacer la notion de force par celle d'échange de photons suivant le diagramme de la figure 3a. Ce diagramme décrit l'interaction entre deux électrons par l'intermédiaire d'un photon. Il peut aussi bien décrire les forces électrostatiques entre deux électrons d'un atome que l'émission d'un photon par un électron de la figure que vous êtes en train de regarder suivi de son absorption par un électron d'une molécule de rhodopsine dans votre rétine, qu'il amène ainsi dans un état excité, excitation ensuite transmise au cerveau. On remplace ainsi la force électromagnétique à distance par une émission et absorption de photons, chacune ponctuelle. Entre ces émissions et absorptions, photons et électrons se déplacent en ligne droite (le caractère ondulé de la ligne de photon n'est là que pour la distinguer des lignes d'électrons. On dit que le photon est le vecteur de la force électromagnétique. Les autres vecteurs de force sur la figure 3 sont les gluons g, vecteurs des interactions fortes entre les quarks, les bosons W et Z, vecteurs des interactions « faibles » responsables de la radioactivité β, et le graviton, responsable de la plus ancienne des forces connues, celle qui nous retient sur la Terre. Remarquons que l'on peut faire subir à la figure 3a une rotation de 90 degrés. Elle représente alors la formation d'un photon par une paire électron-antiélectron (ou positron), suivie par la désintégration de ce photon en une autre paire. Si on remplace le photon par un boson Z, et que celui-ci se désintègre en quark-antiquark plutôt qu'électron-positron, on obtient exactement le processus fondamental qui a engendré l'événement de la figure 2. Figure 3 Diagrammes de Feynman 3a : diffusion de deux électrons par échange d'un photon. 3b : création d'une paire électron-positron. 3c : une correction au processus 3a. La figure 3b décrit un autre processus, où le photon se désintègre en une paire électron-positron. En redéfinissant les lignes, une figure identique décrit la désintégration β du neutron par la transformation d'un quark d en quark u avec émission d'un boson W qui se désintègre en une paire électron-antineutrino. Si les « diagrammes de Feynman » de la figure 3 (du nom de leur inventeur) sont très évocateurs de ce qui se passe dans la réalité (la figure 2), il est extrêmement important de souligner qu'ils ne sont pas qu'une description heuristique des processus élémentaires d'interactions entre particules. Ils fournissent aussi des règles pour calculer ces processus avec une précision en principe presque arbitraire si on inclut un nombre suffisant de diagrammes (par exemple, le diagramme de la figure 3c est une correction à celui de la figure 3a, dans laquelle il y a une étape intermédiaire avec une paire électron-positron, qui modifie légèrement les propriétés de l'absorption, par la ligne de droite, du photon qui avait été émis par la ligne de gauche). Ces règles sont celles de la théorie quantique des champs, un cadre conceptuel et opérationnel combinant la mécanique quantique et la relativité restreinte qu'il a fallu environ 40 ans pour construire, une des difficultés principales ayant été de donner un sens aux diagrammes du genre de la figure 3c. En même temps que la dynamique des particules, cette théorie donne des contraintes sur celles qui peuvent exister, ou plutôt des prédictions d'existence sur d'autres non encore découvertes, étant données celles qu'on connaît déjà. Ce fut le cas des quarks c, b et t, et du neutrino du τ. Elle implique aussi l'existence des antiparticules pour les quarks et leptons (les vecteurs de force sont leurs propres antiparticules). Un des guides dans cette construction a été la cohérence, mais aussi l'unification par des symétries, de plus en plus grandes au fur et à mesure de la découverte de particules avec des propriétés nouvelles, et on a trouvé que cohérence et unification allaient ensemble. Avoir un principe de symétrie est puissant, car il limite et parfois détermine entièrement les choix des particules et leurs interactions, mais aussi, une fois qu'on en connaît certaines, d'autres sont déterminées. Cela permet ainsi d'appréhender avec efficacité toute cette faune. Par exemple, la symétrie entre électron et neutrino, ou entre les quarks u et d conduit à la prédiction des bosons W, mais alors on s'aperçoit immédiatement qu'en même temps il faut introduire le Z ou le photon ou les deux, et en même temps aussi leurs interactions sont déterminées. De même, le gluon et la force forte sont la conséquence d'une symétrie entre les trois « couleurs » de quarks. Ces symétries sont des rotations dans un espace interne, notion que nous allons à présent essayer d'expliciter avec une image simple en utilisant un Rubik’s cube. Un Rubik’s cube peut subir des rotations d'ensemble, que nous pouvons appeler transformations externes, et des transformations internes qui changent la configuration des couleurs de ses 9×6=54 facettes. Il faut imaginer qu'un électron ou un quark sont comme une configuration du cube, et que les symétries de la théorie sont les transformations internes qui font passer d'une configuration du cube à une autre. En fait, comme en chaque point de l'espace-temps il peut y avoir n'importe quelle particule, il faut imaginer qu'en chaque point de l'espace-temps il y a l'analogue d'un tel Rubik cube, espace « interne » des configurations de particules. Bien plus, on peut exiger que la théorie soit symétrique par rapport à l'application de transformations du cube différentes, indépendantes les unes des autres, en chaque point. On constate alors qu'on doit naturellement introduire des objets qui absorbent en quelque sorte le changement de la description de l'espace interne quand on passe d'un point à son voisin. Ces objets sont précisément les vecteurs des forces. De plus, les détails de la propagation, de l'émission et de l'absorption de ces particules vecteurs de forces sont prédits de façon à peu près unique. Il est facile d'imaginer que tout ceci fait intervenir une structure mathématique à la fois très complexe et très riche, malheureusement impossible à décrire dans le cadre de cette conférence. Un dernier ingrédient de la construction est la notion de brisure spontanée de symétrie. Car certaines des symétries dont il vient d'être question sont exactes (par exemple celle entre les « couleurs » des quarks), d'autres ne sont qu'approchées : par exemple, un électron et son neutrino n'ont pas la même masse. Dans le phénomène de brisure spontanée de symétrie, on part d'une théorie et d'équations symétriques, mais leurs solutions stables ne sont pas nécessairement symétriques chacune séparément, la symétrie faisant seulement passer d'une solution à une autre. Ainsi dans l'analogue classique d'une bille au fond d'une bouteille de Bordeaux : le problème de l'état d'équilibre de la bille au fond est symétrique par rotation, mais la position effectivement choisie par la bille ne l'est pas. Il y a une infinité de positions d'équilibre possibles, la symétrie par rotation du problème faisant seulement passer de l'une à une autre. La brisure de symétrie permet de comprendre le fait que les leptons chargés par exemple n'aient pas la même masse que leurs neutrinos associés, ou que le photon soit de masse nulle, alors que le W et le Z sont très lourds. L'ensemble de la construction trop brièvement décrite dans ce chapitre a valu le prix Nobel 1999 à Gerhardt 't Hooft et Martinus Veltman, qui en avaient été les principaux artisans dans les années 1970. À l'issue de tout ce travail, on a obtenu ce que l'on appelle le Modèle Standard. C'est l'aboutissement actuel d'unifications successives des forces, commencées par Maxwell au siècle dernier entre électricité et magnétisme (électromagnétisme) qui à présent incluent les interactions faibles : on parle des forces électrofaibles pour englober le photon et les bosons W et Z[1] . Le Modèle Standard prédit l'existence d'une particule, la seule non encore observée dans le modèle, le boson de Higgs, et comment celui-ci donne leur masse à toutes les particules par le mécanisme de brisure de symétrie. Ce dernier acteur manquant encore à l'appel fait l'objet d'une recherche intense, à laquelle le prochain accélérateur du CERN, le LHC, est dédiée. S'il décrit qualitativement et quantitativement pratiquement toutes les particules observées et leurs interactions (le « comment »), le Modèle Standard laisse sans réponse beaucoup de questions « pourquoi ». Par exemple pourquoi y a-t-il trois générations (les colonnes verticales dans la figure 1) ? Pourquoi la force électrofaible comprend-elle quatre vecteurs de force (il pourrait y en avoir plus) ? Par ailleurs toutes les masses et constantes de couplage des particules sont des paramètres libres du modèle. Il y en a une vingtaine en tout, ce qui est beaucoup : on aimerait avoir des principes qui relient ces données actuellement disconnectées. Peut-on unifier plus : y a-t-il une symétrie reliant les quarks aux leptons ? De plus, des considérations plus élaborées permettent d'affirmer que dans des domaines d'énergie non encore atteints par les accélérateurs, le modèle devient inopérant : il est incomplet, même pour la description des phénomènes pour lesquels il a été construit. Plus profondément, il laisse de côté la gravitation. La satisfaction béate ne règne donc pas encore, et nous allons dans le chapitre suivant présenter les spéculations actuelles permettant peut-être d'aller au delà. 
                                                                                        Au delà du Modèle Standard Grande unification, supersymétrie et supercordes La gravitation universelle introduite par Newton a été transformée par Einstein en la relativité générale, une théorie d'une grande beauté formelle et remarquablement prédictive pour l'ensemble des phénomènes cosmologiques. Mais il est connu depuis la naissance de la mécanique quantique que la relativité générale est incompatible avec celle-ci : quand on tente de la couler dans le moule de la théorie quantique des champs, en faisant du graviton le vecteur de la force de gravitation universelle, on s'aperçoit que les diagrammes de Feynman du type de la figure 3c où on remplace les photons par des gravitons sont irrémédiablement infinis : ceci est dû au fait que lorsqu'on somme sur toutes les énergies des états intermédiaires électron-positron possibles, les états d'énergie très grande finissent par donner une contribution arbitrairement grande, entraînant l'impossibilité de donner un sens à la gravitation quantique. La relativité générale doit être considérée comme une théorie effective seulement utilisable à basse énergie. Trouver une théorie cohérente qui reproduise la relativité générale à basse énergie s'est révélé un problème particulièrement coriace, et un premier ensemble de solutions possibles (ce qui ne veut pas dire que la réalité est parmi elles !) est apparu de manière totalement inattendue vers le milieu des années 1970 avec les théories de cordes. Dans cette construction, on généralise la notion de particule ponctuelle, élémentaire, qui nous avait guidés jusqu'à présent à celle d'un objet étendu, une corde très fine, ou plutôt un caoutchouc, qui se propage dans l'espace en vibrant. Un tel objet avait été introduit vers la fin des années soixante pour décrire certaines propriétés des collisions de protons et autres particules à interactions fortes. Il se trouve qu'il y a là un très joli problème de mécanique classique qu'Einstein lui-même aurait pu résoudre dès 1905, s'il s'était douté qu'il était soluble ! De même qu'une particule élémentaire ponctuelle, en se propageant en ligne droite à vitesse constante minimise la longueur de la courbe d'espace-temps qui est sa trajectoire, la description de la propagation et des modes de vibration d'une de ces cordes revient à minimiser la surface d'espace-temps qu'elle décrit (l'analogue d'une bulle de savon, qui est une surface minimale !), ce qui peut être effectué exactement. Le nom de corde leur a été donné par suite de l'exacte correspondance des modes de vibration de ces objets avec ceux d'une corde de piano. Quand on quantifie ces vibrations à la façon dont on quantifie tout autre système mécanique classique, chaque mode de vibration donne tout un ensemble de particules, et on sait calculer exactement les masses de ces particules. C'est là que les surprises commencent ! On découvre tout d'abord que la quantification n'est possible que si la dimension de l'espace-temps est non point quatre, mais 26 ou 10 ! Ceci n'est pas nécessairement un défaut rédhibitoire : les directions (encore inobservées ?) supplémentaires peuvent être de très petite dimension, et être donc encore passées inaperçues. On découvre simultanément que les particules les plus légères sont de masse nulle et que parmi elles il y a toujours un candidat ayant exactement les mêmes propriétés que le graviton à basse énergie. De plus, quand on donne la possibilité aux cordes de se couper ou, pour deux, de réarranger leur brins au cours d'une collision, on obtient une théorie dans laquelle on peut calculer des diagrammes de Feynman tout à fait analogue à ceux de la figure 3, où les lignes décrivent la propagation de cordes libres. Cette théorie présente la propriété d'être convergente, ce qui donne donc le premier exemple, et le seul connu jusqu'à présent, d'une théorie cohérente incluant la gravitation. Les modes d'excitation de la corde donnent un spectre de particules d'une grande richesse. La plupart sont très massives, et dans cette perspective d'unification avec la gravitation, inobservables pour toujours : si on voulait les produire dans un accélérateur construit avec les technologies actuelles, celui-ci devrait avoir la taille de la galaxie ! Seules celles de masse nulle, et leurs couplages entre elles, sont observables, et devraient inclure celles du tableau de la figure 1.

Remarquons ici un étrange renversement par rapport au paradigme de l'introduction sur l'« élémentarité » des particules « élémentaires » : elles deviennent infiniment composées en quelque sorte, par tous les points de la corde, qui devient l'objet « élémentaire » ! Au cours de l'investigation de cette dynamique de la corde au début des années 1970, on a été amené à introduire une notion toute nouvelle, celle de supersymétrie, une symétrie qui relie les particules du genre quarks et leptons (fermions) de la figure 1 aux vecteurs de force. En effet, la corde la plus simple ne contient pas de fermion dans son spectre. Les fermions ont été obtenus en rajoutant des degrés de liberté supplémentaires, analogues à une infinité de petits moments magnétiques (spins) le long de la corde. La compatibilité avec la relativité restreinte a alors imposé l'introduction d'une symétrie entre les modes d'oscillation de ces spins et ceux de la position de la corde. Cette symétrie est d'un genre tout à fait nouveau : alors qu'une symétrie par rotation par exemple est caractérisée par les angles de la rotation, qui sont des nombres réels ordinaires, cette nouvelle symétrie fait intervenir des nombres aux propriétés de multiplication très différentes : deux de ces nombres, a et b disons, donnent un certain résultat dans la multiplication a×b, et le résultat opposé dans la multiplication b×a : a×b= b×a. On dit que de tels nombres sont anticommutants. À cause de cette propriété nouvelle, et de son effet inattendu d'unifier particules et forces, on a appelé cette symétrie supersymétrie, et supercordes les théories de cordes ayant cette (super)symétrie. A posteriori, l'introduction de tels nombres quand on parle de fermions est naturelle : les fermions (l'électron en est un), satisfont au principe d'exclusion de Pauli, qui est que la probabilité est nulle d'en trouver deux dans le même état. Or la probabilité d'événements composés indépendants est le produit des probabilités de chaque événement : tirer un double un par exemple avec deux dés a la probabilité 1/36, qui est le carré de 1/6. Si les probabilités (plus précisément les amplitudes de probabilité) pour les fermions sont des nombres anticommutants, alors, immédiatement, leurs carrés sont nuls, et le principe de Pauli est trivialement satisfait ! Les extraordinaires propriétés des théories des champs supersymétriques et des supercordes ont été une motivation puissante pour les mathématiciens d'étudier de façon exhaustive les structures faisant intervenir de tels nombres anticommutants. Un exemple où on voit des mathématiques pures sortir en quelque sorte du réel. 
                                                                                         De nombreux problèmes subsistent. En voici quelques uns : - L'extension et la forme des six dimensions excédentaires : quel degré d'arbitraire y a-t-il dedans (pour l'instant, il semble trop grand) ? Un principe dynamique à découvrir permet-il de répondre à cette question ? Ces dimensions excédentaires ont-elles des conséquences observables avec les techniques expérimentales actuelles ? - La limite de basse énergie des cordes ne contient que des particules de masse strictement nulle et personne ne sait comment incorporer les masses des particules de la figure 1 (ou la brisure de symétrie qui les engendre) sans détruire la plupart des agréables propriétés de cohérence interne de la théorie. Une des caractéristiques des supercordes est d'englober toutes les particules de masse nulle dans un seul et même multiplet de supersymétrie, toutes étant reliées entre elles par (super)symétrie. En particulier donc, quarks et leptons, ce qui signifie qu'il doit exister un vecteur de force faisant passer d'un quark à un lepton, et donc que le proton doit pouvoir se désintégrer en leptons (positron et neutrinos par exemple) comme la symétrie de la force électrofaible implique l'existence du boson W et la désintégration du neutron. Or, le proton est excessivement stable : on ne connaît expérimentalement qu'une limite inférieure, très élevée, pour sa durée de vie. La brisure de cette symétrie quark-lepton doit donc être très grande, bien supérieure à celle de la symétrie électrofaible. L'origine d'une telle hiérarchie de brisures des symétries, si elle existe, est totalement inconnue. - Doit-on s'attendre à ce qu'il faille d'abord placer les cordes dans un cadre plus vaste qui permettrait à la fois de mieux les comprendre et de répondre à certaines de ces questions ? Nul ne sait. En attendant, toutes les questions passionnantes et probablement solubles dans le cadre actuel n'ont pas encore été résolues. Entre autres, les cordes contiennent une réponse à la question de la nature de la singularité présente au centre d'un trou noir, objet dont personne ne doute vraiment de l'existence, en particulier au centre de nombreuses galaxies. Également quelle a été la nature de la singularité initiale au moment du Big Bang, là où la densité d'énergie était tellement grande qu'elle engendrait des fluctuations quantiques de l'espace, et donc où celui-ci, et le temps, n'avaient pas l'interprétation que nous leur donnons usuellement d'une simple arène (éventuellement dynamique) dans laquelle les autres phénomènes prennent place. Toutes ces questions contiennent des enjeux conceptuels suffisamment profonds sur notre compréhension ultime de la matière, de l'espace et du temps pour justifier l'intérêt des talents qui s'investissent dedans. Mais ces physiciens sont handicapés par l'absence de données expérimentales qui guideraient la recherche. Le mécanisme de va et vient expérience-théorie mentionné dans l'introduction ne fonctionne plus : le Modèle Standard rend trop bien compte des phénomènes observés et observables pour que l'on puisse espérer raisonnablement que l'expérience nous guide efficacement dans le proche avenir. Mais à part des surprises dans le domaine (comme par exemple la découverte expérimentale de la supersymétrie), peut-être des percées viendront de façon complètement imprévue d'autres domaines de la physique, ou des mathématiques. Ce ne serait pas la première fois. Quelle que soit la direction d'où viennent ces progrès, il y a fort à parier que notre vision de la particule élémentaire en sera une fois de plus bouleversée.
[1] Voir la 212e conférence de l’Université de tous les savoirs donnée par D. Treille.

 

 VIDEO     canal U       LIEN

 
 
 
initiation musicale toulon  

CHAOS, IMPRÉDICTIBILITÉ, HASARD

  initiation musicale

 

 

 

 

 

 

CHAOS, IMPRÉDICTIBILITÉ, HASARD

Le monde qui nous entoure paraît souvent imprévisible, plein de désordre et de hasard. Une partie de cette complexité du monde est maintenant devenue scientifiquement compréhensible grâce à la théorie du chaos déterministe. Cette théorie analyse quantitativement les limites à la prédictibilité d'une l'évolution temporelle déterministe : une faible incertitude initiale donne lieu dans certains cas à une incertitude croissante dans les prévisions, et cette incertitude devient inacceptable après un temps plus ou moins long. On comprend ainsi comment le hasard s'introduit inévitablement dans notre description du monde. L'exemple des prévisions météorologiques est à cet égard le plus frappant. Nous verrons comment les idées à ce sujet évoluent de Sénèque à Poincaré, puis nous discuterons comment le battement d'ailes du papillon de Lorenz peut affecter la météo, donnant lieu à des ouragans dévastateurs des milliers de kilomètres plus loin. Ainsi, la notion de chaos déterministe contribue non seulement à notre appréciation pratique des incertitudes du monde qui nous entoure, mais encore à la conceptualisation philosophique de ce que nous appelons cause et de ce que nous appelons hasard.

Texte de la 218e conférence de l’Université de tous les savoirs donnée le 5 août 2000.
Chaos, imprédictibilité et hasard par David Ruelle

Pour interpréter le monde qui nous entoure nous utilisons un grand nombre de concepts très divers. Certains concepts sont concrets comme vache, puceron, papillon, d’autres abstraits comme espace, temps, hasard, ou causalité. Ces concepts sont des créations humaines : leur histoire est intimement liée à celle du langage, et leur contenu peut varier d’une culture à une autre. Nous pensons que des mots comme espace, temps, hasard, causalité correspondent à des réalités fondamentales, indépendantes de la culture où nous vivons, et même indépendantes de l’existence de l’homme. Mais il faut bien admettre que les concepts abstraits que nous venons d’énumérer ont évolué au cours de l’histoire, et que cette évolution reflète un progrès dans notre compréhension de la nature des choses. Dans ce progrès, la philosophie et la science ont joué un rôle important. Dès l’Antiquité, par exemple, les gens cultivés avaient acquis une certaine idée de l’immensité de l’univers grâce aux travaux des astronomes. Des notions comme « erratique et imprévisible » ou « peu fréquent et improbable » ont sans doute une origine préhistorique ou même antérieure au langage. En effet, une bonne appréciation des risques peut aider à la survie. Ainsi si l’orage menace il est prudent de se mettre à l’abri. En général il faut se méfier des caprices des gens et de la nature, caprices qui expriment la liberté des hommes et des choses de se comporter parfois de manière aléatoire et imprévisible. Si les notions liées au hasard et au libre choix sont d’une grande aide dans la pratique, la notion de cause est aussi une conceptualisation utile : la fumée par exemple a une cause qui est le feu. De même les marées ont une cause qui est la lune : ce n’est pas tout à fait évident, mais la chose était connue des anciens, et cette connaissance pouvait être fort utile. On peut ainsi essayer de tout expliquer comme un enchaînement plus ou moins évident de causes et d’effets. On arrive de cette manière à une vision déterministe de l’univers. Si l’on y réfléchit un peu, le déterminisme, c’est-à-dire l’enchaînement bien ordonné des causes et des effets semble en contradiction avec la notion de hasard. Sénèque qui eut la charge d’éduquer le jeune Néron se penche sur le problème dans le De Providentia et dit ceci : « les phénomènes mêmes qui paraissent le plus confus et le plus irrégulier : je veux dire les pluies, les nuages, les explosions de la foudre, ..., ne se produisent pas capricieusement : ils ont aussi leurs causes. » Cette affirmation porte en germe le déterminisme scientifique, mais, il faut bien voir que son contenu est surtout idéologique. Sénèque était un amateur d’ordre, un ordre imposé par une loi éternelle et divine. Le désordre et le hasard lui répugnaient. Cependant, comme je l’ai dit, les notions liées au hasard sont utiles, pratiquement et conceptuellement, et l’on perd peut-être plus qu’on ne gagne à les évacuer pour des motifs idéologiques. On peut d’ailleurs reprocher de manière générale aux idéologies de vouloir supprimer des idées utiles, et cela s’applique encore aux idéologies modernes, dans leurs ambitions simplificatrices et leur intolérance aux fantaisies individuelles. Mais quittons maintenant le domaine idéologique pour parler de science. Et puisque le feu est la cause de la fumée, allons voir un physico-chimiste spécialiste des phénomènes de combustion. Il nous apprendra des choses fascinantes, et nous convaincra que les problèmes de combustion sont importants, complexes, et encore mal compris. En fait si l’on s’intéresse aux problèmes de causalité et de déterminisme, plutôt que de passer sa vie à étudier les problèmes de combustion, mieux vaut choisir un problème plus simple. Par exemple celui d’une pierre jetée en l’air, surtout s’il n’y a pas d’air. On peut en effet, avec une très bonne précision, décrire par des équations déterministes la trajectoire d’une pierre jetée en l’air. Si l’on connaît les conditions initiales, c’est-à-dire la position et la vitesse de la pierre à l’instant initial, on peut calculer la position et la vitesse à n’importe quel autre instant. Au lieu d’une pierre jetée en l’air nous pouvons considérer le ballet des planètes et autres corps célestes autour du soleil, ou la dynamique d’un fluide soumis à certaines forces. Dans tous ces cas l’évolution temporelle du système considéré, c’est-à-dire son mouvement, satisfait à des équations déterministes. Si l’on veut, on peut dire que les conditions initiales d’un système sont la cause de son évolution ultérieure et la déterminent complètement. Voilà qui devrait satisfaire Lucius Annaeus Seneca. Notons quand même que le concept de cause a été remplacé par celui d’évolution déterministe, ce qui n’est pas tout à fait la même chose. Par exemple, les équations de Newton qui déterminent les mouvements des planètes permettent à partir de conditions initiales données de calculer non seulement les états futurs du système solaire, mais également les états passés. On a oublié que la cause devait précéder l’effet. En fait, l’analyse scientifique du concept de cause montre qu’il s’agit d’une notion complexe et ambiguë. Cette notion nous est très utile pour vivre dans un monde complexe et ambigu, et nous ne voudrions pas nous en passer. Cependant la science préfère utiliser des concepts plus simples et moins ambigus, comme celui d’équation d'évolution déterministe. Notons d’ailleurs que l’idée de hasard semble incompatible avec la notion d’évolution déterministe tout autant qu’avec un enchaînement bien ordonné de causes et d’effets. Nous allons dans un moment revenir à ce problème. Mais avant cela je voudrais discuter une précaution verbale que j’ai prise en parlant d’équations d’évolution déterministe valables avec une très bonne précision. Si vous demandez à un physicien des équations d’évolution pour tel ou tel phénomène, il vous demandera avec quelle précision vous les voulez. Dans l’exemple de la dynamique du système solaire, suivant la précision requise, on tiendra compte ou non du ralentissement de la rotation de la terre par effet de marée, ou du déplacement du périhélie de Mercure dû à la relativité générale. Il faudra d’ailleurs bien s’arrêter quelque part : on ne peut pas tenir compte, vous en conviendrez, des déplacements de chaque vache dans sa prairie, ou de chaque puceron sur son rosier. Même si, en principe, les déplacements de la vache et du puceron perturbent quelque peu la rotation de la terre. En Bref, la physique répond aux questions qu’on lui pose avec une précision qui peut être remarquable, mais pas absolument parfaite. Et cela n’est pas sans conséquences philosophiques, comme nous le verrons plus loin. J’ai parlé des équations d’évolution déterministes qui régissent les mouvements des astres ou ceux des fluides, de l’atmosphère ou des océans par exemple. Ces équations sont dites classiques car elles ne tiennent pas compte de la mécanique quantique. En fait la mécanique quantique est une théorie plus exacte que la mécanique classique, mais plus difficile à manier, et comme les effets quantiques semblent négligeables pour les mouvements des astres, de l’atmosphère ou des océans, on utilisera dans ces cas des équations classiques. Cependant, la mécanique quantique utilise des concepts irréductibles à ceux de la mécanique classique. En particulier la mécanique quantique, contrairement à la mécanique classique, fait nécessairement référence au hasard. Dans une discussion des rapports entre hasard et déterminisme, ne faudrait-il pas par conséquent utiliser la mécanique quantique plutôt que classique ? La situation est la suivante : la physique nous propose diverses théories plus pou moins précises et dont les domaines d’application sont différents. Pour une classe donnée de phénomènes plusieurs théories sont en principe applicables, et on peut choisir celle que l’on veut : pour toute question raisonnable la réponse devrait être la même. En pratique on utilisera la théorie la plus facile à appliquer. Dans les cas qui nous intéressent, dynamique de l’atmosphère ou mouvement des planètes, il est naturel d’utiliser une théorie classique. Après quoi il sera toujours temps de vérifier que les effets quantiques ou relativistes que l’on a négligés étaient réellement négligeables. Et que somme toute les questions que l’on s’est posées étaient des questions raisonnables. Les progrès de la physique ont montré que les équations d’évolution déterministes étaient vérifiées avec une précision souvent excellente, et parfois stupéfiante. Ces équations sont notre reformulation de l’idée d’enchaînement bien ordonné de causes et d’effets. Il nous faut maintenant parler de hasard, et essayer de reformuler ce concept en termes qui permettent l’application des méthodes scientifiques. On dit qu’un événement relève du hasard s’il peut, pour autant que nous sachions, soit se produire soit ne pas se produire, et nous avons tendance à concevoir notre incertitude à ce sujet comme ontologique et fondamentale. Mais en fait l’utilité essentielle des concepts du hasard est de décrire une connaissance entachée d’incertitude, quelles que soient les origines de la connaissance et de l’incertitude. Si je dis qu’à cette heure-ci Jean Durand a une chance sur deux d’être chez lui, je fournis une information utile : cela vaut la peine d’essayer de téléphoner à son appartement. La probabilité un demi que j’attribue au fait que Jean Durand soit chez lui reflète ma connaissance de ses habitudes, mais n’a pas de caractère fondamental. En particulier, Jean Durand lui-même sait très bien s’il est chez lui ou pas. Il n’y a donc pas de paradoxe à ce que des probabilités différentes soient attribuées au même événement par différentes personnes, ou par la même personne à des moments différents. Le hasard correspond à une information incomplète, et peut avoir des origines diverses. Il y a un siècle environ, Henri Poincaré a fait une liste de sources possibles de hasard. Il mentionne par exemple qu’au casino, c’est le manque de contrôle musculaire de la personne qui met en mouvement la roulette qui justifie le caractère aléatoire de la position où elle s’arrête. Pour des raisons historiques évidentes, Poincaré ne mentionne pas la mécanique quantique comme source de hasard, mais il discute une source d’incertitude qui a été analysée en grand détail beaucoup plus tard sous le nom de chaos et que nous allons maintenant examiner. Prenons un système physique dont l’évolution temporelle est décrite par des équations déterministes. Si l’on connaît l’état du système à un instant initial, d’ailleurs arbitraire, on peut calculer son état à tout autre instant. Il n’y a aucune incertitude, aucun hasard. Mais nous avons supposé implicitement que nous connaissions l’état initial avec une totale précision. En fait, nous ne pouvons mesurer l’état initial qu’avec une précision limitée (et d’ailleurs les équations déterministes que nous utilisons ne représentent qu’approximativement l’évolution réelle du système physique qui nous occupe). Il faut donc voir comment une petite imprécision dans notre connaissance de l’état initial au temps 0 (zéro) va affecter nos prédictions sur un état ultérieur, au temps t. On s’attend à ce qu’une incertitude suffisamment petite au temps 0 donne lieu à une incertitude petite au temps t. Mais la question cruciale est de savoir comment cette incertitude va dépendre du temps t. Il se trouve que pour beaucoup de systèmes, dits chaotiques, l’incertitude (ou erreur probable) va croître rapidement, en fait exponentiellement avec le temps t. Cela veut dire que si l’on peut choisir un laps de temps T au bout duquel l’erreur est multipliée par 2, au temps 2T elle sera multipliée par 4, au temps 3T par 8, et ainsi de suite. Au temps 10T le facteur est 1024, au temps 20T plus d’un million, au temps 30T plus d’un milliard ... et tôt ou tard l’incertitude de notre prédiction cesse d’être petit pour devenir inacceptable. Le phénomène de croissance rapide des erreurs de prédiction d’un système physique, que l’on appelle chaos , introduit donc du hasard dans la description d’un système physique, même si ce système correspond à des équations d’évolution parfaitement déterministes comme celles de la dynamique des fluides ou du mouvement des astres. Voici ce que dit Henri Poincaré dans le chapitre sur le hasard de son livre Science et Méthode publiée en 1908 : « Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. » Cette affirmation, Poincaré en donne un exemple emprunté à la météorologie : « Pourquoi Les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir de la pluie ou du beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de la dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées ni assez précises, et c’est pour cela que tout semple dû à l’intervention du hasard. » Les affirmations de Poincaré sur la météorologie dépassent, il faut bien le dire, ce que la science du début du 20-ième siècle permettait d’établie scientifiquement. Les intuitions géniales de Poincaré ont été confirmées, mais on trouverait sans peine des intuitions d’autres savants qui se sont révélées fausses. Il est donc heureux que, après avoir été oubliées, les idées de Poincaré aient été redécouvertes, étendues, et soumises à une analyse scientifique rigoureuse. Cette nouvelle période commence avec un article de Lorenz relatif à la météorologie en 1963, un article de Takens et moi-même sur la turbulence en 1971, puis une foule de travaux dans les années 70, 80, 90 qui édifient la théorie moderne du chaos. Le mot chaos lui-même apparaît dans son sens technique en 1975. Il n’est possible de donner ici qu’une vue très sommaire des aspects techniques de la théorie du chaos, mais j’insiste sur le fait que les résultats techniques sont essentiels. Ces résultats permettent de changer l’affirmation du sens commun suivant laquelle « de petites causes peuvent avoir de grands effets » en affirmations quantitatives comme celle concernant l’effet papillon dont nous parlerons dans un moment. La théorie du chaos étudie donc en détail comment une petite incertitude sur l’état initial d’une évolution temporelle déterministe peut donner lieu à une incertitude des prédictions qui croît rapidement avec le temps. On dit qu’il y a dépendance sensitive des conditions initiales. Cela veut dire que de petites causes peuvent avoir de grands effets, non seulement dans des situations exceptionnelles, mais pour toutes les conditions initiales. En résumé, le terme chaos désigne une situation où, pour n’importe quelle condition initiale, l’incertitude des prédictions croît rapidement avec le temps. Pour donner un exemple, considérons un faisceau de rayons lumineux parallèles tombant sur un miroir convexe. Après réflexion, nous avons un faisceau divergent de rayons lumineux. Si le faisceau initial était divergent, il serait encore plus divergent après réflexion. Si au lieu de rayons lumineux et de miroir nous avons une bille de billard qui rebondit élastiquement sur un obstacle convexe, la situation géométrique est la même, et on conclut qu’une petite incertitude sur la trajectoire de la bille avant le choc donne lieu à une incertitude plus grande après le choc. S’il y a plusieurs obstacles convexes que la bille heurte de façon répétée, l’incertitude croît exponentiellement, et on a une évolution temporelle chaotique. Cet exemple était connu de Poincaré, mais ce n’est que bien plus tard qu’il a été analysé de manière mathématiquement rigoureuse par Sinaï. Comme l’étude mathématique des systèmes chaotiques est d’une grande difficulté, l’étude du chaos combine en fait trois techniques : les mathématiques, les simulations sur ordinateur, et l’expérimentation (au laboratoire) ou l’observation (de l’atmosphère, des astres). Notons que les simulations sur ordinateur n’existaient pas du temps de Poincaré. Ces simulations ont joué un rôle essentiel en montrant que les systèmes déterministes tant soit peu complexes présentent fréquemment de la sensitivité aux conditions initiales. Le chaos est donc un phénomène très répandu. La météorologie fournit une application exemplaire des idées du chaos. En effet, on a de bons modèles qui décrivent la dynamique de l’atmosphère terrestre. L’étude par ordinateur de ces modèles montre qu’ils sont chaotiques. Si l’on change un peu les conditions initiales, les prédictions après quelques jours deviennent assez différentes : on a atteint la limite de la fiabilité du modèle. Bien entendu les prédictions faites avec ces modèles décollent après quelques jours de la réalité observée, et l’on comprend maintenant pourquoi : le chaos limite la prédictibilité du temps qu’il va faire. Le météorologiste Ed Lorenz, que nous avons déjà mentionné, a rendu populaire le concept de sensitivité aux conditions initiales sous le nom d’effet papillon. Dans un article grand public, il explique comment le battement des ailes d’un papillon, après quelques mois, a un tel effet sur l’atmosphère de la terre entière qu’il peut donner lieu à une tempête dévastatrice dans une contrée éloignée. Cela rappelle ce qu’écrivait Poincaré, mais paraît tellement extrême qu’on peut se demander s’il faut accorder à l’effet papillon plus qu’une valeur métaphorique. En fait, il semble bien que l’affirmation de Lorenz doit être prise au pied de la lettre. On va considérer la situation où le papillon bat des ailes comme une petite perturbation de la situation où il se tiendrait tranquille. On peut évaluer l’effet de cette petite perturbation en utilisant le caractère chaotique de la dynamique de l’atmosphère. (Rappelons que les modèles de l’atmosphère terrestre montrent une dynamique chaotique aux grandes échelles ; aux petites échelles, on a aussi du chaos à cause de la turbulence généralisée de l’air où nous baignons). La perturbation causée par le papillon va donc croître exponentiellement, c’est-à-dire très vite, et l’on peut se convaincre qu’au bout de quelques mois l’état de l’atmosphère terrestre aura changé du tout au tout. De sorte que des lieux éloignés de celui où se trouvait le papillon seront ravagés par la tempête. La prudence m’incite à prendre ici quelques précautions verbales. Il s’agit d’éviter qu’un doute sur un point de détail ne jette le discrédit sur des conclusions par ailleurs bien assurées. On peut se demander comment des perturbations aux petites dimensions (comme la dimension d’un papillon) vont se propager aux grandes dimensions (comme celle d’un ouragan). Si la propagation se fait mal ou très mal, peut-être faudra-t-il plus que quelques mois pour qu’un battement d’ailes de papillon détermine un ouragan ici ou là. Cela rendrait l’effet papillon moins intéressant. A vrai dire, la turbulence développée reste mal comprise et la conclusion de Lorenz reste donc un peu incertaine. L’image du papillon est jolie cependant, il serait dommage qu’on doive l’enterrer et, jusqu’à plus ample informé, j’y reste personnellement attaché. Quoi qu’il en soit, la circulation générale de l’atmosphère n’est pas prédictible plusieurs mois à l’avance. C’est un fait bien établi. Un ouragan peut donc se déclencher ici ou là de manière imprévue, mais cela dépendra peut-être d’incertitudes autres que les battements d’ailes d’un papillon. Si l’on y réfléchit un instant, on voit que le déclenchement d’une tempête à tel endroit et tel moment résulte d’innombrables facteurs agissant quelques mois plus tôt. Que ce soient des papillons qui battent des ailes, des chiens qui agitent la queue, des gens qui éternuent, ou tout ce qui vous plaira. La notion de cause s’est ici à ce point diluée qu’elle a perdu toute signification. Nous avons en fait perdu tout contrôle sur l’ensemble des « causes » qui, a un instant donné, concourent à ce qu’une tempête ait lieu ou n’ait pas lieu ici ou là quelques mois plus tard. Mêmes des perturbations infimes dues à la mécanique quantique, à la relativité générale, ou à l’effet gravitationnel d’un électron à la limite de l’univers observable, pourraient avoir des résultats importants au bout de quelques mois. Aurions-nous dû en tenir compte ? Il est clair qu’on n’aurait pas pu le faire. L’effet de ces perturbations infimes peut devenir important après quelques mois, mais un mur d’imprédicibilité nous interdit de le voir. Pour l’atmosphère terrestre, ce mur d’imprédicibilité est situé à quelques jours ou semaines de nous dans le futur. Je voudrais revenir brièvement à mon implication personnelle dans l’histoire du chaos. A la fin des années 60, je m’étais mis à l’étude de l’hydrodynamique, qui est la science de l’écoulement des fluides. Certains des écoulements que l’on observe sont tranquilles et réguliers, on les dit laminaires, d’autres sont agités et irréguliers, on les dit turbulents. Les explications de la turbulence que j’avais trouvées, en particulier dans un livre de Landau et Lifschitz sur l’hydrodynamique, ne me satisfaisaient pas, car elles ne tenaient pas compte d’un phénomène mathématique nouveau, dont j’avais appris l’existence dans les travaux de Smale. Quel est ce phénomène ? C’est l’abondance d’évolutions temporelles de nature étrange, avec dépendance sensitive des conditions initiales. Je m’étais alors convaincu que la turbulence devait être liée à une dynamique « étrange ». Dans un article joint avec Takens nous avons proposé que la turbulence hydrodynamique devait être représentée par des attracteurs étranges, ou chaotiques, et étudié le début de la turbulence, ou turbulence faible. Par la suite, de nombreux travaux expérimentaux ont justifié cette analyse. Cela ne résout pas le problème de la turbulence, qui reste l’un des plus difficiles de la physique théorique, mais on sait au moins que les théories « non chaotiques » jadis à l’honneur ne peuvent mener à rien. Quand le chaos est devenu à la mode, il a donné lieu à d’innombrables travaux. Certains de ces travaux développaient les aspects techniques de la théorie du chaos, et il n’est pas question d’en parler ici, d’autres analysaient diverses classes de phénomènes naturels dans l’espoir d’y trouver un comportement chaotique. C’est ainsi que j’ai proposé qu’il devait y avoir des oscillations chimiques chaotiques, ce qui effectivement a été démontré par l'expérience dans la suite. Ce fut une période féconde où, en réfléchissant un peu, on pouvait faire des découvertes d’un intérêt durable. Toutes les idées n’ont d’ailleurs pas été également bonnes. Ainsi, des essais d’application du chaos à l’économie et à la finance se sont révélés moins convaincants ; j’y reviendrai. Mais quand Wisdom et Laskar ont cherché du chaos dans la dynamique du système solaire, ils ont eu la main remarquablement heureuse. Le mouvement des astres du système solaire semble extraordinairement régulier, puisque l’on peut par le calcul prédire les éclipses, ou retrouver celles qui ont eu lieu, il y a plus de mille ans. On a donc longtemps pensé que le mouvement des planètes, et en particulier de la Terre, était exempt de chaos. On sait maintenant que c’est faux. L’orbite de la Terre est une ellipse dont les paramètres varient lentement au cours du temps, en particulier l’excentricité, c’est-à-dire l’aplatissement. En fait on a maintenant montré que la variation temporelle de l’excentricité est chaotique. Il y a donc de l’imprédicibilité dans le mouvement de la Terre. Le temps nécessaire pour que les erreurs de prédiction doublent est de l’ordre de 5 millions d’années. C’est un temps fort long par rapport à la vie humaine, mais assez court à l’échelle géologique. Le chaos que l’on a trouvé dans le système solaire n’est donc pas sans importance, et les travaux dans ce domaine se poursuivent activement, mais ce n’est pas ici le lieu d’en discuter. Les résultats accumulés depuis plusieurs décennies nous ont donné une assez bonne compréhension du rôle du chaos en météorologie, en turbulence hydrodynamique faible, dans la dynamique du système solaire, et pour quelques autres systèmes relativement simples. Qu’en est-il de la biologie, de l’économie, de la finance, ou des sciences sociales ? Il faut comprendre que les modélisations utiles dans le domaine du vivant sont assez différentes de celles qui nous satisfont pour des systèmes physiques simples. Les relations du hasard et la nécessité sont d’une autre nature. En fait le domaine du vivant est caractérisé par l’homéostasie qui maintient les organismes dans des conditions appropriées à la vie. L’homéostasie tend par exemple à maintenir la température de notre corps dans d’étroites limites. Elle supprime les fluctuations thermiques et est donc de nature antichaotique. La correction des fluctuations apparaît aussi au niveau du comportement individuel : un projet de voyage est maintenu même si une panne de voiture ou une grève fortuites obligent à changer de moyen de transport. Il s’agit ici de processus correctifs compliqués et qu’il est difficile de représenter par des modèles dynamiques simples auxquels on pourrait appliquer les techniques de la théorie du chaos. Clairement, de petites causes peuvent avoir de grands effets dans la vie de tous les jours, mais aux mécanismes causateurs de chaos s’ajoutent des mécanismes correcteurs, et il est difficile de débrouiller la dynamique qui en résulte. Dans le domaine de l’économie, de la finance ou de l’histoire, on voit aussi que des causes minimes peuvent avoir des effets importants. Par exemple une fluctuation météorologique peut causer la sécheresse dans une région et livrer sa population à la famine. Mais des mécanismes régulateurs effaceront peut-être l’effet de la famine, et l’histoire poursuivra son cours majestueux. Peut-être, mais ce n’est pas certain. Une guerre obscure en Afghanistan a précipité la chute du colossal empire Soviétique. Cette guerre obscure a concouru avec de nombreuses autres causes obscures à miner un empire devenu plus instable qu’on ne le pensait. En fait nous vivons tous dans un monde globalement instable : la rapidité des transports, la transmission presque instantanée de l’information, la mondialisation de l’économie, tout cela améliore peut-être le fonctionnement de la société humaine, mais rend aussi cette société plus instable, et cela à l’échelle de la planète. Une maladie virale nouvelle, ou un virus informatique, ou une crise financière font sentir leurs effets partout et immédiatement. Aujourd’hui comme hier le futur individuel de chaque homme et chaque femme reste incertain. Mais jamais sans doute jusqu’à présent l’imprédictibilité du futur n’a affecté aussi globalement notre civilisation tout entière.

 

  VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google