ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Mieux comprendre les hommes...

 

 

 

 

 

 

Mieux comprendre les hommes...


Luc Steels dans mensuel 350
daté février 2002 -

Construirons-nous un jour des robots humanoïdes autonomes et aussi performants que nous-mêmes dans les domaines moteur, sensoriel et cognitif ? C'est peu probable. En revanche, la mise au point de machines de plus en plus perfectionnées permet de mieux comprendre les capacités humaines, telles que la marche ou l'apprentissage du langage.

IA, le récent film de Steven Spielberg, où un robot ressemble à s'y méprendre à un humain, est une histoire étonnante, dont chaque spectateur appréciera ou non l'intérêt dramatique. Toutefois, en ce qui concerne sa vraisemblance, les spécialistes de l'intelligence artificielle savent à quoi s'en tenir : non seulement aucun d'entre nous ne sait aujourd'hui fabriquer des machines aussi perfectionnées, mais cela ne fait même pas partie de notre programme de recherche.
Cette affirmation peut sembler paradoxale au vu des efforts intenses que poursuivent aujourd'hui quelques entreprises pour mettre au point des robots humanoïdes. De tels robots, qui marchent sur deux jambes, saisissent des objets avec leurs mains et interagissent avec leur environnement grâce à des capteurs visuels, auditifs ou tactiles, auront vraisemblablement des applications pratiques dans notre vie quotidienne, ne serait-ce que comme jouets.
Mais aux yeux des chercheurs en intelligence artificielle, ce n'est pas leur principal intérêt. Notre préoccupation est plutôt de mieux comprendre comment les hommes pensent, se comportent ou se développent. De ce point de vue, les robots permettent de tester des hypothèses en réalisant des expériences. Nous pouvons par exemple déterminer la validité d'un modèle théorique associé à une fonction telle que la marche ou le langage : sa mise en oeuvre révèle sans équivoque s'il permet à un robot de marcher ou de parler. En cas d'échec, le modèle est éliminé. En cas de réussite, nous n'avons bien sûr pas la certitude que les humains fonctionnent de la même façon, mais le modèle testé entre dans la catégorie des mécanismes plausibles, que les psychologues et les biologistes peuvent à leur tour soumettre à d'autres tests.

Avancées techniques. L'intelligence artificielle a émergé vers 1960, à une époque où les capacités des ordinateurs étaient bien trop faibles pour que quiconque puisse prétendre recréer une quelconque forme d'intelligence. Elle n'a en fait vraiment pris son essor que depuis une dizaine d'années, grâce à trois avancées importantes. D'abord, toutes les technologies nécessaires au fonctionnement de robots autonomes assez performants pour tester des modèles d'apprentissage ou de comportement ont énormément progressé : capacités des batteries, des moteurs, des microprocesseurs ou des capteurs.
Ensuite, dans la même période, les différents sous-domaines de l'intelligence artificielle ont aussi beaucoup progressé. Nous disposons désormais d'algorithmes performants pour l'apprentissage de connaissances, pour la vision par ordinateur voir l'article de Thierry Viéville p. 42, pour la planification de l'action ou pour le traitement de la parole. Le principal défi à relever aujourd'hui est l'intégration de toutes ces fonctionnalités au sein d'un système unique, dont les performances seraient supérieures à la somme des performances des systèmes spécialisés : ces derniers compenseraient mutuellement leurs éventuelles imperfections en interagissant. Par exemple, le système de vision et de reconnaissance d'objets d'un robot aiderait son système de traitement de la parole à comprendre des informations orales concernant les objets présents dans l'environnement.
La troisième grande avancée de l'intelligence artificielle, la plus importante, concerne l'architecture des robots. Contrairement aux deux autres, il ne s'agit pas seulement d'une amélioration de dispositifs existants, mais d'une totale remise en question des approches antérieures. Jusqu'au début des années 1990, en intelligence artificielle, on construisait un module de contrôle central, qui prenait toutes les décisions et qui ne déclenchait l'action qu'après une réflexion attentive. Avec Rodney Brooks, du Massachusetts Institute of Technology, j'ai alors proposé de développer une « robotique comportementale », où l'intelligence est distribuée dans plusieurs modules qui coopèrent de manière dynamique. Chaque module est entièrement responsable de l'accomplissement d'un certain nombre d'actions, telles que marcher, saisir des objets ou se lever. Il recueille des informations provenant de son environnement et de ses propres états, il décide de l'action à mener, et influence le comportement global du robot. Le fonctionnement résultant est complexe, mais le robot adapte mieux et plus vite ses actions aux variations de son environnement.

Modèles partiels. Ainsi, le robot n'a plus besoin d'un modèle du monde centralisé comme en intelligence artificielle classique, mais chaque module développe ses propres représentations, qui peuvent être partielles et spécialisées. Par exemple, afin d'éviter un objet, il n'est pas nécessaire de l'identifier, ce qui prend beaucoup de temps et qui n'est pas vraiment fiable : il suffit d'en détecter les contours pour réagir immédiatement. Cela donne un comportement moins sujet aux erreurs et des réponses plus rapides au monde extérieur, comme nous l'avons vérifié lors d'essais comparatifs entre les deux types d'approche1.

Décisions émotionnelles. Enfin, au lieu d'utiliser des procédures de décision rationnelle fondées sur le raisonnement logique, les architectures comportementales se fondent sur des modèles éthologiques du comportement animal : des états de motivation qui varient dans un espace continu et sont directement connectés à la perception et aux actions dans le monde, influencent mais ne contrôlent pas totalement l'activation des différents comportements et leurs interactions. Cela permet au robot de prendre des décisions dans des circonstances que les raisonnements rationnels de l'intelligence artificielle classique ne peuvent pas traiter, par exemple de décider ce qu'il doit regarder dans une scène où plusieurs objets bougent, accompagnés par des sons. De la même façon, un robot alimenté par une batterie tiendra compte de la charge de celle-ci avant de s'engager dans la réalisation d'une tâche.
La pertinence de cette approche comportementale a été validée dans le domaine sensori-moteur. C'est en effet en l'utilisant que Sony a mis au point Aibo , le robot chien de compagnie voir l'article de F. Kaplan, M. Fujita et T. Doi, p. 84 et le DreamRobot qui peut se lever, vous serrer la main ou danser la Macarena.
En revanche, dans le domaine cognitif, les résultats de la robotique comportementale ne sont pas encore très impressionnants. En particulier, les capacités de communication des robots restent limitées. C'est sur ce point que porte l'essentiel des travaux que nous menons aujourd'hui à Bruxelles et à Paris. Chez l'homme, le langage est le mode de communication le plus naturel et le plus efficace. Vers l'âge de deux ans, on assiste chez les enfants à une explosion de son utilisation et à un développement rapide de la conceptualisation. Pourrait-on atteindre au moins cette étape avec des robots ?

Au XXe siècle, la psychologie cognitive s'est focalisée sur l'individu, et la recherche en intelligence artificielle s'est engagée sur la même voie. Les behavioristes*, en particulier, ont défendu l'hypothèse que les enfants apprennent par induction à partir d'un ensemble de situations modèles. D'après eux, par exemple, l'enfant créerait des catégories naturelles telles que les couleurs, les formes ou les textures en catégorisant spontanément les caractéristiques des objets qu'il voit, et qui changent en permanence. Ensuite seulement, il nommerait ces catégories avec précision. Aujourd'hui, beaucoup d'algorithmes d'apprentissage fonctionnent de cette façon. Mais cela n'aboutit souvent qu'à des concepts très éloignés de ceux rencontrés dans les langues humaines, sauf si l'expérimentateur choisit très soigneusement les exemples proposés au robot comme support de l'apprentissage2.

Ce n'est en fait pas comme cela que nous apprenons à parler. Au milieu des années 1990, des psychologues tels que Michael Tomasello, aujourd'hui à l'Institut Max Planck d'anthropologie évolutionniste de Leipzig, et Jérôme Bruner, aujourd'hui à l'université de New York, ont proposé une théorie alternative : l'apprentissage social. Selon eux, la plupart des apprentissages ne sont pas le fait d'un individu isolé : il nécessite l'interaction d'au moins deux personnes. Appelons-les l'apprenant et le médiateur. Le plus souvent, le médiateur est un parent et l'apprenant un enfant, bien que les enfants ou les adultes puissent aussi apprendre les uns des autres. Le médiateur impose des contraintes à la situation afin d'encadrer l'apprentissage : il encourage verbalement, donne des appréciations et agit sur les conséquences des actions de l'apprenant. Les appréciations ne sont ni très précises ni très régulières, mais le plus souvent pragmatiques, selon que l'objectif fixé a été atteint ou non. Le médiateur est absolument nécessaire, sans quoi le champ des possibilités qui s'offrent à l'apprenant serait vraiment trop vaste pour qu'il puisse deviner ce qu'on attend de lui.

Les jeux de langage sont un bon exemple de ce mode d'apprentissage3. Un jeu de langage est une suite répétitive d'interactions entre deux personnes. Tous les parents jouent à des milliers de jeux de ce type avec leurs enfants. Et, tout aussi important, les enfants jouent à ce type de jeux entre eux à partir d'un certain âge. En voici un exemple type, entre un père et son enfant devant des images d'animaux. L'enfant apprend à reconnaître et à reproduire les sons émis par les différents animaux, à associer son, image et mot.
Le père : « Comment fait la vache ? [il montre la vache] Meuh ».
L'enfant : [il se borne à observer]
Le père : « Comment fait le chien ? » [il montre le chien] « Ouah. »
L'enfant : [il observe]
Le père : « Comment fait la vache ? »
[il montre à nouveau la vache puis attend...]
L'enfant : « Meuh »
Le père : « Oui ! »

Cet apprentissage nécessite plusieurs modalités et capacités sensorielles son, image, parole et il contient un ensemble d'interactions répétitives qui est bien implanté au bout d'un moment, de sorte que ce qui est attendu est clair. Le sens d'un mot nouveau, par exemple, ici, du nom d'un nouvel animal, peut être deviné grâce à sa position dans la phrase prononcée par le médiateur.
Pour les théoriciens de l'apprentissage social, l'apprenant ne reçoit pas passivement les données qui lui sont transmises mais teste ses connaissances en interagissant avec son environnement et avec les personnes qui s'y trouvent. Toute interaction est une occasion d'apprendre ou de mettre à l'épreuve des connaissances existantes. Il n'y a pas de dichotomie marquée entre une phase d'apprentissage et une phase d'utilisation.

Jouer aux devinettes. Enfin, l'une des caractéristiques de l'apprentissage social - probablement la plus importante illustrée par ce jeu - est que l'apprenant essaie de deviner les intentions du médiateur. Ces intentions sont de deux ordres. D'abord, l'apprenant doit deviner l'objectif que le médiateur cherche à lui faire accomplir. Ensuite, il doit deviner la manière de penser du médiateur : l'apprenant doit, dans une certaine mesure, développer une idée de ce que pense son interlocuteur, ce qui lui permet de comprendre ses ellipses de langage.
Un robot humanoïde apprendra-t-il un jour de cette façon à parler comme nous ? J'en doute fort, mais, au moins dans un premier temps, les expériences menées avec les robots nous aideront à tester des modèles scientifiques de l'apprentissage social et de le comparer systématiquement à l'apprentissage solitaire de type behavioriste. Pour cela, le robot doit d'abord remplir certaines conditions préliminaires. En particulier, il doit pouvoir interagir avec des interlocuteurs. Divers chercheurs en intelligence artificielle explorent actuellement ce sujet.
Ainsi, en 1998, au Massachusetts Institute of Technology, Cynthia Breazeal a mis au point Kismet , une tête animée dont les yeux sont des caméras et les oreilles, des micros4. Il est équipé d'un synthétiseur pour produire des sons. Ses traits sont stylisés, mais ils traduisent bien l'animation du visage. Il a déjà prouvé qu'il pouvait établir un espace d'attention partagée avec un expérimentateur. Ainsi, lorsque ce dernier saisit un objet et le déplace, Kismet le suit des yeux. Il peut aussi identifier et suivre des visages, reconnaître quand les gens montrent un objet du doigt, prendre la parole à son tour même si les sons qu'il produit n'ont aucun sens, identifier et exprimer des états émotionnels comme la peur, l'intérêt ou la joie ce qui n'est évidemment pas la même chose que d'éprouver vraiment ces émotions. Toutes ces fonctions sont essentielles pour l'apprentissage social. Elles ont été obtenues par la combinaison d'algorithmes de reconnaissance des formes et d'analyse de scènes avec des programmes perfectionnés d'intelligence artificielle qui construisent les modèles du monde et des individus qui participent à l'interaction.

Nous avons franchi une étape supplémentaire en explorant l'apprentissage social par les jeux de langage avec différents robots possédant les mêmes capacités que Kismet , notamment des dérivés d' Aïbo voir aussi l'encadré : « Les têtes parlantes ». Dans une première série d'expériences, un expérimentateur a proposé à Aïbo de jouer à la balle. Le chien robot percevait des images de la balle dans son environnement. Contrairement à ce qu'on pourrait naïvement croire, il est extrêmement difficile de déterminer que différentes images correspondent à un même objet, en l'occurrence à une balle. On ne voit en effet jamais celle-ci en entier. En outre, sa couleur change selon sa position et l'éclairage de la pièce. Parfois, l'algorithme de reconnaissance d'objets détecte la présence de plusieurs objets au lieu d'un seul, simplement à cause d'une tache de lumière sur la balle. Avec des objets plus complexes, l'aspect peut même être complètement différent selon l'angle sous lequel on regarde. Au lieu de se fier à une reconnaissance d'objet rigoureuse selon, les critères de l'intelligence artificielle classique, le robot utilise donc une approche fondée sur la mémoire sensitive du contexte. Il mémorise toutes les caractéristiques des situations d'apprentissage, aussi bien sa propre position ou les actions qu'il est en train d'effectuer que la distribution des couleurs dans la scène visuelle, et la reconnaissance d'objet se fait avec un algorithme de recherche de la situation la plus proche. L'avantage de cette technique est que le robot peut mémoriser à tout moment de nouvelles situations décrivant l'objet. Ainsi la caractérisation d'un objet est affinée en permanence.

Chien parlant. Ici, le rôle du langage est fondamental pour déterminer ce qui est une balle. Le médiateur choisit les situations qui servent d'exemples et donne son appréciation sur les performances du robot. En utilisant ces mécanismes, nous avons programmé une version améliorée d' Aïbo pour qu'elle utilise un vocabulaire restreint de mots ancrés dans son expérience sensori-motrice.
Ces premiers résultats sont encourageants. Nous sommes bien sûr encore très éloignés d'humanoïdes entièrement autonomes dont les capacités cogni-tives s'approcheraient, même de loin, de celles de l'homme. Mais la fabrication de machines est bien un moyen puissant pour mieux comprendre ce qui nous rend uniques en tant qu'humains, ne serait-ce que parce que ces machines constituent des points de comparaison. Nos travaux montrent qu'un ancrage dans le monde par l'intermédiaire d'un corps physique et l'appartenance sociale à une communauté sont d'une grande importance pour apprendre les concepts et le langage utilisés dans les communautés humaines. Si nous sommes intelligents, c'est en partie parce que nous vivons en société. Si nous voulons des robots intelligents, nous devrons beaucoup interagir avec eux.

1 L. Steels et R.A. Brooks, The Artificial life Route to Artificial Intelligence : Building Embodied Situated Agents , Lawrence Erlbaum Associates, 1995.
2 L. Steels et F. Kaplan, AIBO's F irst W ords. The S ocial L earning of L anguage and M eaning. Evolution of Communication , 41, 2001.
3 L. Steels, IEEE Intelligent S ystems , September/October 2001, p. 16.
4 C. Breazeal et B. Scassellati, Infant-like Social Interactions Between a Robot and a Human Caretaker, in Special Issue of Journal of Adaptive Behavior, Simulation Models of Social Agents , guest editor Kerstin Dautenhahn, 1999.
5 L. Steels et al. , in The Transition to Language , édité par A. Wray et al. , Oxford University Press, 2002.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
initiation musicale toulon  

LA GRAVITATION

 

 

 

 

 

 

 

 

Texte de la 578 e conférence de l'Université de tous les savoirs prononcée le 21 juin2005

Par Nathalie Deruelle: « La gravitation »


la transcription de cette conférence a été réalisée par Pierre Nieradka

 

VIDEO     canal U       LIEN

1. Le terme « gravitation » a une origine relativement récente puisqu'il date du XVIIIème siècle : il a été inventé pour désigner une théorie, un cadre de pensée même, tout à fait nouveaux, qui jetaient pour la première fois un pont entre les phénomènes terrestres et célestes. Ce pont fut la physique de Newton, qui tint pendant 250 ans. Mais en 1916, ce « Pont-Neuf » s'avéra trop étroit pour canaliser les découvertes de la physique moderne ; il fut remplacé par un «Golden Gate Bridge » : la relativité générale d'Einstein.

I / Contexte historique :

2. La science grecque faisait une distinction très nette entre Ciel et Terre. Le monde des astres était la réalisation de la géométrie d'Euclide ; leurs mouvements, sans cause, étaient décrits en termes purement mathématiques. En revanche, c'étaient en termes quasi-animistes que l'on décrivait notre monde sublunaire. Par exemple, le mot « gravitas » a d'abord décrit une personne « pondérée » avant de désigner la cause de la chute des corps. Cette dichotomie dura presque 2000 ans.

3. Au XVI-XVIIème siècles, deux révolutions résolurent cette dichotomie. La première fut celle de Nicolas Copernic qui eut l'idée, non évidente, de bâtir une nouvelle astronomie en plaçant le Soleil, et non la Terre, au centre du système solaire. Ce changement de point de vue permit d'abord une description plus économique et plus précise du mouvement des astres, comme le montra brillamment Kepler. Mais il permit aussi de considérer les autres étoiles comme le centre d'autres mondes. Ainsi la physique « sublunaire » se mit à étendre considérablement son champ d'application.

4. La deuxième grande révolution fut celle de Galilée, grand astronome, mais aussi et surtout le premier physicien moderne pour avoir dit que « Le livre de la Nature est écrit en termes mathématiques ». Cela signifiait que les mathématiques, et en particulier la reformulation de la géométrie d'Euclide (et de son théorème de Pythagore) par Descartes devaient s'appliquer à la fois au monde céleste et au monde terrestre. Grâce à ces deux révolutions un pont entre Ciel et Terre se dessinait.

5. C‘est Newton qui bâtit réellement ce pont, en 1666, à l'âge de 24 ans, dans la maison de ses parents où il fuyait la peste qui sévissait à Cambridge. Il eut en effet l'idée géniale de considérer que la gravité (la cause de la chute des corps terrestres) devait AUSSI régir le mouvement des astres. Pour marquer ce gigantesque saut conceptuel un nouveau mot fut créé pour désigner cette cause commune, ce « champ de force » qui envahit l'espace de la Terre jusqu'à la Lune : le terme gravitation. Il fallut ensuite formuler cette idée en langage

mathématique, ce qui prit 20 ans de travail à Newton, travail que l'on résume aujourd'hui en deux équations :

La première équation dit que l'accélération d'un corps est proportionnelle à la force qui lui est appliquée. Ainsi si les forces extérieures sont nulles, si donc le mouvement est « libre », le corps a une accélération nulle, une vitesse constante : il est en « translation rectiligne uniforme ». C'est la loi d'inertie des corps libres, le « mouvement inertiel » trouvés par Galilée. Une pomme qui tombe d'un arbre en revanche n'a pas une vitesse constante, comme le montra Galilée ; pas plus que la Lune qui ne va pas en ligne droite puisqu'elle tourne autour de la Terre le long d'un cercle un peu déformé, l'ellipse de Kepler. La pomme et la Lune sont donc soumises à une force, la même avait compris Newton : la force de gravitation exercée par la Terre.

La deuxième équation est l'expression mathématique donnée par Newton à cette force de gravitation : elle est proportionnelle à chacune des deux masses et inversement proportionnelle au carré de la distance (Terre/Lune ou Terre/pomme). Les petites flèches qui surmontent certaines lettres désignent des objets mathématiques, des « vecteurs » qui représentent la direction de la force dans l'espace. Cette direction n'est pas repérée par rapport aux murs de la salle par exemple, mais par rapport à l'ensemble des étoiles lointaines, quasiment fixes, qui définissent un repère, appelé le « repère absolu de Newton ».

6. Ce pont, construit par Newton, ouvrit une ère nouvelle à la physique qui connut deux siècles d'or.

Deux siècles, marqués d'abord par une formulation mathématique de plus en plus performante des équations de Newton, en particulier par Laplace.

Deux siècles marqués aussi par de spectaculaires découvertes. Ainsi l'astronome britannique Herschel découvrit à la fin du XVIIIème siècle que la trajectoire de la planète Uranus était anormale dans le sens où elle ne respectait pas rigoureusement les deux lois de Newton. Adams, en Grande-Bretagne, et Le Verrier, en France, parièrent pour les équations de Newton et émirent l'hypothèse que la trajectoire d'Uranus devait être perturbée par une autre planète, baptisée Neptune. Ils calculèrent la trajectoire de cette planète postulée et deux mois plus tard, elle fut découverte, par l'astronome allemand Gall, à l'endroit prédit ! Cette magnifique confirmation de la théorie de Newton valut à Le Verrier une réception triomphale à l'Académie des sciences, Arago s'exclamant : « Monsieur le Verrier a découvert un astre nouveau au bout de sa plume ».

Enfin, d'autres forces que l'on découvrait peu à peu, notamment la force électrique de Coulomb, pouvaient être décrites par les mêmes équations, en remplaçant les masses des corps par leurs charges.

7. Le tableau avait cependant quelques ombres qui pendant longtemps furent considérées comme de simples curiosités ou alors tout simplement ignorées.

Par exemple, le coefficient de proportionnalité m de la première loi est une masse dite inerte qui mesure la résistance d'un corps au mouvement. Tandis que dans la deuxième loi, le

coefficient m est une masse dite grave qui mesure l'ampleur de la réponse à l'attraction gravitationnelle du corps M. Il n'y a à priori aucune raison que ces deux masses m soient égales mais il se trouve que c'est le cas. Ceci a pour conséquence que le mouvement d'un corps en chute « libre » (c'est à dire soumis seulement à un champ de gravitation) ne dépend pas de sa masse, puisque, en égalant les deux équations, m se simplifie. Newton, étonné de cette égalité, voulut la vérifier avec précision expérimentalement et obtint une précision du millième. La relativité générale se base sur cette égalité comme nous le verrons, d'où l'importance de la vérifier expérimentalement : la précision actuelle est de 10-12 !

Une autre énigme était la trajectoire de Mercure autour du soleil. En effet, malgré les efforts des astronomes, Le Verrier en particulier, pour la faire « rentrer dans le rang » l'ellipse de sa trajectoire tournait autour du soleil un peu plus que ce que la théorie newtonienne prévoyait.

Une autre question enfin concernait le repère « absolu » des étoiles fixes par rapport auquel s'orientent les directions des forces. On remarqua d'abord qu'on pouvait en fait utiliser tout une série d'autres repères pour décrire les mouvements : les repères dits libres, inertiels, ou galiléens, en translation uniforme quelconque par rapport au repère absolu, dans lesquels les deux lois de Newton restent les mêmes. L'utilité du repère absolu était donc limitée. Par ailleurs, les étoiles fixes, censées incarner ce repère absolu, ne peuvent en fait rester fixes car aussi loin soient elles les unes des autres, la force de gravitation les attire.

Ces différentes questions pouvaient laisser penser que le pont de Newton, était peut-être bâti sur du sable.

8. Le premier coup de butoir à l'édifice newtonien vint d'un côté inattendu de la physique, à savoir des propriétés électriques et magnétiques de la matière, plus spécifiquement des propriétés de la lumière, qui est l'agent de transmission de l'interaction électromagnétique entre les corps chargés, propriétés magistralement résumées par Maxwell.

Toutes les expériences montraient en effet que la vitesse de la lumière, c, était la même dans tous les repères libres. Ceci venait évidemment en contradiction avec la loi de composition des mouvements galiléenne qui implique que si je marche à 3km/h dans un TGV qui lui- même traverse une gare à 300km/h, je me déplace à 303 km/h par rapport au quai. Et bien cela n'est plus vrai si je suis un rayon de lumière : je vais à 300 000 km /sec par rapport au TGV ET au quai ! Lorentz et Poincaré essayèrent de réconcilier cette invariance de la vitesse de la lumière et la loi de composition des vitesses. Techniquement, ils réussirent.

9. Prenons par exemple, l'équation de Maxwell

A est une fonction du temps et de l'espace qui repère la position d'un photon (ou rayon de lumière) à un instant donné. Le Carré (ou D'Alembertien) est un opérateur qui agit sur la fonction A et la transforme selon des opérations bien définies. Cette équation est vraie dans un repère R donné, assimilé au repère absolu de Newton. Lorentz et Poincaré remarquèrent qu'on pouvait l'écrire de la même façon dans un autre repère R' allant à la vitesse V par rapport au premier, mais qu'il fallait pour cela introduire de nouvelles variables, auxiliaires, « fictives », x' et t', liées à la position du photon x dans R et au temps t, non pas par les relations prédites par la physique newtonienne, à savoir x'=x-Vt et t'=t, mais par des transformations mathématiques plus compliquées, dites de Lorentz. Et il se trouve que ces transformations sont telles que si la vitesse d'un objet, v=x/t, vaut c, la vitesse de la lumière, dans R, alors sa vitesse « fictive » v' =x'/t' est aussi c dans R'. Ils étaient donc tout près du but.

Il restait cependant un pas à franchir : donner une réalité à cette vitesse « fictive » v'.

C'est Einstein qui en 1905 franchit ce pas et donna son véritable sens aux transformations de Lorentz-Poincaré, par une illumination géniale, qui fut de dire que la variable « auxiliaire, fictive » t' n'était autre que le temps, le temps « pur et simple » mesuré par une horloge liée à R'. Ce fut une véritable révolution car c'était postuler, contrairement à Newton, que le temps ne s'écoule pas de la même façon pour tout le monde. « Le temps est affaire de perspective », dépend du repère, de l' « angle » sous lequel on le mesure (comme le dit joliment Jean-Marc Levy-Leblond), et se retrouve donc sur le même pied que la largeur, la hauteur et la profondeur. Bientôt, avec le mathématicien Minkowski, on parla non plus d'espace à trois dimensions mais d'espace-temps à quatre dimensions.

Les lois de Newton étaient formulées comme nous l'avons vu, en termes de vecteurs définis dans un espace à 3 dimensions où s'appliquait le théorème de Pythagore. Puisque le temps était devenu une dimension il fallut, avec le mathématicien Minkowski, reformuler les lois de la mécanique et de l'électromagnétisme en termes de « quadrivecteurs » dans un espace-temps à quatre dimensions où la « distance d'espace-temps » entre deux événements (deux flashs lumineux par exemple) est donnée par un théorème de Pythagore généralisé.

10. En 1905, la gravitation restait cependant décrite par les lois de Newton, alors qu'Einstein venait de montrer que le cadre mathématique dans lequel s'exprimaient ces lois était trop restreint pour rendre compte des phénomènes électromagnétiques. Le pont reliant Ciel et Terre était donc rompu. Einstein considéra cette reconstruction comme prioritaire devant la physique quantique et y consacra dix ans de travail acharné entre 1905 et 1915.

Il trouva la solution grâce à une autre illumination. Supposez que vous tombiez d'un toit en même temps que votre pomme. Comme tous les corps tombent de la même façon la pomme doit rester immobile par rapport à vous, exactement comme si vous étiez dans un astronef, loin de tout champ de gravitation. Vous pouvez donc considérer votre mouvement et celui de la pomme comme libres, et les décrire comme si votre chute avait effacé la gravitation. Vous ne pouvez cependant pas dire que votre mouvement « est comme rien » trop longtemps. Car au bout d'un certain temps vous allez vous apercevoir que la pomme se rapproche lentement de vous. En effet deux objets qui chutent se rapprochent car ils sont attirés par le centre de la Terre. Comment réconcilier cela avec l'idée que ces objets sont censés avoir des mouvements libres l'un par rapport et donc des trajectoires parallèles ?

Pour réconcilier l'idée de mouvement libre avec le fait que les trajectoires convergent, Einstein supposa que les mouvements s'effectuent, non pas dans l'espace euclidien de Newton mais dans un espace courbe où les parallèles peuvent se couper. Pour la mathématisation de ces idées, Einstein fit appel à son ami Marcel Grossman qui lui expliqua les travaux de Riemann, alors récents, sur la géométrie des espaces courbes.

11. Dans un espace-temps courbe le théorème de Pythagore se généralise une nouvelle fois :

La distance ds entre 2 flashs lumineux dépend de 10 fonctions de l'espace et du temps gij(t,x,y,z), appelées la « métrique » de l'espace-temps. Ainsi, grâce à une formidable intuition physique guidée par les mathématiques, Einstein aboutit en 1915-1916 aux nouvelles équations de la gravitation :

Le « tenseur » Gμν représente la courbure de l'espace temps ; c'est un opérateur, un « programme de manipulation » qui agit sur les 10 fonctions gi.Tμν représente la masse énergie des objets qui courbent l'espace temps. Enfin, le coefficient 8πG/c4 assure que pour des espaces faiblement courbés, la théorie newtonienne rejoint celle d'Einstein.

Ces équations sont donc le « Golden Gate Bridge » qui remplace le « Pont Neuf » de Newton.

II / Les succès de la relativité générale :

12. Commençons par passer rapidement en revue quelques tests de la relativité générale, quelques exemples, qui démontrent la puissance de cette théorie.

Nous avons vu précédemment que Le Verrier avait échoué dans ses tentatives d'explications de l'avance du périhélie de Mercure dans le cadre de la théorie newtonienne. Einstein, qui pourtant avait basé sa théorie sur une base très conceptuelle, calcula cette avance dans le cadre de la relativité générale et obtint 43 secondes d'arc par siècle, exactement la valeur observée ! Ce fut dit-il la plus grande émotion scientifique de sa vie.

En 1916, Einstein fit cette fois ci une prédiction : la lumière ne devait pas se propager en ligne droite comme le supposait Newton mais devait être déviée par les champs de gravitation des astres. Eddington vérifia cette prédiction en 1919 ; on la vérifie maintenant avec une grande précision, récemment grâce aux signaux radio émis par la sonde Cassini lors de son voyage vers Saturne. Grâce à cette propriété de la lumière d'être déviée par les corps massifs on peut ainsi maintenant calculer la masse (en particulier la masse invisible des galaxies) présente entre un astre lumineux, un quasar par exemple, et nous en étudiant le trajet que prend la lumière entre lui et nous.

En relativité générale l'écoulement du temps dépend du mouvement mais aussi du champ gravitationnel dans lequel l'horloge se trouve. Ce 3ème effet est appelé le « redshift gravitationnel ». Il a été mesuré pour la première fois en 1963 et aujourd'hui la précision des horloges est telle qu'il est indispensable d'en tenir compte dans les routines du programme du Global Positionning System, sans quoi ce système ne fonctionnerait pas !

Mentionnons enfin, l'effet Shapiro : si on envoie de la Terre un signal laser ou radar sur la lune ou sur une sonde et si ce signal revient, on calcule que le temps que met ce signal pour faire l'aller retour est différent de ce que prévoit la physique newtonienne. C'est aussi la sonde Cassini qui a permis de vérifier cet effet avec la plus grande précision.

Après ce bref survol des tests de la relativité générale, concentrons-nous sur une autre facette de la relativité générale : les ondes gravitationnelles.

13. Commençons par présenter les « pulsars binaires » grâce auxquels les ondes gravitationnelles ont été détectées. Un « pulsar » est une étoile à neutrons, c'est à dire dont la densité est celle de la matière nucléaire, qui peut donc peser 2 ou 3 masses solaires pour seulement quelques kilomètres de rayon. Ces pulsars produisent, par des mécanismes encore mal connus, des champs magnétiques très intenses. De plus, ces étoiles tournent sur elles- mêmes parfois avec une période de rotation de 1 milliseconde (à comparer au 24 h pour la

Terre !). Le champ magnétique tourne alors autour de l'axe de rotation. Ce pulsar émet donc un « pinceau de magnétisme », un faisceau lumineux (radio), qui balaie l'espace comme un gyrophare et qui peut être détecté par des radiotélescopes si la Terre se trouve dans sa trajectoire.

Un pulsar « binaire » est une étoile à neutrons qui gravite autour d'un autre objet, qui peut lui- même être une autre étoile à neutrons. L'intervalle de temps entre l'arrivée sur Terre de deux flashs, 2 « bips » consécutifs du « gyrophare » n'est alors pas constant du fait que pulsar s'éloigne et se rapproche périodiquement de l'observateur, lors de ses révolutions autour de son compagnon. On peut ainsi reconstituer, par cet « effet Doppler », la trajectoire de ce pulsar binaire.

14-15. Enfin, en tournant l'un autour de l'autre, les deux étoiles déforment périodiquement l'espace-temps et ces déformations de la métrique se propagent jusqu'à l'infini : ce sont les ondes gravitationnelles.

16. Il s'agit de mettre en équations ces ondes...

La phase du pulsar, qui donne le rythme auquel le gyrophare tourne, est donné en fonction du temps par l'équation suivante :

Le temps t qui apparaît dans cette équation est celui d'une horloge liée au pulsar. Ce temps n'est pas le même dans le laboratoire qui détecte le signal (la Terre), en raison notamment du ralentissement des horloges. Appelons Τ le temps du laboratoire. On montre à partir des équations d'Einstein de la relativité générale que les temps t et T sont liés par la relation suivante :

Le premier terme correctif Delta R est une correction simplement newtonienne, qui tient compte du fait que la distance entre le pulsar et le laboratoire est variable et que la lumière a une vitesse finie.

Les termes suivants sont des corrections relativistes.

Plus précisément, E, appelé effet Einstein, est une correction qui combine les effets de retard dus au mouvement du pulsar et au champ de gravitation de son compagnon (c'est de ce même effet qu'il faut tenir compte pour faire fonctionner le système GPS). Il s'exprime de la façon suivante :

Enfin, le dernier terme S, est l'effet Shapiro. Il s'agit de l'effet dû au retard que prend la lumière dans le champ de gravitation des étoiles à neutrons :

Les différents paramètres, delta, γ, r, s, etc, intervenant dans ces différentes équations sont des paramètres dits « post-képlériens », dont les valeurs sont nulles en théorie newtonienne. En ajustant cette « formule de chronométrage » Φ=Φ(T) avec la phase phi observée, on obtient les valeurs numériques de ces différents paramètres.

17. Par exemple, pour le pulsar binaire récemment observé par Kramer et al, on trouve que l'avance du périastre est de 16,9 degrés/an (à comparer aux 43 secondes d'arcs par siècle pour Mercure !). De même la période orbitale est de 0,1 jour contre 365 jours pour la Terre. Enfin, l'ellipse de la trajectoire du pulsar rétrécit peu à peu au cours du temps. Le système perd de l'énergie lors de ce rétrécissement et cette énergie est dissipée sous forme d'ondes gravitationnelles. Il s'agit d'un effet extrêmement faible : il faut compter une centaine de millions d'années pour qu'ils deviennent notable.

18. Ces paramètres post-képlériens, comme nous l'avons dit, devraient être nuls en théorie newtonienne. Le fait qu'on observe qu'ils ne le sont pas montre déjà que la théorie newtonienne est inapte à décrire le mouvement d'un tel pulsar binaire. La relativité générale quant à elle, non seulement prédit une valeur non nulle pour ces paramètres mais les exprime en fonction des masses des deux objets MA et MB, selon des formules plus ou moins compliquées extraites des équations d'Einstein.

19. On peut ainsi tracer sur un diagramme l'avance du périastre, la variation de la période orbitale, etc, en fonction des masses MA et MB. Si ces courbes ne se recoupaient pas en un seul point cela signifierait un désaccord entre théorie et expérience car on obtiendrait des valeurs contradictoires pour les masses MA et MB du pulsar et de son compagnon. Mais il se trouve qu'elles se coupent toutes, avec une très grande précision ! L'intersection de deux courbes (l'avance du périastre omega dot et de l'effet Einstein gamma par exemple) donne les masses Ma et MB. Chaque courbe supplémentaire, à condition qu'elle passe au même point, représente un test de la relativité générale ; ainsi le pulsar binaire de Kramer et al fournit trois tests indépendants !

Grâce donc à un système d'étoiles situé à plusieurs milliers d'années-lumière de la Terre on vérifie actuellement une théorie construite en 1915 sur une base surtout conceptuelle avec une précision supérieure au millième.

20. Le test consistant à mesurer le rétrécissement de l'orbite d'un pulsar binaire dû à l'émission d'ondes gravitationnelles et vérifier qu'il coïncide avec la valeur prédite par la relativité générale, a été effectué pour la première fois par Hulse et Taylor à l'aide du premier pulsar binaire qu'ils avaient découvert en 1974. Pendant 30 ans, ils ont monitoré ce système pour mesurer avec un précision de plus en plus grande l'effet cumulatif de retard au périastre dû à ce rétrécissement et ont obtenu un accord entre observation et prédiction supérieur à 2 millièmes. Ces travaux ont valu à Hulse et Taylor le premier prix Nobel de relativité générale en 1993.

III/ Une nouvelle fenêtre sur l'univers :

22-23. Les ondes gravitationnelles ont donc été détectées par l'intermédiaire du rétrécissement de l'ellipse tracée par deux étoiles en orbite l'une autour de l'autre mais pas « directement »,

c'est à dire par l'intermédiaire de télescopes « gravitationnels » placés sur Terre sensibles aux « frémissements » de la géométrie de l'espace-temps. Tant que les étoiles sont éloignées l'une de l'autre, les ondes gravitationnelles sont beaucoup trop faibles pour être détectées par de tels « télescopes ». En revanche, on peut espérer les détecter lorsque les deux étoiles se rapprochent l'une de l'autre et fusionnent pour donner par exemple un trou noir car alors une énorme « bouffée » d'ondes est émise.

24. Un effort international important est par conséquent mené pour essayer d'observer directement ces ondes. Les Etats-Unis, l'Europe et le Japon construisent actuellement des détecteurs gigantesques, sous forme d'interféromètres constitués de deux bras perpendiculaires d'environ 3 km de long, dans lesquels un faisceau laser se propage et se réfléchit des centaines de fois. Ces différents rayons lumineux se combinent en fin de course en un « creux de lumière », une frange noire. Si une onde gravitationnelle arrive sur Terre, la géométrie d'espace-temps entre les miroirs va être très légèrement perturbée, les miroirs aux extrémités des bras vont très légèrement bouger et une frange de lumière va apparaître puis disparaître.

25. Il s'agit là encore d'expliquer ce mouvement des miroirs en « faisant parler » les équations d'Einstein. L'accélération du pulsar qui va déterminer le mouvement et donc la courbure de l'espace-temps dont les frémissements vont atteindre le détecteur s'exprime de la manière suivante :

Le premier terme est celui de Newton, inversement proportionnel au carré de la distance entre le pulsar et son compagnon.

Les termes suivants sont les corrections relativistes obtenues en résolvant, avec une précision croissante (« itérativement ») l'équation d'Einstein

1/c2.A1PN est le terme donnant en particulier l'avance du périastre.

1/c5A2 .5PN représente la force qui provoque le rétrécissement de l'ellipse observé par Hulse et Taylor (son expression a été obtenue en 1982).

Enfin, le terme 1/c7.A3.5PN a été obtenu au début des années 2000.

26. Mais ce travail n'est qu'une étape pour décrire correctement l'onde gravitationnelle qui va faire bouger les miroirs et qu'on puisse un jour, à partir de ce mouvement, vérifier si la relativité générale décrit correctement le début de la coalescence des deux étoiles : il faut prédire plus précisément encore la phase de l'orbite (liée au temps mis par le pulsar à faire un tour : Φ=Ω.t pour un mouvement circulaire newtonien). Dans son expression obtenue très récemment dans le cadre de la relativité générale, le premier terme décrit le rétrécissement de l'orbite dû au seul terme 1 /c5.A2.5PN. Les corrections suivantes nécessitent la connaissance du champ de gravitation et de la luminosité (puissance rayonnée par ce champ) très loin du pulsar

binaire. Ces calculs on représenté un travail de très longue haleine, où l'école française, pilotée notamment par Thibault Damour, s'est distinguée.

27. Cependant, ces corrections de plus en plus fines à la physique newtonienne ne suffisent plus lorsque les deux étoiles coalescent. Pour décrire cette phase ultime il faut résoudre exactement les équations d'Einstein, ce que l'on ne peut faire que numériquement dans ce cas. La relativité numérique est donc en plein essor, en particulier à l'Observatoire de Meudon. Parmi les succès récents de cette discipline citons le calcul de la coalescence de deux étoiles à neutrons et celle de deux trous noirs ---qu'on ne peut pas voir car les trous noirs ne rayonnent pas de lumière mais qui doivent produire, si ils coalescent, une énorme bouffée d'ondes gravitationnelles.

28. La détection d'ondes gravitationnelles ouvrira une nouvelle fenêtre sur l'univers dans la mesure où il s'agit d'un signal non lumineux, de « friselures » de l'espace-temps. L'observation de ces ondes permettrait d'en savoir plus sur les étoiles à neutrons car le signal gravitationnel émis dépend de leur structure interne. Grâce aux ondes gravitationnelles on devrait donc mieux connaître les propriétés nucléaires de la matière, la structure des trous noirs, voire même les débuts de l'univers dans lequel les ondes gravitationnelles se sont propagées librement bien avant la lumière.

IV / Les défis à relever :

Les succès de la relativité générale sont donc nombreux mais il reste des défis à relever.

29. Le premier est celui de la cosmologie. En effet, toutes les mesures actuelles tendent à montrer que la matière qui compose l'univers est, quasiment en totalité, totalement inconnue (30 % de « matière noire », 70 % d' « énergie noire »). Ainsi la matière dont les étoiles sont constituées ne représenterait qu'une infime partie de la masse totale. L'hypothèse optimiste est de parier sur les équations d'Einstein et de les utiliser pour mieux connaître les caractéristiques de l'univers, la nature de la matière et l'énergie noires ou la valeur de l'accélération de son expansion par exemple. Mais il n'est pas exclu, hypothèse pessimiste que la Relativité Générale trouve ses limites en cosmologie.

30. Le second défi est celui de la quantification de la gravitation : le pont entre Ciel et Terre dressé par Einstein ignore en effet la mécanique quantique dont les lois régissent pourtant superbement le monde microscopique. Bien qu'aucune évidence expérimentale ne l'impose actuellement (sauf peut-être les mystères de la cosmologie ?), réconcilier les principes et cadres conceptuels de la relativité générale et de la mécanique quantique est un programme majeur de la physique du XXIème siècle. Des théories sont en chantier pour tenter de répondre à ces interrogations, parmi elles la théorie des supercordes sur laquelle beaucoup de physiciens fondent leurs espoirs depuis déjà une trentaine d'années.

 
 
 
initiation musicale toulon  

PHYSIQUE ET MATHÉMATIQUES

 

 

 

 

 

 

 

PHYSIQUE ET MATHÉMATIQUES

La physique et les mathématiques sont étroitement mêlées depuis toujours. Tantôt c'est la première qui conduit à développer les mathématiques impliquées par les lois de la nature, tantôt des structures mathématiques élaborées sans référence au monde extérieur se trouvent être précisément adaptées à la description de phénomènes découverts pourtant postérieurement. C'est là l'efficacité déraisonnable des mathématiques dans les sciences de la nature dont parlait Eugène Wigner. Jamais les interactions entre physique et mathématiques n'ont été plus intenses qu'à notre époque, jamais la description des phénomènes naturels n'a requis des mathématiques aussi savantes qu'aujourd'hui. Pourtant il est important de comprendre la différence de nature entre ces deux disciplines. La physique n'établit pas de théorèmes ; jusqu'à présent elle se contente de modèles dont les capacités à prédire, et la comparaison avec l'expérience établissent la validité, avec une économie dans la description et une précision parfois confondantes. Néanmoins nous savons que tous les modèles dont nous disposons actuellement, toutes les lois, ne sont que des descriptions "effectives" comme l'on dit aujourd'hui, c'est-à-dire adaptées aux échelles de temps, de distance, d'énergie avec lesquelles nous observons, mais dont nous savons de manière interne, avant même que des phénomènes nouveaux les aient invalidées, qu'elles sont inaptes à aller beaucoup plus loin. Y aura t-il une description définitive qui, tel un théorème, s'appliquerait sans limitations? Ce rêve d'une théorie ultime, où la physique rejoindrait les mathématiques, caressé par certains, laisse beaucoup d'autres sceptiques ; quoiqu'il en soit la question ne sera certainement pas tranchée rapidement.

Transcription* de la 573e conférence de lUniversité de tous les savoirs prononcée le 16 juin 2005

Par Edouard Brezin: « Physique et Mathématiques »


Je remercie tout d'abord l'UTLS d'avoir donné la parole aux physiciens car 2005 est l'année mondiale de la physique. Cette célébration est justifiée par le centième anniversaire de la publication d'articles d'Albert Einstein qui, dans trois domaines différents, ont changé complètement notre vision du monde. C'est aussi l'occasion pour les scientifiques français de présenter la science vivante, et de nous demander ce que ferait peut-être Einstein s'il était parmi nous aujourd'hui.

Physique et mathématiques : des histoires étroitement mêlées

Sans vouloir entièrement la retracer commençons par évoquer quelques étapes de cette route où physique et mathématiques se sont croisées, suivies, ignorées, rejointes, avant d'en arriver à la période contemporaine où se posent des questions qu'il n'y a pas très longtemps, personne ne pouvait formuler.

Longtemps mathématiques et sciences de la Nature ont été si étroitement mêlées que la différence nétait sans doute pas réellement explicitée. Que l'on se souvienne que géométrie veut dire littéralement « mesure de la Terre », et que les mathématiques furent formulées pendant très longtemps pour décrire des objets suggérés par le monde qui nous entoure.

En voici quelques exemples.

Pythagore et la diagonale du carré

Commençons avec Pythagore, astronome mathématicien, qui fut le premier à démontrer le théorème qui porte son nom, le théorème de Pythagore (que les Babyloniens connaissaient). Pythagore considère un carré de côté 1 : il a démontré que la longueur de sa diagonale valait (racine carrée de 2). Mais à cette époque, seuls les rapports de deux nombres entiers, les fractions, sont considérés comme des nombres. Pythagore cherche alors à exprimer (racine carrée de 2) comme un de ces nombres et, comme il est fin mathématicien, il démontre que (racine carrée de 2) ne peut pas s'écrire comme un rapport de deux nombres entiers. Le carré existe, sa diagonale existe, mais ce nombre semble ne pas exister ! C'est un sentiment inconcevable de contradiction entre la Nature et les mathématiques qui apparaît, alors que pour Pythagore elles sont parties d'un même tout.

Archimède et les volumes

Archimède était un génie absolument extraordinaire. Il a fait graver sur sa tombe une sphère et un cylindre. Fin mathématicien, il avait réussi à calculer des volumes, comme celui de la sphère, par exemple, ou encore celui donné par l'intersection de deux cylindres ( Cf. figure 1). La méthode qu'il avait introduite est une méthode intellectuellement très semblable à celle qui mettra vingt siècles à aboutir avec Newton et Leibniz, le calcul intégral. En effet pour calculer ces volumes, Archimède coupait en tranches comme on apprend à la faire lorsque l'on fait du calcul différentiel.


figure 1


Néanmoins, comme vous le savez, son génie de physicien n'était pas moins grand. Lhistoire est fort célèbre : le roi de Syracuse avait commandé une couronne en or massif mais il soupçonnait le bijoutier de l'avoir trompé. Il demanda alors à Archimède de déterminer si la couronne était bien en or massif. Après une réflexion très profonde Archimède comprit la nature de la force exercée par un liquide sur un corps immergé et répondit ainsi à la question du roi.

Galilée, père fondateur de la physique

Avançons de presque deux mille ans. Pourquoi aller si vite et passer ainsi deux mille ans de sciences ? Chacun est libre de son opinion. Je crois tout de même que le dogmatisme des églises y est pour quelque chose. Les ennuis de Galilée avec les églises sont célèbres même si l'issue en est moins dramatique que pour Giordano Bruno.

Nous sommes au XVIème siècle et Galilée écrit cette phrase célébrissime :

« La philosophie est écrite dans ce grand livre qui se tient constamment ouvert devant les yeux, je veux dire l'Univers. Mais elle ne peut se saisir si tout d'abord on ne se saisit point de la langue et si on ignore les caractères dans laquelle elle est écrite. Cette philosophie, elle est écrite en langue mathématique. Ses caractères sont des triangles, des cercles et autres figures géométriques, sans le moyen desquelles il est impossible de saisir humainement quelque parole, et sans lesquelles on ne fait qu'erre vainement dans un labyrinthe obscur. »

C'est un texte remarquable, toujours aussi pertinent de nos jours.

Newton et le calcul différentiel

La méthode de Newton est une des méthodes d'interaction de la physique et des mathématiques. Newton comprend la loi de la dynamique - la célèbre loi de Newton - qui dit que la force est égale à la masse qui multiplie l'accélération. Et à partir de ce moment-là on rentre déjà dans un paysage assez abstrait, assez difficile mathématiquement car l'accélération c'est la variation de la vitesse, la vitesse étant elle-même la variation de la position. La force, elle, est donnée en fonction de la position. On se trouve en présence d'un problème mathématique où la deuxième variation - que les mathématiciens appellent la « dérivée seconde » - de la position est donnée en fonction de la position. Pour arriver à résoudre cela, Newton invente le calcul différentiel et intégral. Et ayant compris que la force d'attraction gravitationnelle est inversement proportionnelle au carré de la distance, Newton retrouve les lois sur le mouvement des planètes que Kepler avait établies par l'observation.

La déduction des lois de Kepler est bien un théorème de mathématiques, et ces mathématiques ne sont ni très simples, ni intuitives. En d'autres termes, il faut distinguer, dans les problèmes, ce qui est mathématique et ce qui est physique. Ce qui est physique, c'est pourquoi la force est la masse multipliée par l'accélération (Descartes croyait que c'était la masse fois la vitesse), c'est comprendre pourquoi la force d'attraction est inversement proportionnelle au carré de la distance entre deux corps massifs, et pas au cube ou à la puissance 2,1. En revanche, admettant ces deux hypothèses, démontrer les lois de Kepler ce sont réellement des mathématiques. Et c'est ce que Newton a fait. C'était un très grand scientifique.

Fourier et la chaleur

Un autre exemple très extraordinaire des croisements entre physique et mathématiques vient avec Joseph Fourier au XIXème siècle. Dans un article sur la théorie analytique de la chaleur dans les Comptes Rendus de l'Académie des Sciences en 1822, Fourier s'interroge : lorsque l'on a deux corps en contact, l'un étant plus chaud que l'autre, comment écrire le flux de chaleur du corps chaud vers le corps froid ? Il construit sa théorie et il aboutit à une équation aux dérivées partielles qu'il faut résoudre. Et dans cet article où il introduit la notion de flux de chaleur, Fourier introduit aussi ce qu'on appelle dans le monde entier la transformation de Fourier. C'est l'un des instruments les plus puissants des mathématiques et de la physique.

Avec Newton et Fourier ce sont donc des problèmes de physique bien posés qui ont conduit à développer des outils mathématiques nouveaux, voire révolutionnaires. Mais, comme on va le voir, cela ne se passe pas toujours ainsi.

Gauss l'universel

Il faut aussi mentionner Gauss, mathématicien éminent, surnommé souvent le « Prince des mathématiques ». La physique lui doit un traité de mécanique céleste, le développement d'un magnétomètre et une des lois de l'électromagnétisme porte son nom. Ainsi, à cette époque, un esprit universel comme Gauss s'intéresse aussi bien aux deux disciplines.

La physique au XXème siècle

Mais si l'on se rapproche de la période contemporaine, il est frappant que la physique du XXème siècle a souvent fait appel à des mathématiques qui avaient été développées antérieurement, pour leur seule beauté et richesse intrinsèques. Cette beauté des mathématiques, leur logique interne, conduit les mathématiciens dans leurs recherches. Deux exemples où les mathématiques nécessaires à la physique lont précédée sont fournis par la relativité générale et la mécanique quantique.

La relativité générale d'Einstein

Le travail de Bernhard Riemann, grand mathématicien mort hélas jeune, précède celui d'Einstein sur la relativité générale, Il a eu l'idée de définir la géométrie de l'espace par une métrique, c'est-à-dire par lexpression de la distance entre deux points voisins. Ceci permet de définir toutes sortes de géométries. Des géométries simples, comme la géométrie euclidienne, mais également bien d'autres. C'est un outil considérable et cest exactement celui dont a besoin Einstein. Il comprend que la présence de matière change la géométrie de l'espace-temps et qu'en retour cette géométrie détermine les trajectoires des objets massifs et de la lumière. Ce sont les masses qui déforment la géométrie, et la géométrie déformée définit les trajectoires de tous les objets célestes. Cette théorie s'appelle la relativité générale. Einstein va passer beaucoup de temps, avec son ami Besso, pour comprendre les travaux de Riemann afin de s'en servir dans sa théorie.

La mécanique quantique

Heisenberg et les matrices

La mécanique quantique a deux sources indépendantes. L'une a été développée par Werner Heisenberg qui comprit que la mesure d'une quantité physique modifiait inéluctablement l'état d'un système. Si on mesure une des ses propriétés, inéluctablement on modifie létat du système. Heisenberg montre que si on mesure d'abord la position puis la vitesse d'un corps en mouvement, ou bien si lon mesure d'abord sa vitesse puis sa position, on ne trouve pas les mêmes résultats. Les résultats des mesures dépendent donc de l'ordre dans lequel on les fait. C'est une structure mathématique compliquée et Heisenberg ne sait pas très bien comment aborder cette question. Mais il était bon mathématicien et il connaissait des travaux du XIXème siècle qui avaient défini ce qu'on appelle des matrices, c'est-à-dire des objets qui décrivent des opérations sur un espace. Si on veut décrire par exemple les rotations d'un dé, selon qu'on le fait tourner d'abord autour de l'axe vertical puis autour d'un axe horizontal ou bien que l'on choisisse l'ordre inverse, le dé n'est pas dans la même position. Tous ceux qui ont un jour joué avec un Rubik's cube savent bien que les rotations ne commutent pas entre elles mais dépendent de l'ordre dans lequel on les fait. Heisenberg utilise là des mathématiques préexistantes, qui avaient été développées abstraitement, mais dont il se rend compte qu'elles sont indispensables à sa description de la mesure.

De Broglie, Schrödinger et les fonctions d'onde

L'autre source de la mécanique quantique est due à de Broglie et à Schrödinger. Ce dernier comprend profondément ce que disait de Broglie, de la dualité onde-particule. Erwin Schrödinger, Autrichien, qui avait fuit le nazisme pour aller à Dublin, (contrairement à Heisenberg qui a travaillé sur la bombe allemande, heureusement sans succès) comprend que si une particule est en même temps une onde, sa propagation doit être décrite par une équation d'onde qui décrit les variations spatiales et temporelles de cette onde. Il comprend quelle est cette équation, mais le formalisme devient extrêmement abstrait : l'état d'un système physique est un vecteur d'un espace abstrait, qu'avait introduit au début du XXème siècle le grand mathématicien David Hilbert, espace infini, avec une structure complexe[1]. On voit que, chacune des deux sources de la mécanique quantique (qui se révèleront in fine équivalentes) on fait appel à des mathématiques abstraites, inventées en suivant la logique propre des mathématiques et qui néanmoins sont indispensables pour décrire la physique.

La déraisonnable efficacité des mathématiques

Ceci conduit un physicien, Eugène Wigner, prix Nobel pour ses travaux de physique nucléaire, qui a beaucoup contribué à la physique théorique du XXème siècle, à écrire un article en 1960 intitulé « de la déraisonnable efficacité des mathématiques dans les sciences de la Nature ». C'est en gros une rationalisation de ce que je viens de dire. Wigner s'émerveille de voir que des structures qui paraissaient complètement éthérées, sans rapport initial avec le monde actuel, bien quelles ne soient pas issues d'une réflexion sur le monde ou la Nature, se trouvent néanmoins avoir leur place, et ô combien, dans la description du monde.

La complexité croissante des mathématiques

Le dernier portrait que je vais évoquer est celui d'un des grands héros de la physique théorique du XXème siècle Richard Feynman. Lors d'une conférence publique il déclara :

« Chacune de nos lois s'énonce sous forme mathématique et en des termes souvent complexes et abstraits. La loi de gravitation telle que Newton l'énonça n'utilise que des mathématiques assez simples mais au fur et à mesure que nous avançons, les énoncés deviennent de plus en plus complexes. Pourquoi ? Je n'en ai pas la moindre idée. Le drame de cette conférence c'est justement que je dois vous faire comprendre qu'on ne peut sérieusement expliquer la beauté des lois de la Nature et surtout de la faire ressentir à des gens qui n'ont aucune connaissance profonde des mathématiques. »

La période contemporaine

La période contemporaine est caractérisée par des interactions constantes entre physique et mathématiques, dans beaucoup de directions différentes dont voici, sans soucis d'exhaustivité, quelques exemples.

Les systèmes dynamiques et le chaos

L'étude des systèmes dynamiques doit beaucoup à Henri Poincaré, mathématicien français né à Nancy à la fin du XIXème siècle et qui a travaillé au début du XXème, grand mathématicien et grand physicien également. Un système dynamique est un système dont on veut suivre l'évolution temporelle régie par des équations d'évolution parfaitement définies et déterministes. Il n'y a aucun hasard dans un système dynamique, tout y est bien connu. Comme le mouvement des planètes dont les équations sont connues, des molécules d'un fluide, de l'atmosphère... La figure 2 montre l'évolution d'un système dynamique en deux dimensions pendant un petit intervalle de temps. Le point de coordonnées (x,y) est transformé par la formule en le point (x',y'). Pour avoir l'évolution temporelle du système, on applique la formule, toujours la même, un grand nombre de fois et on suit la trajectoire du point à chaque étape.



figure 2


C'est un système dynamique des plus simples mais les trajectoires sont déjà très complexes et on voit apparaître ce qu'on appelle des attracteurs étranges. La mécanique des fluides est un exemple de domaine où la complexité des comportements possibles est très grande.

Poincaré fut sans doute le premier à poser la question de la stabilité du système solaire. Le système solaire, même réduit à la Terre, à la Lune et au Soleil, est un système compliqué. Pendant longtemps on a cru que les comportements complexes, comme la turbulence d'un fluide, étaient dus à la complexité du système, à cause du très grand nombre de molécules constituantes. Mais l'étude de petits modèles apparemment simples comme celui qu'avait introduits Édouard Lorenz, un météorologue, ou Hénon un astrophysicien niçois, montra la complexité que l'on pouvait atteindre dans de très petits systèmes. En 1971 les physiciens-mathématiciens Ruelle (qui travaille toujours à Bures-sur-Yvette) et Takens démontraient que de très petits systèmes étaient presque toujours chaotiques sauf si on choisit un système très approprié. Le terme « chaos » désigne la sensibilité extrême aux conditions initiales. Cette sensibilité fait diverger les trajectoires de deux points, initialement très proches. On l'appelle souvent l'effet papillon.

Un astrophysicien de l'Université de Paris VII, Jacques Laskar, spécialiste des mouvements planétaires, a étudié les mouvements du système solaire en utilisant des méthodes nouvelles faisant appel à la puissance des moyens de calcul contemporains. Voici ses commentaires :

« Cette méthode a permis de démontrer que le mouvement des planètes et en particulier les planètes inférieures, Mercure, Vénus, la Terre et Mars avaient un temps caractéristique de l'ordre de cinq millions d'années. Cela signifie que si l'on a deux solutions initialement proches, leurs trajectoires vont s'éloigner non pas linéairement mais de façon exponentielle. Ainsi, si l'on a une incertitude de quinze mètres sur la position actuelle de la Terre, au bout de dix millions d'années nous aurons une erreur de cent cinquante mètres, en soit cette valeur est dérisoire, l'éphéméride ne pourrait prétendre avoir une telle précision. Mais si on prolonge les calculs sur cent millions d'années on aura une incertitude de cent cinquante millions de kilomètres, c'est la dimension du système solaire. Ce qui signifie que nous ne pourrons absolument plus situer au bout de cent millions d'années, la position de la Terre dans le système solaire. Nous sommes dans l'impossibilité de calculer cette position aujourd'hui, mais nous le serons également dans mille ans ou dans un million d'années. Ce n'est pas une question de limitation de nos connaissances ou de nos calculs. Quinze mètres représentent en fait la perturbation engendrée par le passage d'un astéroïde. Si nous désirons garder une telle précision à long terme il faudrait inclure dans notre modèle tous les objets engendrant des perturbations de l'ordre de quinze mètres, autant dire des centaines de milliers de corps qui peuplent le système solaire, astéroïdes, comètes, satellites gardiens et fragments de toutes sortes. Si l'on veut aller encore plus loin passer d'une précision de quinze mètres à quinze microns, au lieu d'avoir une erreur de cinquante millions de kilomètres au bout de cent millions d'années, on aura cent cinquante millions de kilomètres au bout de cent soixante millions d'années. Cela n'aura pas changé grand-chose. Et nous avons donc vraiment une limite pratique aux capacités à prévoir l'avenir des mouvements du système solaire. »

Voilà une chose que l'on ne savait pas au temps de Poincaré et que la mécanique céleste a récemment permis de comprendre.

La physique statistique

Un autre grand domaine de fertilisation, croisé entre mathématiques et physique est la physique statistique. Depuis la fin du XIXème siècle et les travaux de Maxwell, de Boltzmann, inventeurs de cette science, on sait qu'il est illusoire, voire inutile, pour décrire la matière, d'en suivre tous les degrés de liberté. Si on considère un morceau de métal, par exemple, on sintéresse à savoir s'il est conducteur ou isolant, si sa température augmente vite ou lentement lorsqu'on le chauffe, pourquoi il est noir ou rouge... On n'a pas besoin de savoir, contrairement au problème des trajectoires des planètes, quelle est la position des milliards de milliards de molécules qui le constituent. Dailleurs à supposer que l'on puisse le faire - ce qui n'est pas le cas - il serait bien difficile dy lire la réponse aux questions que nous posions.

Une méthode probabiliste

La méthode « ordinaire », celle que lon met en Suvre pour les systèmes planétaires, est donc inopérante pour la description de la matière. La méthode qui a permis, grâce à Maxwell et Boltzmann et bien d'autres à leur suite, de comprendre la matière, est une méthode a priori paradoxale : c'est une méthode statistique qui utilise des concepts probabilistes, cest-à-dire modélisent le hasard. Si lon joue à la roulette une seule fois, le fait de savoir qu'il y a trente-six résultats possibles ne fournit aucune aide pour gagner. Mais le propriétaire du casino, qui enregistre des milliers de paris, peut utiliser des outils statistiques, telle la loi des grands nombres, pour prédire avec une certitude quasi-complète non pas un résultat ponctuel, mais ce que sera l'ensemble des résultats. C'est là le miracle de la physique statistique qui utilise le gigantisme du nombre datomes, pour utiliser le hasard et néanmoins prédire de manière en pratique certaine.

L'énergie et le désordre

La mécanique statistique, c'est donc l'utilisation des probabilités pour relier la matière macroscopique à ses atomes. Il y a des cas singuliers où la matière change complètement d'état, par exemple l'eau qui devient vapeur lorsqu'on la chauffe, ou qui gèle si on la refroidit. Dans ce dernier exemple, le refroidissement ne change rien aux molécules d'eau individuelles, il ne change pas non plus l'interaction entre les molécules d'eau qui est complètement indépendante de la température. La notion de température bien que familière, est en réalité assez subtile : la température pour les physiciens, c'est le paramètre qui arbitre entre deux tendances opposées de la matière : au zéro absolu tout système se range dans létat bien ordonné dont l'énergie est la plus basse possible, mais lorsque la température augmente le désordre (ou entropie) contrarie cette tendance à la régularité et finit par lemporter. Quand de l'eau juste au-dessus de zéro degré Celsius passe juste en dessous de cette température, des milliards de molécules d'eau, complètement désordonnées dans le liquide, s'ordonnent spontanément. Elles forment un réseau cristallin, invisible mais bien réel. Ces comportements singuliers, les transitions de phase, ont longtemps posé problème et il y a eu au cours des dernières années de nombreux échanges entre mathématiques et physique à ce sujet.

Illustration : le modèle d'Ising

Pour illustrer ces phénomènes de transition, il existe un modèle décole, un prototype qui se révèle en fait très universel dans sa portée, appelé le modèle d'Ising. On le représente sous forme d'un damier de carrés pouvant être dans un état blanc ou noir. L'énergie de deux carrés voisins est grande lorsqu'ils sont de couleurs différentes et faible lorsqu'ils sont de même couleur. Diminuer l'énergie revient ainsi à uniformiser la couleur du damier ; le désordre se traduit par un mélange aléatoire des deux couleurs. Selon la température la minimisation de lénergie qui ordonne les carrés, ou lentropie qui les distribue au hasard vont dominer. À haute température le système évolue rapidement, les carrés changent fréquemment de couleur, mais les couleurs restent mélangées : c'est le désordre qui l'emporte. En revanche à basse température, le système évolue plus lentement, de grandes régions de même couleur apparaissent et si on attend assez longtemps, une couleur va dominer très largement l'autre : c'est l'énergie qui l'emporte. La transition de phase a lieu à la température où énergie et désordre s'équilibrent ( Cf. figure 3).



figure 3

Chaque carré peut être rouge ou bleu. Deux carrés voisins de même couleur « sattirent ».

Ce modèle paraît très simple, mais le résoudre a été un tour de force technique d'un grand physicien-mathématicien qui s'appelait Lars Onsager. Cela a été aussi l'ouverture vers une interaction entre physique et mathématiques qui s'appelle la théorie des systèmes intégrables et qui est très active aujourd'hui.

Autres domaines contemporains

Un dernier exemple de systèmes qui appartient à la même nature de question sont les systèmes auto-similaires, qu'on appelle aussi systèmes fractals. Ce système ( Cf. figure 4) est simple, il est auto-similaire c'est-à-dire que l'on retrouve les mêmes structures à toutes les échelles vers l'infiniment petit. Les propriétés de celui qui est ici montré (la diffusion limitée par lagrégation) ne sont pas encore comprises aujourd'hui malgré beaucoup d'années d'efforts de mathématiciens aussi bien que de physiciens. Ceci constitue un exemple de problème, lié à des phénomènes de croissance cristalline et de systèmes en évolution, que l'on se pose aujourd'hui.



figure 4

Les interactions fondamentales

Venons-en maintenant aux quatre interactions fondamentales l'électromagnétisme, les forces nucléaires faibles ou fortes et les forces gravitationnelles. Tous les phénomènes de la Nature sont régis par ces interactions, on n'a encore jamais vu de contre-exemple.

L'électromagnétisme

L'électromagnétisme illustre bien l'état de nos connaissances et les questions qui se posent à l'interaction entre physique et mathématiques. Il faudra pour cela quelques formules dont le sens n'est pas important, mais qui permettent de cerner la problématique. Concentrons-nous sur un problème particulier celui du facteur gyromagnétique de l'électron. L'électron est une petite particule constitutive des atomes, chargée négativement. Un atome est constitué d'électrons et d'un tout petit noyau au centre. On sait grâce à la mécanique quantique, depuis les années 1920, que l'électron possède une caractéristique nommée spin (une sorte de flèche interne). Ce spin donne à un électron, comme à un aimant, un moment magnétique (c'est-à-dire un pôle nord et un pôle sud), et ce moment magnétique µ est proportionnel au spin S :

µ = g (e/2m) S

Ici apparaissent la charge e et la masse m de l'électron. Si l'électron était un objet classique (en omettant relativité et mécanique quantique), le nombre g vaudrait exactement 1. Les expériences donnent g=2,0023193043737. (C'est une des mesures expérimentales les plus précises ayant jamais été faites avec douze chiffres significatifs.) Que dit la théorie pour ce facteur g ? La théorie quantique non relativiste donne g=1, erreur de 100 %. Dirac, physicien anglais des années 1920-1930, a développé une théorie relativiste de l'électron en 1928 et il a trouvé g=2, ce qui est presque exact. Mais les physiciens se demandaient si on peut faire mieux et comprendre la petite différence entre g et 2. La réponse est oui. La technique employée s'appelle la théorie quantique des champs, plus précisément lélectrodynamique quantique. Dans la théorie de Dirac, l'électron obéit à la mécanique quantique, mais le champ électromagnétique dans lequel est plongé l'électron, lui, est classique. Or il possède lui aussi des fluctuations quantiques. La théorie qui a été développée procède par approximations successives en se servant d'un nombre qu'on appelle la constante de structure fine et qui est vaut

alpha=e²/(2 pi h c)

(e est la charge de l'électron, c la vitesse de la lumière h la constante de Planck) soit environ 0,007. Partons de la valeur de Dirac g=2. La première approximation rajoute 0,007 divisé par pi. Un grand physicien, Schwinger, a été récompensé par le prix Nobel pour ce calcul. Il a partagé ce prix avec Feynman et Tomonaga pour avoir montré que ce calcul pouvait se poursuivre de manière systématique, même si les calculs sont longs et difficiles. Quand on inclut cette première correction au résultat de Dirac, on n'est plus très loin de l'expérience ; au fur et à mesure que l'on calcule les autres termes on se rapproche du résultat expérimental. L'accord entre théorie et expérience est confondant. C'est le plus grand accord jamais observé entre une théorie et une expérience.

Les chiffres 0,656 et 2,362 sont les valeurs numériques d'expressions très compliquées où intervient la fonction zeta de Riemann :



C'est pire encore pour le suivant qui a été calculé en 1996. En conclusion, cette théorie est d'une grande complexité mathématique, mais elle marche merveilleusement.

La renormalisation et ses limites

Malgré tout, de nombreuses questions se sont vite posées sur la validité du procédé d'approximations successives que jai décrit. Ce procédé part d'un résultat approché, puis on ajoute une première perturbation puis une perturbation encore plus petite. Mais finalement le résultat est satisfaisant.

Valse des paramètres

Cette méthode par approximations successives a posé des questions, difficiles et abstraites, de deux ordres. La méthode, qui a fait le succès de ce calcul, repose sur un concept qui porte le nom de « renormalisation ». Dans la théorie telle qu'ils l'avaient développée, Feynman, Schwinger et dautres ont rencontré des objets mathématiques dépourvus de toute signification : des intégrales divergentes, des objets totalement infinis ; pour régler ce problème ils ont introduit arbitrairement une toute petite longueur en-deçà de laquelle on sinterdit de pénétrer. Les quantités physiquement mesurables, comme par exemple la charge de l'électron ou sa masse, ne sont alors plus égales à celles introduites dans le modèle initial, mais sont remplacés par les paramètres que l'on mesure physiquement. On montre alors que lon peut saffranchir de lintroduction de la petite longueur initiale. C'est-à-dire qu'a priori l'électromagnétisme est capable de décrire les phénomènes astronomiques jusqu'aux plus courtes distances et on n'a pas besoin de longueur fondamentale. Ce processus magnifique, que certains continuent de regarder comme un tour de passe-passe génial, est à l'origine du prix Nobel de Feynman, Schwinger et Tomonaga.

Les approximations successives

On s'est aussi inquiété du schéma d'approximations successives, en se demandant s'il était bien défini ou en d'autres termes si lorsque l'on poursuit et que lon inclut successivement les termes suivants,, les valeurs obtenues sont toujours plus précises. Les mathématiciens diraient alors qu'un tel processus est convergent. Cette question a longtemps été discutée, mais un physicien anglais (travaillant aux Etats-Unis), Freeman Dyson, a donné des arguments qui montraient que la précision était vraisemblablement limitée et que si on continuait à calculer la série, les termes que l'on allait ajouter n'amélioreraient pas le résultat et finiraient même par le détériorer complètement. Cela n'a aucune influence pratique car quelques termes suffisent amplement, mais cela a posé une question conceptuelle. Le succès de cette méthode repose réalité sur le fait naturel que ce nombre alpha est petit. Pour des raisons, qui pour linstant nont pas reçu dexplication, on constate quil vaut 0,007297... S'il valait 0,1 ou 1 le processus employé ne marcherait pas.

La limite de l'électromagnétisme

Ce caractère a priori non contrôlé a poussé plusieurs mathématiciens à chercher une autre approche pour s'affranchir de ce processus d'approximations successives. Ils ont donc tenté de transformer cette description de l'électromagnétisme quantique en un théorème. C'est-à-dire montrer, avant même de calculer, que cette théorie était apte à décrire tous les phénomènes électromagnétiques depuis les plus grandes distances jusqu'aux plus petites, celles que l'on explore aujourd'hui avec les microscopes les plus puissants : les accélérateurs de particules (comme ceux du CERN) dont la résolution atteint quelques milliardièmes de milliardièmes de mètre (10^(-18) m).

La question posée était celle-ci : est-ce que la renormalisation est une construction ad hoc limitée ou est-elle un théorème[2] - au sens des mathématiques ? La physique a donné une réponse très paradoxale, tout à fait surprenante a priori et qui ne s'est imposée qu'après beaucoup de résistances. Jusqu'à présent les constructions que nous avons connues partaient de la physique à notre échelle pour descendre par approximations successives vers l'élémentaire. On avait ainsi la matière, puis ses molécules, les atomes, les noyaux et enfin les quarks. Mais le succès de cette électrodynamique venait de l'hypothèse que l'on pouvait descendre dans l'infiniment petit sans limite. Or quand bien même on ne sait pas distinguer expérimentalement des distances plus petites que 10^(-18) m, le milliardième de milliardième de mètre, Planck avait compris au début du XXème siècle qu'il existe une limitation à cette description : à des distances inférieures à 10^(-35) m (0,00000000000000000000000000000001 m) c'est-à-dire environ cent milliards de milliards (10^20) fois plus petite que le noyau d'un atome, il y a une longueur en dessous de laquelle la physique reste inconnue à cause de notre incapacité actuelle à réconcilier les deux percées majeures du XXème siècle : la mécanique quantique et la relativité.

Une théorie effective

Cette limitation à très courte distance a conduit à inverser le schéma de pensée et à rejeter l'idée d'aller toujours vers le plus petit. Mais alors peut-on, à partir d'une physique inconnue à très courte distance, comprendre ce qui se passe aux échelles plus grandes ? Et la réponse est venue du groupe de renormalisation, une approche qui a montré deux choses surprenantes l'une comme l'autre.

Quelle que soit la physique à courte distance - qui est inconnue, c'est la théorie de l'électromagnétisme telle que nous la connaissons qui s'applique. Elle est donc valable non pas parce qu'elle n'a pas de limitation vers l'infiniment petit comme on le croyait auparavant, mais précisément parce qu'elle est engendrée aux échelles de nos expériences qui sont grandes au regard des échelles inconnues. On dit alors que la théorie est effective.

On sait aujourd'hui qu'aux distances les plus courtes elle ne serait pas cohérente aussi petite que soit la valeur de alpha. L'électromagnétisme est donc une théorie effective, satisfaisante, mais qui porte sa propre mort. La situation est une peu différente des situations qui se sont présentées auparavant en physique. La théorie de Newton n'est pas fausse, mais elle est limitée : lorsque les vitesses se rapprochent de celle de la lumière ou lorsque les phénomènes en jeu sont des phénomènes de petites distances où il y a des effets quantiques et la théorie de Newton ne s'applique pas. Ce n'est pas pour cela qu'elle est fausse ; elle n'a pas de contradiction interne. La théorie de la relativité, qui signerait la limite fatale pour la théorie de Newton, n'est pas contenue dans cette dernière. La théorie de l'électromagnétisme ne s'applique pas au delà d'une limite connue et ce qu'il y a au-delà est inconnu.

Les forces nucléaires

Face à tout cela, au cours de la période contemporaine on a cherché à reproduire le succès de l'électromagnétisme, et cela a fonctionné pour en physique nucléaire pour les interactions nucléaires faibles et fortes. Avec l'électromagnétisme elles constituent ce qui est appelé le modèle standard, qui donne de très bons résultats mais qui comme l'électromagnétisme est une théorie effective. Il faut donc en venir à la dernière force, la gravitation.

Le cas particulier de la gravitation

À l'échelle classique, non quantique, la gravitation s'applique aux phénomènes astronomiques. Sa version moderne, la théorie de la relativité générale d'Einstein a été très importante. Elle a donné le jour à la cosmologie et à un Univers avec une histoire, car avant Einstein on pensait que l'Univers était immuable, on sait maintenant qu'il évolue.

La gravitation est une force extrêmement ténue. Nous la ressentons lorsquelle met en jeu des masses astronomiques. Cest ainsi quun électron et un proton s'attirent parce qu'ils ont des charges opposées et aussi parce qu'ils ont des masses. Le rapport de la force d'attraction due aux masses, l'attraction gravitationnelle, à la force d'attraction due aux charges est 10^(-40). La gravitation est 10^(40) fois plus petite. Elle est donc extraordinairement faible. Néanmoins nous savons que la gravitation met en jeu, aux très courtes distances, des phénomènes quantiques et leur prise en compte ne semble pas pouvoir résulter dune théorie quantique des champs, comme cest le cas pour les trois autres interactions.

La théorie des cordes

Un autre modèle s'est fait jour, appelé la théorie des cordes. Dans cette théorie l'espace est décrit non plus par des points mais par de petites cordes qui vibrent et dont toutes nos particules ne seraient que des états d'excitation. Elle est apte a priori à décrire toutes les interactions connues, mais il faut avouer quelle n'a pour l'instant permis de prédire aucun phénomène observable. Beaucoup de physiciens dans le monde y travaillent parce que cela leur semble être la seule porte ouverte face à léchec de la théorie des champs.

Imaginons que cette théorie fonctionne, quelles en seraient les conséquences ? Les calculs seraient peut-être difficiles comme ceux déjà évoqués, mais néanmoins toutes les forces de la Nature seraient connues. Est-ce qu'un jour notre description de la nature sera comme un théorème ? Est-ce que la physique sera devenue un théorème ?

Ces questions n'ont rien de scientifique aujourd'hui. Certains pensent queffectivement, cette théorie, baptisée « théorie du tout » achèvera notre description du monde comme le ferait un théorème. Il ne resterait alors que des difficultés dus à la complexité des calculs. D'autres pensent que lorsque cela sera compris il y aura encore de nouvelles questions que nous sommes tout à fait incapables de formuler aujourdhui, et que ce questionnement ne s'arrêtera jamais.

Une des questions fondamentales posée aux théoriciens des cordes porte sur le nombre alpha=0,007... Ce nombre est important parce qu'il détermine la taille des atomes, la façon d'être de notre monde. C'est un nombre absolument essentiel pour notre monde. A-t-il cette valeur pour des raisons accidentelles ? Pourrait-il en avoir d'autres ? N'existe-t-il qu'une seule solution aux équations que contemplent aujourd'hui les théoriciens ou alors des Univers de toutes natures sont-ils possibles ? Nous serions dans notre Univers tel quil est pour des raisons « accidentelles ». Sont-elles réellement accidentelles ou manquerait-il un principe ? Voilà des questions qui sont d'allure philosophique mais qui sont posées réellement aux théoriciens d'aujourd'hui et vous voyez là comment les interrogations des mathématiques et de la physique se rejoignent. Jamais l'interaction entre mathématiques et physique n'a été aussi riche et aussi stimulante qu'en ces questions que je viens d'évoquer.

[1] Complexe signifie ici que la structure fait intervenir les nombres complexes des mathématiciens pour lequel il faut introduire un nombre qui serait la racine carrée de -1 et qui généralise la notion de nombre
[2] Un théorème est une assertion toujours vraie lorsque les hypothèses le sont

 

 VIDEO     canal U       LIEN

 
 
 
initiation musicale toulon  

QU'EST-CE QU'UNE PARTICULE ?

 

 

 

 

 

 

 

QU'EST-CE QU'UNE PARTICULE ? (LES INTERACTIONS DES PARTICULES)


En principe, une particule élémentaire est un constituant de la matière (électron par exemple) ou du rayonnement (photon) qui n'est composé d'aucun autre constituant plus élémentaire. Une particule que l'on croit élémentaire peut par la suite se révéler composée, le premier exemple rencontrée ayant été l'atome, qui a fait mentir son nom dès le début du XXe siècle. Nous décrirons d'abord l'état présent des connaissances, résultat des quarante dernières années de poursuite de l'ultime dans la structure intime de la matière, de l'espace et du temps, qui ont bouleverse notre vision de l'infiniment petit. Puis, nous essaierons de conduire l'auditeur dans un paysage conceptuel d'une richesse extraordinaire qui nous a permis d'entrevoir un peuple d'êtres mathématiques - déconcertants outils permettant d'appréhender des réalités inattendues - et dans lequel de nombreuses régions restent inexplorées, où se cachent sans doute des explications sur la naissance même de notre univers.

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 27 juillet 2000.Qu'est-ce qu'une particule élémentaire?par André NeveuIntroduction De façon extrêmement pragmatique, une particule élémentaire est un constituant de la matière (ou du rayonnement) qui ne nous apparaît pas comme lui-même composé d'éléments encore plus élémentaires. Ce statut, composé ou élémentaire, est à prendre à un instant donné, et à revoir éventuellement avec l'affinement des procédés d'investigation. Mais il y a plus profond dans cet énoncé : chaque étape de l'investigation s'accompagne d'une interprétation, d'une recherche d'explication sur la manière dont ces particules interagissent pour former des entités composées à propriétés nouvelles, c'est à dire d'une construction théorique qui s'appuie sur des mathématiques de plus en plus abstraites, et qui, au cours de ce siècle, a contribué à plusieurs reprises au développement de celles-ci. Le long de cette quête d'une construction théorique cohérente, des problèmes peuvent apparaître, qui conduisent à la prédiction de particules ou d'interactions non encore découvertes, et ce va et vient entre théorie et expérience également raffinées où chacune interpelle l'autre, n'est pas le moins fascinant des aspects de cette quête de l'ultime. Aspect qui se retrouve d'ailleurs dans bien d'autres domaines de la physique. C'est là qu'est la vie de la recherche, plus que dans la construction achevée : les faits nous interpellent et à notre tour nous les interpellons. Où en sommes-nous aujourd'hui ? Une brève descente dans l'infiniment petit Comme chacun sait, la chimie et la biologie sont basées sur le jeu presque infini de molécules constituées d'atomes. Comme l'étymologie l'indique, on a cru ceux-ci élémentaires, et, effectivement, pour la chimie et la biologie, on parle toujours à juste titre d'éléments chimiques, oxygène, hydrogène, carbone, etc. L'ordre de grandeur de la dimension d'un atome est le dix milliardième de mètre. Depuis le début du siècle, on sait que chaque atome est formé d'électrons autour d'un noyau, cent mille fois plus petit que l'atome. Le noyau est lui-même constitué de protons et de neutrons liés entre eux par des forces de liaison nucléaires mille à dix mille fois plus grandes que les forces électrostatiques qui lient les électrons au noyau. Alors que les électrons restent à ce jour élémentaires, on a découvert il y a quarante ans environ que les protons et les neutrons eux-mêmes sont composés de quarks liés entre eux par des forces encore plus grandes, et nommées interactions fortes à ce titre (en fait, elles sont tellement fortes qu'il est impossible d'observer un quark isolé). Au cours de cette quête des cinquante dernières années, à l'aide principalement des grands accélérateurs comme ceux du CERN, on a découvert d'autres particules, neutrinos par exemples et des espèces d'électrons lourds (muon et lepton τ), et diverses espèces de quarks, la plupart de durée de vie extrêmement courte, leur laissant, même à la vitesse de la lumière, à peine le temps de faire une trace de quelques millimètres dans les appareils de détection, et aussi les antiparticules correspondantes. quarksuctgluonsdsb interactions fortesleptonsneutrinosυeυμυτW+ γ Z0 W-chargéseμτ interactions électrofaiblesgravitontrois « générations » de matièrevecteurs de forces Figure 1 Les particules élémentaires actuellement connues. À gauche les trois générations de fermions (quarks et leptons). Chaque quark existe en trois « couleurs », « vert », « rouge » et « bleu ». Chaque lepton chargé (électron e , muon μ et tau τ ) est accompagné d'un neutrino. À droite les vecteurs de forces : gluons, photon γ , bosons W et Z , graviton. La figure 1 présente l'ensemble des particules actuellement connues et considérées comme élémentaires, quarks et leptons, et des vecteurs de forces (voir plus bas) entre eux. Alors que les leptons s'observent isolément, les quarks n'apparaissent qu'en combinaisons « non colorées » : par exemple, le proton est formé de trois quarks (deux u et un d), un de chaque « couleur », (laquelle n'a rien à voir avec la couleur au sens usuel) « vert », « bleu », « rouge », pour que l'ensemble soit « non coloré ». D'autres particules, pions π et kaons K par exemple, sont constituées d'un quark et d'un antiquark, etc., tout cela de façon assez analogue à la formation de molécules en chimie à partir d'atomes. Pour avoir une idée de toute la richesse de combinaisons possibles et en même temps de la complexité et du gigantisme des appareils utilisés pour les détecter, je vous invite vivement à visiter le site du CERN, http ://www.cern.ch. Figure 2 Un événement observé aux anneaux de collision électrons-positrons du LEP. La figure 2 est un piètre exemple en noir et blanc de ce qu'on peut trouver en splendides couleurs sur ce site, une donnée expérimentale presque brute sortie du grand détecteur Aleph au collisionneur électrons-positrons LEP : les faisceaux d'électrons et positrons arrivent perpendiculairement à la figure, de l'avant et de l'arrière, au point d'interaction IP, où ils ont formé un boson Z de durée de vie extrêmement courte, qui s'est désintégré en une paire quark-antiquark, rapidement suivis de la création d'autres paires qui se sont réarrangées pour donner les traces visibles issues de IP et d'autres invisibles, car électriquement neutres, mais éventuellement détectables au moment de leur désintégration en particules chargées (pion, kaons et électrons en l'occurrence). En mesurant les longueurs des traces et les énergies des produits de désintégration et leur nature, on parvient à remonter aux propriétés des quarks produits au point IP et des mésons qu'ils ont formés. Cette figure, par son existence même, est un exemple de va et vient théorie-expérience : il faut avoir une idée très précise du genre d'événement que l'on cherche, et d'une interprétation possible, car il s'agit vraiment de chercher une aiguille dans une meule de foin : il y a un très grand nombre d'événements sans intérêt, que les ordinateurs qui pilotent l'expérience doivent rejeter avec fiabilité. Il est intéressant de noter que plusieurs membres de la figure 1 ont été prédits par cohérence de la théorie (voir plus bas), les quarks c, b, t, et le neutrino du τ, détecté pour la première fois il y a quinze jours, et, dans une certaine mesure, les bosons W et Z. Comme l'appellation des trois « couleurs », les noms de beaucoup de ces particules relèvent de la facétie d'étudiants ! Après la liste des particules, il nous faut parler de leurs interactions, car si elles n'interagissent pas entre elles, et finalement avec un détecteur, nous ne les connaîtrions pas ! En même temps que leurs interactions, c'est à dire leur comportement, nous aimerions comprendre comment on en a prédit certaines par cohérence de la théorie, mais aussi la raison de leur nombre, des caractéristiques de chacune, bref le pourquoi de tout (une ambition qui est fortement tempérée par l'indispensable humilité devant les faits) ! Dans le prochain paragraphe, nous tenterons cette explication. Comprendre Symétries et dynamique : la théorie quantique des champs Ici, les choses deviennent plus difficiles. Vous savez que les électrons tournent autour du noyau parce qu'ils sont négatifs et le noyau positif, et qu'il y a une attraction électrostatique entre les deux. Cette notion de force (d'attraction en l'occurrence) à distance n'est pas un concept compatible avec la relativité restreinte : une force instantanée, par exemple d'attraction électrostatique entre une charge positive et une charge négative, instantanée pour un observateur donné, ne le serait pas pour un autre en mouvement par rapport au premier. Pour les forces électrostatiques ou magnétiques par exemple, il faut remplacer la notion de force par celle d'échange de photons suivant le diagramme de la figure 3a. Ce diagramme décrit l'interaction entre deux électrons par l'intermédiaire d'un photon. Il peut aussi bien décrire les forces électrostatiques entre deux électrons d'un atome que l'émission d'un photon par un électron de la figure que vous êtes en train de regarder suivi de son absorption par un électron d'une molécule de rhodopsine dans votre rétine, qu'il amène ainsi dans un état excité, excitation ensuite transmise au cerveau. On remplace ainsi la force électromagnétique à distance par une émission et absorption de photons, chacune ponctuelle. Entre ces émissions et absorptions, photons et électrons se déplacent en ligne droite (le caractère ondulé de la ligne de photon n'est là que pour la distinguer des lignes d'électrons. On dit que le photon est le vecteur de la force électromagnétique. Les autres vecteurs de force sur la figure 3 sont les gluons g, vecteurs des interactions fortes entre les quarks, les bosons W et Z, vecteurs des interactions « faibles » responsables de la radioactivité β, et le graviton, responsable de la plus ancienne des forces connues, celle qui nous retient sur la Terre. Remarquons que l'on peut faire subir à la figure 3a une rotation de 90 degrés. Elle représente alors la formation d'un photon par une paire électron-antiélectron (ou positron), suivie par la désintégration de ce photon en une autre paire. Si on remplace le photon par un boson Z, et que celui-ci se désintègre en quark-antiquark plutôt qu'électron-positron, on obtient exactement le processus fondamental qui a engendré l'événement de la figure 2. Figure 3 Diagrammes de Feynman 3a : diffusion de deux électrons par échange d'un photon. 3b : création d'une paire électron-positron. 3c : une correction au processus 3a. La figure 3b décrit un autre processus, où le photon se désintègre en une paire électron-positron. En redéfinissant les lignes, une figure identique décrit la désintégration β du neutron par la transformation d'un quark d en quark u avec émission d'un boson W qui se désintègre en une paire électron-antineutrino. Si les « diagrammes de Feynman » de la figure 3 (du nom de leur inventeur) sont très évocateurs de ce qui se passe dans la réalité (la figure 2), il est extrêmement important de souligner qu'ils ne sont pas qu'une description heuristique des processus élémentaires d'interactions entre particules. Ils fournissent aussi des règles pour calculer ces processus avec une précision en principe presque arbitraire si on inclut un nombre suffisant de diagrammes (par exemple, le diagramme de la figure 3c est une correction à celui de la figure 3a, dans laquelle il y a une étape intermédiaire avec une paire électron-positron, qui modifie légèrement les propriétés de l'absorption, par la ligne de droite, du photon qui avait été émis par la ligne de gauche). Ces règles sont celles de la théorie quantique des champs, un cadre conceptuel et opérationnel combinant la mécanique quantique et la relativité restreinte qu'il a fallu environ 40 ans pour construire, une des difficultés principales ayant été de donner un sens aux diagrammes du genre de la figure 3c. En même temps que la dynamique des particules, cette théorie donne des contraintes sur celles qui peuvent exister, ou plutôt des prédictions d'existence sur d'autres non encore découvertes, étant données celles qu'on connaît déjà. Ce fut le cas des quarks c, b et t, et du neutrino du τ. Elle implique aussi l'existence des antiparticules pour les quarks et leptons (les vecteurs de force sont leurs propres antiparticules). Un des guides dans cette construction a été la cohérence, mais aussi l'unification par des symétries, de plus en plus grandes au fur et à mesure de la découverte de particules avec des propriétés nouvelles, et on a trouvé que cohérence et unification allaient ensemble. Avoir un principe de symétrie est puissant, car il limite et parfois détermine entièrement les choix des particules et leurs interactions, mais aussi, une fois qu'on en connaît certaines, d'autres sont déterminées. Cela permet ainsi d'appréhender avec efficacité toute cette faune. Par exemple, la symétrie entre électron et neutrino, ou entre les quarks u et d conduit à la prédiction des bosons W, mais alors on s'aperçoit immédiatement qu'en même temps il faut introduire le Z ou le photon ou les deux, et en même temps aussi leurs interactions sont déterminées. De même, le gluon et la force forte sont la conséquence d'une symétrie entre les trois « couleurs » de quarks. Ces symétries sont des rotations dans un espace interne, notion que nous allons à présent essayer d'expliciter avec une image simple en utilisant un Rubik’s cube. Un Rubik’s cube peut subir des rotations d'ensemble, que nous pouvons appeler transformations externes, et des transformations internes qui changent la configuration des couleurs de ses 9×6=54 facettes. Il faut imaginer qu'un électron ou un quark sont comme une configuration du cube, et que les symétries de la théorie sont les transformations internes qui font passer d'une configuration du cube à une autre. En fait, comme en chaque point de l'espace-temps il peut y avoir n'importe quelle particule, il faut imaginer qu'en chaque point de l'espace-temps il y a l'analogue d'un tel Rubik cube, espace « interne » des configurations de particules. Bien plus, on peut exiger que la théorie soit symétrique par rapport à l'application de transformations du cube différentes, indépendantes les unes des autres, en chaque point. On constate alors qu'on doit naturellement introduire des objets qui absorbent en quelque sorte le changement de la description de l'espace interne quand on passe d'un point à son voisin. Ces objets sont précisément les vecteurs des forces. De plus, les détails de la propagation, de l'émission et de l'absorption de ces particules vecteurs de forces sont prédits de façon à peu près unique. Il est facile d'imaginer que tout ceci fait intervenir une structure mathématique à la fois très complexe et très riche, malheureusement impossible à décrire dans le cadre de cette conférence. Un dernier ingrédient de la construction est la notion de brisure spontanée de symétrie. Car certaines des symétries dont il vient d'être question sont exactes (par exemple celle entre les « couleurs » des quarks), d'autres ne sont qu'approchées : par exemple, un électron et son neutrino n'ont pas la même masse. Dans le phénomène de brisure spontanée de symétrie, on part d'une théorie et d'équations symétriques, mais leurs solutions stables ne sont pas nécessairement symétriques chacune séparément, la symétrie faisant seulement passer d'une solution à une autre. Ainsi dans l'analogue classique d'une bille au fond d'une bouteille de Bordeaux : le problème de l'état d'équilibre de la bille au fond est symétrique par rotation, mais la position effectivement choisie par la bille ne l'est pas. Il y a une infinité de positions d'équilibre possibles, la symétrie par rotation du problème faisant seulement passer de l'une à une autre. La brisure de symétrie permet de comprendre le fait que les leptons chargés par exemple n'aient pas la même masse que leurs neutrinos associés, ou que le photon soit de masse nulle, alors que le W et le Z sont très lourds. L'ensemble de la construction trop brièvement décrite dans ce chapitre a valu le prix Nobel 1999 à Gerhardt 't Hooft et Martinus Veltman, qui en avaient été les principaux artisans dans les années 1970. À l'issue de tout ce travail, on a obtenu ce que l'on appelle le Modèle Standard. C'est l'aboutissement actuel d'unifications successives des forces, commencées par Maxwell au siècle dernier entre électricité et magnétisme (électromagnétisme) qui à présent incluent les interactions faibles : on parle des forces électrofaibles pour englober le photon et les bosons W et Z[1] . Le Modèle Standard prédit l'existence d'une particule, la seule non encore observée dans le modèle, le boson de Higgs, et comment celui-ci donne leur masse à toutes les particules par le mécanisme de brisure de symétrie. Ce dernier acteur manquant encore à l'appel fait l'objet d'une recherche intense, à laquelle le prochain accélérateur du CERN, le LHC, est dédiée. S'il décrit qualitativement et quantitativement pratiquement toutes les particules observées et leurs interactions (le « comment »), le Modèle Standard laisse sans réponse beaucoup de questions « pourquoi ». Par exemple pourquoi y a-t-il trois générations (les colonnes verticales dans la figure 1) ? Pourquoi la force électrofaible comprend-elle quatre vecteurs de force (il pourrait y en avoir plus) ? Par ailleurs toutes les masses et constantes de couplage des particules sont des paramètres libres du modèle. Il y en a une vingtaine en tout, ce qui est beaucoup : on aimerait avoir des principes qui relient ces données actuellement disconnectées. Peut-on unifier plus : y a-t-il une symétrie reliant les quarks aux leptons ? De plus, des considérations plus élaborées permettent d'affirmer que dans des domaines d'énergie non encore atteints par les accélérateurs, le modèle devient inopérant : il est incomplet, même pour la description des phénomènes pour lesquels il a été construit. Plus profondément, il laisse de côté la gravitation. La satisfaction béate ne règne donc pas encore, et nous allons dans le chapitre suivant présenter les spéculations actuelles permettant peut-être d'aller au delà. Au delà du Modèle Standard Grande unification, supersymétrie et supercordes La gravitation universelle introduite par Newton a été transformée par Einstein en la relativité générale, une théorie d'une grande beauté formelle et remarquablement prédictive pour l'ensemble des phénomènes cosmologiques. Mais il est connu depuis la naissance de la mécanique quantique que la relativité générale est incompatible avec celle-ci : quand on tente de la couler dans le moule de la théorie quantique des champs, en faisant du graviton le vecteur de la force de gravitation universelle, on s'aperçoit que les diagrammes de Feynman du type de la figure 3c où on remplace les photons par des gravitons sont irrémédiablement infinis : ceci est dû au fait que lorsqu'on somme sur toutes les énergies des états intermédiaires électron-positron possibles, les états d'énergie très grande finissent par donner une contribution arbitrairement grande, entraînant l'impossibilité de donner un sens à la gravitation quantique. La relativité générale doit être considérée comme une théorie effective seulement utilisable à basse énergie. Trouver une théorie cohérente qui reproduise la relativité générale à basse énergie s'est révélé un problème particulièrement coriace, et un premier ensemble de solutions possibles (ce qui ne veut pas dire que la réalité est parmi elles !) est apparu de manière totalement inattendue vers le milieu des années 1970 avec les théories de cordes. Dans cette construction, on généralise la notion de particule ponctuelle, élémentaire, qui nous avait guidés jusqu'à présent à celle d'un objet étendu, une corde très fine, ou plutôt un caoutchouc, qui se propage dans l'espace en vibrant. Un tel objet avait été introduit vers la fin des années soixante pour décrire certaines propriétés des collisions de protons et autres particules à interactions fortes. Il se trouve qu'il y a là un très joli problème de mécanique classique qu'Einstein lui-même aurait pu résoudre dès 1905, s'il s'était douté qu'il était soluble ! De même qu'une particule élémentaire ponctuelle, en se propageant en ligne droite à vitesse constante minimise la longueur de la courbe d'espace-temps qui est sa trajectoire, la description de la propagation et des modes de vibration d'une de ces cordes revient à minimiser la surface d'espace-temps qu'elle décrit (l'analogue d'une bulle de savon, qui est une surface minimale !), ce qui peut être effectué exactement. Le nom de corde leur a été donné par suite de l'exacte correspondance des modes de vibration de ces objets avec ceux d'une corde de piano. Quand on quantifie ces vibrations à la façon dont on quantifie tout autre système mécanique classique, chaque mode de vibration donne tout un ensemble de particules, et on sait calculer exactement les masses de ces particules. C'est là que les surprises commencent ! On découvre tout d'abord que la quantification n'est possible que si la dimension de l'espace-temps est non point quatre, mais 26 ou 10 ! Ceci n'est pas nécessairement un défaut rédhibitoire : les directions (encore inobservées ?) supplémentaires peuvent être de très petite dimension, et être donc encore passées inaperçues. On découvre simultanément que les particules les plus légères sont de masse nulle et que parmi elles il y a toujours un candidat ayant exactement les mêmes propriétés que le graviton à basse énergie. De plus, quand on donne la possibilité aux cordes de se couper ou, pour deux, de réarranger leur brins au cours d'une collision, on obtient une théorie dans laquelle on peut calculer des diagrammes de Feynman tout à fait analogue à ceux de la figure 3, où les lignes décrivent la propagation de cordes libres. Cette théorie présente la propriété d'être convergente, ce qui donne donc le premier exemple, et le seul connu jusqu'à présent, d'une théorie cohérente incluant la gravitation. Les modes d'excitation de la corde donnent un spectre de particules d'une grande richesse. La plupart sont très massives, et dans cette perspective d'unification avec la gravitation, inobservables pour toujours : si on voulait les produire dans un accélérateur construit avec les technologies actuelles, celui-ci devrait avoir la taille de la galaxie ! Seules celles de masse nulle, et leurs couplages entre elles, sont observables, et devraient inclure celles du tableau de la figure 1. Remarquons ici un étrange renversement par rapport au paradigme de l'introduction sur l'« élémentarité » des particules « élémentaires » : elles deviennent infiniment composées en quelque sorte, par tous les points de la corde, qui devient l'objet « élémentaire » ! Au cours de l'investigation de cette dynamique de la corde au début des années 1970, on a été amené à introduire une notion toute nouvelle, celle de supersymétrie, une symétrie qui relie les particules du genre quarks et leptons (fermions) de la figure 1 aux vecteurs de force. En effet, la corde la plus simple ne contient pas de fermion dans son spectre. Les fermions ont été obtenus en rajoutant des degrés de liberté supplémentaires, analogues à une infinité de petits moments magnétiques (spins) le long de la corde. La compatibilité avec la relativité restreinte a alors imposé l'introduction d'une symétrie entre les modes d'oscillation de ces spins et ceux de la position de la corde. Cette symétrie est d'un genre tout à fait nouveau : alors qu'une symétrie par rotation par exemple est caractérisée par les angles de la rotation, qui sont des nombres réels ordinaires, cette nouvelle symétrie fait intervenir des nombres aux propriétés de multiplication très différentes : deux de ces nombres, a et b disons, donnent un certain résultat dans la multiplication a×b, et le résultat opposé dans la multiplication b×a : a×b= b×a. On dit que de tels nombres sont anticommutants. À cause de cette propriété nouvelle, et de son effet inattendu d'unifier particules et forces, on a appelé cette symétrie supersymétrie, et supercordes les théories de cordes ayant cette (super)symétrie. A posteriori, l'introduction de tels nombres quand on parle de fermions est naturelle : les fermions (l'électron en est un), satisfont au principe d'exclusion de Pauli, qui est que la probabilité est nulle d'en trouver deux dans le même état. Or la probabilité d'événements composés indépendants est le produit des probabilités de chaque événement : tirer un double un par exemple avec deux dés a la probabilité 1/36, qui est le carré de 1/6. Si les probabilités (plus précisément les amplitudes de probabilité) pour les fermions sont des nombres anticommutants, alors, immédiatement, leurs carrés sont nuls, et le principe de Pauli est trivialement satisfait ! Les extraordinaires propriétés des théories des champs supersymétriques et des supercordes ont été une motivation puissante pour les mathématiciens d'étudier de façon exhaustive les structures faisant intervenir de tels nombres anticommutants. Un exemple où on voit des mathématiques pures sortir en quelque sorte du réel. De nombreux problèmes subsistent. En voici quelques uns : - L'extension et la forme des six dimensions excédentaires : quel degré d'arbitraire y a-t-il dedans (pour l'instant, il semble trop grand) ? Un principe dynamique à découvrir permet-il de répondre à cette question ? Ces dimensions excédentaires ont-elles des conséquences observables avec les techniques expérimentales actuelles ? - La limite de basse énergie des cordes ne contient que des particules de masse strictement nulle et personne ne sait comment incorporer les masses des particules de la figure 1 (ou la brisure de symétrie qui les engendre) sans détruire la plupart des agréables propriétés de cohérence interne de la théorie. Une des caractéristiques des supercordes est d'englober toutes les particules de masse nulle dans un seul et même multiplet de supersymétrie, toutes étant reliées entre elles par (super)symétrie. En particulier donc, quarks et leptons, ce qui signifie qu'il doit exister un vecteur de force faisant passer d'un quark à un lepton, et donc que le proton doit pouvoir se désintégrer en leptons (positron et neutrinos par exemple) comme la symétrie de la force électrofaible implique l'existence du boson W et la désintégration du neutron. Or, le proton est excessivement stable : on ne connaît expérimentalement qu'une limite inférieure, très élevée, pour sa durée de vie. La brisure de cette symétrie quark-lepton doit donc être très grande, bien supérieure à celle de la symétrie électrofaible. L'origine d'une telle hiérarchie de brisures des symétries, si elle existe, est totalement inconnue. - Doit-on s'attendre à ce qu'il faille d'abord placer les cordes dans un cadre plus vaste qui permettrait à la fois de mieux les comprendre et de répondre à certaines de ces questions ? Nul ne sait. En attendant, toutes les questions passionnantes et probablement solubles dans le cadre actuel n'ont pas encore été résolues. Entre autres, les cordes contiennent une réponse à la question de la nature de la singularité présente au centre d'un trou noir, objet dont personne ne doute vraiment de l'existence, en particulier au centre de nombreuses galaxies. Également quelle a été la nature de la singularité initiale au moment du Big Bang, là où la densité d'énergie était tellement grande qu'elle engendrait des fluctuations quantiques de l'espace, et donc où celui-ci, et le temps, n'avaient pas l'interprétation que nous leur donnons usuellement d'une simple arène (éventuellement dynamique) dans laquelle les autres phénomènes prennent place. Toutes ces questions contiennent des enjeux conceptuels suffisamment profonds sur notre compréhension ultime de la matière, de l'espace et du temps pour justifier l'intérêt des talents qui s'investissent dedans. Mais ces physiciens sont handicapés par l'absence de données expérimentales qui guideraient la recherche. Le mécanisme de va et vient expérience-théorie mentionné dans l'introduction ne fonctionne plus : le Modèle Standard rend trop bien compte des phénomènes observés et observables pour que l'on puisse espérer raisonnablement que l'expérience nous guide efficacement dans le proche avenir. Mais à part des surprises dans le domaine (comme par exemple la découverte expérimentale de la supersymétrie), peut-être des percées viendront de façon complètement imprévue d'autres domaines de la physique, ou des mathématiques. Ce ne serait pas la première fois. Quelle que soit la direction d'où viennent ces progrès, il y a fort à parier que notre vision de la particule élémentaire en sera une fois de plus bouleversée.
[1] Voir la 212e conférence de l’Université de tous les savoirs donnée par D. Treille.

 

 VIDEO     canal U       LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google