ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LA GRAVITATION

 

 

 

 

 

 

 

 

Texte de la 578 e conférence de l'Université de tous les savoirs prononcée le 21 juin2005

Par Nathalie Deruelle: « La gravitation »


la transcription de cette conférence a été réalisée par Pierre Nieradka

 

VIDEO     canal U       LIEN

1. Le terme « gravitation » a une origine relativement récente puisqu'il date du XVIIIème siècle : il a été inventé pour désigner une théorie, un cadre de pensée même, tout à fait nouveaux, qui jetaient pour la première fois un pont entre les phénomènes terrestres et célestes. Ce pont fut la physique de Newton, qui tint pendant 250 ans. Mais en 1916, ce « Pont-Neuf » s'avéra trop étroit pour canaliser les découvertes de la physique moderne ; il fut remplacé par un «Golden Gate Bridge » : la relativité générale d'Einstein.

I / Contexte historique :

2. La science grecque faisait une distinction très nette entre Ciel et Terre. Le monde des astres était la réalisation de la géométrie d'Euclide ; leurs mouvements, sans cause, étaient décrits en termes purement mathématiques. En revanche, c'étaient en termes quasi-animistes que l'on décrivait notre monde sublunaire. Par exemple, le mot « gravitas » a d'abord décrit une personne « pondérée » avant de désigner la cause de la chute des corps. Cette dichotomie dura presque 2000 ans.

3. Au XVI-XVIIème siècles, deux révolutions résolurent cette dichotomie. La première fut celle de Nicolas Copernic qui eut l'idée, non évidente, de bâtir une nouvelle astronomie en plaçant le Soleil, et non la Terre, au centre du système solaire. Ce changement de point de vue permit d'abord une description plus économique et plus précise du mouvement des astres, comme le montra brillamment Kepler. Mais il permit aussi de considérer les autres étoiles comme le centre d'autres mondes. Ainsi la physique « sublunaire » se mit à étendre considérablement son champ d'application.

4. La deuxième grande révolution fut celle de Galilée, grand astronome, mais aussi et surtout le premier physicien moderne pour avoir dit que « Le livre de la Nature est écrit en termes mathématiques ». Cela signifiait que les mathématiques, et en particulier la reformulation de la géométrie d'Euclide (et de son théorème de Pythagore) par Descartes devaient s'appliquer à la fois au monde céleste et au monde terrestre. Grâce à ces deux révolutions un pont entre Ciel et Terre se dessinait.

5. C‘est Newton qui bâtit réellement ce pont, en 1666, à l'âge de 24 ans, dans la maison de ses parents où il fuyait la peste qui sévissait à Cambridge. Il eut en effet l'idée géniale de considérer que la gravité (la cause de la chute des corps terrestres) devait AUSSI régir le mouvement des astres. Pour marquer ce gigantesque saut conceptuel un nouveau mot fut créé pour désigner cette cause commune, ce « champ de force » qui envahit l'espace de la Terre jusqu'à la Lune : le terme gravitation. Il fallut ensuite formuler cette idée en langage

mathématique, ce qui prit 20 ans de travail à Newton, travail que l'on résume aujourd'hui en deux équations :

La première équation dit que l'accélération d'un corps est proportionnelle à la force qui lui est appliquée. Ainsi si les forces extérieures sont nulles, si donc le mouvement est « libre », le corps a une accélération nulle, une vitesse constante : il est en « translation rectiligne uniforme ». C'est la loi d'inertie des corps libres, le « mouvement inertiel » trouvés par Galilée. Une pomme qui tombe d'un arbre en revanche n'a pas une vitesse constante, comme le montra Galilée ; pas plus que la Lune qui ne va pas en ligne droite puisqu'elle tourne autour de la Terre le long d'un cercle un peu déformé, l'ellipse de Kepler. La pomme et la Lune sont donc soumises à une force, la même avait compris Newton : la force de gravitation exercée par la Terre.

La deuxième équation est l'expression mathématique donnée par Newton à cette force de gravitation : elle est proportionnelle à chacune des deux masses et inversement proportionnelle au carré de la distance (Terre/Lune ou Terre/pomme). Les petites flèches qui surmontent certaines lettres désignent des objets mathématiques, des « vecteurs » qui représentent la direction de la force dans l'espace. Cette direction n'est pas repérée par rapport aux murs de la salle par exemple, mais par rapport à l'ensemble des étoiles lointaines, quasiment fixes, qui définissent un repère, appelé le « repère absolu de Newton ».

6. Ce pont, construit par Newton, ouvrit une ère nouvelle à la physique qui connut deux siècles d'or.

Deux siècles, marqués d'abord par une formulation mathématique de plus en plus performante des équations de Newton, en particulier par Laplace.

Deux siècles marqués aussi par de spectaculaires découvertes. Ainsi l'astronome britannique Herschel découvrit à la fin du XVIIIème siècle que la trajectoire de la planète Uranus était anormale dans le sens où elle ne respectait pas rigoureusement les deux lois de Newton. Adams, en Grande-Bretagne, et Le Verrier, en France, parièrent pour les équations de Newton et émirent l'hypothèse que la trajectoire d'Uranus devait être perturbée par une autre planète, baptisée Neptune. Ils calculèrent la trajectoire de cette planète postulée et deux mois plus tard, elle fut découverte, par l'astronome allemand Gall, à l'endroit prédit ! Cette magnifique confirmation de la théorie de Newton valut à Le Verrier une réception triomphale à l'Académie des sciences, Arago s'exclamant : « Monsieur le Verrier a découvert un astre nouveau au bout de sa plume ».

Enfin, d'autres forces que l'on découvrait peu à peu, notamment la force électrique de Coulomb, pouvaient être décrites par les mêmes équations, en remplaçant les masses des corps par leurs charges.

7. Le tableau avait cependant quelques ombres qui pendant longtemps furent considérées comme de simples curiosités ou alors tout simplement ignorées.

Par exemple, le coefficient de proportionnalité m de la première loi est une masse dite inerte qui mesure la résistance d'un corps au mouvement. Tandis que dans la deuxième loi, le

coefficient m est une masse dite grave qui mesure l'ampleur de la réponse à l'attraction gravitationnelle du corps M. Il n'y a à priori aucune raison que ces deux masses m soient égales mais il se trouve que c'est le cas. Ceci a pour conséquence que le mouvement d'un corps en chute « libre » (c'est à dire soumis seulement à un champ de gravitation) ne dépend pas de sa masse, puisque, en égalant les deux équations, m se simplifie. Newton, étonné de cette égalité, voulut la vérifier avec précision expérimentalement et obtint une précision du millième. La relativité générale se base sur cette égalité comme nous le verrons, d'où l'importance de la vérifier expérimentalement : la précision actuelle est de 10-12 !

Une autre énigme était la trajectoire de Mercure autour du soleil. En effet, malgré les efforts des astronomes, Le Verrier en particulier, pour la faire « rentrer dans le rang » l'ellipse de sa trajectoire tournait autour du soleil un peu plus que ce que la théorie newtonienne prévoyait.

Une autre question enfin concernait le repère « absolu » des étoiles fixes par rapport auquel s'orientent les directions des forces. On remarqua d'abord qu'on pouvait en fait utiliser tout une série d'autres repères pour décrire les mouvements : les repères dits libres, inertiels, ou galiléens, en translation uniforme quelconque par rapport au repère absolu, dans lesquels les deux lois de Newton restent les mêmes. L'utilité du repère absolu était donc limitée. Par ailleurs, les étoiles fixes, censées incarner ce repère absolu, ne peuvent en fait rester fixes car aussi loin soient elles les unes des autres, la force de gravitation les attire.

Ces différentes questions pouvaient laisser penser que le pont de Newton, était peut-être bâti sur du sable.

8. Le premier coup de butoir à l'édifice newtonien vint d'un côté inattendu de la physique, à savoir des propriétés électriques et magnétiques de la matière, plus spécifiquement des propriétés de la lumière, qui est l'agent de transmission de l'interaction électromagnétique entre les corps chargés, propriétés magistralement résumées par Maxwell.

Toutes les expériences montraient en effet que la vitesse de la lumière, c, était la même dans tous les repères libres. Ceci venait évidemment en contradiction avec la loi de composition des mouvements galiléenne qui implique que si je marche à 3km/h dans un TGV qui lui- même traverse une gare à 300km/h, je me déplace à 303 km/h par rapport au quai. Et bien cela n'est plus vrai si je suis un rayon de lumière : je vais à 300 000 km /sec par rapport au TGV ET au quai ! Lorentz et Poincaré essayèrent de réconcilier cette invariance de la vitesse de la lumière et la loi de composition des vitesses. Techniquement, ils réussirent.

9. Prenons par exemple, l'équation de Maxwell

A est une fonction du temps et de l'espace qui repère la position d'un photon (ou rayon de lumière) à un instant donné. Le Carré (ou D'Alembertien) est un opérateur qui agit sur la fonction A et la transforme selon des opérations bien définies. Cette équation est vraie dans un repère R donné, assimilé au repère absolu de Newton. Lorentz et Poincaré remarquèrent qu'on pouvait l'écrire de la même façon dans un autre repère R' allant à la vitesse V par rapport au premier, mais qu'il fallait pour cela introduire de nouvelles variables, auxiliaires, « fictives », x' et t', liées à la position du photon x dans R et au temps t, non pas par les relations prédites par la physique newtonienne, à savoir x'=x-Vt et t'=t, mais par des transformations mathématiques plus compliquées, dites de Lorentz. Et il se trouve que ces transformations sont telles que si la vitesse d'un objet, v=x/t, vaut c, la vitesse de la lumière, dans R, alors sa vitesse « fictive » v' =x'/t' est aussi c dans R'. Ils étaient donc tout près du but.

Il restait cependant un pas à franchir : donner une réalité à cette vitesse « fictive » v'.

C'est Einstein qui en 1905 franchit ce pas et donna son véritable sens aux transformations de Lorentz-Poincaré, par une illumination géniale, qui fut de dire que la variable « auxiliaire, fictive » t' n'était autre que le temps, le temps « pur et simple » mesuré par une horloge liée à R'. Ce fut une véritable révolution car c'était postuler, contrairement à Newton, que le temps ne s'écoule pas de la même façon pour tout le monde. « Le temps est affaire de perspective », dépend du repère, de l' « angle » sous lequel on le mesure (comme le dit joliment Jean-Marc Levy-Leblond), et se retrouve donc sur le même pied que la largeur, la hauteur et la profondeur. Bientôt, avec le mathématicien Minkowski, on parla non plus d'espace à trois dimensions mais d'espace-temps à quatre dimensions.

Les lois de Newton étaient formulées comme nous l'avons vu, en termes de vecteurs définis dans un espace à 3 dimensions où s'appliquait le théorème de Pythagore. Puisque le temps était devenu une dimension il fallut, avec le mathématicien Minkowski, reformuler les lois de la mécanique et de l'électromagnétisme en termes de « quadrivecteurs » dans un espace-temps à quatre dimensions où la « distance d'espace-temps » entre deux événements (deux flashs lumineux par exemple) est donnée par un théorème de Pythagore généralisé.

10. En 1905, la gravitation restait cependant décrite par les lois de Newton, alors qu'Einstein venait de montrer que le cadre mathématique dans lequel s'exprimaient ces lois était trop restreint pour rendre compte des phénomènes électromagnétiques. Le pont reliant Ciel et Terre était donc rompu. Einstein considéra cette reconstruction comme prioritaire devant la physique quantique et y consacra dix ans de travail acharné entre 1905 et 1915.

Il trouva la solution grâce à une autre illumination. Supposez que vous tombiez d'un toit en même temps que votre pomme. Comme tous les corps tombent de la même façon la pomme doit rester immobile par rapport à vous, exactement comme si vous étiez dans un astronef, loin de tout champ de gravitation. Vous pouvez donc considérer votre mouvement et celui de la pomme comme libres, et les décrire comme si votre chute avait effacé la gravitation. Vous ne pouvez cependant pas dire que votre mouvement « est comme rien » trop longtemps. Car au bout d'un certain temps vous allez vous apercevoir que la pomme se rapproche lentement de vous. En effet deux objets qui chutent se rapprochent car ils sont attirés par le centre de la Terre. Comment réconcilier cela avec l'idée que ces objets sont censés avoir des mouvements libres l'un par rapport et donc des trajectoires parallèles ?

Pour réconcilier l'idée de mouvement libre avec le fait que les trajectoires convergent, Einstein supposa que les mouvements s'effectuent, non pas dans l'espace euclidien de Newton mais dans un espace courbe où les parallèles peuvent se couper. Pour la mathématisation de ces idées, Einstein fit appel à son ami Marcel Grossman qui lui expliqua les travaux de Riemann, alors récents, sur la géométrie des espaces courbes.

11. Dans un espace-temps courbe le théorème de Pythagore se généralise une nouvelle fois :

La distance ds entre 2 flashs lumineux dépend de 10 fonctions de l'espace et du temps gij(t,x,y,z), appelées la « métrique » de l'espace-temps. Ainsi, grâce à une formidable intuition physique guidée par les mathématiques, Einstein aboutit en 1915-1916 aux nouvelles équations de la gravitation :

Le « tenseur » Gμν représente la courbure de l'espace temps ; c'est un opérateur, un « programme de manipulation » qui agit sur les 10 fonctions gi.Tμν représente la masse énergie des objets qui courbent l'espace temps. Enfin, le coefficient 8πG/c4 assure que pour des espaces faiblement courbés, la théorie newtonienne rejoint celle d'Einstein.

Ces équations sont donc le « Golden Gate Bridge » qui remplace le « Pont Neuf » de Newton.

II / Les succès de la relativité générale :

12. Commençons par passer rapidement en revue quelques tests de la relativité générale, quelques exemples, qui démontrent la puissance de cette théorie.

Nous avons vu précédemment que Le Verrier avait échoué dans ses tentatives d'explications de l'avance du périhélie de Mercure dans le cadre de la théorie newtonienne. Einstein, qui pourtant avait basé sa théorie sur une base très conceptuelle, calcula cette avance dans le cadre de la relativité générale et obtint 43 secondes d'arc par siècle, exactement la valeur observée ! Ce fut dit-il la plus grande émotion scientifique de sa vie.

En 1916, Einstein fit cette fois ci une prédiction : la lumière ne devait pas se propager en ligne droite comme le supposait Newton mais devait être déviée par les champs de gravitation des astres. Eddington vérifia cette prédiction en 1919 ; on la vérifie maintenant avec une grande précision, récemment grâce aux signaux radio émis par la sonde Cassini lors de son voyage vers Saturne. Grâce à cette propriété de la lumière d'être déviée par les corps massifs on peut ainsi maintenant calculer la masse (en particulier la masse invisible des galaxies) présente entre un astre lumineux, un quasar par exemple, et nous en étudiant le trajet que prend la lumière entre lui et nous.

En relativité générale l'écoulement du temps dépend du mouvement mais aussi du champ gravitationnel dans lequel l'horloge se trouve. Ce 3ème effet est appelé le « redshift gravitationnel ». Il a été mesuré pour la première fois en 1963 et aujourd'hui la précision des horloges est telle qu'il est indispensable d'en tenir compte dans les routines du programme du Global Positionning System, sans quoi ce système ne fonctionnerait pas !

Mentionnons enfin, l'effet Shapiro : si on envoie de la Terre un signal laser ou radar sur la lune ou sur une sonde et si ce signal revient, on calcule que le temps que met ce signal pour faire l'aller retour est différent de ce que prévoit la physique newtonienne. C'est aussi la sonde Cassini qui a permis de vérifier cet effet avec la plus grande précision.

Après ce bref survol des tests de la relativité générale, concentrons-nous sur une autre facette de la relativité générale : les ondes gravitationnelles.

13. Commençons par présenter les « pulsars binaires » grâce auxquels les ondes gravitationnelles ont été détectées. Un « pulsar » est une étoile à neutrons, c'est à dire dont la densité est celle de la matière nucléaire, qui peut donc peser 2 ou 3 masses solaires pour seulement quelques kilomètres de rayon. Ces pulsars produisent, par des mécanismes encore mal connus, des champs magnétiques très intenses. De plus, ces étoiles tournent sur elles- mêmes parfois avec une période de rotation de 1 milliseconde (à comparer au 24 h pour la

Terre !). Le champ magnétique tourne alors autour de l'axe de rotation. Ce pulsar émet donc un « pinceau de magnétisme », un faisceau lumineux (radio), qui balaie l'espace comme un gyrophare et qui peut être détecté par des radiotélescopes si la Terre se trouve dans sa trajectoire.

Un pulsar « binaire » est une étoile à neutrons qui gravite autour d'un autre objet, qui peut lui- même être une autre étoile à neutrons. L'intervalle de temps entre l'arrivée sur Terre de deux flashs, 2 « bips » consécutifs du « gyrophare » n'est alors pas constant du fait que pulsar s'éloigne et se rapproche périodiquement de l'observateur, lors de ses révolutions autour de son compagnon. On peut ainsi reconstituer, par cet « effet Doppler », la trajectoire de ce pulsar binaire.

14-15. Enfin, en tournant l'un autour de l'autre, les deux étoiles déforment périodiquement l'espace-temps et ces déformations de la métrique se propagent jusqu'à l'infini : ce sont les ondes gravitationnelles.

16. Il s'agit de mettre en équations ces ondes...

La phase du pulsar, qui donne le rythme auquel le gyrophare tourne, est donné en fonction du temps par l'équation suivante :

Le temps t qui apparaît dans cette équation est celui d'une horloge liée au pulsar. Ce temps n'est pas le même dans le laboratoire qui détecte le signal (la Terre), en raison notamment du ralentissement des horloges. Appelons Τ le temps du laboratoire. On montre à partir des équations d'Einstein de la relativité générale que les temps t et T sont liés par la relation suivante :

Le premier terme correctif Delta R est une correction simplement newtonienne, qui tient compte du fait que la distance entre le pulsar et le laboratoire est variable et que la lumière a une vitesse finie.

Les termes suivants sont des corrections relativistes.

Plus précisément, E, appelé effet Einstein, est une correction qui combine les effets de retard dus au mouvement du pulsar et au champ de gravitation de son compagnon (c'est de ce même effet qu'il faut tenir compte pour faire fonctionner le système GPS). Il s'exprime de la façon suivante :

Enfin, le dernier terme S, est l'effet Shapiro. Il s'agit de l'effet dû au retard que prend la lumière dans le champ de gravitation des étoiles à neutrons :

Les différents paramètres, delta, γ, r, s, etc, intervenant dans ces différentes équations sont des paramètres dits « post-képlériens », dont les valeurs sont nulles en théorie newtonienne. En ajustant cette « formule de chronométrage » Φ=Φ(T) avec la phase phi observée, on obtient les valeurs numériques de ces différents paramètres.

17. Par exemple, pour le pulsar binaire récemment observé par Kramer et al, on trouve que l'avance du périastre est de 16,9 degrés/an (à comparer aux 43 secondes d'arcs par siècle pour Mercure !). De même la période orbitale est de 0,1 jour contre 365 jours pour la Terre. Enfin, l'ellipse de la trajectoire du pulsar rétrécit peu à peu au cours du temps. Le système perd de l'énergie lors de ce rétrécissement et cette énergie est dissipée sous forme d'ondes gravitationnelles. Il s'agit d'un effet extrêmement faible : il faut compter une centaine de millions d'années pour qu'ils deviennent notable.

18. Ces paramètres post-képlériens, comme nous l'avons dit, devraient être nuls en théorie newtonienne. Le fait qu'on observe qu'ils ne le sont pas montre déjà que la théorie newtonienne est inapte à décrire le mouvement d'un tel pulsar binaire. La relativité générale quant à elle, non seulement prédit une valeur non nulle pour ces paramètres mais les exprime en fonction des masses des deux objets MA et MB, selon des formules plus ou moins compliquées extraites des équations d'Einstein.

19. On peut ainsi tracer sur un diagramme l'avance du périastre, la variation de la période orbitale, etc, en fonction des masses MA et MB. Si ces courbes ne se recoupaient pas en un seul point cela signifierait un désaccord entre théorie et expérience car on obtiendrait des valeurs contradictoires pour les masses MA et MB du pulsar et de son compagnon. Mais il se trouve qu'elles se coupent toutes, avec une très grande précision ! L'intersection de deux courbes (l'avance du périastre omega dot et de l'effet Einstein gamma par exemple) donne les masses Ma et MB. Chaque courbe supplémentaire, à condition qu'elle passe au même point, représente un test de la relativité générale ; ainsi le pulsar binaire de Kramer et al fournit trois tests indépendants !

Grâce donc à un système d'étoiles situé à plusieurs milliers d'années-lumière de la Terre on vérifie actuellement une théorie construite en 1915 sur une base surtout conceptuelle avec une précision supérieure au millième.

20. Le test consistant à mesurer le rétrécissement de l'orbite d'un pulsar binaire dû à l'émission d'ondes gravitationnelles et vérifier qu'il coïncide avec la valeur prédite par la relativité générale, a été effectué pour la première fois par Hulse et Taylor à l'aide du premier pulsar binaire qu'ils avaient découvert en 1974. Pendant 30 ans, ils ont monitoré ce système pour mesurer avec un précision de plus en plus grande l'effet cumulatif de retard au périastre dû à ce rétrécissement et ont obtenu un accord entre observation et prédiction supérieur à 2 millièmes. Ces travaux ont valu à Hulse et Taylor le premier prix Nobel de relativité générale en 1993.

III/ Une nouvelle fenêtre sur l'univers :

22-23. Les ondes gravitationnelles ont donc été détectées par l'intermédiaire du rétrécissement de l'ellipse tracée par deux étoiles en orbite l'une autour de l'autre mais pas « directement »,

c'est à dire par l'intermédiaire de télescopes « gravitationnels » placés sur Terre sensibles aux « frémissements » de la géométrie de l'espace-temps. Tant que les étoiles sont éloignées l'une de l'autre, les ondes gravitationnelles sont beaucoup trop faibles pour être détectées par de tels « télescopes ». En revanche, on peut espérer les détecter lorsque les deux étoiles se rapprochent l'une de l'autre et fusionnent pour donner par exemple un trou noir car alors une énorme « bouffée » d'ondes est émise.

24. Un effort international important est par conséquent mené pour essayer d'observer directement ces ondes. Les Etats-Unis, l'Europe et le Japon construisent actuellement des détecteurs gigantesques, sous forme d'interféromètres constitués de deux bras perpendiculaires d'environ 3 km de long, dans lesquels un faisceau laser se propage et se réfléchit des centaines de fois. Ces différents rayons lumineux se combinent en fin de course en un « creux de lumière », une frange noire. Si une onde gravitationnelle arrive sur Terre, la géométrie d'espace-temps entre les miroirs va être très légèrement perturbée, les miroirs aux extrémités des bras vont très légèrement bouger et une frange de lumière va apparaître puis disparaître.

25. Il s'agit là encore d'expliquer ce mouvement des miroirs en « faisant parler » les équations d'Einstein. L'accélération du pulsar qui va déterminer le mouvement et donc la courbure de l'espace-temps dont les frémissements vont atteindre le détecteur s'exprime de la manière suivante :

Le premier terme est celui de Newton, inversement proportionnel au carré de la distance entre le pulsar et son compagnon.

Les termes suivants sont les corrections relativistes obtenues en résolvant, avec une précision croissante (« itérativement ») l'équation d'Einstein

1/c2.A1PN est le terme donnant en particulier l'avance du périastre.

1/c5A2 .5PN représente la force qui provoque le rétrécissement de l'ellipse observé par Hulse et Taylor (son expression a été obtenue en 1982).

Enfin, le terme 1/c7.A3.5PN a été obtenu au début des années 2000.

26. Mais ce travail n'est qu'une étape pour décrire correctement l'onde gravitationnelle qui va faire bouger les miroirs et qu'on puisse un jour, à partir de ce mouvement, vérifier si la relativité générale décrit correctement le début de la coalescence des deux étoiles : il faut prédire plus précisément encore la phase de l'orbite (liée au temps mis par le pulsar à faire un tour : Φ=Ω.t pour un mouvement circulaire newtonien). Dans son expression obtenue très récemment dans le cadre de la relativité générale, le premier terme décrit le rétrécissement de l'orbite dû au seul terme 1 /c5.A2.5PN. Les corrections suivantes nécessitent la connaissance du champ de gravitation et de la luminosité (puissance rayonnée par ce champ) très loin du pulsar

binaire. Ces calculs on représenté un travail de très longue haleine, où l'école française, pilotée notamment par Thibault Damour, s'est distinguée.

27. Cependant, ces corrections de plus en plus fines à la physique newtonienne ne suffisent plus lorsque les deux étoiles coalescent. Pour décrire cette phase ultime il faut résoudre exactement les équations d'Einstein, ce que l'on ne peut faire que numériquement dans ce cas. La relativité numérique est donc en plein essor, en particulier à l'Observatoire de Meudon. Parmi les succès récents de cette discipline citons le calcul de la coalescence de deux étoiles à neutrons et celle de deux trous noirs ---qu'on ne peut pas voir car les trous noirs ne rayonnent pas de lumière mais qui doivent produire, si ils coalescent, une énorme bouffée d'ondes gravitationnelles.

28. La détection d'ondes gravitationnelles ouvrira une nouvelle fenêtre sur l'univers dans la mesure où il s'agit d'un signal non lumineux, de « friselures » de l'espace-temps. L'observation de ces ondes permettrait d'en savoir plus sur les étoiles à neutrons car le signal gravitationnel émis dépend de leur structure interne. Grâce aux ondes gravitationnelles on devrait donc mieux connaître les propriétés nucléaires de la matière, la structure des trous noirs, voire même les débuts de l'univers dans lequel les ondes gravitationnelles se sont propagées librement bien avant la lumière.

IV / Les défis à relever :

Les succès de la relativité générale sont donc nombreux mais il reste des défis à relever.

29. Le premier est celui de la cosmologie. En effet, toutes les mesures actuelles tendent à montrer que la matière qui compose l'univers est, quasiment en totalité, totalement inconnue (30 % de « matière noire », 70 % d' « énergie noire »). Ainsi la matière dont les étoiles sont constituées ne représenterait qu'une infime partie de la masse totale. L'hypothèse optimiste est de parier sur les équations d'Einstein et de les utiliser pour mieux connaître les caractéristiques de l'univers, la nature de la matière et l'énergie noires ou la valeur de l'accélération de son expansion par exemple. Mais il n'est pas exclu, hypothèse pessimiste que la Relativité Générale trouve ses limites en cosmologie.

30. Le second défi est celui de la quantification de la gravitation : le pont entre Ciel et Terre dressé par Einstein ignore en effet la mécanique quantique dont les lois régissent pourtant superbement le monde microscopique. Bien qu'aucune évidence expérimentale ne l'impose actuellement (sauf peut-être les mystères de la cosmologie ?), réconcilier les principes et cadres conceptuels de la relativité générale et de la mécanique quantique est un programme majeur de la physique du XXIème siècle. Des théories sont en chantier pour tenter de répondre à ces interrogations, parmi elles la théorie des supercordes sur laquelle beaucoup de physiciens fondent leurs espoirs depuis déjà une trentaine d'années.

 
 
 
initiation musicale toulon  

PHYSIQUE ET MATHÉMATIQUES

 

 

 

 

 

 

 

PHYSIQUE ET MATHÉMATIQUES

La physique et les mathématiques sont étroitement mêlées depuis toujours. Tantôt c'est la première qui conduit à développer les mathématiques impliquées par les lois de la nature, tantôt des structures mathématiques élaborées sans référence au monde extérieur se trouvent être précisément adaptées à la description de phénomènes découverts pourtant postérieurement. C'est là l'efficacité déraisonnable des mathématiques dans les sciences de la nature dont parlait Eugène Wigner. Jamais les interactions entre physique et mathématiques n'ont été plus intenses qu'à notre époque, jamais la description des phénomènes naturels n'a requis des mathématiques aussi savantes qu'aujourd'hui. Pourtant il est important de comprendre la différence de nature entre ces deux disciplines. La physique n'établit pas de théorèmes ; jusqu'à présent elle se contente de modèles dont les capacités à prédire, et la comparaison avec l'expérience établissent la validité, avec une économie dans la description et une précision parfois confondantes. Néanmoins nous savons que tous les modèles dont nous disposons actuellement, toutes les lois, ne sont que des descriptions "effectives" comme l'on dit aujourd'hui, c'est-à-dire adaptées aux échelles de temps, de distance, d'énergie avec lesquelles nous observons, mais dont nous savons de manière interne, avant même que des phénomènes nouveaux les aient invalidées, qu'elles sont inaptes à aller beaucoup plus loin. Y aura t-il une description définitive qui, tel un théorème, s'appliquerait sans limitations? Ce rêve d'une théorie ultime, où la physique rejoindrait les mathématiques, caressé par certains, laisse beaucoup d'autres sceptiques ; quoiqu'il en soit la question ne sera certainement pas tranchée rapidement.

Transcription* de la 573e conférence de lUniversité de tous les savoirs prononcée le 16 juin 2005

Par Edouard Brezin: « Physique et Mathématiques »


Je remercie tout d'abord l'UTLS d'avoir donné la parole aux physiciens car 2005 est l'année mondiale de la physique. Cette célébration est justifiée par le centième anniversaire de la publication d'articles d'Albert Einstein qui, dans trois domaines différents, ont changé complètement notre vision du monde. C'est aussi l'occasion pour les scientifiques français de présenter la science vivante, et de nous demander ce que ferait peut-être Einstein s'il était parmi nous aujourd'hui.

Physique et mathématiques : des histoires étroitement mêlées

Sans vouloir entièrement la retracer commençons par évoquer quelques étapes de cette route où physique et mathématiques se sont croisées, suivies, ignorées, rejointes, avant d'en arriver à la période contemporaine où se posent des questions qu'il n'y a pas très longtemps, personne ne pouvait formuler.

Longtemps mathématiques et sciences de la Nature ont été si étroitement mêlées que la différence nétait sans doute pas réellement explicitée. Que l'on se souvienne que géométrie veut dire littéralement « mesure de la Terre », et que les mathématiques furent formulées pendant très longtemps pour décrire des objets suggérés par le monde qui nous entoure.

En voici quelques exemples.

Pythagore et la diagonale du carré

Commençons avec Pythagore, astronome mathématicien, qui fut le premier à démontrer le théorème qui porte son nom, le théorème de Pythagore (que les Babyloniens connaissaient). Pythagore considère un carré de côté 1 : il a démontré que la longueur de sa diagonale valait (racine carrée de 2). Mais à cette époque, seuls les rapports de deux nombres entiers, les fractions, sont considérés comme des nombres. Pythagore cherche alors à exprimer (racine carrée de 2) comme un de ces nombres et, comme il est fin mathématicien, il démontre que (racine carrée de 2) ne peut pas s'écrire comme un rapport de deux nombres entiers. Le carré existe, sa diagonale existe, mais ce nombre semble ne pas exister ! C'est un sentiment inconcevable de contradiction entre la Nature et les mathématiques qui apparaît, alors que pour Pythagore elles sont parties d'un même tout.

Archimède et les volumes

Archimède était un génie absolument extraordinaire. Il a fait graver sur sa tombe une sphère et un cylindre. Fin mathématicien, il avait réussi à calculer des volumes, comme celui de la sphère, par exemple, ou encore celui donné par l'intersection de deux cylindres ( Cf. figure 1). La méthode qu'il avait introduite est une méthode intellectuellement très semblable à celle qui mettra vingt siècles à aboutir avec Newton et Leibniz, le calcul intégral. En effet pour calculer ces volumes, Archimède coupait en tranches comme on apprend à la faire lorsque l'on fait du calcul différentiel.


figure 1


Néanmoins, comme vous le savez, son génie de physicien n'était pas moins grand. Lhistoire est fort célèbre : le roi de Syracuse avait commandé une couronne en or massif mais il soupçonnait le bijoutier de l'avoir trompé. Il demanda alors à Archimède de déterminer si la couronne était bien en or massif. Après une réflexion très profonde Archimède comprit la nature de la force exercée par un liquide sur un corps immergé et répondit ainsi à la question du roi.

Galilée, père fondateur de la physique

Avançons de presque deux mille ans. Pourquoi aller si vite et passer ainsi deux mille ans de sciences ? Chacun est libre de son opinion. Je crois tout de même que le dogmatisme des églises y est pour quelque chose. Les ennuis de Galilée avec les églises sont célèbres même si l'issue en est moins dramatique que pour Giordano Bruno.

Nous sommes au XVIème siècle et Galilée écrit cette phrase célébrissime :

« La philosophie est écrite dans ce grand livre qui se tient constamment ouvert devant les yeux, je veux dire l'Univers. Mais elle ne peut se saisir si tout d'abord on ne se saisit point de la langue et si on ignore les caractères dans laquelle elle est écrite. Cette philosophie, elle est écrite en langue mathématique. Ses caractères sont des triangles, des cercles et autres figures géométriques, sans le moyen desquelles il est impossible de saisir humainement quelque parole, et sans lesquelles on ne fait qu'erre vainement dans un labyrinthe obscur. »

C'est un texte remarquable, toujours aussi pertinent de nos jours.

Newton et le calcul différentiel

La méthode de Newton est une des méthodes d'interaction de la physique et des mathématiques. Newton comprend la loi de la dynamique - la célèbre loi de Newton - qui dit que la force est égale à la masse qui multiplie l'accélération. Et à partir de ce moment-là on rentre déjà dans un paysage assez abstrait, assez difficile mathématiquement car l'accélération c'est la variation de la vitesse, la vitesse étant elle-même la variation de la position. La force, elle, est donnée en fonction de la position. On se trouve en présence d'un problème mathématique où la deuxième variation - que les mathématiciens appellent la « dérivée seconde » - de la position est donnée en fonction de la position. Pour arriver à résoudre cela, Newton invente le calcul différentiel et intégral. Et ayant compris que la force d'attraction gravitationnelle est inversement proportionnelle au carré de la distance, Newton retrouve les lois sur le mouvement des planètes que Kepler avait établies par l'observation.

La déduction des lois de Kepler est bien un théorème de mathématiques, et ces mathématiques ne sont ni très simples, ni intuitives. En d'autres termes, il faut distinguer, dans les problèmes, ce qui est mathématique et ce qui est physique. Ce qui est physique, c'est pourquoi la force est la masse multipliée par l'accélération (Descartes croyait que c'était la masse fois la vitesse), c'est comprendre pourquoi la force d'attraction est inversement proportionnelle au carré de la distance entre deux corps massifs, et pas au cube ou à la puissance 2,1. En revanche, admettant ces deux hypothèses, démontrer les lois de Kepler ce sont réellement des mathématiques. Et c'est ce que Newton a fait. C'était un très grand scientifique.

Fourier et la chaleur

Un autre exemple très extraordinaire des croisements entre physique et mathématiques vient avec Joseph Fourier au XIXème siècle. Dans un article sur la théorie analytique de la chaleur dans les Comptes Rendus de l'Académie des Sciences en 1822, Fourier s'interroge : lorsque l'on a deux corps en contact, l'un étant plus chaud que l'autre, comment écrire le flux de chaleur du corps chaud vers le corps froid ? Il construit sa théorie et il aboutit à une équation aux dérivées partielles qu'il faut résoudre. Et dans cet article où il introduit la notion de flux de chaleur, Fourier introduit aussi ce qu'on appelle dans le monde entier la transformation de Fourier. C'est l'un des instruments les plus puissants des mathématiques et de la physique.

Avec Newton et Fourier ce sont donc des problèmes de physique bien posés qui ont conduit à développer des outils mathématiques nouveaux, voire révolutionnaires. Mais, comme on va le voir, cela ne se passe pas toujours ainsi.

Gauss l'universel

Il faut aussi mentionner Gauss, mathématicien éminent, surnommé souvent le « Prince des mathématiques ». La physique lui doit un traité de mécanique céleste, le développement d'un magnétomètre et une des lois de l'électromagnétisme porte son nom. Ainsi, à cette époque, un esprit universel comme Gauss s'intéresse aussi bien aux deux disciplines.

La physique au XXème siècle

Mais si l'on se rapproche de la période contemporaine, il est frappant que la physique du XXème siècle a souvent fait appel à des mathématiques qui avaient été développées antérieurement, pour leur seule beauté et richesse intrinsèques. Cette beauté des mathématiques, leur logique interne, conduit les mathématiciens dans leurs recherches. Deux exemples où les mathématiques nécessaires à la physique lont précédée sont fournis par la relativité générale et la mécanique quantique.

La relativité générale d'Einstein

Le travail de Bernhard Riemann, grand mathématicien mort hélas jeune, précède celui d'Einstein sur la relativité générale, Il a eu l'idée de définir la géométrie de l'espace par une métrique, c'est-à-dire par lexpression de la distance entre deux points voisins. Ceci permet de définir toutes sortes de géométries. Des géométries simples, comme la géométrie euclidienne, mais également bien d'autres. C'est un outil considérable et cest exactement celui dont a besoin Einstein. Il comprend que la présence de matière change la géométrie de l'espace-temps et qu'en retour cette géométrie détermine les trajectoires des objets massifs et de la lumière. Ce sont les masses qui déforment la géométrie, et la géométrie déformée définit les trajectoires de tous les objets célestes. Cette théorie s'appelle la relativité générale. Einstein va passer beaucoup de temps, avec son ami Besso, pour comprendre les travaux de Riemann afin de s'en servir dans sa théorie.

La mécanique quantique

Heisenberg et les matrices

La mécanique quantique a deux sources indépendantes. L'une a été développée par Werner Heisenberg qui comprit que la mesure d'une quantité physique modifiait inéluctablement l'état d'un système. Si on mesure une des ses propriétés, inéluctablement on modifie létat du système. Heisenberg montre que si on mesure d'abord la position puis la vitesse d'un corps en mouvement, ou bien si lon mesure d'abord sa vitesse puis sa position, on ne trouve pas les mêmes résultats. Les résultats des mesures dépendent donc de l'ordre dans lequel on les fait. C'est une structure mathématique compliquée et Heisenberg ne sait pas très bien comment aborder cette question. Mais il était bon mathématicien et il connaissait des travaux du XIXème siècle qui avaient défini ce qu'on appelle des matrices, c'est-à-dire des objets qui décrivent des opérations sur un espace. Si on veut décrire par exemple les rotations d'un dé, selon qu'on le fait tourner d'abord autour de l'axe vertical puis autour d'un axe horizontal ou bien que l'on choisisse l'ordre inverse, le dé n'est pas dans la même position. Tous ceux qui ont un jour joué avec un Rubik's cube savent bien que les rotations ne commutent pas entre elles mais dépendent de l'ordre dans lequel on les fait. Heisenberg utilise là des mathématiques préexistantes, qui avaient été développées abstraitement, mais dont il se rend compte qu'elles sont indispensables à sa description de la mesure.

De Broglie, Schrödinger et les fonctions d'onde

L'autre source de la mécanique quantique est due à de Broglie et à Schrödinger. Ce dernier comprend profondément ce que disait de Broglie, de la dualité onde-particule. Erwin Schrödinger, Autrichien, qui avait fuit le nazisme pour aller à Dublin, (contrairement à Heisenberg qui a travaillé sur la bombe allemande, heureusement sans succès) comprend que si une particule est en même temps une onde, sa propagation doit être décrite par une équation d'onde qui décrit les variations spatiales et temporelles de cette onde. Il comprend quelle est cette équation, mais le formalisme devient extrêmement abstrait : l'état d'un système physique est un vecteur d'un espace abstrait, qu'avait introduit au début du XXème siècle le grand mathématicien David Hilbert, espace infini, avec une structure complexe[1]. On voit que, chacune des deux sources de la mécanique quantique (qui se révèleront in fine équivalentes) on fait appel à des mathématiques abstraites, inventées en suivant la logique propre des mathématiques et qui néanmoins sont indispensables pour décrire la physique.

La déraisonnable efficacité des mathématiques

Ceci conduit un physicien, Eugène Wigner, prix Nobel pour ses travaux de physique nucléaire, qui a beaucoup contribué à la physique théorique du XXème siècle, à écrire un article en 1960 intitulé « de la déraisonnable efficacité des mathématiques dans les sciences de la Nature ». C'est en gros une rationalisation de ce que je viens de dire. Wigner s'émerveille de voir que des structures qui paraissaient complètement éthérées, sans rapport initial avec le monde actuel, bien quelles ne soient pas issues d'une réflexion sur le monde ou la Nature, se trouvent néanmoins avoir leur place, et ô combien, dans la description du monde.

La complexité croissante des mathématiques

Le dernier portrait que je vais évoquer est celui d'un des grands héros de la physique théorique du XXème siècle Richard Feynman. Lors d'une conférence publique il déclara :

« Chacune de nos lois s'énonce sous forme mathématique et en des termes souvent complexes et abstraits. La loi de gravitation telle que Newton l'énonça n'utilise que des mathématiques assez simples mais au fur et à mesure que nous avançons, les énoncés deviennent de plus en plus complexes. Pourquoi ? Je n'en ai pas la moindre idée. Le drame de cette conférence c'est justement que je dois vous faire comprendre qu'on ne peut sérieusement expliquer la beauté des lois de la Nature et surtout de la faire ressentir à des gens qui n'ont aucune connaissance profonde des mathématiques. »

La période contemporaine

La période contemporaine est caractérisée par des interactions constantes entre physique et mathématiques, dans beaucoup de directions différentes dont voici, sans soucis d'exhaustivité, quelques exemples.

Les systèmes dynamiques et le chaos

L'étude des systèmes dynamiques doit beaucoup à Henri Poincaré, mathématicien français né à Nancy à la fin du XIXème siècle et qui a travaillé au début du XXème, grand mathématicien et grand physicien également. Un système dynamique est un système dont on veut suivre l'évolution temporelle régie par des équations d'évolution parfaitement définies et déterministes. Il n'y a aucun hasard dans un système dynamique, tout y est bien connu. Comme le mouvement des planètes dont les équations sont connues, des molécules d'un fluide, de l'atmosphère... La figure 2 montre l'évolution d'un système dynamique en deux dimensions pendant un petit intervalle de temps. Le point de coordonnées (x,y) est transformé par la formule en le point (x',y'). Pour avoir l'évolution temporelle du système, on applique la formule, toujours la même, un grand nombre de fois et on suit la trajectoire du point à chaque étape.



figure 2


C'est un système dynamique des plus simples mais les trajectoires sont déjà très complexes et on voit apparaître ce qu'on appelle des attracteurs étranges. La mécanique des fluides est un exemple de domaine où la complexité des comportements possibles est très grande.

Poincaré fut sans doute le premier à poser la question de la stabilité du système solaire. Le système solaire, même réduit à la Terre, à la Lune et au Soleil, est un système compliqué. Pendant longtemps on a cru que les comportements complexes, comme la turbulence d'un fluide, étaient dus à la complexité du système, à cause du très grand nombre de molécules constituantes. Mais l'étude de petits modèles apparemment simples comme celui qu'avait introduits Édouard Lorenz, un météorologue, ou Hénon un astrophysicien niçois, montra la complexité que l'on pouvait atteindre dans de très petits systèmes. En 1971 les physiciens-mathématiciens Ruelle (qui travaille toujours à Bures-sur-Yvette) et Takens démontraient que de très petits systèmes étaient presque toujours chaotiques sauf si on choisit un système très approprié. Le terme « chaos » désigne la sensibilité extrême aux conditions initiales. Cette sensibilité fait diverger les trajectoires de deux points, initialement très proches. On l'appelle souvent l'effet papillon.

Un astrophysicien de l'Université de Paris VII, Jacques Laskar, spécialiste des mouvements planétaires, a étudié les mouvements du système solaire en utilisant des méthodes nouvelles faisant appel à la puissance des moyens de calcul contemporains. Voici ses commentaires :

« Cette méthode a permis de démontrer que le mouvement des planètes et en particulier les planètes inférieures, Mercure, Vénus, la Terre et Mars avaient un temps caractéristique de l'ordre de cinq millions d'années. Cela signifie que si l'on a deux solutions initialement proches, leurs trajectoires vont s'éloigner non pas linéairement mais de façon exponentielle. Ainsi, si l'on a une incertitude de quinze mètres sur la position actuelle de la Terre, au bout de dix millions d'années nous aurons une erreur de cent cinquante mètres, en soit cette valeur est dérisoire, l'éphéméride ne pourrait prétendre avoir une telle précision. Mais si on prolonge les calculs sur cent millions d'années on aura une incertitude de cent cinquante millions de kilomètres, c'est la dimension du système solaire. Ce qui signifie que nous ne pourrons absolument plus situer au bout de cent millions d'années, la position de la Terre dans le système solaire. Nous sommes dans l'impossibilité de calculer cette position aujourd'hui, mais nous le serons également dans mille ans ou dans un million d'années. Ce n'est pas une question de limitation de nos connaissances ou de nos calculs. Quinze mètres représentent en fait la perturbation engendrée par le passage d'un astéroïde. Si nous désirons garder une telle précision à long terme il faudrait inclure dans notre modèle tous les objets engendrant des perturbations de l'ordre de quinze mètres, autant dire des centaines de milliers de corps qui peuplent le système solaire, astéroïdes, comètes, satellites gardiens et fragments de toutes sortes. Si l'on veut aller encore plus loin passer d'une précision de quinze mètres à quinze microns, au lieu d'avoir une erreur de cinquante millions de kilomètres au bout de cent millions d'années, on aura cent cinquante millions de kilomètres au bout de cent soixante millions d'années. Cela n'aura pas changé grand-chose. Et nous avons donc vraiment une limite pratique aux capacités à prévoir l'avenir des mouvements du système solaire. »

Voilà une chose que l'on ne savait pas au temps de Poincaré et que la mécanique céleste a récemment permis de comprendre.

La physique statistique

Un autre grand domaine de fertilisation, croisé entre mathématiques et physique est la physique statistique. Depuis la fin du XIXème siècle et les travaux de Maxwell, de Boltzmann, inventeurs de cette science, on sait qu'il est illusoire, voire inutile, pour décrire la matière, d'en suivre tous les degrés de liberté. Si on considère un morceau de métal, par exemple, on sintéresse à savoir s'il est conducteur ou isolant, si sa température augmente vite ou lentement lorsqu'on le chauffe, pourquoi il est noir ou rouge... On n'a pas besoin de savoir, contrairement au problème des trajectoires des planètes, quelle est la position des milliards de milliards de molécules qui le constituent. Dailleurs à supposer que l'on puisse le faire - ce qui n'est pas le cas - il serait bien difficile dy lire la réponse aux questions que nous posions.

Une méthode probabiliste

La méthode « ordinaire », celle que lon met en Suvre pour les systèmes planétaires, est donc inopérante pour la description de la matière. La méthode qui a permis, grâce à Maxwell et Boltzmann et bien d'autres à leur suite, de comprendre la matière, est une méthode a priori paradoxale : c'est une méthode statistique qui utilise des concepts probabilistes, cest-à-dire modélisent le hasard. Si lon joue à la roulette une seule fois, le fait de savoir qu'il y a trente-six résultats possibles ne fournit aucune aide pour gagner. Mais le propriétaire du casino, qui enregistre des milliers de paris, peut utiliser des outils statistiques, telle la loi des grands nombres, pour prédire avec une certitude quasi-complète non pas un résultat ponctuel, mais ce que sera l'ensemble des résultats. C'est là le miracle de la physique statistique qui utilise le gigantisme du nombre datomes, pour utiliser le hasard et néanmoins prédire de manière en pratique certaine.

L'énergie et le désordre

La mécanique statistique, c'est donc l'utilisation des probabilités pour relier la matière macroscopique à ses atomes. Il y a des cas singuliers où la matière change complètement d'état, par exemple l'eau qui devient vapeur lorsqu'on la chauffe, ou qui gèle si on la refroidit. Dans ce dernier exemple, le refroidissement ne change rien aux molécules d'eau individuelles, il ne change pas non plus l'interaction entre les molécules d'eau qui est complètement indépendante de la température. La notion de température bien que familière, est en réalité assez subtile : la température pour les physiciens, c'est le paramètre qui arbitre entre deux tendances opposées de la matière : au zéro absolu tout système se range dans létat bien ordonné dont l'énergie est la plus basse possible, mais lorsque la température augmente le désordre (ou entropie) contrarie cette tendance à la régularité et finit par lemporter. Quand de l'eau juste au-dessus de zéro degré Celsius passe juste en dessous de cette température, des milliards de molécules d'eau, complètement désordonnées dans le liquide, s'ordonnent spontanément. Elles forment un réseau cristallin, invisible mais bien réel. Ces comportements singuliers, les transitions de phase, ont longtemps posé problème et il y a eu au cours des dernières années de nombreux échanges entre mathématiques et physique à ce sujet.

Illustration : le modèle d'Ising

Pour illustrer ces phénomènes de transition, il existe un modèle décole, un prototype qui se révèle en fait très universel dans sa portée, appelé le modèle d'Ising. On le représente sous forme d'un damier de carrés pouvant être dans un état blanc ou noir. L'énergie de deux carrés voisins est grande lorsqu'ils sont de couleurs différentes et faible lorsqu'ils sont de même couleur. Diminuer l'énergie revient ainsi à uniformiser la couleur du damier ; le désordre se traduit par un mélange aléatoire des deux couleurs. Selon la température la minimisation de lénergie qui ordonne les carrés, ou lentropie qui les distribue au hasard vont dominer. À haute température le système évolue rapidement, les carrés changent fréquemment de couleur, mais les couleurs restent mélangées : c'est le désordre qui l'emporte. En revanche à basse température, le système évolue plus lentement, de grandes régions de même couleur apparaissent et si on attend assez longtemps, une couleur va dominer très largement l'autre : c'est l'énergie qui l'emporte. La transition de phase a lieu à la température où énergie et désordre s'équilibrent ( Cf. figure 3).



figure 3

Chaque carré peut être rouge ou bleu. Deux carrés voisins de même couleur « sattirent ».

Ce modèle paraît très simple, mais le résoudre a été un tour de force technique d'un grand physicien-mathématicien qui s'appelait Lars Onsager. Cela a été aussi l'ouverture vers une interaction entre physique et mathématiques qui s'appelle la théorie des systèmes intégrables et qui est très active aujourd'hui.

Autres domaines contemporains

Un dernier exemple de systèmes qui appartient à la même nature de question sont les systèmes auto-similaires, qu'on appelle aussi systèmes fractals. Ce système ( Cf. figure 4) est simple, il est auto-similaire c'est-à-dire que l'on retrouve les mêmes structures à toutes les échelles vers l'infiniment petit. Les propriétés de celui qui est ici montré (la diffusion limitée par lagrégation) ne sont pas encore comprises aujourd'hui malgré beaucoup d'années d'efforts de mathématiciens aussi bien que de physiciens. Ceci constitue un exemple de problème, lié à des phénomènes de croissance cristalline et de systèmes en évolution, que l'on se pose aujourd'hui.



figure 4

Les interactions fondamentales

Venons-en maintenant aux quatre interactions fondamentales l'électromagnétisme, les forces nucléaires faibles ou fortes et les forces gravitationnelles. Tous les phénomènes de la Nature sont régis par ces interactions, on n'a encore jamais vu de contre-exemple.

L'électromagnétisme

L'électromagnétisme illustre bien l'état de nos connaissances et les questions qui se posent à l'interaction entre physique et mathématiques. Il faudra pour cela quelques formules dont le sens n'est pas important, mais qui permettent de cerner la problématique. Concentrons-nous sur un problème particulier celui du facteur gyromagnétique de l'électron. L'électron est une petite particule constitutive des atomes, chargée négativement. Un atome est constitué d'électrons et d'un tout petit noyau au centre. On sait grâce à la mécanique quantique, depuis les années 1920, que l'électron possède une caractéristique nommée spin (une sorte de flèche interne). Ce spin donne à un électron, comme à un aimant, un moment magnétique (c'est-à-dire un pôle nord et un pôle sud), et ce moment magnétique µ est proportionnel au spin S :

µ = g (e/2m) S

Ici apparaissent la charge e et la masse m de l'électron. Si l'électron était un objet classique (en omettant relativité et mécanique quantique), le nombre g vaudrait exactement 1. Les expériences donnent g=2,0023193043737. (C'est une des mesures expérimentales les plus précises ayant jamais été faites avec douze chiffres significatifs.) Que dit la théorie pour ce facteur g ? La théorie quantique non relativiste donne g=1, erreur de 100 %. Dirac, physicien anglais des années 1920-1930, a développé une théorie relativiste de l'électron en 1928 et il a trouvé g=2, ce qui est presque exact. Mais les physiciens se demandaient si on peut faire mieux et comprendre la petite différence entre g et 2. La réponse est oui. La technique employée s'appelle la théorie quantique des champs, plus précisément lélectrodynamique quantique. Dans la théorie de Dirac, l'électron obéit à la mécanique quantique, mais le champ électromagnétique dans lequel est plongé l'électron, lui, est classique. Or il possède lui aussi des fluctuations quantiques. La théorie qui a été développée procède par approximations successives en se servant d'un nombre qu'on appelle la constante de structure fine et qui est vaut

alpha=e²/(2 pi h c)

(e est la charge de l'électron, c la vitesse de la lumière h la constante de Planck) soit environ 0,007. Partons de la valeur de Dirac g=2. La première approximation rajoute 0,007 divisé par pi. Un grand physicien, Schwinger, a été récompensé par le prix Nobel pour ce calcul. Il a partagé ce prix avec Feynman et Tomonaga pour avoir montré que ce calcul pouvait se poursuivre de manière systématique, même si les calculs sont longs et difficiles. Quand on inclut cette première correction au résultat de Dirac, on n'est plus très loin de l'expérience ; au fur et à mesure que l'on calcule les autres termes on se rapproche du résultat expérimental. L'accord entre théorie et expérience est confondant. C'est le plus grand accord jamais observé entre une théorie et une expérience.

Les chiffres 0,656 et 2,362 sont les valeurs numériques d'expressions très compliquées où intervient la fonction zeta de Riemann :



C'est pire encore pour le suivant qui a été calculé en 1996. En conclusion, cette théorie est d'une grande complexité mathématique, mais elle marche merveilleusement.

La renormalisation et ses limites

Malgré tout, de nombreuses questions se sont vite posées sur la validité du procédé d'approximations successives que jai décrit. Ce procédé part d'un résultat approché, puis on ajoute une première perturbation puis une perturbation encore plus petite. Mais finalement le résultat est satisfaisant.

Valse des paramètres

Cette méthode par approximations successives a posé des questions, difficiles et abstraites, de deux ordres. La méthode, qui a fait le succès de ce calcul, repose sur un concept qui porte le nom de « renormalisation ». Dans la théorie telle qu'ils l'avaient développée, Feynman, Schwinger et dautres ont rencontré des objets mathématiques dépourvus de toute signification : des intégrales divergentes, des objets totalement infinis ; pour régler ce problème ils ont introduit arbitrairement une toute petite longueur en-deçà de laquelle on sinterdit de pénétrer. Les quantités physiquement mesurables, comme par exemple la charge de l'électron ou sa masse, ne sont alors plus égales à celles introduites dans le modèle initial, mais sont remplacés par les paramètres que l'on mesure physiquement. On montre alors que lon peut saffranchir de lintroduction de la petite longueur initiale. C'est-à-dire qu'a priori l'électromagnétisme est capable de décrire les phénomènes astronomiques jusqu'aux plus courtes distances et on n'a pas besoin de longueur fondamentale. Ce processus magnifique, que certains continuent de regarder comme un tour de passe-passe génial, est à l'origine du prix Nobel de Feynman, Schwinger et Tomonaga.

Les approximations successives

On s'est aussi inquiété du schéma d'approximations successives, en se demandant s'il était bien défini ou en d'autres termes si lorsque l'on poursuit et que lon inclut successivement les termes suivants,, les valeurs obtenues sont toujours plus précises. Les mathématiciens diraient alors qu'un tel processus est convergent. Cette question a longtemps été discutée, mais un physicien anglais (travaillant aux Etats-Unis), Freeman Dyson, a donné des arguments qui montraient que la précision était vraisemblablement limitée et que si on continuait à calculer la série, les termes que l'on allait ajouter n'amélioreraient pas le résultat et finiraient même par le détériorer complètement. Cela n'a aucune influence pratique car quelques termes suffisent amplement, mais cela a posé une question conceptuelle. Le succès de cette méthode repose réalité sur le fait naturel que ce nombre alpha est petit. Pour des raisons, qui pour linstant nont pas reçu dexplication, on constate quil vaut 0,007297... S'il valait 0,1 ou 1 le processus employé ne marcherait pas.

La limite de l'électromagnétisme

Ce caractère a priori non contrôlé a poussé plusieurs mathématiciens à chercher une autre approche pour s'affranchir de ce processus d'approximations successives. Ils ont donc tenté de transformer cette description de l'électromagnétisme quantique en un théorème. C'est-à-dire montrer, avant même de calculer, que cette théorie était apte à décrire tous les phénomènes électromagnétiques depuis les plus grandes distances jusqu'aux plus petites, celles que l'on explore aujourd'hui avec les microscopes les plus puissants : les accélérateurs de particules (comme ceux du CERN) dont la résolution atteint quelques milliardièmes de milliardièmes de mètre (10^(-18) m).

La question posée était celle-ci : est-ce que la renormalisation est une construction ad hoc limitée ou est-elle un théorème[2] - au sens des mathématiques ? La physique a donné une réponse très paradoxale, tout à fait surprenante a priori et qui ne s'est imposée qu'après beaucoup de résistances. Jusqu'à présent les constructions que nous avons connues partaient de la physique à notre échelle pour descendre par approximations successives vers l'élémentaire. On avait ainsi la matière, puis ses molécules, les atomes, les noyaux et enfin les quarks. Mais le succès de cette électrodynamique venait de l'hypothèse que l'on pouvait descendre dans l'infiniment petit sans limite. Or quand bien même on ne sait pas distinguer expérimentalement des distances plus petites que 10^(-18) m, le milliardième de milliardième de mètre, Planck avait compris au début du XXème siècle qu'il existe une limitation à cette description : à des distances inférieures à 10^(-35) m (0,00000000000000000000000000000001 m) c'est-à-dire environ cent milliards de milliards (10^20) fois plus petite que le noyau d'un atome, il y a une longueur en dessous de laquelle la physique reste inconnue à cause de notre incapacité actuelle à réconcilier les deux percées majeures du XXème siècle : la mécanique quantique et la relativité.

Une théorie effective

Cette limitation à très courte distance a conduit à inverser le schéma de pensée et à rejeter l'idée d'aller toujours vers le plus petit. Mais alors peut-on, à partir d'une physique inconnue à très courte distance, comprendre ce qui se passe aux échelles plus grandes ? Et la réponse est venue du groupe de renormalisation, une approche qui a montré deux choses surprenantes l'une comme l'autre.

Quelle que soit la physique à courte distance - qui est inconnue, c'est la théorie de l'électromagnétisme telle que nous la connaissons qui s'applique. Elle est donc valable non pas parce qu'elle n'a pas de limitation vers l'infiniment petit comme on le croyait auparavant, mais précisément parce qu'elle est engendrée aux échelles de nos expériences qui sont grandes au regard des échelles inconnues. On dit alors que la théorie est effective.

On sait aujourd'hui qu'aux distances les plus courtes elle ne serait pas cohérente aussi petite que soit la valeur de alpha. L'électromagnétisme est donc une théorie effective, satisfaisante, mais qui porte sa propre mort. La situation est une peu différente des situations qui se sont présentées auparavant en physique. La théorie de Newton n'est pas fausse, mais elle est limitée : lorsque les vitesses se rapprochent de celle de la lumière ou lorsque les phénomènes en jeu sont des phénomènes de petites distances où il y a des effets quantiques et la théorie de Newton ne s'applique pas. Ce n'est pas pour cela qu'elle est fausse ; elle n'a pas de contradiction interne. La théorie de la relativité, qui signerait la limite fatale pour la théorie de Newton, n'est pas contenue dans cette dernière. La théorie de l'électromagnétisme ne s'applique pas au delà d'une limite connue et ce qu'il y a au-delà est inconnu.

Les forces nucléaires

Face à tout cela, au cours de la période contemporaine on a cherché à reproduire le succès de l'électromagnétisme, et cela a fonctionné pour en physique nucléaire pour les interactions nucléaires faibles et fortes. Avec l'électromagnétisme elles constituent ce qui est appelé le modèle standard, qui donne de très bons résultats mais qui comme l'électromagnétisme est une théorie effective. Il faut donc en venir à la dernière force, la gravitation.

Le cas particulier de la gravitation

À l'échelle classique, non quantique, la gravitation s'applique aux phénomènes astronomiques. Sa version moderne, la théorie de la relativité générale d'Einstein a été très importante. Elle a donné le jour à la cosmologie et à un Univers avec une histoire, car avant Einstein on pensait que l'Univers était immuable, on sait maintenant qu'il évolue.

La gravitation est une force extrêmement ténue. Nous la ressentons lorsquelle met en jeu des masses astronomiques. Cest ainsi quun électron et un proton s'attirent parce qu'ils ont des charges opposées et aussi parce qu'ils ont des masses. Le rapport de la force d'attraction due aux masses, l'attraction gravitationnelle, à la force d'attraction due aux charges est 10^(-40). La gravitation est 10^(40) fois plus petite. Elle est donc extraordinairement faible. Néanmoins nous savons que la gravitation met en jeu, aux très courtes distances, des phénomènes quantiques et leur prise en compte ne semble pas pouvoir résulter dune théorie quantique des champs, comme cest le cas pour les trois autres interactions.

La théorie des cordes

Un autre modèle s'est fait jour, appelé la théorie des cordes. Dans cette théorie l'espace est décrit non plus par des points mais par de petites cordes qui vibrent et dont toutes nos particules ne seraient que des états d'excitation. Elle est apte a priori à décrire toutes les interactions connues, mais il faut avouer quelle n'a pour l'instant permis de prédire aucun phénomène observable. Beaucoup de physiciens dans le monde y travaillent parce que cela leur semble être la seule porte ouverte face à léchec de la théorie des champs.

Imaginons que cette théorie fonctionne, quelles en seraient les conséquences ? Les calculs seraient peut-être difficiles comme ceux déjà évoqués, mais néanmoins toutes les forces de la Nature seraient connues. Est-ce qu'un jour notre description de la nature sera comme un théorème ? Est-ce que la physique sera devenue un théorème ?

Ces questions n'ont rien de scientifique aujourd'hui. Certains pensent queffectivement, cette théorie, baptisée « théorie du tout » achèvera notre description du monde comme le ferait un théorème. Il ne resterait alors que des difficultés dus à la complexité des calculs. D'autres pensent que lorsque cela sera compris il y aura encore de nouvelles questions que nous sommes tout à fait incapables de formuler aujourdhui, et que ce questionnement ne s'arrêtera jamais.

Une des questions fondamentales posée aux théoriciens des cordes porte sur le nombre alpha=0,007... Ce nombre est important parce qu'il détermine la taille des atomes, la façon d'être de notre monde. C'est un nombre absolument essentiel pour notre monde. A-t-il cette valeur pour des raisons accidentelles ? Pourrait-il en avoir d'autres ? N'existe-t-il qu'une seule solution aux équations que contemplent aujourd'hui les théoriciens ou alors des Univers de toutes natures sont-ils possibles ? Nous serions dans notre Univers tel quil est pour des raisons « accidentelles ». Sont-elles réellement accidentelles ou manquerait-il un principe ? Voilà des questions qui sont d'allure philosophique mais qui sont posées réellement aux théoriciens d'aujourd'hui et vous voyez là comment les interrogations des mathématiques et de la physique se rejoignent. Jamais l'interaction entre mathématiques et physique n'a été aussi riche et aussi stimulante qu'en ces questions que je viens d'évoquer.

[1] Complexe signifie ici que la structure fait intervenir les nombres complexes des mathématiciens pour lequel il faut introduire un nombre qui serait la racine carrée de -1 et qui généralise la notion de nombre
[2] Un théorème est une assertion toujours vraie lorsque les hypothèses le sont

 

 VIDEO     canal U       LIEN

 
 
 
initiation musicale toulon  

QU'EST-CE QU'UNE PARTICULE ?

 

 

 

 

 

 

 

QU'EST-CE QU'UNE PARTICULE ? (LES INTERACTIONS DES PARTICULES)


En principe, une particule élémentaire est un constituant de la matière (électron par exemple) ou du rayonnement (photon) qui n'est composé d'aucun autre constituant plus élémentaire. Une particule que l'on croit élémentaire peut par la suite se révéler composée, le premier exemple rencontrée ayant été l'atome, qui a fait mentir son nom dès le début du XXe siècle. Nous décrirons d'abord l'état présent des connaissances, résultat des quarante dernières années de poursuite de l'ultime dans la structure intime de la matière, de l'espace et du temps, qui ont bouleverse notre vision de l'infiniment petit. Puis, nous essaierons de conduire l'auditeur dans un paysage conceptuel d'une richesse extraordinaire qui nous a permis d'entrevoir un peuple d'êtres mathématiques - déconcertants outils permettant d'appréhender des réalités inattendues - et dans lequel de nombreuses régions restent inexplorées, où se cachent sans doute des explications sur la naissance même de notre univers.

Texte de la 208e conférence de l’Université de tous les savoirs donnée le 27 juillet 2000.Qu'est-ce qu'une particule élémentaire?par André NeveuIntroduction De façon extrêmement pragmatique, une particule élémentaire est un constituant de la matière (ou du rayonnement) qui ne nous apparaît pas comme lui-même composé d'éléments encore plus élémentaires. Ce statut, composé ou élémentaire, est à prendre à un instant donné, et à revoir éventuellement avec l'affinement des procédés d'investigation. Mais il y a plus profond dans cet énoncé : chaque étape de l'investigation s'accompagne d'une interprétation, d'une recherche d'explication sur la manière dont ces particules interagissent pour former des entités composées à propriétés nouvelles, c'est à dire d'une construction théorique qui s'appuie sur des mathématiques de plus en plus abstraites, et qui, au cours de ce siècle, a contribué à plusieurs reprises au développement de celles-ci. Le long de cette quête d'une construction théorique cohérente, des problèmes peuvent apparaître, qui conduisent à la prédiction de particules ou d'interactions non encore découvertes, et ce va et vient entre théorie et expérience également raffinées où chacune interpelle l'autre, n'est pas le moins fascinant des aspects de cette quête de l'ultime. Aspect qui se retrouve d'ailleurs dans bien d'autres domaines de la physique. C'est là qu'est la vie de la recherche, plus que dans la construction achevée : les faits nous interpellent et à notre tour nous les interpellons. Où en sommes-nous aujourd'hui ? Une brève descente dans l'infiniment petit Comme chacun sait, la chimie et la biologie sont basées sur le jeu presque infini de molécules constituées d'atomes. Comme l'étymologie l'indique, on a cru ceux-ci élémentaires, et, effectivement, pour la chimie et la biologie, on parle toujours à juste titre d'éléments chimiques, oxygène, hydrogène, carbone, etc. L'ordre de grandeur de la dimension d'un atome est le dix milliardième de mètre. Depuis le début du siècle, on sait que chaque atome est formé d'électrons autour d'un noyau, cent mille fois plus petit que l'atome. Le noyau est lui-même constitué de protons et de neutrons liés entre eux par des forces de liaison nucléaires mille à dix mille fois plus grandes que les forces électrostatiques qui lient les électrons au noyau. Alors que les électrons restent à ce jour élémentaires, on a découvert il y a quarante ans environ que les protons et les neutrons eux-mêmes sont composés de quarks liés entre eux par des forces encore plus grandes, et nommées interactions fortes à ce titre (en fait, elles sont tellement fortes qu'il est impossible d'observer un quark isolé). Au cours de cette quête des cinquante dernières années, à l'aide principalement des grands accélérateurs comme ceux du CERN, on a découvert d'autres particules, neutrinos par exemples et des espèces d'électrons lourds (muon et lepton τ), et diverses espèces de quarks, la plupart de durée de vie extrêmement courte, leur laissant, même à la vitesse de la lumière, à peine le temps de faire une trace de quelques millimètres dans les appareils de détection, et aussi les antiparticules correspondantes. quarksuctgluonsdsb interactions fortesleptonsneutrinosυeυμυτW+ γ Z0 W-chargéseμτ interactions électrofaiblesgravitontrois « générations » de matièrevecteurs de forces Figure 1 Les particules élémentaires actuellement connues. À gauche les trois générations de fermions (quarks et leptons). Chaque quark existe en trois « couleurs », « vert », « rouge » et « bleu ». Chaque lepton chargé (électron e , muon μ et tau τ ) est accompagné d'un neutrino. À droite les vecteurs de forces : gluons, photon γ , bosons W et Z , graviton. La figure 1 présente l'ensemble des particules actuellement connues et considérées comme élémentaires, quarks et leptons, et des vecteurs de forces (voir plus bas) entre eux. Alors que les leptons s'observent isolément, les quarks n'apparaissent qu'en combinaisons « non colorées » : par exemple, le proton est formé de trois quarks (deux u et un d), un de chaque « couleur », (laquelle n'a rien à voir avec la couleur au sens usuel) « vert », « bleu », « rouge », pour que l'ensemble soit « non coloré ». D'autres particules, pions π et kaons K par exemple, sont constituées d'un quark et d'un antiquark, etc., tout cela de façon assez analogue à la formation de molécules en chimie à partir d'atomes. Pour avoir une idée de toute la richesse de combinaisons possibles et en même temps de la complexité et du gigantisme des appareils utilisés pour les détecter, je vous invite vivement à visiter le site du CERN, http ://www.cern.ch. Figure 2 Un événement observé aux anneaux de collision électrons-positrons du LEP. La figure 2 est un piètre exemple en noir et blanc de ce qu'on peut trouver en splendides couleurs sur ce site, une donnée expérimentale presque brute sortie du grand détecteur Aleph au collisionneur électrons-positrons LEP : les faisceaux d'électrons et positrons arrivent perpendiculairement à la figure, de l'avant et de l'arrière, au point d'interaction IP, où ils ont formé un boson Z de durée de vie extrêmement courte, qui s'est désintégré en une paire quark-antiquark, rapidement suivis de la création d'autres paires qui se sont réarrangées pour donner les traces visibles issues de IP et d'autres invisibles, car électriquement neutres, mais éventuellement détectables au moment de leur désintégration en particules chargées (pion, kaons et électrons en l'occurrence). En mesurant les longueurs des traces et les énergies des produits de désintégration et leur nature, on parvient à remonter aux propriétés des quarks produits au point IP et des mésons qu'ils ont formés. Cette figure, par son existence même, est un exemple de va et vient théorie-expérience : il faut avoir une idée très précise du genre d'événement que l'on cherche, et d'une interprétation possible, car il s'agit vraiment de chercher une aiguille dans une meule de foin : il y a un très grand nombre d'événements sans intérêt, que les ordinateurs qui pilotent l'expérience doivent rejeter avec fiabilité. Il est intéressant de noter que plusieurs membres de la figure 1 ont été prédits par cohérence de la théorie (voir plus bas), les quarks c, b, t, et le neutrino du τ, détecté pour la première fois il y a quinze jours, et, dans une certaine mesure, les bosons W et Z. Comme l'appellation des trois « couleurs », les noms de beaucoup de ces particules relèvent de la facétie d'étudiants ! Après la liste des particules, il nous faut parler de leurs interactions, car si elles n'interagissent pas entre elles, et finalement avec un détecteur, nous ne les connaîtrions pas ! En même temps que leurs interactions, c'est à dire leur comportement, nous aimerions comprendre comment on en a prédit certaines par cohérence de la théorie, mais aussi la raison de leur nombre, des caractéristiques de chacune, bref le pourquoi de tout (une ambition qui est fortement tempérée par l'indispensable humilité devant les faits) ! Dans le prochain paragraphe, nous tenterons cette explication. Comprendre Symétries et dynamique : la théorie quantique des champs Ici, les choses deviennent plus difficiles. Vous savez que les électrons tournent autour du noyau parce qu'ils sont négatifs et le noyau positif, et qu'il y a une attraction électrostatique entre les deux. Cette notion de force (d'attraction en l'occurrence) à distance n'est pas un concept compatible avec la relativité restreinte : une force instantanée, par exemple d'attraction électrostatique entre une charge positive et une charge négative, instantanée pour un observateur donné, ne le serait pas pour un autre en mouvement par rapport au premier. Pour les forces électrostatiques ou magnétiques par exemple, il faut remplacer la notion de force par celle d'échange de photons suivant le diagramme de la figure 3a. Ce diagramme décrit l'interaction entre deux électrons par l'intermédiaire d'un photon. Il peut aussi bien décrire les forces électrostatiques entre deux électrons d'un atome que l'émission d'un photon par un électron de la figure que vous êtes en train de regarder suivi de son absorption par un électron d'une molécule de rhodopsine dans votre rétine, qu'il amène ainsi dans un état excité, excitation ensuite transmise au cerveau. On remplace ainsi la force électromagnétique à distance par une émission et absorption de photons, chacune ponctuelle. Entre ces émissions et absorptions, photons et électrons se déplacent en ligne droite (le caractère ondulé de la ligne de photon n'est là que pour la distinguer des lignes d'électrons. On dit que le photon est le vecteur de la force électromagnétique. Les autres vecteurs de force sur la figure 3 sont les gluons g, vecteurs des interactions fortes entre les quarks, les bosons W et Z, vecteurs des interactions « faibles » responsables de la radioactivité β, et le graviton, responsable de la plus ancienne des forces connues, celle qui nous retient sur la Terre. Remarquons que l'on peut faire subir à la figure 3a une rotation de 90 degrés. Elle représente alors la formation d'un photon par une paire électron-antiélectron (ou positron), suivie par la désintégration de ce photon en une autre paire. Si on remplace le photon par un boson Z, et que celui-ci se désintègre en quark-antiquark plutôt qu'électron-positron, on obtient exactement le processus fondamental qui a engendré l'événement de la figure 2. Figure 3 Diagrammes de Feynman 3a : diffusion de deux électrons par échange d'un photon. 3b : création d'une paire électron-positron. 3c : une correction au processus 3a. La figure 3b décrit un autre processus, où le photon se désintègre en une paire électron-positron. En redéfinissant les lignes, une figure identique décrit la désintégration β du neutron par la transformation d'un quark d en quark u avec émission d'un boson W qui se désintègre en une paire électron-antineutrino. Si les « diagrammes de Feynman » de la figure 3 (du nom de leur inventeur) sont très évocateurs de ce qui se passe dans la réalité (la figure 2), il est extrêmement important de souligner qu'ils ne sont pas qu'une description heuristique des processus élémentaires d'interactions entre particules. Ils fournissent aussi des règles pour calculer ces processus avec une précision en principe presque arbitraire si on inclut un nombre suffisant de diagrammes (par exemple, le diagramme de la figure 3c est une correction à celui de la figure 3a, dans laquelle il y a une étape intermédiaire avec une paire électron-positron, qui modifie légèrement les propriétés de l'absorption, par la ligne de droite, du photon qui avait été émis par la ligne de gauche). Ces règles sont celles de la théorie quantique des champs, un cadre conceptuel et opérationnel combinant la mécanique quantique et la relativité restreinte qu'il a fallu environ 40 ans pour construire, une des difficultés principales ayant été de donner un sens aux diagrammes du genre de la figure 3c. En même temps que la dynamique des particules, cette théorie donne des contraintes sur celles qui peuvent exister, ou plutôt des prédictions d'existence sur d'autres non encore découvertes, étant données celles qu'on connaît déjà. Ce fut le cas des quarks c, b et t, et du neutrino du τ. Elle implique aussi l'existence des antiparticules pour les quarks et leptons (les vecteurs de force sont leurs propres antiparticules). Un des guides dans cette construction a été la cohérence, mais aussi l'unification par des symétries, de plus en plus grandes au fur et à mesure de la découverte de particules avec des propriétés nouvelles, et on a trouvé que cohérence et unification allaient ensemble. Avoir un principe de symétrie est puissant, car il limite et parfois détermine entièrement les choix des particules et leurs interactions, mais aussi, une fois qu'on en connaît certaines, d'autres sont déterminées. Cela permet ainsi d'appréhender avec efficacité toute cette faune. Par exemple, la symétrie entre électron et neutrino, ou entre les quarks u et d conduit à la prédiction des bosons W, mais alors on s'aperçoit immédiatement qu'en même temps il faut introduire le Z ou le photon ou les deux, et en même temps aussi leurs interactions sont déterminées. De même, le gluon et la force forte sont la conséquence d'une symétrie entre les trois « couleurs » de quarks. Ces symétries sont des rotations dans un espace interne, notion que nous allons à présent essayer d'expliciter avec une image simple en utilisant un Rubik’s cube. Un Rubik’s cube peut subir des rotations d'ensemble, que nous pouvons appeler transformations externes, et des transformations internes qui changent la configuration des couleurs de ses 9×6=54 facettes. Il faut imaginer qu'un électron ou un quark sont comme une configuration du cube, et que les symétries de la théorie sont les transformations internes qui font passer d'une configuration du cube à une autre. En fait, comme en chaque point de l'espace-temps il peut y avoir n'importe quelle particule, il faut imaginer qu'en chaque point de l'espace-temps il y a l'analogue d'un tel Rubik cube, espace « interne » des configurations de particules. Bien plus, on peut exiger que la théorie soit symétrique par rapport à l'application de transformations du cube différentes, indépendantes les unes des autres, en chaque point. On constate alors qu'on doit naturellement introduire des objets qui absorbent en quelque sorte le changement de la description de l'espace interne quand on passe d'un point à son voisin. Ces objets sont précisément les vecteurs des forces. De plus, les détails de la propagation, de l'émission et de l'absorption de ces particules vecteurs de forces sont prédits de façon à peu près unique. Il est facile d'imaginer que tout ceci fait intervenir une structure mathématique à la fois très complexe et très riche, malheureusement impossible à décrire dans le cadre de cette conférence. Un dernier ingrédient de la construction est la notion de brisure spontanée de symétrie. Car certaines des symétries dont il vient d'être question sont exactes (par exemple celle entre les « couleurs » des quarks), d'autres ne sont qu'approchées : par exemple, un électron et son neutrino n'ont pas la même masse. Dans le phénomène de brisure spontanée de symétrie, on part d'une théorie et d'équations symétriques, mais leurs solutions stables ne sont pas nécessairement symétriques chacune séparément, la symétrie faisant seulement passer d'une solution à une autre. Ainsi dans l'analogue classique d'une bille au fond d'une bouteille de Bordeaux : le problème de l'état d'équilibre de la bille au fond est symétrique par rotation, mais la position effectivement choisie par la bille ne l'est pas. Il y a une infinité de positions d'équilibre possibles, la symétrie par rotation du problème faisant seulement passer de l'une à une autre. La brisure de symétrie permet de comprendre le fait que les leptons chargés par exemple n'aient pas la même masse que leurs neutrinos associés, ou que le photon soit de masse nulle, alors que le W et le Z sont très lourds. L'ensemble de la construction trop brièvement décrite dans ce chapitre a valu le prix Nobel 1999 à Gerhardt 't Hooft et Martinus Veltman, qui en avaient été les principaux artisans dans les années 1970. À l'issue de tout ce travail, on a obtenu ce que l'on appelle le Modèle Standard. C'est l'aboutissement actuel d'unifications successives des forces, commencées par Maxwell au siècle dernier entre électricité et magnétisme (électromagnétisme) qui à présent incluent les interactions faibles : on parle des forces électrofaibles pour englober le photon et les bosons W et Z[1] . Le Modèle Standard prédit l'existence d'une particule, la seule non encore observée dans le modèle, le boson de Higgs, et comment celui-ci donne leur masse à toutes les particules par le mécanisme de brisure de symétrie. Ce dernier acteur manquant encore à l'appel fait l'objet d'une recherche intense, à laquelle le prochain accélérateur du CERN, le LHC, est dédiée. S'il décrit qualitativement et quantitativement pratiquement toutes les particules observées et leurs interactions (le « comment »), le Modèle Standard laisse sans réponse beaucoup de questions « pourquoi ». Par exemple pourquoi y a-t-il trois générations (les colonnes verticales dans la figure 1) ? Pourquoi la force électrofaible comprend-elle quatre vecteurs de force (il pourrait y en avoir plus) ? Par ailleurs toutes les masses et constantes de couplage des particules sont des paramètres libres du modèle. Il y en a une vingtaine en tout, ce qui est beaucoup : on aimerait avoir des principes qui relient ces données actuellement disconnectées. Peut-on unifier plus : y a-t-il une symétrie reliant les quarks aux leptons ? De plus, des considérations plus élaborées permettent d'affirmer que dans des domaines d'énergie non encore atteints par les accélérateurs, le modèle devient inopérant : il est incomplet, même pour la description des phénomènes pour lesquels il a été construit. Plus profondément, il laisse de côté la gravitation. La satisfaction béate ne règne donc pas encore, et nous allons dans le chapitre suivant présenter les spéculations actuelles permettant peut-être d'aller au delà. Au delà du Modèle Standard Grande unification, supersymétrie et supercordes La gravitation universelle introduite par Newton a été transformée par Einstein en la relativité générale, une théorie d'une grande beauté formelle et remarquablement prédictive pour l'ensemble des phénomènes cosmologiques. Mais il est connu depuis la naissance de la mécanique quantique que la relativité générale est incompatible avec celle-ci : quand on tente de la couler dans le moule de la théorie quantique des champs, en faisant du graviton le vecteur de la force de gravitation universelle, on s'aperçoit que les diagrammes de Feynman du type de la figure 3c où on remplace les photons par des gravitons sont irrémédiablement infinis : ceci est dû au fait que lorsqu'on somme sur toutes les énergies des états intermédiaires électron-positron possibles, les états d'énergie très grande finissent par donner une contribution arbitrairement grande, entraînant l'impossibilité de donner un sens à la gravitation quantique. La relativité générale doit être considérée comme une théorie effective seulement utilisable à basse énergie. Trouver une théorie cohérente qui reproduise la relativité générale à basse énergie s'est révélé un problème particulièrement coriace, et un premier ensemble de solutions possibles (ce qui ne veut pas dire que la réalité est parmi elles !) est apparu de manière totalement inattendue vers le milieu des années 1970 avec les théories de cordes. Dans cette construction, on généralise la notion de particule ponctuelle, élémentaire, qui nous avait guidés jusqu'à présent à celle d'un objet étendu, une corde très fine, ou plutôt un caoutchouc, qui se propage dans l'espace en vibrant. Un tel objet avait été introduit vers la fin des années soixante pour décrire certaines propriétés des collisions de protons et autres particules à interactions fortes. Il se trouve qu'il y a là un très joli problème de mécanique classique qu'Einstein lui-même aurait pu résoudre dès 1905, s'il s'était douté qu'il était soluble ! De même qu'une particule élémentaire ponctuelle, en se propageant en ligne droite à vitesse constante minimise la longueur de la courbe d'espace-temps qui est sa trajectoire, la description de la propagation et des modes de vibration d'une de ces cordes revient à minimiser la surface d'espace-temps qu'elle décrit (l'analogue d'une bulle de savon, qui est une surface minimale !), ce qui peut être effectué exactement. Le nom de corde leur a été donné par suite de l'exacte correspondance des modes de vibration de ces objets avec ceux d'une corde de piano. Quand on quantifie ces vibrations à la façon dont on quantifie tout autre système mécanique classique, chaque mode de vibration donne tout un ensemble de particules, et on sait calculer exactement les masses de ces particules. C'est là que les surprises commencent ! On découvre tout d'abord que la quantification n'est possible que si la dimension de l'espace-temps est non point quatre, mais 26 ou 10 ! Ceci n'est pas nécessairement un défaut rédhibitoire : les directions (encore inobservées ?) supplémentaires peuvent être de très petite dimension, et être donc encore passées inaperçues. On découvre simultanément que les particules les plus légères sont de masse nulle et que parmi elles il y a toujours un candidat ayant exactement les mêmes propriétés que le graviton à basse énergie. De plus, quand on donne la possibilité aux cordes de se couper ou, pour deux, de réarranger leur brins au cours d'une collision, on obtient une théorie dans laquelle on peut calculer des diagrammes de Feynman tout à fait analogue à ceux de la figure 3, où les lignes décrivent la propagation de cordes libres. Cette théorie présente la propriété d'être convergente, ce qui donne donc le premier exemple, et le seul connu jusqu'à présent, d'une théorie cohérente incluant la gravitation. Les modes d'excitation de la corde donnent un spectre de particules d'une grande richesse. La plupart sont très massives, et dans cette perspective d'unification avec la gravitation, inobservables pour toujours : si on voulait les produire dans un accélérateur construit avec les technologies actuelles, celui-ci devrait avoir la taille de la galaxie ! Seules celles de masse nulle, et leurs couplages entre elles, sont observables, et devraient inclure celles du tableau de la figure 1. Remarquons ici un étrange renversement par rapport au paradigme de l'introduction sur l'« élémentarité » des particules « élémentaires » : elles deviennent infiniment composées en quelque sorte, par tous les points de la corde, qui devient l'objet « élémentaire » ! Au cours de l'investigation de cette dynamique de la corde au début des années 1970, on a été amené à introduire une notion toute nouvelle, celle de supersymétrie, une symétrie qui relie les particules du genre quarks et leptons (fermions) de la figure 1 aux vecteurs de force. En effet, la corde la plus simple ne contient pas de fermion dans son spectre. Les fermions ont été obtenus en rajoutant des degrés de liberté supplémentaires, analogues à une infinité de petits moments magnétiques (spins) le long de la corde. La compatibilité avec la relativité restreinte a alors imposé l'introduction d'une symétrie entre les modes d'oscillation de ces spins et ceux de la position de la corde. Cette symétrie est d'un genre tout à fait nouveau : alors qu'une symétrie par rotation par exemple est caractérisée par les angles de la rotation, qui sont des nombres réels ordinaires, cette nouvelle symétrie fait intervenir des nombres aux propriétés de multiplication très différentes : deux de ces nombres, a et b disons, donnent un certain résultat dans la multiplication a×b, et le résultat opposé dans la multiplication b×a : a×b= b×a. On dit que de tels nombres sont anticommutants. À cause de cette propriété nouvelle, et de son effet inattendu d'unifier particules et forces, on a appelé cette symétrie supersymétrie, et supercordes les théories de cordes ayant cette (super)symétrie. A posteriori, l'introduction de tels nombres quand on parle de fermions est naturelle : les fermions (l'électron en est un), satisfont au principe d'exclusion de Pauli, qui est que la probabilité est nulle d'en trouver deux dans le même état. Or la probabilité d'événements composés indépendants est le produit des probabilités de chaque événement : tirer un double un par exemple avec deux dés a la probabilité 1/36, qui est le carré de 1/6. Si les probabilités (plus précisément les amplitudes de probabilité) pour les fermions sont des nombres anticommutants, alors, immédiatement, leurs carrés sont nuls, et le principe de Pauli est trivialement satisfait ! Les extraordinaires propriétés des théories des champs supersymétriques et des supercordes ont été une motivation puissante pour les mathématiciens d'étudier de façon exhaustive les structures faisant intervenir de tels nombres anticommutants. Un exemple où on voit des mathématiques pures sortir en quelque sorte du réel. De nombreux problèmes subsistent. En voici quelques uns : - L'extension et la forme des six dimensions excédentaires : quel degré d'arbitraire y a-t-il dedans (pour l'instant, il semble trop grand) ? Un principe dynamique à découvrir permet-il de répondre à cette question ? Ces dimensions excédentaires ont-elles des conséquences observables avec les techniques expérimentales actuelles ? - La limite de basse énergie des cordes ne contient que des particules de masse strictement nulle et personne ne sait comment incorporer les masses des particules de la figure 1 (ou la brisure de symétrie qui les engendre) sans détruire la plupart des agréables propriétés de cohérence interne de la théorie. Une des caractéristiques des supercordes est d'englober toutes les particules de masse nulle dans un seul et même multiplet de supersymétrie, toutes étant reliées entre elles par (super)symétrie. En particulier donc, quarks et leptons, ce qui signifie qu'il doit exister un vecteur de force faisant passer d'un quark à un lepton, et donc que le proton doit pouvoir se désintégrer en leptons (positron et neutrinos par exemple) comme la symétrie de la force électrofaible implique l'existence du boson W et la désintégration du neutron. Or, le proton est excessivement stable : on ne connaît expérimentalement qu'une limite inférieure, très élevée, pour sa durée de vie. La brisure de cette symétrie quark-lepton doit donc être très grande, bien supérieure à celle de la symétrie électrofaible. L'origine d'une telle hiérarchie de brisures des symétries, si elle existe, est totalement inconnue. - Doit-on s'attendre à ce qu'il faille d'abord placer les cordes dans un cadre plus vaste qui permettrait à la fois de mieux les comprendre et de répondre à certaines de ces questions ? Nul ne sait. En attendant, toutes les questions passionnantes et probablement solubles dans le cadre actuel n'ont pas encore été résolues. Entre autres, les cordes contiennent une réponse à la question de la nature de la singularité présente au centre d'un trou noir, objet dont personne ne doute vraiment de l'existence, en particulier au centre de nombreuses galaxies. Également quelle a été la nature de la singularité initiale au moment du Big Bang, là où la densité d'énergie était tellement grande qu'elle engendrait des fluctuations quantiques de l'espace, et donc où celui-ci, et le temps, n'avaient pas l'interprétation que nous leur donnons usuellement d'une simple arène (éventuellement dynamique) dans laquelle les autres phénomènes prennent place. Toutes ces questions contiennent des enjeux conceptuels suffisamment profonds sur notre compréhension ultime de la matière, de l'espace et du temps pour justifier l'intérêt des talents qui s'investissent dedans. Mais ces physiciens sont handicapés par l'absence de données expérimentales qui guideraient la recherche. Le mécanisme de va et vient expérience-théorie mentionné dans l'introduction ne fonctionne plus : le Modèle Standard rend trop bien compte des phénomènes observés et observables pour que l'on puisse espérer raisonnablement que l'expérience nous guide efficacement dans le proche avenir. Mais à part des surprises dans le domaine (comme par exemple la découverte expérimentale de la supersymétrie), peut-être des percées viendront de façon complètement imprévue d'autres domaines de la physique, ou des mathématiques. Ce ne serait pas la première fois. Quelle que soit la direction d'où viennent ces progrès, il y a fort à parier que notre vision de la particule élémentaire en sera une fois de plus bouleversée.
[1] Voir la 212e conférence de l’Université de tous les savoirs donnée par D. Treille.

 

 VIDEO     canal U       LIEN 

 
 
 
initiation musicale toulon  

La physique quantique réinvente les algorithmes

 

 

 

 

 

 

 

La physique quantique réinvente les algorithmes
Frédéric Magniez, Iordanis Kerenidis dans mensuel 501
daté juillet-août 2015 (numéro double, n° 501 + 502) -

Les algorithmes peuvent réaliser des opérations en parallèle de façon massive et combiner leurs résultats en une réponse unique. De quoi casser tous les modes classiques de chiffrement.
Calculer plus vite, utiliser moins de mémoire et résoudre des problèmes plus complexes ! Tels sont les espoirs portés par l'ordinateur quantique. Grâce aux propriétés de la physique quantique, on estime que le temps passé à résoudre des problèmes liés à la recherche de documents serait réduit quadratiquement, c'est-à-dire en temps T au lieu de T2. Dans d'autres cas, comme la factorisation ou autres problèmes arithmétiques réputés difficiles, le calculateur pourrait faire encore mieux et résoudre ces problèmes en temps T au lieu de l'ordre de 2T ! Ainsi, un problème qui prendrait 30 milliards d'années à un ordinateur classique serait résolu en 60 secondes par un ordinateur quantique...
Comment s'explique cette supériorité du calculateur quantique ? Comme le calculateur classique, il utilise des données binaires, codées par des 1 et des 0. Mais, tandis qu'un bit classique se trouve soit dans l'état 1, soit dans l'état 0, indépendamment de l'état des autres bits, les bits quantiques (qubits) peuvent être dans des états intermédiaires et être corrélés les uns avec les autres. Ces propriétés permettent de calculer plus rapidement, notamment de factoriser* plus facilement, alors que la plupart des calculateurs classiques doivent passer par des étapes logiques bien plus nombreuses pour arriver à la réponse. Ainsi, les algorithmes quantiques mènent de front plusieurs calculs (en superposition) et combinent leurs différents résultats en une réponse unique ou en un petit ensemble. C'est d'ailleurs cette deuxième étape qui différencie le calcul quantique du calcul classique, y compris probabiliste. En effet, rien n'empêche un ordinateur actuel de tirer au sort un des différents calculs à mener. Le résultat est alors une distribution de probabilités de « tous » les calculs possibles. En revanche, il ne peut pas combiner ces différents calculs, alors qu'un ordinateur quantique le pourrait.

Transformée de Fourier
Pour le moment, l'ordinateur capable d'utiliser ces propriétés de la physique quantique n'existe pas. Cela n'a pas empêché les physiciens et les mathématiciens, depuis les années 1980, d'imaginer ces applications dans les calculs algorithmiques. Examinons quelques-uns des algorithmes quantiques.
Le premier d'entre eux repose sur l'application d'une opération bien connue en mathématiques et en physique classique : la transformée de Fourier. Cette opération révèle la structure périodique d'un signal telle qu'elle apparaît, par exemple, sur un oscilloscope. Ses propriétés combinatoires sont aussi utilisées pour multiplier rapidement deux nombres à n chiffres : les n X n opérations sont alors transformées n log n opérations. La transformée de Fourier n'est pas trop longue en calcul classique, mais elle devient quasiment instantanée pour un ordinateur quantique. Une des raisons de cette accélération tient au fait que la transformée quantique ne calcule pas tous les coefficients de Fourier, mais seulement une superposition de ces derniers. Il s'avère que c'est ce type de superpositions quantiques qui donne la puissance au calcul quantique, permettant ainsi de craquer tous les systèmes de chiffrement actuels (RSA, Diffie-Hellman...).
Appliquons cela au chiffrement RSA (dit asymétrique), un algorithme de cryptographie décrit en 1977 et très utilisé pour échanger des données confidentielles sur Internet. Ce chiffrement encode un message à l'aide de deux grands entiers p et q. Ces entiers ont plusieurs propriétés dont celle d'être premiers, c'est-à-dire qu'il est impossible de les écrire comme produit de deux autres nombres. Par exemple, 17 est premier, mais 15 = 3 X 5 ne l'est pas. Le chiffrement s'effectue par la connaissance de l'entier n = p X q résultant du produit de p par q, alors que le déchiffrement utilise la connaissance « explicite » de p et q. Seul l'entier n est donc rendu public afin que tout le monde puisse chiffrer un message avant de l'envoyer, et seul celui qui connaît p et q peut alors le déchiffrer. Cette capacité de chiffrement « public » semble être une faiblesse puisqu'il suffit de factoriser n pour connaître p et q. Il existe en effet depuis bien longtemps une construction élégante qui permet de ramener le problème de la factorisation de n à celui du calcul de la période d'une fonction construite à partir de n uniquement. Cette fonction associe à tout entier x un entier f(x) tel que pour toute période entière r, f(x+r) = f(x) pour toute valeur x. Non seulement la fonction se calcule très rapidement, mais, de surcroît, la période est directement reliée à p et q (il faut faire tout de même un peu d'arithmétique élémentaire, non détaillée ici).
Cependant, le calcul d'une période est difficile pour un calculateur classique, cela prendrait même plusieurs millénaires avec les systèmes de chiffrement actuels. C'est pour cette raison qu'on l'utilise en cryptographie, notamment pour les cartes bancaires. Mais, en 1994, Daniel Simon et Peter Shor ont établi le premier algorithme quantique. Cet algorithme permet notamment le calcul de la période de telles fonctions, et donc des facteurs p et q. Ainsi, le déchiffrement de l'algorithme de cryptographie devient quasi instantané !
Les applications de la transformée de Fourier en calcul quantique ont évolué. Ainsi, l'informaticien américain Lov Grover l'a utilisée en 1996 pour concevoir un autre algorithme quantique permettant de rechercher un élément dans un ensemble non structuré de taille N (par exemple, retrouver un nom à partir d'un numéro de téléphone à partir d'un annuaire alphabétique) en seulement T√N, alors qu'une recherche exhaustive nécessiterait d'examiner toutes les possibilités, et donc en TN. L'idée a donné naissance à la technique d'amplitude des superpositions qui explique ce gain quadratique. Dans notre exemple, on pourrait imaginer tirer un nom au hasard. La chance de tirer le bon nom correspond à la probabilité p=1/N. Les statistiques nous enseignent qu'il suffit de recommencer 1/p=N fois pour tomber sur le bon nom. En quantique, chaque probabilité des statistiques est remplacée par une « amplitude de superposition » qui correspond intuitivement à la racine carrée d'une probabilité. Il suffit alors de recommencer le tirage √N fois (l'inverse de 1/√N), mais quantiquement !

Marche aléatoire
Un autre principe classique trouve une application dans le domaine quantique, celui de la marche aléatoire. Une marche aléatoire modélise le fait de se déplacer aléatoirement, par exemple sur Internet en cliquant sur des liens au hasard, ou bien dans une ville en choisissant des rues au hasard à chaque intersection. Les marches aléatoires sont des objets mathématiques très utilisés dans la modélisation de phénomènes statistiques, mais aussi dans la conception d'algorithmes, comme le PageRank de Google. Il se trouve, encore une fois, que ces marches ont leurs analogues quantiques qui se propagent quadratiquement plus vite [1]. Ces marches quantiques ont été utilisées pour concevoir les meilleurs algorithmes quantiques de recherche de stratégies dans les jeux à deux joueurs [2] (comme les échecs, mais en plus simple), ou pour rechercher des doublons dans une base de données (par exemple, deux fois le même numéro de téléphone dans un annuaire).
Le calcul quantique peut résoudre des problèmes de communication avec une efficacité inédite et prouvée. Étudions un exemple concret de calcul dans « le nuage » (cloud computing). Imaginons que deux grands concurrents, appelons-les Pomme et Androïde, prétendent pouvoir effectuer des calculs très difficiles (par exemple, des simulations) sur des données massives. En tant que client, nous voudrions savoir si ces calculs sont indifféremment exécutés par ces deux compagnies. Bien entendu, Pomme et Androïde ne veulent pas communiquer entre eux, mais ils se mettent d'accord néanmoins pour nous envoyer chacun un message afin de nous laisser établir si leurs résultats sont identiques ou pas. En informatique, un tel message est appelé une empreinte numérique (fingerprint). Si la taille des données est de 1 téraoctet*, alors l'empreinte à envoyer est seulement d'environ 40 octets si elle peut être quantique, mais de plus de 1 mégaoctet si elle est classique.
Le nom d'empreinte numérique (lire « Réduire considérablement la taille des empreintes quantiques », p. 71) se justifie par le fait que ces messages, même en contenant peu d'informations, sont suffisamment expressifs pour identifier un grand document. Dans le cas quantique, ces empreintes quantiques ne sont pas facilement réalisables car elles nécessitent des états fortement intriqués. Néanmoins, des tentatives de réalisation ont débuté, notamment par une collaboration entre plusieurs groupes d'Amérique du Nord et de Chine [3], en utilisant des états cohérents, c'est-à-dire avec des variables continues. Cela donnera peut-être bientôt lieu à la première réalisation pratique d'une communication quantique plus efficace qu'une communication classique.

Carte quantique
Nous venons de voir quelques exemples de la supériorité du calcul quantique. Cependant, il existe quelques limites. D'un point de vue purement calculatoire, un ordinateur quantique ne résout pas plus de choses qu'un ordinateur classique. Sa supériorité se situe au niveau de l'efficacité. De même, il n'est pas plus rapide pour certains problèmes tels que la recherche de documents déjà triés par ordre alphabétique. La situation n'est pas simple, et toute une communauté de chercheurs s'est investie de la lourde tâche de dresser une carte « quantique » de la complexité algorithmique des problèmes informatiques.
Par ailleurs, que faire de toute cette recherche si les ordinateurs quantiques tardaient à venir, ou pire, s'ils n'étaient jamais créés ? Sur le plan scientifique, l'étude des algorithmes quantiques a d'ores et déjà fourni de nouveaux outils permettant d'étudier et de mieux comprendre le calcul et l'information classiques. Plusieurs fois, une intuition venue de l'informatique quantique a déclenché la résolution de problèmes ouverts et réputés difficiles en informatique non quantique [4]. Ainsi, des résultats sur les codes correcteurs classiques, sur l'efficacité des programmes linéaires pour résoudre des problèmes tels que ceux du voyageur de commerce, ou encore sur les liens entre théorie de l'information et la complexité de la communication ont été retrouvés, simplifiés ou juste découverts grâce à deux décennies de recherche dédiée à une meilleure compréhension des supériorités offertes par l'information et le calcul quantiques.

*FACTORISER c'est écrire une somme de deux expressions littérales sous la forme d'un produit. Exemple : la forme factorisée de ab+ac c'est a×(b+c).
*1 OCTET = 8 BITS, 1 megaoctet = 106 octets, 1 téraoctet = 1012 octets.

L'ESSENTIEL
- DÈS LES ANNÉES 1980, les physiciens souhaitent appliquer les propriétés de la physique quantique aux ordinateurs.
- À DÉFAUT DE RÉALISER un ordinateur quantique, ils conçoivent des algorithmes permettant d'entrevoir sa puissance de calcul.
- DES PROBLÈMES qui prendraient des milliards d'années, seraient résolus en quelques secondes par un ordinateur quantique.

RÉDUIRE CONSIDÉRABLEMENT LA TAILLE DES EMPREINTES NUMÉRIQUES
La magie de l'empreinte quantique repose sur la possibilité de représenter un grand nombre de bits classiques avec un très petit nombre de bits quantiques (en réalité logarithmique). Il est ainsi possible d'encoder un fichier classique de mille milliards d'octets en utilisant seulement 40 octets quantiques, de telle sorte que cette empreinte est suffisante pour confirmer si les deux fichiers sont identiques ou pas.
La première étape est en fait très « classique ». Elle consiste à utiliser des codes correcteurs d'erreurs afin de transformer le fichier, de sorte que tout autre fichier différent deviendrait très différent, même s'il différait initialement d'un seul bit. Les codes correcteurs sont présents dans les applications numériques de tous les jours : télécommunications, disques durs, disques Blu-Ray, etc. La deuxième étape actuelle, et donc classique, consiste à effectuer une empreinte de taille quadratiquement plus petite (1 mégaoctet dans l'exemple) que le fichier initial. C'est dans cette seconde étape que les empreintes quantiques peuvent être beaucoup plus petites (40 octets dans l'exemple). Pour expliquer cette construction, considérons un fichier constitué des 8 bits : 00110101. Une façon d'encoder ce fichier est d'énumérer chaque bit précédé de sa position : (1,0), (2,0), (3,1), (4,1), (5,0), (6,1), (7,0), (8,1). Un des intérêts de cette première empreinte (bien trop longue) est que l'ordre n'est plus important, puisque la position est ajoutée à chaque bit. La position peut elle-même être écrite en binaire, cette fois-ci de 0 à 7 au lieu de 1 à 8 : (000,0), (001,0), (010,1), (011,1), (100,0), (101,1), (110,0), (111,1). L'empreinte quantique est donc obtenue par la création d'une superposition de ces 8 paires, au lieu de les écrire à la suite les unes des autres. On utilise ainsi 3 qubits (bits quantiques) pour les indices et un qubit pour la valeur. La superposition est donc sur seulement 4 qubits au lieu des 8 bits du fichier classique initial.

LÉO DUCAS : L'ELDORADO POST-QUANTIQUE
« TOUS LES SYSTÈMES DE SÉCURISATION utilisés en pratique aujourd'hui sur Internet ou sur les cartes à puce (RSA et logarithmes discrets) sont fondés sur des problèmes mathématiques « difficiles » qu'un ordinateur quantique est susceptible de casser rapidement. La cryptographie post-quantique est, par définition, celle qui résiste - ou plutôt résisterait - à l'avènement de l'ordinateur quantique. Résisterait, car on ne peut pas prouver qu'un crypto-système est incassable, sauf à faire des hypothèses supplémentaires. Par exemple, en s'appuyant sur la difficulté supposée du problème du logarithme discret, on construit des signatures* sûres. La cryptographie s'offre ainsi quelques axiomes, mais la meilleure garantie de sécurité reste l'épreuve du temps.

POUR RÉSISTER À L'ORDINATEUR QUANTIQUE, il faut trouver de nouveaux problèmes insensibles à l'approche quantique. Depuis quelques années, les réseaux euclidiens - sorte de grille multidimensionnelle -, objets fondamentalement géométriques, se sont révélés de bons candidats. Précisément, l'hypothèse est qu'il est difficile de calculer un court vecteur dans un réseau euclidien à n dimensions. Avant même de construire à partir de cette hypothèse, il faut comprendre les attaques potentielles. Phong Nguyen et Nicolas Gama, de l'École normale supérieure, ont ainsi mis en évidence que les meilleures méthodes cherchant des courts vecteurs pouvaient s'interpréter comme des versions algorithmiques de théorèmes que Charles Hermite ou Hermann Minkowski avaient énoncés au XIXe siècle [1]. L'intérêt nouveau pour ces réseaux a été l'occasion d'une grande créativité comme l'invention en 2009 du « chiffrement totalement homomorphe » par Craig Gentry [2], issue du foisonnement de travaux sur les réseaux euclidiens. Ce chiffrement permet dans son principe d'effectuer des calculs directement sur les données dont on ne connaît pas les valeurs.

RESTE QUE LES RÉSEAUX EUCLIDIENS présentent un inconvénient majeur : il faut près d'un mégaoctet pour enregistrer les données correspondant à un réseau de 500 dimensions, taille minimale pour résister aux attaques connues. Autrement dit, la taille des clés est en pratique beaucoup trop longue pour être enregistrée sur la puce d'une carte de crédit, par exemple. Certains types de réseaux euclidiens nouvellement considérés - les réseaux compacts - fournissent toutefois des clés bien plus petites. Mais ces réseaux compacts issus de la « théorie des corps de nombres » sont-ils aussi sûrs que les réseaux euclidiens quelconques ? C'est une question à laquelle les cryptanalystes et les algébristes doivent répondre. Une réponse possible serait que certaines classes de réseaux compacts sont sûres aujourd'hui, mais ne seraient pas « post-quantiques ». De nouveau, l'exercice consiste à réinterpréter des théories mathématiques des XIXe et du XXe siècle, pour construire des algorithmes.
Les systèmes de sécurisation capables de résister à un ordinateur quantique sont donc encore hors de portée, dans la mesure où leurs frontières ne sont pas aujourd'hui parfaitement définies. Cependant, la quête de cet « eldorado postquantique » aura fait avancer nos connaissances cryptographiques de manière considérable ! »
Propos recueillis par Philippe Pajot
[1] N. Gama et P. Q. Nguyen, STOC 2008.
[2] C. Gentry, STOC 2009.
* LA SIGNATURE est un mécanisme permettant de garantir l'intégrité d'un document électronique et d'en authentifier l'auteur.

 

 DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google