|
|
|
|
|
|
Astrophysique au laboratoire |
|
|
|
|
|
Astrophysique au laboratoire
A l'observation et la théorie se sont ajoutées la simulation numérique et même l'expérience.
Publié le 10 décembre 2015
TÉLESCOPES ET SATELLITES
En astrophysique, les découvertes sont essentiellement faites grâce à des télescopes au sol ou embarqués à bord de satellites.
L’ensemble des rayonnements forme le spectre électromagnétique ; qui est utilisé depuis les ondes radio jusqu’aux rayons X ou gamma, chaque domaine spectral apportant des informations spécifiques. Par exemple :
* les rayons infrarouges nous apprennent où et comment les étoiles et les planètes se forment ;
* la lumière visible renseigne sur les propriétés du gaz de la photosphère des étoiles ;
* les rayons X et gamma révèlent les phénomènes parfois très violents qui adviennent à la fin de la vie d’une étoile : supernovas, pulsars, étoiles à neutrons, trous noirs.
Ces rayonnements se distinguent par leur longueur d’onde, mesure de l’énergie qu’ils transportent. Plus la longueur d’onde est courte, plus le rayonnement transporte d’énergie et plus le gaz qui l’a produit est chaud. A l’inverse, les grandes longueurs d’onde sont caractéristiques de rayonnements moins énergétiques et issus de milieux plus froids.
L’interprétation des données recueillies permet de déterminer la luminosité de l’étoile, sa température de surface, sa vitesse radiale ou sa composition chimique.
AU LABORATOIRE
Recréer sur Terre les phénomènes violents, qui agitent les astres et le milieu interstellaire, a longtemps été impensable, car cela nécessite de fournir des quantités phénoménales d’énergie pour chauffer et comprimer la matière et obtenir un plasma qui ressemble à ceux que l’on observe en astrophysique.
Les progrès réalisés sur les lasers permettent désormais cette astrophysique de laboratoire. Les échantillons étudiés grâce à des lasers à haute énergie mesurent quelques centimètres cubes. Ces expériences permettent d’acquérir des données de physique fondamentale et d’analyser des phénomènes astrophysiques dynamiques où se mélangent instabilités, rayonnement et champ magnétique.
On déduit ce qui pourrait se passer dans un plasma de taille astrophysique en utilisant des lois d’échelle.
Grâce aux accélérateurs d’ions lourds du Ganil, les physiciens explorent l’infiniment petit : la structure des noyaux, leurs propriétés thermiques et mécaniques…
Ils créent des noyaux exotiques, qui n’existent pas sur Terre mais peuplent le cœur des étoiles, et recréent de minuscules « étoiles » au sein de leurs installations.
SIMULATION NUMÉRIQUE
Après l’observation et l’instrumentation, la simulation est la troisième voie de recherche en astrophysique. Les principales études concernent la cosmologie, la physique stellaire, l’étude des disques protoplanétaires et celle du milieu interstellaire.
Grâce au développement de supercalculateurs, reconstituer l’évolution de la matière dans l’Univers est désormais possible. A charge pour les ordinateurs de résoudre les équations de la gravité, de la mécanique des fluides et de la physique des gaz qui régissent ces mouvements, en partant de données initiales connues.
Pour valider leurs théories, les chercheurs découpent l’Univers en cubes, plus ou moins petits en fonction de la densité de la matière. La plus grande simulation a été réalisée par le projet Horizon : elle a reconstitué l’évolution de 70 milliards de particules de matière noire dans un cube de 6 milliards d’années-lumière de côté (la moitié de l’Univers observable !), divisé en 140 milliards de mailles.
ASTÉROSISMOLOGIE
La surface d’une étoile est animée par les mouvements turbulents qui agitent sa zone convective et engendrent des ondes acoustiques qui se propagent en son sein. Puisque le vide règne dans l’espace, les chercheurs ne peuvent pas les écouter directement ; ils enregistrent les mouvements de dilatation et de compression en analysant les mouvements de surface.
Chacune de ces millions de pulsations doit être étudiée individuellement. Cela permet de déterminer la vitesse du son et donc la densité et la température au sein de l’étoile, couche par couche. La sismologie stellaire a pris son essor avec le satellite SOHO, observant le Soleil, mais aussi avec le satellite Kepler pour les autres étoiles. L’aventure va continuer avec le lancement de la mission Plato de l’ESA, prévu vers 2025, qui étudiera les vibrations de centaines de milliers d’étoiles de la Voie lactée.
Webdoc L'Odyssée de la Lumière
* Voir le webdoc L'Odyssée de la Lumière
OBSERVATION EN RAYONS X ET GAMMA
INTEGRAL
Les vestiges chauds et radioactifs des explosions d’étoiles émettent des rayonnements X et gamma. Ce sont eux que les astrophysiciens observent, car cette partie la plus énergétique du spectre électromagnétique apporte les indices les plus nets de la synthèse des noyaux d’atomes dans l’Univers. Le satellite Integral (International Gamma-Ray Astrophysics laboratory), lancé en octobre 2002, étudie la radioactivité de la Voie lactée et des galaxies voisines, permettant de préciser les modèles d’étoiles et de mieux comprendre les processus dynamiques qui engendrent leur explosion. Le but de ce télescope spatial est de détecter le rayonnement gamma émis par les éléments radioactifs à vie longue tels que l’aluminium 26, à vie moyenne comme le titane 44 et à vie courte tel le cobalt 56. Il permet également de repérer où se situe l’action de la nucléosynthèse dans la galaxie.
HESS
Installé en Namibie, le réseau de télescopes Hess observe les gerbes de particules provoquées par les particules ou les rayons gamma de haute énergie entrant dans l’atmosphère terrestre. Il en déduit l’origine, ce qui permet de mieux comprendre des sources comme la nébuleuse du Crabe, reste d’une supernova qui explosa en 1054. Plus d’une centaine de sources ont été recensées, certaines sont des restes de supernova ou des pulsars, d’autres sont de nature encore inconnue.
OBSERVATION EN INFRAROUGE
HERSCHEL
Le satellite Herschel, lancé en avril 2009, a fourni des images de l’Univers dans l’infrarouge lointain et submillimétrique. Celles-ci servent à une quarantaine de programmes d’observation qui portent sur l’origine de la masse des étoiles, la formation des étoiles massives, l’évolution du milieu interstellaire des galaxies et l’histoire de l’évolution des galaxies.
ALMA
Le télescope Apex détecte de nombreux objets célestes, qui seront ensuite étudiés plus précisément par Alma. © DR
Sur Terre, au Chili, les 66 antennes de l’observatoire Alma analysent le rayonnement émis par les nuages de gaz et de poussières très froids dans lesquels les étoiles sont en train de naître.
PLANCK
Entre 2009 et 2012, le télescope spatial Planck a cartographié l’intégralité de la voûte céleste dans 9 longueurs d’onde du domaine infrarouge, provenant de sources différentes : étoiles, poussières interstellaires, galaxies, amas galactiques… En ôtant de l’image complète les rayonnements émis par chaque source, il a fourni en 2013 l’image du plus ancien rayonnement de l’Univers, le fond diffus cosmologique, émis il y a 13,8 milliards d’années !
L’analyse de ce fond diffus cosmologique a permis de valider le modèle cosmologique standard d’un Univers en expansion accélérée, probablement issu d’une phase d’expansion exponentielle appelée inflation.
DOCUMENT cea LIEN |
|
|
|
|
|
|
Les ondes gravitationnelles vues de l'espace |
|
|
|
|
|
Les ondes gravitationnelles vues de l'espace
Éric Plagnol, Antoine Petiteau dans mensuel 506
daté décembre 2015 -
La mission spatiale Lisa Pathfinder doit être lancée cette année, en décembre. Objectif ? Démontrer que la détection d'ondes gravitationnelles, prédites par la relativité générale, est possible.
Le 2 décembre 2015, si tout se déroule comme prévu, une fusée Vega décollera de Kourou, en Guyane, avec à son bord la sonde Lisa Pathfinder. Après un voyage de quelques mois, cet instrument de l'Agence spatiale européenne (ESA) et de la Nasa sera placé entre la Terre et le Soleil. Son rôle ? Apporter la preuve qu'une mission spatiale d'observation des ondes gravitationnelles est possible. Si c'est un succès, une telle mission pourrait voir le jour d'ici à 2034. En jeu, pas moins que l'avènement d'une nouvelle astronomie, « gravitationnelle », qui permettra de détecter la fusion de trous noirs aux confins de l'Univers, de comprendre le rôle de ces derniers dans la formation des grandes structures, voire d'obtenir des renseignements sur la nature même de la gravité.
Que sont les ondes gravitationnelles ? Ce sont des déformations de l'espace-temps. Lorsque Einstein établit, en 1915, la théorie de la relativité générale, l'espace et le temps deviennent une entité unique et déformable. En particulier, la présence de masses déforme l'espace-temps. Dans cet espace-temps déformable, la matière ne se propage plus en ligne droite, mais « tombe » en suivant des lignes de plus court chemin, baptisées géodésiques. De plus, ces déformations peuvent se propager dans le cosmos, à la manière des ondes à la surface de l'eau. Dès 1916, Einstein prédit l'existence de ces ondes gravitationnelles. En même temps qu'il fait cette prédiction, il calcule leur intensité pour différentes configurations d'astres pouvant les produire. Sa conclusion ? Dans notre environnement proche, les principales sources d'ondes gravitationnelles - mouvement des planètes ou oscillations du Soleil - ne sont pas détectables.
Toutefois, la situation change lorsqu'on considère le mouvement rapide de corps massifs et denses, tels les étoiles à neutrons (*) ou les trous noirs, astres qui étaient alors inconnus d'Einstein. La déformation de l'espace-temps engendrée par le mouvement de ces systèmes devient alors suffisamment importante pour qu'il soit envisageable de la mesurer sur Terre. Comment cette déformation se traduit-elle ? Par des variations de longueur de l'espace-temps. Ainsi, si vous disposez d'une règle capable de mesurer précisément une longueur (par exemple entre deux miroirs), vous pourrez voir varier périodiquement cette longueur au passage d'une onde gravitationnelle.
Du moins en théorie. Car en pratique, il faut des événements violents, cataclysmiques, pour espérer déceler un changement de longueur au niveau de la Terre. Et même ainsi, les variations de longueurs induites sont extrêmement petites. Par exemple, la fusion de deux étoiles à neutrons dans une galaxie proche de la nôtre entraînerait sur Terre des distorsions mille fois plus petites qu'un atome (10-19 mètre) mesurées sur une longueur de quelques kilomètres.
Pour relever ce défi, la communauté des scientifiques travaillant sur les ondes gravitationnelles
a construit des détecteurs, dont Ligo aux États-Unis et Virgo en Italie. Le principe consiste à mesurer, à l'aide de lasers, des variations de distance entre des miroirs situés à plusieurs kilomètres les uns des autres. Leurs performances attendues rendent probable une détection d'ondes gravitationnelles d'ici à quelques années. Toutefois, ces observatoires terrestres ont une limite : ils ne peuvent détecter que les ondes gravitationnelles dont la fréquence est supérieure à 1 hertz, et qui correspondent àdeux étoiles à neutrons en rotation l'une autour de l'autre par exemple. En effet, les signaux d'ondes gravitationnelles à des fréquences inférieures seront noyés par des ondes sismiques qui surviennent en permanence à la surface de notre planète.
AMBITIEUX PROJET SPATIAL
Pour les ondes dont la fréquence est comprise entre 10-5 et 10-1 hertz, seule une détection à partir de l'espace, environnement plus calme, est envisageable. Les sources susceptibles de produire des ondes détectables à cette fréquence sont multiples : trous noirs binaires massifs tapis au centre des galaxies, astres doubles constitués d'un objet compact (étoile à neutrons ou trou noir) en orbite autour d'un trou noir massif. Les astres binaires constitués d'une étoile à neutrons et d'une naine blanche, étoile en fin de vie bien plus petite que le Soleil, seraient aussi détectables par des instruments spatiaux. Autre avantage de l'espace, on peut placer des objets très éloignés les uns des autres et mesurer leur distance, ce qui augmente les chances de détection.
De là est né l'ambitieux projet spatial eLisa : trois satellites seront positionnés dans l'espace à un million de kilomètres les uns des autres. Le passage d'une onde gravitationnelle modifiera la distance entre les satellites. Pour les sources d'ondes envisagées - par exemple deux trous noirs massifs fusionnant il y a 7,9 milliards d'années -, la distance entre les satellites sera modifiée de quelques centaines de picomètres (10-12 mètre). Cela reste certes tout petit, mais mesurable avec des techniques élaborées.
Bien évidemment, les satellites et sondes spatiales ne sont pas fixes dans l'espace. Dès lors, comment évaluer si la distance entre deux de ces objets change ? Grâce au concept de « chute libre ». Un corps en chute libre se propage librement à la surface de l'espace-temps. Il tombe, uniquement soumis à la gravitation ambiante. Sa chute suit donc, comme nous l'apprend la relativité générale, une géodésique. Deux objets tombant côte à côte suivent chacun leur propre géodésique. On peut donc considérer qu'ils sont à distance fixe l'un de l'autre. Ainsi, si entre ces deux objets vient à passer une onde gravitationnelle, leur distance fluctuera. Cette distance sera mesurée à l'aide de faisceaux laser que les satellites s'échangeront. L'utilisation de laser répond à une logique : la vitesse de la lumière est indépendante du champ gravitationnel et est toujours la même. En utilisant le laser, on s'assure donc que la règle de mesure ne change pas en même temps que les distances que l'on cherche à évaluer.
La détection de ces ondes gravitationnelles reste cependant techniquement délicate. Les variations de distance induites par leur passage étant minuscules, beaucoup d'autres sources de perturbations peuvent masquer la mesure. En particulier, il faut s'assurer que les satellites soient tout le temps en chute libre. C'est là le principal défi de la mission : être capable de mettre en orbite des satellites dont la trajectoire est suffisamment proche d'une géodésique, ce qui équivaut à être soumis uniquement à la gravité.
Un objet dans l'espace est soumis à bien d'autres influences que la gravité. Ainsi, un satellite en orbite autour du Soleil ou de la Terre, subit, entre autres, la pression de radiation (*) du Soleil, ce qui le dévie de sa trajectoire géodésique. Les particules du rayonnement cosmique modifient également la charge électrique du satellite. Couplée au champ magnétique environnant, cette charge perturbe le mouvement du satellite. Afin de détecter des ondes gravitationnelles, il est donc nécessaire de mettre en orbite une « sonde gravitationnelle », qui devra rester insensible à tout autre effet.
On le voit, les défis technologiques de la mission eLisa sont nombreux : mesurer des distances infimes, contrôler les influences extérieures afin que les satellites restent bien sur une géodésique. C'est pourquoi, avant de se lancer dans une telle mission, les chercheurs ont décidé de s'entraîner sur un démonstrateur. C'est l'objectif de Lisa Pathfinder, conçu par la communauté eLisa dans le cadre des programmes spatiaux
de l'ESA. Ce satellite devra faire la preuve de sa précision afin d'aborder le projet eLisa
avec confiance.
UN MODÈLE TRÈS RÉDUIT
Lisa Pathfinder est un satellite de près de 2 tonnes. Il sera mis en orbite héliocentrique autour du point de Lagrange L1(*), un point d'équilibre situé entre la Terre et le Soleil. Le coeur du satellite comporte deux cubes de 5 centimètres de côté, alliage d'or et de platine, qui constituent ce qu'on appelle les masses d'épreuve, placées à environ 30 centimètres l'une de l'autre. Chaque masse d'épreuve est dans une enceinte à vide sans contact mécanique avec les parois. Des actuateurs et des senseurs électrostatiques permettent de déplacer ces masses et de déterminer leur position et leur orientation. Ces mesures électrostatiques sont complétées, sur l'axe joignant les deux masses d'épreuve, par un système d'interférométrie laser (*) de très grande précision.
Sur les faces extérieures du satellite, 6 micropropulseurs à gaz froid (azote) contrôlent son mouvement en s'assurant qu'une des deux masses d'épreuve est en permanence au centre de son enceinte. Il s'agit de l'élément le plus délicat de Lisa Pathfinder, car il garantit que cette masse d'épreuve est bien maintenue en chute libre, exempte de toute autre influence.
Les actuateurs électrostatiques de l'autre masse d'épreuve ont pour objectif de la maintenir au centre de son enceinte durant plusieurs milliers de secondes. Sur des intervalles de temps plus courts, cette masse d'épreuve est autorisée à évoluer librement et sera donc également en chute libre. Les deux masses d'épreuve étant placées au sein du satellite, il est également primordial que les forces gravitationnelles propres à Lisa Pathfinder ne les fassent pas dériver. Pour cela, la répartition des masses au sein du satellite est très précisément connue afin d'évaluer et de minimiser le champ gravitationnel résiduel au niveau des masses d'épreuve, grâce à des masses judicieusement positionnées. Avec une telle configuration, Lisa Pathfinder représente un modèle, très réduit, de deux satellites de eLisa !
L'objectif principal de Lisa Pathfinder est de mesurer, grâce au système interférométrique laser, la distance entre les deux masses d'épreuve et de démontrer que leur accélération relative est compatible avec les exigences du programme scientifique de eLisa. Ce programme impose donc les performances que le satellite doit démontrer en vol (lire p. 78).
Lisa Pathfinder doit être lancée le 2 décembre. Afin de parvenir à son point de destination, le satellite subira une série de poussées lui conférant des orbites de plus en plus elliptiques autour de la Terre. Une dernière poussée libérera le satellite de l'attraction terrestre qui rejoindra alors le point L1. Ce voyage, qui durera trois mois, se terminera par le largage du moteur principal et une mise en orbite autour de L1.
TROIS MISSIONS D'ENVERGURE
Une fois sa position atteinte, six mois seront consacrés à la mesure des performances de Lisa Pathfinder et à des améliorations. Lisa Pathfinder est un instrument complexe et les équipes de physiciens travaillent depuis plus de dix ans à comprendre son fonctionnement détaillé afin d'améliorer, en vol, la qualité de ses mesures. Ces équipes de physiciens, provenant de nombreux pays européens et des États-Unis, ont mis au point et répété ces procédures d'optimisation lors de plus d'une vingtaine d'exercices au sol, en utilisant de nombreux simulateurs provenant de la communauté scientifique, des industriels participants et de l'ESA (1). Ces exercices ont lieu aussi bien dans les centres de l'ESA que dans les laboratoires des pays participants dont le laboratoire astrophysique particules cosmologie, à l'université Paris-Diderot. En se fondant sur ces exercices et sur les mesures en laboratoire, la communauté a bon espoir que les performances attendues soient non seulement atteintes mais probablement dépassées.
La mission eLisa n'est pas encore certaine de voir le jour. Dans le cadre de son programme de « grandes missions », l'ESA a en effet prévu trois missions d'envergure. Les deux premières devraient partir vers 2022 et 2028 pour explorer les principaux satellites de Jupiter (Juice), et pour observer le ciel dans les domaines des rayons X (Athena). La troisième mission n'a pas encore été sélectionnée, mais son thème sera « l'Univers gravitationnel » avec un lancement au plus tard en 2034. La sélection définitive de cette troisième mission devrait intervenir d'ici à la fin de la présente décennie. La réussite attendue du démonstrateur devrait faire pencher la balance en sa faveur, en validant le concept de mission proposé par la communauté eLisa. Cette dernière pourra alors se consacrer à sa construction et à l'analyse de ses futurs résultats. Il faudra attendre encore quelques années avant d'être fixés, mais pour un objectif aussi ambitieux que celui d'ouvrir une nouvelle fenêtre astronomique - gravitationnelle - sur l'Univers, la patience est de rigueur.
(*) Une étoile à neutrons est un astre très dense et de quelques kilomètres de diamètre composé de neutrons maintenus ensemble par la gravitation.
(*) La pression de radiation est la pression exercée par le rayonnement du Soleil sur le satellite.
(*) Les points de Lagrange , au nombre de 5, sont les points d'équilibre du système Terre-Soleil. Situé entre ces deux astres, le point L1 est à environ 1,5 million de kilomètres de la Terre.
(*) L'interférométrie laser est un système de mesure de distance très précis fondé sur l'interférence de deux rayons laser ; une modification de distance des sources modifie la figure d'interférence observée.
REPÈRES
- Les astronomes envisagent pour les années 2030 un observatoire spatial d'ondes gravitationnelles.
- Pour convaincre de la faisabilité de ce type d'observatoire, complètement novateur, le satellite Lisa Pathfinder sera lancé en décembre.
- La trajectoire de masses en chute libre y sera suivie avec précision.
À LIRE AUSSI
« L'ESPOIR DE VOIR BOUGER L'ESPACE-TEMPS », dans le hors-série n° 16 de La Recherche, en vente à partir du 10 décembre.
LES CINQ PERFORMANCES À ATTEINDRE
Pour que la mission Lisa Pathfinder soit un succès et que l'on puisse envisager un détecteur spatial d'ondes gravitationnelles, le satellite devra accomplir plusieurs performances.
1. Maintenir les deux masses d'épreuve (des cubes de 5 centimètres de côté) situées à l'intérieur du satellite en chute libre pendant environ 1 000 secondes avec des perturbations n'excédant pas un millionième de milliardième de la gravité terrestre.
2. Mesurer la position des deux masses d'épreuve avec une précision meilleure que quelques picomètres (10-12 mètre).
3. Vérifier que le système de micropropulseurs est capable de maintenir les deux masses d'épreuve en chute libre et que le système de contrôle fonctionne avec la précision nécessaire.
4. Maintenir une stabilité thermique et électromagnétique de l'environnement des deux masses d'épreuve compatibles avec les exigences ci-dessus.
5. Maintenir les masses d'épreuve électriquement neutres en éliminant, grâce à des lampes à ultraviolets, les charges parasites déposées par les rayons cosmiques.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
CORDES, LES INSTRUMENTS DE L'ULTIME |
|
|
|
|
|
CORDES, LES INSTRUMENTS DE L'ULTIME
La théorie des cordes occupe aujourd'hui une fraction importante de la communauté internationale de physique théorique. Les institutions les plus prestigieuses y sont représentées et de nombreux jeunes et brillants étudiants rejoignent chaque année ses rangs. Après avoir été introduites dans les années 60 pour décrire les « interactions fortes » (forces de cohésion nucléaire), les cordes ont été élevées au rang de candidats à la description unifiée de toutes les interactions possibles entre particules. Mais que sont vraiment les cordes ? Comment apparaissent-elles en physique des particules élémentaires ? Quelles notions véhiculent-t-elles dans cette physique ? Et quelles sont leurs ambitions ? Au cours de mon exposé, j'essaierai de donner quelques éléments de réponse à toutes ces questions, et à toutes celles que l'on peut se poser au vu de la diversité du sujet. J'expliquerai ce qui dans les cordes conduit à la notion d'unification des forces, comment s'introduit la gravitation ou encore pourquoi on parle de « nouvelles dimensions » d'espace-temps. Enfin j'évoquerai l'importance grandissante du sujet dans la compréhension de l'évolution de l'univers.
Texte de la 530e conférence de l'Université de tous les savoirs donnée le 17 juin 2004
Cordes, les instruments de l'ultime
Marios Petropoulos
Les cordes sont apparues en physique théorique des hautes énergies il y a plus de trente ans. Elles étaient à l'époque l'exclusivité d'une poignée de chercheurs. Au cours de toutes ces années le sujet s'est développé, ramifié vers les mathématiques ou la cosmologie et occupe aujourd'hui une fraction importante de la communauté internationale de physique théorique. Les institutions les plus prestigieuses y sont représentées et de nombreux jeunes et brillants étudiants rejoignent chaque année ses rangs.
Après avoir été introduites pour décrire les « interactions fortes » (forces de cohésion nucléaire), les cordes ont été élevées au rang de candidats à la description unifiée de toutes les interactions possibles entre particules.
Mais que sont vraiment les cordes ? Comment apparaissent-elles en physique des particules élémentaires ? Quelles notions véhiculent-t-elles dans cette physique ? Et quelles sont leurs ambitions ?
Cordes et l'école de Pythagore
Une façon de comprendre le rôle des cordes dans son principe est de se rappeler les observations de l'école de Pythagore (580 - 510 av. J.C.) sur la consonance des intervalles musicaux. Leur portée reste considérable, même au 21ème siècle.
Une fois sollicitées, des cordes approximativement identiques, tendues avec la même force, mais dont les longueurs sont dans des rapports entiers, émettent des sons qui s'accordent agréablement. Ce phénomène, qualifié de « juste proportion » par les Pythagoriciens, est une manifestation du phénomène de résonance, que ces derniers avaient mis en évidence de manière empirique, grâce à l'ouie humaine. L'apparition de nombres entiers dans le domaine de la musique, vecteur de sensations fortes, avait suscité une vive émotion et avait conduit naturellement à étayer la thèse de l'harmonie universelle, principe philosophique récurrent depuis Pythagore.
On peut êtr18e plus précis et examiner ces notions à la lueur de ce que l'on connaît aujourd'hui sur les spectres de cordes tendues. L'excitation d'une corde produit des vibrations. Ces vibrations apparaissent avec des fréquences propres. La fréquence fondamentale, qui est celle dont l'amplitude est la plus grande, va comme l'inverse de la longueur de la corde :
Dans cette expression, est la longueur de la corde, sa tension et sa densité linéique. Cette loi s'applique à toutes les cordes : haubans de mâtures de bateaux, de ponts suspendus ou cordes d'instruments de musique. Dans ce dernier cas, la fréquence fondamentale (la plus intense) définit la note. Le timbre résulte des harmoniques, vibrations de moindre amplitude qui accompagnent le fondamental et dont l'intensité dépend de la nature de la corde et de son environnement. Leurs fréquences, en revanche, ne sont pas affectées par ces facteurs ; ce sont des multiples entiers de la fréquence fondamentale :
Pour fixer les idées et les ordres de grandeur, le la du diapason officiel est une vibration de 440 Hertz (cycles par seconde). Elle est obtenue par exemple au moyen d'une corde d'acier, longue de 30 cm et tendue à 172 Kgf (kilogramme-force).
Ce qui précède permet de comprendre l'origine de la consonance des sons émis par des cordes dont les longueurs sont dans des rapports entiers. On représente dans le tableau suivant les spectres des fréquences propres de cordes de longueur et /2 jusqu'à la 3ème harmonique (le nombre d'harmoniques est infini et elles sont toutes obtenues comme multiples de la fréquence fondamentale).
Fréquences propres de cordes de longueur et /2 jusqu'à la 3ème harmonique.
(les fréquences ν0 et 3ν0 n'apparaissent pas dans le spectre de la corde /2)
Comme la fréquence fondamentale est inversement proportionnelle à la longueur de la corde, la corde de longueur /2 a une fréquence fondamentale double de celle de la corde de longueur . De façon similaire, en doublant chacune des harmoniques du spectre de la corde de longueur on obtient le spectre des harmoniques de la corde de longueur /2.
On observe donc que le spectre complet (fréquences fondamentale et harmoniques) de la corde de longueur /2 est entièrement inclus dans celui de la corde de longueur . L'ensemble des fréquences propres de la corde de longueur /2 couvre la « moitié »1 des fréquences apparaissant dans la corde de longueur et cela explique pourquoi les sons émis par ces cordes sont si consonants. Ils le sont à ce point que le nom de la note qui leur correspond est le même. On dit de ces notes qu'elles sont séparées par une octave, qui est l'intervalle musical le plus consonant. L'octave supérieure est obtenue en divisant à nouveau la longueur par deux, ce qui revient à doubler encore une fois la fréquence fondamentale. Et ainsi de suite.
Des conclusions similaires sont obtenues en comparant les spectres de cordes dont les longueurs sont dans un rapport 1/3. Dans ce cas, le spectre de la corde de longueur /3 couvre le « tiers » seulement de celui de la corde de longueur . La consonance, quoique bien présente, est ici moins marquée et les notes correspondantes ont des noms différents. L'intervalle musical est la quinte.
On peut poursuivre ce raisonnement. Commençant par un sol réalisé au moyen d'une corde de longueur , on obtient le sol de l'octave supérieure en divisant la longueur par 2, le sol suivant en divisant la longueur par 4 etc. Si l'on divise la longueur par 3 on obtiendra le ré de l'octave supérieure, séparé du sol correspondant par une quinte et du sol suivant par une quarte. La division par 5 conduira au si d'une octave encore supérieure faisant apparaître cette fois la tierce mineure et la tierce majeure. Tout ceci est schématisé dans le tableau suivant.
Ce procédé peut être répété à l'infini. En divisant par 6, 7 ... la longueur de la corde initiale, on obtient d'autres notes et d'autres intervalles consonants. Par itérations successives on engendre ainsi la gamme pythagoricienne complète avec tous ses intervalles musicaux.
Gamme pythagoricienne et ses intervalles à partir d'un seul paramètre : la longueur .
Un univers conforme à une raison mathématique
La leçon à tirer de l'opération décrite ci-dessus est la suivante : moyennant un nombre limité de paramètres comme la longueur de la corde ou sa tension, on reconstruit de proche en proche un spectre complet : les lois de la nature y sont rigides et laissent peu de liberté.
Le « trait de génie » des Pythagoriciens était d'imaginer que leurs observations pussent transcender le cadre des cordes, que l'univers tout entier pouvait - devait - être régi par des lois simples et itératives où les nombres entiers joueraient un rôle privilégié. L'harmonie universelle ne pouvait résulter de la seule interprétation des sons et de leur consonance. Ces derniers étaient la création de l'homme, tout comme les instruments de musique qui les produisaient. L'harmonie universelle devait se trouver dans la nature.
La recherche de rapports numériques simples dans les phénomènes naturels s'est poursuivie jusqu'à la renaissance. Le mouvement des astres et des planètes et les observations précises de Tycho Brahé (1546 - 1601) ont pendant longtemps défini le cadre idéal pour ces investigations. Johannes Kepler (1571 - 1630) a lui-même adhéré à ce mode de pensée. Paradoxalement, les trois lois qu'il a énoncées ont permis a Isaac Newton (1642 - 1727) de formuler la théorie moderne de la gravitation, renvoyant dans les chimères toute la philosophie pythagoricienne sur l'harmonie universelle et ouvrant la voie vers la physique moderne.
Il a fallu attendre le 20ème siècle pour voir resurgir la notion d'universalité mise en évidence par l'école de Pythagore et voir reparaître les cordes dans la physique moderne des hautes énergies comme constituants élémentaires de la nature.
La physique des particules élémentaires
La physique des particules élémentaires est l'étude d'objets microscopiques - ou encore corpusculaires. Certains d'entre eux ont une structure interne : ils sont composites ; d'autres sont réputés pour ne pas en avoir et sont considérés comme élémentaires.
Les caractéristiques des corpuscules sont les suivantes : la masse, le spin et les charges (électrique, magnétique ...). Les deux premiers sont des caractéristiques de nature cinématique. La masse traduit l'inertie de l'objet c'est-à-dire la « résistance » qu'il oppose aux variations de son état de mouvement. Le spin est une notion plus difficile à appréhender. Pour des objets macroscopiques comme les planètes, le spin pourrait être comparé au mouvement de rotation propre. Transposée dans le domaine microscopique, cette comparaison est cependant limitée et on manque d'intuition pour comprendre pourquoi le spin est un multiple demi-entier d'une unité indivisible.
Le spin d'une particule : une forme de rotation propre autour d'un axe virtuel.
Enfin, il y a les charges. On connaît la charge électrique, la charge chromo-électrique ou chromo-magnétique, l'hypercharge ... Toutes ces charges caractérisent la manière dont les particules interagissent entre elles : comment elles se désintègrent si elles ne sont pas stables, comment de nouvelles particules sont créées lors de collisions, etc.
Elémentarité et taille des constituants
L'élémentarité est un concept relatif qui dépend des échelles de longueur auxquelles la matière est sondée. Celles-là sont fonction des énergies disponibles dans les faisceaux des collisionneurs. Avec le temps, notre perception de l'élémentaire et du complexe s'affine.
Pendant très longtemps l'atome a été considéré comme élémentaire. Les expériences de diffusion de Rutherford (1911) ont ébranlé ce concept : elles ont mis en évidence l'existence d'un noyau, occupant un volume très petit au centre de l'atome, et d'électrons en orbite autour du noyau. La taille du noyau est de l'ordre de 10 fm (fermi) ; celle de l'atome d'hydrogène par exemple est de l'ordre de 1/2 Å (angström), soit 5.000 fois supérieure environ. Dans cette révolution qui a conduit à l'avènement de la mécanique ondulatoire, au cours des années 1910, le mot « orbite » a dû être abandonné et remplacé par « orbitale ». Cette mécanique, encore appelée mécanique quantique, régit les lois de la physique microscopique et restitue la mécanique de Newton aux échelles macroscopiques. L'atome y apparaît comme un noyau dense au centre d'un nuage électronique dilué.
Unités de longueur et d'énergie microscopiques.
Le noyau lui-même n'est pas élémentaire. Il est composé de protons et de neutrons que l'on appelle nucléons et dont la taille est de l'ordre du fermi. En revanche, depuis sa découverte par Thomson, l'électron apparaît toujours dépourvu de structure interne et fait partie des leptons, particules élémentaires « légères ». Sa masse est de 0,511 MeV soit environ 2.000 fois inférieure à celle du proton qui est de 939 MeV.
Comme cela a été mentionné ci-dessus, la structure composite d'un corpuscule apparaît lorsque la résolution de l'instrument d'observation devient suffisante. Celle-ci va de 1/100 cm pour l'œil à 10-18 cm pour la prochaine génération de collisionneurs.
Quelques instruments d'observation : énergies et résolutions.
Les interactions et leurs intensités
Les interactions entre particules sont la manifestation des forces que l'une peut exercer sur l'autre au niveau microscopique. On en distingue quatre de propriétés très différentes. Les ordres de grandeur de leurs intensités sont reportés dans le tableau ci-dessous.
Interaction gravitationnelle
La force gravitationnelle est universelle et s'exerce entre tous les corps. Elle maintient la lune en orbite autour de la terre, engendre les marées, assure la cohésion des planètes dans le système solaire etc. Contrairement à notre intuition, cette force est très petite.
Interaction faible
Par ordre croissant d'intensité, on rencontre ensuite l'interaction faible. Le quotidien ne nous apprend rien à son sujet. Elle est responsable de la désintégration « b » de certaines particules instables en physique nucléaire. Elle n'est pas universelle : seuls certains corpuscules, porteurs d'une « hypercharge » sont vecteurs de cette force.
Interaction électromagnétique
L'interaction électromagnétique est celle qu'on enseigne au lycée : les forces électrostatiques, l'attraction ou la répulsion magnétique, les ondes radio, la lumière, etc. Seules les particules chargées électriquement ou les courants électriques participent à cette interaction.
Interaction forte
Enfin, l'interaction forte permet d'expliquer la cohésion nucléaire : elle est 100 fois plus intense que la force électrostatique, qu'elle compense entre les protons au sein des noyaux. Elle agit indifféremment entre neutrons et protons, et plus généralement entre hadrons. Les leptons, comme l'électron, sont insensibles à cette force.
Intensités des quatre forces entre deux protons distants de 5 fermi.
Lois du monde microscopique : particules et interactions
La mécanique de Newton, ou encore de Lagrange et d'Hamilton, ne peut décrire les phénomènes physiques du monde microscopique. Il ne suffit pas d'un changement d'échelle pour passer du mouvement des planètes autour du soleil à celui des électrons autour du noyau. Cette conclusion du début du 20ème siècle était le fruit d'une variété d'observations, dont l'essence se résumait à l'apparition d'une nouvelle constante universelle : la constante de Planck :
petite mais pas nulle. Cette propriété donne aux lois du monde microscopique leur caractère si particulier et si difficile à concilier avec l'intuition quotidienne. Ces lois sont celles de la mécanique quantique ou mécanique ondulatoire.
La constante de Planck matérialise la notion de dualité onde corpuscule. L'électron est certes un corpuscule. Cependant, il peut dans certaines circonstances se comporter comme une onde, donner lieu par exemple à des phénomènes de diffraction. Cette onde se caractérise par sa pulsation et sa longueur . L'une et l'autre sont reliées, par le biais de la constante de Planck, à des quantités naturelles pour un corpuscule : l'énergie et la quantité de mouvement (autrement dit l'impulsion) c'est-à-dire le produit de la masse par la vitesse.
Dualité onde corpuscule : relations de Planck et de de Broglie.
Pourquoi les objets macroscopiques qui nous entourent ne se comportent-ils pas comme des ondes ? Autrement dit, pourquoi obéissent-ils aux lois de la mécanique newtonienne plutôt qu'à celles de la mécanique quantique ? La réponse est simple. Au dénominateur de l'expression qui fournit la longueur d'onde de de Broglie apparaît la masse de la particule. Pour un objet macroscopique la masse est grande ; la longueur d'onde associée est infiniment petite comparativement aux dimensions de l'objet lui-même, qui « masque » donc son onde. On est alors dans le régime classique. A l'opposé, dès que les échelles de longueur de l'objet ou de son environnement sont petites vis-à-vis de la longueur d'onde de de Broglie, celle-ci est « libérée » et on parle de régime quantique. Cela peut se produire pour un électron, dont la masse est très faible et par conséquent la longueur d'onde très grande. Il donne alors lieu à des franges d'interférences si les fentes d'Young sont de taille comparable à la longueur d'onde.
La notion de dualité onde corpuscule n'est pas limitée aux seules particules, c'est-à-dire à la matière. Elle s'applique aussi aux interactions, aux forces dont il a été question ci-dessus. L'attraction ou la répulsion de charges électriques est le fait de l'existence d'un champ électrostatique ou électromagnétique. Ce champ se propage et apparaît en définitive comme le médiateur des interactions électromagnétiques. La propagation du champ électromagnétique dans le monde de l'infiniment petit est différente de celle des ondes (hertziennes, micro-ondes, lumineuses ...) dans les milieux macroscopiques. Le champ se manifeste comme une collection de quanta. Les interactions entre particules chargées ont lieu par échange de véritables corpuscules, les photons , quanta du champ électromagnétique. Il en est de même pour les interactions faible, forte et gravitationnelle : les bosons de jauge massifs, les gluons et le graviton sont les quanta qui y sont associés.
Interaction entre deux électrons par échange d'un photon.
Comme pour particules de matière, on peut définir un régime classique et un régime quantique pour les interactions. Selon les circonstances celles-ci se manifestent par un champ - une onde - ou par une collection de quanta. Ces circonstances varient d'une interaction à l'autre.
Interactions faible et forte
L'interaction faible et l'interaction forte sont de courte portée (pour des raisons différentes). Elles ne se manifestent donc qu'à des échelles de longueur beaucoup plus petites que les longueurs d'ondes des particules entre lesquelles elles agissent. On se trouve donc toujours dans un régime quantique. La notion d'onde ou de champ classique n'a jamais de sens ; seuls les quanta qui sont les médiateurs de ces interactions ont une existence : les bosons de jauge massifs pour l'interaction faible et les gluons pour l'interaction forte.
Interaction électromagnétique
Les interactions électromagnétiques sont de longue portée. Elles sont présentes à la fois dans le monde macroscopique où leur comportement est classique et dans le monde atomique ou subatomique où la notion de champ ou d'onde électromagnétique doit être abandonnée et remplacée par le concept d'interaction par échange de photon.
L'électrodynamique est l'étude des électrons en interaction électromagnétique. On définit un paramètre naturel, la longueur d'onde de Compton :
Il y apparaît la masse de l'électron et la vitesse de la lumière. C'est donc la longueur d'onde de de Broglie pour un électron se déplaçant à la vitesse de la lumière. Ce paramètre fournit le critère du régime de l'électrodynamique. L'électrodynamique est quantique et décrit les électrons et les photons à des échelles de longueur inférieures à la longueur d'onde de Compton. Autrement, elle est classique.
Interaction gravitationnelle
Comme l'électromagnétisme, la gravitation est de longue portée. Elle est donc classique ou quantique selon les échelles de longueur. La gravitation de Newton est née d'observations réalisées dans le système solaire c'est-à-dire pour des distances « moyennes » inférieures à 150.000.000 Km. Elle a été vérifiée en laboratoire à des échelles de l'ordre du millimètre.
Loi d'attraction universelle de Newton.
La loi de Newton est en réalité une approximation. La véritable théorie de la gravitation est celle de la relativité générale d'Einstein dans laquelle la gravitation résulte de la courbure de l'espace-temps. Cette courbure est engendrée par la présence d'un corps massif ou d'énergie.
Représentation naïve de la courbure de l'espace-temps engendrée par un corps.
La relativité générale permet d'affiner l'interprétation de certaines mesures au sein du système solaire (corrections post-newtoniennes), prévoit l'existence de trous noirs et d'ondes gravitationnelles (encore inobservés) et décrit l'évolution de l'univers dans son ensemble à des échelles cosmologiques (108 années-lumière2).
A l'instar de l'électrodynamique, la gravitation doit présenter un régime quantique lorsque les échelles de longueur sont suffisamment petites ou les énergies suffisamment élevées. A la notion d'onde gravitationnelle classique succède alors le graviton, quantum élémentaire médiateur de l'interaction gravitationnelle entre particules et qui est à la gravitation ce que le photon est à l'électromagnétisme.
Quel est le critère quantitatif qui définit la frontière entre les régimes classique et quantique de la gravitation ?
Il existe pour la gravitation une échelle de longueur naturelle, définie au moyen des trois paramètres qui sont les constantes universelles de Newton et de Planck, et la vitesse de la lumière :
Il s'agit de la longueur de Planck, qui joue pour la gravitation le même rôle que la longueur d'onde Compton pour l'électrodynamique. Les effets quantiques de la gravitation doivent être pris en compte à toute échelle voisine ou inférieure à la longueur de Planck.
La longueur de Planck est infiniment plus petite que la longueur d'onde de Compton. Cela résulte de la faible intensité de la force gravitationnelle. Pour observer les effets quantiques de la gravitation il faudrait sonder la matière à des distances inférieures à 10-33 cm. De telles échelles n'ont jamais été atteintes3. C'est pourquoi le graviton, essence même des effets quantiques de la gravitation, reste une particule hypothétique.
Doit-on conclure que la gravitation quantique est hors de portée parce que l'énergie de Planck4 ne sera jamais atteinte dans les accélérateurs de particules ?
Modèle standard cosmologique : le Big-bang
Non ! Car bien que les conditions du régime quantique de la gravitation ne puissent être créées artificiellement en laboratoire, elles ont existé dans la nature au moment du Big-bang.
La notion de Big-bang est issue du modèle standard cosmologique. Ce dernier, fondé sur la relativité générale et le modèle standard des particules5, décrit l'évolution de l'univers dans son ensemble. Il permet d'expliquer son expansion, découverte par Hubble en 1930, et prédit l'existence d'un « instant initial » de densité d'énergie et de température infinies. Cet instant singulier, le Big-bang, remonte à 13,7 milliards d'années. L'univers était alors confiné dans un volume de dimensions infinitésimales. Son évolution ultérieure a été une succession de recombinaisons de particules formant des structures de plus en plus grandes, et libérant en particulier un rayonnement électromagnétique, le fond diffus cosmologique, 380.000 ans après l'instant initial. Ce reliquat de lumière, prédit par Gamow en 1946, a été observé et mesuré en 1965 par Penzias et Wilson.
Les conditions d'énergie extrêmes au voisinage de la singularité initiale nécessitent le traitement quantique de la gravitation. Depuis quelques années, les observations sur terre et dans l'espace ne cessent de repousser les limites des connaissances sur l'univers à grande échelle : images passées de l'univers grâce aux grands télescopes, matière et énergie noires, constante cosmologique, supernovae, anisotropie du fond diffus, etc. Tôt ou tard il faudra prendre en compte les corrections quantiques à la gravitation pour confronter les modèles théoriques aux observations cosmologiques.
Mais qu'est-ce au juste la relativité générale dans le régime quantique ?
La chasse aux infinis
Les quantités mesurables expérimentalement en physique des particules sont les sections efficaces de diffusion. Des faisceaux de particules sont accélérés et amenés à produire des collisions à énergie élevée. On est au cœur de la physique quantique : lorsque les particules entrent en collision, de nouvelles particules sont créées. Elles sont détectées et, sur un grand nombre d'évènements, ce protocole expérimental fournit les probabilités d'observation d'évènements de type donné, encodées par les sections efficaces de diffusion.
Représentation d'une collision : en bleu les particules entrantes, en rouge, vert et jaune les particules sortantes.
Les sections efficaces sont par ailleurs accessibles dans le cadre d'une théorie microscopique. L'électrodynamique quantique permet par exemple de calculer ces quantités pour tout processus d'interaction entre photons, électrons et positrons (antiparticule de l'électron). De manière plus générale, les particules et leurs interactions électromagnétiques, faibles, fortes et gravitationnelles sont décrites au moyen d'un formalisme universel, celui de la théorie des champs quantiques. Ces derniers sont des objets abstraits qui véhiculent la dualité onde particule. A chaque type de particule et à chaque type d'interaction est associé un tel champ. La théorie qui en résulte constitue la version la plus élaborée de la mécanique quantique relativiste. On peut en principe y calculer les sections efficaces de diffusion.
Les théories quantiques des champs sont polluées de quantités divergentes. L'énergie totale du champ électrostatique d'un électron est infinie et de nombreux exemples similaires pourraient être cités. Selon leur nature, ces quantités infinies peuvent ou ne peuvent pas être absorbées dans une redéfinition adéquate des paramètres de la théorie. En conséquence, selon le cas, les sections efficaces de diffusion sont calculables ou ne le sont pas.
Lorsque l'interaction gravitationnelle est présente et décrite au moyen de la relativité générale, les quantités divergentes apparaissant dans le calcul des processus de diffusion ne peuvent pas être traitées sans altérer radicalement la théorie. Dans le régime quantique, la relativité générale perd donc son pouvoir prédictif. Et la description du commencement de l'univers lui échappe.
Retour aux cordes : cordes et interaction forte
C'est ici que les cordes réapparaissent : comme candidats à une description du régime microscopique (quantique) de la gravitation sans quantités infinies.
Historiquement les cordes sont entrées pour la première fois dans la physique des particules à la fin des années 60, dans le contexte des interactions fortes. Ce n'est que vers la fin des années 70 qu'elles ont été apparentées à la gravitation.
Rappeler le rôle que les cordes ont joué dans les interactions fortes est d'un intérêt à la fois historique et scientifique. On y retrouve une propriété remarquable déjà soulignée précédemment : le pouvoir prédictif dû à la rigidité de la théorie et à l'absence d'autres paramètres que la tension de la corde.
Les interactions fortes assurent la cohésion des noyaux. Elles agissent entre nucléons (protons et neutrons) et plus généralement entre hadrons : les mésons de spin entier et les baryons de spin demi-entier6.
Les hadrons.
Ces particules, de plus en plus nombreuses et de mieux en mieux étudiées dans les années 60, soulevaient d'importantes questions sur la nature des interactions fortes. Pourquoi leurs sections efficaces de diffusion se comportaient-elles de façon si lisse à haute énergie ? Pourquoi, dans un diagramme spin masse, se rangeaient-elles par famille, sur des droites de même pente (appelées trajectoires de Regge) ? Enfin, étaient-elles élémentaires ?
Les trajectoires de Regge sur un diagramme spin masse.
Une évidence était la suivante : l'énergie des collisionneurs augmentant, de plus en plus de nouveaux hadrons apparaissaient et entraient dans le schéma décrit ci-dessus. Il semblait possible qu'une infinité de telles particules existât dans nature et que ces particules fussent toutes ordonnées sur des trajectoires de Regge.
La structure du spectre des hadrons rappelait les gammes de Pythagore. La masse est reliée à une énergie par la relation d'Einstein et l'énergie à une pulsation par la relation de Planck :
Par ce biais, les hadrons pouvaient être identifiés aux excitations d'une corde : la fréquence, multiple entier d'une fréquence fondamentale, détermine la masse ; quant au nombre entier, il est relié au spin.
Pour reproduire correctement des masses de l'ordre du GeV- Giga-électron-volt- (par exemple 0,939 GeV pour les nucléons), le paramètre doit être de l'ordre du GeV-2. Cet ordre de grandeur est obtenu grâce à une corde d'une tension de 104 Kgf, soit d'une longueur de 10-14 cm. Dans ces conditions, la fréquence fondamentale est de 1024 Hz (Herz). Pour le diapason de 440 Hz il fallait une corde de 30 cm tendue à 172 Kgf. Il « suffit » donc d'un changement - drastique - d'échelle pour passer des cordes de piano à des objets microscopiques. Ceux-ci entrent dans le régime de la mécanique quantique et leur gamme de fréquences fournit un spectre de masses dans lequel il ne subsiste aucun paramètre d'ajustement : le spectre est à prendre ou à laisser ; c'est à la fois le tribut et le trophée de la théorie de cordes.
La théorie des cordes allait plus loin. Elle ne fournissait pas seulement le spectre : elle déterminait aussi les interactions entre les particules présentes dans ce dernier, permettant de calculer, sans autre concept ou ingrédient, des sections efficaces de diffusion7.
Il est remarquable que le spectre ainsi obtenu coïncidât avec celui des hadrons observés. Plus remarquable encore, les sections efficaces de diffusion calculées dans ce contexte reproduisaient bien les comportements typiques à haute énergie.
Le point faible de la description des hadrons et de l'interaction forte au moyen d'une théorie de cordes était le « principe de démocratie hadronique ». Pour entrer dans ce schéma, les hadrons devaient être tous élémentaires. Il fallait donc postuler l'existence d'une infinité de particules élémentaires.
Interaction forte et quarks
Des expériences du type de celles qui avaient permis à Rutherford de mettre en évidence la structure composite de l'atome, ont conduit au début des années 70 (expériences de diffusion profondément inélastique) à découvrir une structure interne aux nucléons et à tous les hadrons en général. Les modèles de partons revenaient en force et le modèle des quarks, introduit au début des années 60 par Gell-Mann et Zweig8, offrait une représentation fidèle des hadrons au moyen de quarks de saveurs variées.
Le proton et le pion comme états liés de quarks.
La dernière page des interactions fortes fut tournée avec la naissance de la chromodynamique quantique. C'est une théorie de jauge du même type que l'électrodynamique quantique, déjà mentionnée pour les interactions électromagnétiques. Une autre théorie de jauge, la théorie électrofaible, avait également été introduite au début des années 60 (Glashow, Salam et Weinberg) pour unifier les interactions faibles et électromagnétiques.
Le retour soudain des théories de jauge sur le devant de la scène était la conséquence d'un résultat théorique de grande envergure : la preuve de leur « renormalisabilité » (‘t Hooft, Veltman, 1970). C'est bien cette propriété qui permet de traiter les quantités infinies présentes par exemple dans les calculs de sections efficaces ; c'est aussi cette propriété qui manque à la relativité générale, laquelle devient inopérante au niveau microscopique.
Le succès plus particulier de la chromodynamique quantique comme théorie des interactions fortes était dû à une autre propriété, tout aussi appréciée de la communauté : la liberté asymptotique (Gross, Politzer, Wilczek, 1973). On observait expérimentalement que les « quarks étaient libres au sein des hadrons » ; c'est ce que la liberté asymptotique formulait.
D'autres découvertes ultérieures ont définitivement entériné les théories de jauge comme théories des interactions fortes et électrofaibles, au moins aux énergies accessibles expérimentalement. Les hadrons sont finalement tous composites et le principe de démocratie hadronique n'est pas violé. C'est l'hypothèse de leur « description pythagoricienne » qui est démentie.
Les cordes ne sont pas pour autant disparues du paysage de l'interaction forte. Elles en fournissent une représentation effective fidèle, qui est techniquement très puissante, meilleure même dans certains régimes. On parle de la « corde de la chromodynamique quantique » apparaissant comme véritable lien, ressort bandé entre les quarks au sein d'un méson. Les interactions entre mésons ont alors une image simple en terme de fusion ou rupture de cordes.
Deux pions interagissent pour donner deux kaons : l'annihilation des quarks d (fusion des deux cordes) est suivie par la création des quarks s (rupture de la corde intermédiaire). Les quarks u sont spectateurs.
Le renouveau des cordes : cordes et gravitation quantique
Grâce aux relations entre fréquence, masse et énergie, les fréquences de vibration d'une corde microscopique relativiste peuvent s'interpréter comme des particules. Celles-ci viennent avec leur masse et leur spin. Les interactions et autres propriétés de symétrie découlent simplement des critères de cohérence interne de la théorie. Cette démarche a été suivie dans les cordes des modèles duaux de l'interaction forte.
Il y a dans le spectre de la corde fermée une particule de masse nulle et de spin 2. Ces derniers sont les nombres quantiques cinématiques du graviton, particule médiatrice des interactions gravitationnelles au niveau microscopique. Le niveau microscopique pour la gravitation est l'échelle de Planck c'est-à-dire 10-33 cm. La gravitation pourrait donc apparaître en théorie des cordes à condition de modifier à nouveau l'échelle : passer de 10-14 à 10-33 cm, soit du GeV des cordes hadroniques à 1019 GeV, soit encore à une fréquence fondamentale de 1043 au lieu de 1024 Hz. Ceci nécessite une tension de 1043 Kgf !
La corde fermée semble donc contenir la gravitation, mais quelle gravitation ? La présence d'une particule de spin 2 et de masse nulle ne suffit à elle seule ni à étayer la thèse d'une description quantique de la gravitation, ni à assurer que cette dernière coïncide avec la relativité générale dans le régime classique. La corde fournit-elle vraiment une alternative à la relativité générale, valable dans tous les régimes ?
Cette question est dichotomique car le cadre de la théorie des cordes est très rigide. Les particules viennent avec leurs interactions et aucun artifice ne peut être introduit pour les corriger. Il est remarquable qu'aux grandes distances vis-à-vis de l'échelle de Planck, là ou l'interaction gravitationnelle est dans le régime classique, la corde fermée restitue la relativité générale. Il est tout aussi remarquable qu'à courte distance, elle s'affranchisse des divergences qui gâtent cette dernière.
Ces résultats, pressentis par Scherk et Schwarz en 1974 et 1975, ont constitué le tournant décisif de la théorie des cordes.
Cordes, membranes, théories de jauge et supersymétrie
La théorie des cordes remplace le concept d'objet ponctuel par celui d'objet étendu. Ce faisant, elle introduit une structure à la fois plus riche et plus contrainte.
Des objets ponctuels aux cordes, ouvertes ou fermées.
La liberté de choisir les ingrédients (particules, interactions, symétries et géométrie) à sa guise n'existe plus dans ce contexte. Evoluer : c'est tout ce qu'une corde peut faire, éventuellement en se scindant en deux, ou en fusionnant avec une autre corde. Cette évolution engendre une surface appelée « feuillet d'univers » de la corde.
Evolution d'une ou deux cordes fermées et leur feuillet d'univers.
La gravitation apparaît dans ces théories de manière naturelle, avec l'espoir d'en décrire les effets quantiques et de comprendre la cosmologie primordiale. Pour peu qu'on accepte l'extension vers les supercordes, qui est la seule fantaisie autorisée9 si on veut éviter la présence de tachyons - particules plus rapides que la lumière, on obtient non seulement le graviton, mais une pléthore de particules de matière et d'interaction. Il apparaît des symétries de jauge de grande unification et une symétrie supplémentaire : la supersymétrie d'espace-temps. A basse énergie (autrement dit à grandes distances), on retrouve toutes les propriétés des objets ponctuels et de leurs interactions.
Les théories de cordes font apparaître des objets encore plus exotiques, comme résultat de critères de cohérence interne : des membranes. Celles-ci sont très massives et donc inobservables avec les instruments dont on dispose actuellement. Il en existe de nombreux types qui apportent leurs propres contributions au spectre et aux interactions de la théorie.
Un exemple de membrane : une « D 2-brane » avec des cordes ouvertes accrochées dessus.
Trop, l'ennemi du trop peu
Depuis déjà de nombreuses années, le modèle standard des particules élémentaires est testé avec des instruments de la plus haute précision. Ce modèle contient 3 familles de leptons et 3 familles de quarks. Tous interagissent par voie électromagnétique et faible ; seuls les quarks sont sensibles aux interactions fortes. Toutes les interactions sont décrites au moyen de théories de jauge et leurs médiateurs sont les bosons intermédiaires massifs, le photon et les gluons. La théorie complète est parfaitement définie tant au niveau microscopique que macroscopique.
La nécessité d'aller au-delà du modèle standard a toutefois été pressentie bien avant la confirmation expérimentale du modèle standard lui-même. De nombreuses raisons sont évoquées, mais la plus objective est sans doute la découverte récente que les neutrinos, leptons neutres et réputés de masse nulle dans le modèle standard, sont en réalité massifs.
Deux grandes classes d'ingrédients ont été proposées depuis les années 70 pour bâtir un modèle dont le modèle standard serait l'approximation de « basse énergie ». Les théories de grande unification qui introduisent des symétries de jauge plus vastes, incorporant celles qui ont déjà été observées dans la nature. Et les extensions supersymétriques qui sont articulées autour d'une nouvelle symétrie, jamais encore observée. Les unes et les autres prévoient l'existence de particules nouvelles qui restent à découvrir.
En plus de la gravité, les théories de cordes10 incorporent tous ces nouveaux ingrédients sans additifs artificiels. Malheureusement, leur cohérence interne11 impose une autre contrainte dont les conséquences sont désastreuses pour leur pouvoir prédictif : ces théories sont définies à 10 dimensions12. La rigidité tant appréciée des théories de cordes lorsqu'elle fixe les paramètres, le spectre de particules, les symétries et les interactions, devient un handicap lorsqu'elle prédit un univers décadimensionnel !
Dimensions excédentaires compactes
Une dimension de temps et 9 d'espace : il y en a 6 de trop. Celles-ci doivent être compactes, refermées sur elles-mêmes à la manière de petits cercles, plus petits que tout ce que les instruments de la plus haute résolution peuvent discriminer.
Une dimension supplémentaire compacte : il faut regarder de près pour la découvrir.
L'introduction de dimensions supplémentaires compactes dans les théories de la gravitation n'est pas une nouveauté. Elle est même très ancienne, aussi ancienne que les premières tentatives d'unifier les forces de la nature. Les théories « unitaires » du premier quart du 20ème siècle avaient pour objet de formuler les deux forces jusqu'alors observées, la gravitation (relativité générale d'Einstein) et l'électromagnétisme (théorie relativiste de Maxwell), comme manifestations différentes d'une même interaction13. En introduisant un espace-temps de 5 dimensions, autorisant l'existence de champs gravitationnels uniquement, et en imposant qu'une des 4 dimensions d'espace était compacte (un « petit » cercle) on retrouvait dans l'espace-temps infini restant (de 3 dimensions d'espace et une de temps) des champs électromagnétiques et de gravitation.
Kaluza (1921) et Klein (1926) avaient développé ces idées et étudié en particulier quelles seraient les conséquences de l'existence de la petite dimension « inobservable à l'œil nu ». Leurs conclusions étaient les suivantes : pour chaque type de particule observée, il devait exister une infinité de répliques, de masses de plus en plus élevées et régulièrement espacées. L'incrément de masse carrée était en raison inverse du carré du rayon carré de la dimension compacte.
Le spectre de Kaluza-Klein : est un entier quelconque. Pour de l'ordre de 10-16 cm, l'incrément de masse carrée est de 4 103 GeV2.
Tant que les énergies restent petites vis-à-vis de l'incrément, le spectre de Kaluza-Klein reste invisible. Les forces observées sont la gravitation et l'électromagnétisme quadridimensionnels. Dès que l'énergie le permet, les premiers états de Kaluza-Klein apparaissent ; autrement dit la résolution devient suffisante pour « ouvrir » la dimension compacte. La distinction entre gravitation et électromagnétisme devient de plus en plus arbitraire : nous observons finalement la version unifiée de ces forces dans la gravité pure en cinq dimensions.
Dans le cadre de la théorie de cordes, l'introduction de dimensions supplémentaires compactes n'est pas une option. La théorie vient avec 6 dimensions excédentaires qu'il faut traiter comme compactes. D'une part, ceci confirme le caractère universel de la théorie : elle contient spontanément toutes les options introduites ça et là comme alternatives (grande unification, supersymétrie, Kaluza-Klein). D'autre part, cela offre la possibilité de choisir un schéma de compactification plutôt qu'un autre afin d'approcher au plus juste la physique des particules telle qu'elle apparaît dans les accélérateurs aujourd'hui.
Le revers de la médaille est l'ouverture vers une grande variété de modèles sans critère de principe pour choisir et l'apparition d'une nouvelle classe de particules (les modes de Kaluza-Klein) qui s'ajoutent à toutes celles encore hypothétiques (partenaires supersymétriques et bosons de jauge de grande unification).
Retour à la loi de Newton
On pourrait faire l'hypothèse que seule la force de gravitation transperce l'espace qui est transverse à notre espace-temps usuel, quadridimensionnel ; autrement dit, que deux objets éloignés l'un de l'autre dans une des dimensions excédentaires (par exemple situés en des points distincts d'un petit cercle) soient soumis à la seule force de gravitation. On peut accompagner cette hypothèse d'une autre, compatible, selon laquelle les particules de Kaluza-Klein seraient inobservables car n'interagissant pas avec les détecteurs. Une particule est visible si elle interagit avec un détecteur. In fine, ce dernier est sensible à l'interaction électromagnétique seulement.
Ce résultat n'est pas une propriété générique de la théorie de cordes et aucun modèle concret ne le démontre. Aucun principe ne s'y oppose non plus et certaines indications pourraient plaider en sa faveur. Dans le cadre de la théorie des cordes, c'est une hypothèse de travail qui relève plutôt de la phénoménologie des cordes.
Dans ces conditions, on peut s'affranchir de la contrainte de « petite » dimension compacte. Si les modes de Kaluza-Klein sont inobservables, rien n'empêche qu'ils soient « légers ». C'est-à-dire de masse inférieure au seuil disponible actuellement. Les dimensions compactes pourraient donc être de rayon supérieur à 10-16 cm.
Quelles sont alors les contraintes expérimentales ? Peut-on avoir des dimensions compactes de rayons arbitrairement grands ?
C'est à la gravitation de répondre à ces questions, puisque c'est elle qui, dans les hypothèses ci-dessus, subsiste dans l'espace transverse. A des échelles supérieures à 10-16 cm, l'interaction gravitationnelle est loin du régime quantique et pour les besoins de l'argument la loi de Newton suffit. La loi de Newton dépend de la dimension d'espace. Dans l'espace usuel tridimensionnel, cette loi est
En quatre dimensions infinies d'espace, elle devient
Lorsqu'une dimension parmi les quatre est compacte de rayon , la loi prend une forme plus compliquée. Elle se réduit cependant aux expressions de d = 3 ou d = 4 dimensions14 dans les limites respectives et .
La loi de Newton a été testée depuis longtemps dans le système solaire avec grande précision, à des échelles de l'ordre de 106 Km. L'expérience de Cavendish (1790) avait été réalisée avec des sphères distantes d'une vingtaine de centimètres. Des expériences à la Cavendish sont réalisées depuis les années 80, qui explorent la gravité depuis le centimètre jusqu'au millimètre, sans observer d'écart à la loi de Newton tridimensionnelle. Les projets pour les années à venir vont jusqu'au dixième de millimètre.
Se non è vero, è bene trovato
Il y a typiquement deux phases dans l'évolution d'une théorie ambitieuse. On commence par comprendre les phénomènes et donner une formulation abstraite à la théorie. On aborde ensuite les aspects techniques, la résolution des équations, la confrontation expérimentale.
Les progrès les plus spectaculaires de la théorie des cordes relèvent de la première phase : structure et universalité de la théorie, rôle des symétries, formulations duales ... Des questions fondamentales mais techniquement difficiles restent toutefois sans réponse complète ou satisfaisante. La supersymétrie est omniprésente dans la théorie et absente de la nature aux échelles accessibles. Elle doit être brisée à basse énergie et restaurée à haute énergie. Comment et à quelle énergie charnière ? Comment retrouver le modèle standard des particules ? La ressemblance des spectres et des interactions ne suffit pas. Il faut les 3 familles de particules, les 3 interactions et le procédé qui donne les masses justes. Rien de plus à basse énergie. Il faut aussi expliquer la dynamique des compactifications : pourquoi la nature choisit-elle une option de compactification plutôt qu'une autre ? Enfin, il faut profiter de ce pourquoi la théorie a eu tant de succès dans ses premiers jours : la gravitation quantique. Déterminer un modèle cosmologique cohérent et suffisant, comprendre le problème de la constante cosmologique, l'inflation, la platitude de l'univers. Comprendre la vraie nature des trous noirs et de leur rayonnement.
C'est l'absence d'idées qui est un échec, pas la difficulté. Les théories de jauge, le modèle électrofaible, la chromodynamique quantique ont été accueillis jadis avec le plus grand scepticisme. Et ce n'est pas seulement, voire pas du tout, par manque de faits expérimentaux qu'il a fallu deux dizaines d'années et un travail de missionnaire pour les adopter.
La théorie des cordes n'est pas de reste dans cette logique. Elle a ses détracteurs et ses adhérents qui oublient parfois, les uns et les autres, que la théorie des cordes n'est pas un credo. C'est une théorie physique difficile qui foisonne d'idées nouvelles. Cette théorie a permis des avancées conceptuelles importantes : holographie entre interaction gravitationnelle et interaction de jauge, thermodynamique des trous noirs ... Elle a irrigué, et continue de le faire, divers domaines des mathématiques et a inspiré de nombreuses voies de recherche d'importance grandissante en physique des hautes énergies et en cosmologie, qui évoluent désormais de façon autonome : la phénoménologie des branes et des cordes, les cosmologies alternatives au Big-bang, les univers branaires ...
Ces derniers développements ont progressivement intéressé les expérimentateurs. On trouve des projets de recherche de particules de Kaluza-Klein autour des futurs grands instruments (par exemple le LHC15 au CERN). Des expériences de gravité sub-millimétrique sont programmées pour mieux comprendre la loi de Newton et tester les idées de « grandes » dimensions compactes. On attend avec impatience les observations cosmologiques à venir : anisotropies du fond cosmologique, matière et énergie noires, constante cosmologique ... (expériences ARCHEOPS, WMAP16 ...).
La théorie des cordes offre un cadre précis et contraint. Son contenu en termes de symétries, interactions et spectre ne souffre aucun amendement. Il est remarquable qu'il reproduise malgré cela et avec une telle efficacité la gravitation ainsi que l'ensemble des concepts introduits depuis plus de trente ans en physique des particules : unification des forces et de la géométrie, supersymétrie, dimensions supplémentaires d'espace-temps ..., dans un cadre compatible avec les principes de la mécanique quantique. Cette situation n'est peut-être pas fortuite, mais ce n'est pas à la communauté d'en décider. Comme toutes les théories, celle des cordes n'échappera pas au couperet de la confrontation avec l'expérience. Mais si cette confrontation devait être au bénéfice des cordes comme constituants élémentaires de la matière, l'histoire aura donné raison à tous les penseurs, depuis Pythagore jusqu'à Kepler, dans leur quête de l'harmonie des sphères célestes.
VIDEO CANAL U LIEN |
|
|
|
|
|
|
LE SATELLITE GAIA ... |
|
|
|
|
|
Paris, 14 septembre 2016
Le satellite Gaia livre la position d'un milliard d'étoiles
Avec un milliard d'étoiles cartographiées en mille jours, la recherche européenne n'a décidément pas peur des tâches herculéennes. Ce travail a été réalisé par 450 chercheurs, issus de 25 pays européens, dont une centaine de français, principalement du CNRS, de l'Observatoire de Paris et de l'Observatoire de la Côte d'Azur1 avec une participation majeure du CNES. Grâce au satellite Gaia, lancé le 19 décembre 2013, les scientifiques ont catalogué les positions de 1,15 milliard d'étoiles, avec en plus la vitesse et la distance par rapport au Soleil pour 2 millions d'entre elles. L'ESA2 et le consortium européen DPAC3 rendent publics le 14 septembre les premiers résultats de cette mission. Cette annonce représente la cartographie du ciel la plus précise et détaillée jamais réalisée.
Le satellite Gaia tourne sur lui-même et autour de la Terre tout en scrutant l'espace avec ses deux télescopes. Équipé de 106 capteurs qui forment l'équivalent d'un appareil photo d'une résolution d'un milliard de pixels, il observe ainsi quotidiennement 50 millions d'étoiles, avec dix mesures à chaque passage, ce qui représente une masse de 500 millions d'éléments par jour. Cette quantité énorme de données a permis la publication d'un catalogue des positions dans le ciel de 1,15 milliard d'étoiles. La précision va de 0,5 à 15 millièmes de seconde de degré, sachant qu'un millième de seconde de degré correspond à l'angle sous lequel on verrait une pièce de 1 euro placée à 4 000 km.
Pourvu de 200 millions d'étoiles de plus qu'initialement prévu, ce catalogue va permettre aux chercheurs d'établir de précieuses statistiques sur les différents types d'astres, qui seraient inexploitables sans un inventaire aussi vaste. On y retrouve ainsi des données pour 250 000 quasars et 3 000 étoiles variables4 de type Céphéides et RR Lyrae. La mission Gaia a livré les courbes de lumière de ces dernières, c'est-à-dire l'évolution de leur luminosité, afin de mieux comprendre les phénomènes physiques qui régissent les étoiles variables.
Les positions de 2 millions de ces étoiles ont également été combinées aux mesures effectuées 23 ans auparavant par la mission Hipparcos de l'ESA. La différence a permis de calculer la vitesse et la distance de ces astres par rapport au système solaire. La récolte des informations utilisées dans ce catalogue s'est arrêtée en septembre 2015 mais, comme Gaia continue toujours d'amasser des données, les chercheurs comptent comparer de la même manière les futures positions des étoiles à celles présentées ici. Ils devraient ainsi obtenir, vers fin 2017, la vitesse et la distance de ce milliard d'étoiles.
Les organismes français jouent un rôle de premier plan dans cette mission et sont représentés par une centaine de chercheurs, ingénieurs et techniciens au sein du consortium. Ils participent aux nombreuses missions indispensables au succès de la mission : organisation des observations au sol nécessaires pour le traitement des données, fourniture des éphémérides du système solaire, observation quotidienne du satellite Gaia lui-même par des moyens optiques (afin de connaître sa position et sa vitesse avec une précision extrême), validation des traitements des données, etc.
Les laboratoires concernés sont :
- Le laboratoire Galaxies, étoiles, physique et instrumentation (CNRS/Observatoire de Paris/Université Paris Diderot)
- Le laboratoire Systèmes de référence temps-espace (CNRS/Observatoire de Paris/UPMC)
- Le Laboratoire d'études du rayonnement et de la matière en astrophysique et atmosphères (CNRS/Observatoire de Paris/ENS Paris/UPMC/Université de Cergy-Pontoise)
- L'Institut de mécanique céleste et de calcul des éphémérides (CNRS/Observatoire de Paris/UPMC/Université de Lille)
- Le laboratoire Lagrange (CNRS/Observatoire de la Côte d'Azur/Université de Nice Sophia Antipolis)
- Le Laboratoire d'astrophysique de Bordeaux (CNRS/Université de Bordeaux)
- L'Observatoire astronomique de Strasbourg (CNRS/Université de Strasbourg)
- Le laboratoire Univers, transport, interfaces, nanostructures, atmosphère et environnement, molécules (CNRS/Université de Franche-Comté)
- Laboratoire univers et particules de Montpellier (CNRS/Université Montpellier)
Les ressources en ligne du Centre de données astronomiques de Strasbourg (CNRS/Université de Strasbourg) ont également joué un rôle important dans la validation des résultats et sont nécessaires à leur analyse scientifique.
Le CNES est un acteur essentiel auprès des équipes françaises grâce à la mise place d'un centre de traitement des données du DPAC à Toulouse (qui assure approximativement 40 % du traitement de données). Le DPAC a été agréé dès 2006 pour traiter les données du satellite Gaia et six centres de calcul spécialisés, comme celui de Toulouse, ont été retenus dans ce but.
DOCUMENT cnrs LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] Précédente - Suivante |
|
|
|
|
|
|