ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LA TERRE ET SES ORIGINES

 

Paris, 23 septembre 2015
Un scénario pour réconcilier la Terre et ses origines

C'est une vieille énigme que des chercheurs du CNRS et de l'Université Blaise Pascal pensent avoir enfin résolue. Les scientifiques butaient sur des différences de composition chimique entre notre planète et une classe de météorites primitives, les chondrites à enstatite, considérées comme des reliques du matériel primordial ayant formé la Terre. En s'appuyant sur des expériences en laboratoire et sur des modélisations, cette équipe propose pour la première fois un scénario complet qui rend compte de ces différences : les collisions qui ont construit la Terre l'ont aussi amputée à répétition d'une fraction de sa masse, faisant évoluer sa composition chimique. Ces travaux sont publiés le 23 septembre 2015 dans la revue Nature Communications.
Comme toutes les planètes du système solaire, la Terre s'est formée par accrétion, c'est-à-dire par l'agglomération progressive de matériaux sous l'effet de la gravitation. La désintégration radioactive précoce et les impacts provoqués par la chute de ces matériaux sur la planète en formation ont généré sa fusion jusqu'à des profondeurs assez importantes pour permettre la ségrégation d'un noyau riche en fer, surmonté d'un manteau rocheux et d'une croûte. Aujourd'hui, les échantillons terrestres auxquels nous avons accès se réduisent à la croûte et à quelques fragments de manteau portés à la surface au hasard des mouvements convectifs. La composition chimique globale de notre planète reste méconnue et il faut donc utiliser des indices indirects (comme la densité des couches successives, déduite de la propagation des ondes sismiques), complétés par l'étude des météorites. Certaines, appelées chondrites, sont connues pour être les plus primitives et sont donc des témoins du matériel primordial qui a contribué à former les planètes. Parmi elles, les chondrites à enstatite ont une composition isotopique1 exceptionnellement proche de celle de notre planète, ce qui a conduit à les considérer comme la « matière première » dont a été formée la Terre. Néanmoins, notre planète semble appauvrie en silicium et enrichie en magnésium par rapport à ces météorites2.

Des chercheurs du Laboratoire magmas et volcans (CNRS/IRD/Université Blaise Pascal) proposent pour la première fois un scénario complet permettant d'expliquer ce paradoxe, appuyé par des expériences et des modélisations. Selon eux, les embryons planétaires qui ont formés la Terre avaient bien la composition chimique des chondrites à enstatite, avant que des épisodes répétés de fabrication et d'érosion de croûte terrestre ne lui soustraient de grandes quantités de silicium – laissant un excès relatif de magnésium que nous observons aujourd'hui.

De précédentes études ont montré que des croûtes différenciées ont pu se former sur les protoplanètes et les astéroïdes quelques dizaines de millions d'années seulement après la formation du système solaire, soit par cristallisation de la surface d'un océan magmatique3, soit par remontée de magmas dans un réseau de fractures (voir schéma, a et b). Dans cette étude, les chercheurs ont reproduit la formation de cette croûte primitive grâce à des expériences de fusion de chondrites à enstatite à différentes pressions. Les liquides produits se sont révélés très riches en silicium et très pauvres en magnésium. La croûte formée à la surface de la planète par la remontée de ces liquides devait donc bien être enrichie en silicium et appauvrie en magnésium par rapport à la Terre dans son ensemble.

D'autre part, on sait que les impacts météoritiques subis par la Terre dans sa jeunesse ont non seulement conduit à sa croissance, mais ont aussi pulvérisé sa surface. Ces destructions répétées de la croûte terrestre ont pu durer environ 100 millions d'années, avant qu'un impact géant induise la formation de la Lune. Les impacts successifs4 ont donc fait évoluer la composition chimique de la planète, diminuant la proportion globale de silicium et augmentant celle de magnésium (voir schéma, c). En modélisant l'évolution de la composition chimique de la Terre par ce mécanisme, les chercheurs estiment que l'équivalent d'au moins 15 % de la masse actuelle de notre planète a dû être perdu au cours de son accrétion.

D'autres éléments chimiques ont des proportions différentes sur Terre et dans les chondrites à enstatite. La Terre est enrichie en éléments lithophiles5 réfractaires6, tels que l'aluminium ou le calcium et appauvrie en éléments lithophiles volatils, tels que le sodium ou le potassium. Pour expliquer ces divergences, les chercheurs proposent que lors de la vaporisation de la croûte par les impacts entre corps planétaires, les éléments volatils auraient été préférentiellement perdus sous forme de gaz, alors que les éléments réfractaires se seraient à nouveau condensés et seraient retombés sur la planète en formation (voir schéma, d).

L'ensemble de ce scénario a pu se produire sur la proto-Terre, mais aussi sur tous les corps rocheux qui ont contribué à la croissance de la planète, dès lors qu'ils étaient suffisamment gros pour se différencier et produire de la croûte.

 

 DOCUMENT        cnrs        LIEN

 
 
 
initiation musicale toulon  

LA LUNE

 

La Lune


back to basic - par Jacques-Olivier Baruch, Jean Chapront, Patrick Pinet dans mensuel n°334 daté septembre 2000 à la page 64 (3226 mots) | Gratuit
C'est le corps céleste le plus étudié, tout d'abord de loin, puis, depuis trente ans, in situ . Malgré cela, ce laboratoire de métrologie pose de sérieux problèmes aux astronomes quant à son origine, son orbite et sa compostion. Une nouvelle ère d'exploration s'annonce avec l'envoi prochain de sondes japonaises et européenne.

Comment s'est-elle formée ?
Aucune réponse ne satisfait tous les planétologues, même si un consensus s'est établi sur une formation contemporaine à celle de la Terre à quelques dizaines de millions d'années près. Quatre hypothèses ont été avancées, mais toutes se heurtent à des objections. Comme l'imaginait en 1878 George Howard Darwin, fils de Charles, la Lune pourrait être issue d'un morceau du manteau de la Terre, même si, contrairement à ce qu'il croyait, le Pacifique n'est pas la cicatrice de cette désunion. La jeune Terre encore en fusion aurait été bombardée par des fragments de planétoïdes qui auraient arraché des matériaux du manteau. Ceux-ci auraient alimenté un disque de matière en orbite terrestre et se seraient accrétés pour former notre Lune. Ce scénario impose que la Terre soit alors en rotation très rapide 5 heures, ce que la plupart des astronomes rejettent. Autre scénario, la Lune a pu se former par accrétion de petits planétésimaux il y a 4,55 milliards d'années en même temps que la Terre et dans la même zone du système solaire. Si cette hypothèse était la bonne, la densité de la Lune devrait être égale à celle de la Terre 5,5 g/cm3, alors qu'elle n'est que de 3,36 g/cm3. Troisième idée, la Terre aurait capturé la Lune, qui se serait formée un peu plus loin dans le système solaire. Elle se serait approchée à la bonne distance pour se mettre en orbite terrestre. Sa vitesse aurait auparavant été réduite par un choc avec un autre corps. Cela ressemble trop à un scénario ad hoc , et son orbite aurait alors plus de chances de ressembler à une ellipse allongée qu'au cercle presque parfait qu'on observe actuellement. Reste l'hypothèse cataclysmique qui a la faveur des planétologues, même si elle ressemble beaucoup à celle de Darwin. Un corps de une à trois fois la taille de Mars aurait heurté la jeune Terre encore chaude. Les débris des deux astres auraient formé un disque de poussière dans la lointaine banlieue terrestre donnant lieu à la formation de la Lune dans un temps très court selon les simulations numériques.

Ensuite, entre 4,52 milliards d'années, date probable de sa formation, et 3,9 milliards d'années, son refroidissement, puis un intense bombardement météoritique ont profondément modifié sa structure, créant d'innombrables cratères et bassins d'impact, responsables du relief actuel de la Lune. Entre 3,96 et 3,16 milliards d'années, des laves basaltiques provenant de la fusion du manteau se sont épanchées dans les grands bassins pour former les mers, ces vastes étendues de couleur sombre. Depuis, seuls quelques rares météores, dont douze hommes, ont perturbé le paysage.

Quelle est sa composition ?
Les douze astronautes qui ont foulé la Lune lors des missions Apollo ont rapporté 382 kg de roches lunaires, dont 12 % ont été confiés aux scientifiques et une petite partie aux musées ou en cadeau à des chefs d'Etat. Le reste est gardé jalousement au centre spatial de Houston Etats-Unis en attendant de nouvelles techniques d'analyse. Ces roches de surface contiennent autant de tungstène, d'uranium, de cobalt, de fer et autre chrome que la croûte et le magma terrestre. Seuls matériaux alors inconnus sur Terre, la pyroxferroïte et l'armalcolite du nom d'Armstrong, Aldrin et Collins, les trois astronautes d'Apollo 11. Comme pour la Terre, c'est l'étude de la propagation des ondes sismiques qui a permis de sonder la structure interne de notre satellite. Et ce, grâce aux petits sismomètres installés par les astronautes qui ont enregistré jusqu'en octobre 1977 les tremblements de lune. Certains ont été provoqués par les hommes comme le dernier étage d'une fusée Saturne V précipité au sol, l'explosion de huit charges dans la vallée de Taurus-Littrow afin de simuler les chocs météoritiques ou l'impact calculé du module lunaire d'Apollo 17. En surface, une couche de régolite, poussière allant du grain de sable au fragment rocheux de taille métrique, couvre la Lune d'une épaisseur d'environ 10 m sur les terre hauts-reliefs, de 5 m dans les mers. Ce régolite recouvre une croûte basaltique de 20 à 60 km d'épaisseur surmontant un manteau d'environ 1 000 km. En dessous, les ondes sont fortement atténuées, suggérant la présence d'un noyau mou ou partiellement fondu de 300 à 700 km de diamètre et dont la température avoisinerait les 1100 °C. Au centre même se cache peut-être un noyau métallique de quelques kilomètres de diamètre et représentant 2 % de la masse totale de la Lune.

Possède-t-elle une atmosphère ?
La couronne solaire, visible à l'oeil nu uniquement lors des éclipses totales de Soleil, a été longtemps prise à tort pour une atmosphère lunaire. Notre satellite n'en possède pas ou si peu qu'elle est insignifiante pression = 10-12 Pa. Pourquoi ? Parce que l'accélé-ration de la pesanteur à sa sur-face 1,624 m/s2 comparé aux 9,783 m/s2 pour la Terre est trop faible. Pour s'arracher de la Lune, un corps doit posséder une vitesse minimale de 2,38 km/s 11,18 km/s sur Terre. A 100 °C, soit à peu près la température la plus élevée à la surface de la Lune, l'hydrogène moléculaire approche cette valeur 2,16 km/s. Il s'échappe donc facilement. Les molécules plus lourdes H2O, N2, O2, CO2 ont des vitesses moyennes d'environ 500 m/s, mais lors de collisions, leur mouvement est beaucoup plus rapide. Lors de sa formation, la Lune, fluide, très chaude et sans cesse bombardée de projectiles interplanétaires, n'a pu retenir ces composés volatils. Cependant, d'autres sources continuent d'alimenter la Lune en gaz. Le vent solaire apporte continuellement son lot de noyaux d'hydrogène, d'hélium et autres éléments plus lourds. Les roches lunaires dégazent sous l'effet de la chaleur solaire, et des minéraux radioactifs se transforment. La désintégration de l'uranium et du thorium produit de l'hélium. Le potassium 40 donne de l'argon. Les variations thermiques diurnes font sans cesse évoluer la densité de cette atmosphère ténue de 500 000 atomes/cm3 la nuit à quelques dizaines de millions le jour. Les missions Apollo 15 et 16 ont de plus détecté la présence de néon, de dioxyde de carbone, d'azote et de méthane. L'ensemble de ces gaz est en quantité tellement infime que ceux-ci pourraient être emprisonnés, sur Terre au niveau de la mer, dans un cube de 0,1 mm3. Il faut y rajouter des poussières en suspension qui sont peut-être la cause d'une observation, par les astronautes d'Apollo 17, de stries lumineuses dans le ciel noir lunaire juste avant le lever du Soleil.

Quelles influences exerce-t-elle sur la Terre ?
La pleine lune blanchit-elle le linge ? Occasionne- t-elle plus de naissances ? La lune montante fait-elle croître plus vite poils et plantes ? Les seules influences avérées, étudiées et calculées sont les marées qu'elle occasionne sur notre planète. Galilée attribuait à tort ces mouvements océaniques uniquement à la rotation terrestre. Newton montra qu'il s'agissait d'une différence d'attraction gravitationnelle de la Lune et, dans une moindre mesure, du Soleil. Par rapport au centre de la Terre, les deux régions opposées du Globe qui sont sur la ligne Terre-Lune se soulèvent. Suivant la rotation de notre planète et la révolution de la Lune, ces bourrelets se déplacent provoquant deux marées par jour qui dissipent par friction 75 % de leur énergie sur les côtes, mais aussi au fond des océans où elles pourraient jouer un rôle dans les courants, et donc dans le climat. La marée la plus importante est celle de la baie de Fundy Canada, où son amplitude atteint, 17 m 15,5 m au Mont-Saint-Michel. La croûte terrestre et l'atmosphère sont aussi soumises aux mêmes types de déformation, induisant une variation de la forme de la terre solide de l'ordre de 40 cm. Ce n'est pas négligeable pour des expériences de physique de haute précision. Les physiciens du CERN laboratoire européen de physique des particules à Genève ont été surpris par ce phénomène. Aux pleine et nouvelle lune, quand les attractions du Soleil et de la Lune s'additionnent, créant les marées de vive-eau les plus fortes, les données qu'ils analysent lors des chocs de particules ont fait apparaître une petite modification de la longueur de leur accélérateur.

Pourquoi nous présente-t-elle toujours la même face ?
Plutarque l'avait remarqué au IIe siècle de notre ère. Sa période de rotation jour lunaire est égale à celle de sa révolution année lunaire autour de la Terre 27,32 jours. En 1764, le Français Lagrange a démontré que ce fait remarquable était le résultat des marées qu'occasionne la Terre sur la Lune. Attirant plus fortement la face visible que sa partie arrière, la Terre a progressivement ralenti la durée du jour lunaire pour parvenir à ce point d'équilibre où jour et année lunaires sont d'égales longueurs. On observe pourtant depuis la Terre plus de la moitié de la surface lunaire, comme l'avait remarqué Galilée dès 1609 avec sa toute nouvelle lunette. Hormis les petites irrégularités dans la rotation de la Lune pressenties par Newton, puis découvertes par Friedrich Bessel en 1839, des effets de nature physique ou géométrique sont à l'origine de ces « librations ». Avec son orbite excentrique, la Lune gravite plus vite à son périgée qu'à son apogée. Sa vitesse orbitale est ainsi tantôt supérieure, tantôt inférieure à sa vitesse de rotation qui elle est constante. Un observateur peut ainsi voir la Lune sur plus de 180° en longitude. De plus, l'axe de la Lune est incliné. On peut donc aussi voir, au cours des saisons lunaires, de l'autre côté des pôles. Enfin il y a un effet de parallaxe dû au fait qu'un observateur n'est jamais au centre de la terre. Au lever de la Lune il peut voir au-delà du limbe est et un peu plus loin que le limbe ouest au mo-ment du coucher lunaire. Tous ces effets cumulés, la Lune nous présente environ 59 % de sa surface.

N'est-elle qu'un gros caillou inerte ?
Aucune tectonique, pas de mouvement convectif dans le manteau, la Lune est un corps très rigide, comme ont pu s'en apercevoir les Américains d'Apollo 12, quand la pose de leur module a fait vibrer le sol lunaire pendant 50 minutes. Les petites secousses qui agitent cependant régulièrement notre satellite sont dues aux chocs météoritiques 75 à 150 par an, aux dilatations et contractions du sol liées aux gradients de température - 173 °C à l'ombre, + 117 °C au soleil, ou encore à de rares vibrations profondes 37 enregistrées en 9 ans. Les sismomètres lunaires ont de plus enregistré des petits séismes chaque fois que notre satellite est à son périgée, là où l'attraction terrestre est la plus forte. Apparaissent aussi des événements transitoires Lunar Transient Phenomena ou LTP, des changements de couleur ou de luminosité, dont les causes sont incertaines. Ils pourraient être liés à la fluorescence du sol sous l'action du vent solaire, à la mise en suspension de poussière par des gaz qui s'échappent, aux impacts météoritiques ou aux tremblements de lune. Ce sont de tels événements qui ont fait dire en 1787 à William Herschell qu'il voyait des éruptions volcaniques. En 1927, l'Autrichien Karl Müller avait répertorié 174 LTP historiques. Dans les années 1980, la NASA en a comptabilisé plus de mille cinq cents.

Question magnétisme, on ne s'oriente pas sur la Lune grâce aux boussoles. Le champ magnétique lunaire est mille fois inférieur à celui de la Terre, ce qui confirme l'absence de noyau assez gros pour produire un effet dynamo comme sur notre planète. Certaines roches âgées de 3 milliards d'années et rapportées par les missions Apollo présentent une aimantation mesurable, suggérant un champ dix fois plus intense à cette époque. Aujourd'hui, les anomalies locales sont plus fortes que le champ total, dont l'origine pourrait être liée à la mise en place des gros bassins d'impacts, comme le suggère la cartographie globale récemment établie par les magnétomètres de la sonde américaine Lunar Prospector .

Connaît-on bien son orbite ?
C'est l'astre dont on connaît le mieux le mouvement. La solution des équations de son mouvement, élaborée par l'Anglais Brown entre 1901 et 1908 et améliorée depuis, comprend des séries de plus de 37 000 coefficients. Des travaux sont en cours afin d'écrire une théorie analytique de plus de 100 000 termes. Avec des compléments numériques adéquats, elle donne la position de notre satellite au centimètre près, alors que sa distance moyenne est de 384 403 km, et sa vitesse approche le kilomètre par seconde. Cette précision est nécessaire pour répondre à la qualité des mesures effectuées par tir laser qui sont aujourd'hui inférieures au centimètre. Euler 1753, puis Delaunay 1860 s'étaient attaqués au problème principal. Leurs éphémérides considéraient que la Terre, la Lune et le Soleil formaient un système isolé. Pour affiner ces prévisions, il a fallu tenir compte de toutes les perturbations qui écartent la Lune de sa trajectoire elliptique simple autour de la Terre. En premier lieu, la distance au Soleil - et donc son attraction gravitationnelle - n'est pas constante. Il faut y rajouter la répartition inégale des masses sur la Lune, l'inclinaison de son orbite sur l'écliptique qui varie entre 4°58' et 5°19', la rotation du périgée lunaire en 8,85 ans et celle de la ligne des noeuds intersection entre le plan orbital de la Lune et écliptique en 18,61 ans. Les autres planètes du système solaire interviennent aussi, chacune suivant leur masse et leur distance. Et puis la Terre n'est pas une sphère parfaite. Son renflement équatorial et l'inclinaison de son axe 23° 26' sur son orbite modifient sensiblement la forme elliptique idéale de l'orbite lunaire.

Hormis la théorie, l'amélioration des éphémérides provient des réflecteurs laser disposés sur la Lune lors des missions Apollo et Luna. Le laser Terre-Lune, installé au Centre d'études et de recherches géodynamiques et astronomiques CERGA sur le plateau de Calern, près de Grasse 06, mesure la distance à 3 cm près, après avoir pris en compte la turbulence atmosphérique, la tectonique des plaques terrestres, les irrégularités de la rotation de la Lune et de la Terre. Ces mesures mettent en évidence un accroissement progressif de 3,8 cm/an du demi-grand axe de la Lune. Cet effet dit séculaire apparaît aussi quand on compare les calculs aux observations des éclipses historiques. Cet éloignement de la Lune, pressenti par Edmund Halley dès 1693, est lié aux marées. De même que la Terre a ralenti la rotation lunaire jusqu'à la synchroniser, la Lune et dans une moindre mesure le Soleil freine aussi la rotation terrestre 0,002 s/siècle. L'analyse des récifs coralliens âgés de 500 millions d'années a montré que le jour durait alors 22 heures. Pour conserver l'énergie du système Terre-Lune, l'allongement du jour terrestre est compensé par l'éloignement progressif de notre satellite. Jusqu'où ? On ne sait pas.

Y a-t-il de l'eau, de la vie ?
L'analyse des données radar de la sonde américaine Clementine 1994 suggéra que de la glace d'eau pouvait se trouver en quantités très faibles au fond de certains cratères polaires non éclairés par le Soleil. Indépendamment, sa consoeur Lunar Prospector 1998, survolant les pôles à basse altitude, y détecta de l'hydrogène. Cet élément provient-il de traces d'eau laissées par les comètes ou les météorites qui se sont écrasées sur la Lune ou bien est-il lié à l'implantation dans le régolite lunaire d'ions hydrogène véhiculés par le vent solaire ? Pour en avoir le coeur net, Lunar Prospector fut sacrifié le 31 juillet 1999 sur l'autel d'un cratère anonyme, nommé depuis Shoemaker, près du pôle Sud. De son choc avec le sol « glacé » devait surgir un nuage d'hydroxyle OH, dont l'émission aurait pu être détectée en ultraviolet. Le choc a bien eu lieu, mais aucun observateur terrestre ne put voir la moindre goutte. La question reste donc ouverte. Quant à la vie, on eut un espoir quand les astronautes d'Apollo 12, Conrad et Bean, retrouvèrent un streptocoque sur la vieille sonde automatique Surveyor 3. On s'aperçut que cette bactérie avait échappé à la stérilisation. Ce fut la seule alerte. Il n'y a pas de vie sur la Lune. Pourtant, nombreux furent ceux qui y ont cru, comme Cyrano de Bergerac, Herschell, Flammarion ou Jules Verne, même si celui-ci, fort des considérations scientifiques de son époque, la crut seulement possible sur la face cachée, siège possible selon lui de l'atmosphère lunaire. Même l'Américain William Pickering en 1924, après avoir vu des LTP, relança l'idée de la présence d'une végétation et d'insectes sélénites. On doit sans doute à la Lune sinon l'émergence, au moins la sauvegarde de la vie sur Terre. La présence de la Lune a évité que l'axe de rotation terrestre ne bascule complètement comme cela a pu se passer sur Vénus ou Mars, créant des saisons extrêmes, néfastes au maintien de la vie.

Y retourner ? Pourquoi faire ?
Après le programme Apollo, le premier pas pour l'homme et le grand bond pour l'humanité se sont arrêtés dans leur élan. Jusqu'en 1976, trois Luna soviétiques et un Explorer américain ont continué les recherches. Mais les décideurs scientifiques et politiques se sont désintéressés de la Lune. Il fallut attendre le japonais Muses-A Hiten en 1990 et les américains Clementine en 1994, puis Lunar Prospector en 1998 pour relancer l'étude plus approfondie de notre satellite et imaginer s'y installer durablement. Et les idées ne manquent pas, même si elles sont plus de l'ordre du rêve, de la science-fiction que des projets élaborés et approuvés par les agences spatiales. L'oxygène contenu dans certaines roches pourrait être extrait pour la respiration humaine. Avec le phosphore et le potassium, il pourrait servir dans la fabrication des propergols des fusées lunaires. La faible gravité de notre satellite permettrait d'utiliser la Lune comme relais pour desservir les autres planètes du système solaire. On pourrait en outre y installer d'énormes champs de cellules photoélectriques qui transmettraient leur énergie à la Terre via le rayonnement électromagnétique.

Les astronomes, quant à eux, se sentent plus attirés par la face cachée de la Lune. Loin des bruits radio parasites et de l'éblouissante clarté terrestre, sans atmosphère perturbatrice, ils voudraient bien y installer leurs télescopes. L'astronome Jean Heidmann, décédé en juillet dernier, premier supporter français du programme d'écoute extraterrestre Seti, avait même déjà localisé le site de son futur radiotélescope, le cratère Saha.

Au vu des projets concrets, acceptés et financés, ce ne sont maintenant ni les Américains ni les Russes qui continueront les travaux. Place aux Européens, et surtout aux Japonais. Première pierre d'un vaste programme de tests technologiques de l'Agence spatiale européenne, Smart-1 84 millions d'euros utilisera en octobre 2002 la propulsion ionique pour se mettre en orbite lunaire, puis activera son spectromètre infrarouge et sa caméra miniature à haute résolution. Un an plus tard la sonde japonaise Lunar-A devrait la rejoindre. Cette sonde, équipée d'une caméra effectuant de l'imagerie en éclairement rasant, larguera depuis son orbite des pénétrateurs, véritables fléchettes qui se ficheront dans le sol lunaire et étudieront la structure interne de la Lune par des mesures sismologiques et de flux de chaleur. Son énorme compatriote de 4 tonnes, Selene Selenological engineering explorer , comprendra en 2004 un module orbital et un module d'alunissage autonome.

Cette année-là pourrait voir la concrétisation du leadership de l'agence spatiale japonaise sur l'exploration lunaire.

Par Jacques-Olivier Baruch, Jean Chapront, Patrick Pinet

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

COSMOLOGIE

 

3. Trois résultats majeurs pour la cosmologie


Stephen Hawking - par Christophe Galfard dans mensuel n°481 daté octobre 2013 à la page 44 (2088 mots) | Gratuit
Stephen Hawking est professeur lucasien émérite de mathématiques de l'université de Cambridge, au Royaume-Uni, l'une des chaires de mathématiques les plus prestigieuses au monde. Isaac Newton, père de la gravitation universelle, et Paul Dirac, découvreur de l'antimatière, sont deux de ses 16 illustres prédécesseurs à cette chaire, créée il y a trois cent cinquante ans.

Pourquoi Stephen Hawking a-t-il été choisi pour leur succéder ? « Sa remarquable combinaison de courage, de vision et d'intuition lui a permis de produire des idées qui ont transformé notre compréhension de l'espace et du temps, des trous noirs et de l'origine de notre univers », répond un de ses plus anciens collègues, James Hartle, professeur de physique à l'université de Santa Barbara, en Californie, aux États-Unis.

Pour son combat face à la maladie et ses ouvrages de vulgarisation, Stephen Hawking est certainement le scientifique contemporain le plus connu au monde, mais il est surtout l'un des physiciens théoriciens les plus remarquables de la seconde moitié du XXe siècle et de ce début de XXIe siècle. Dans les années 1960 et 1970, à une époque où la plupart de ses confrères théoriciens s'intéressaient essentiellement à la physique des particules, lui travaillait sur la relativité générale, théorie de la gravitation qu'Einstein a mise au point en 1915. Il voulait découvrir l'origine de notre Univers, et il était décidé à lui trouver une raison mathématique... Pour y parvenir, il remit la gravitation au goût du jour et transforma ce que les scientifiques de l'époque savaient de ses fondements mathématiques.

Avec Roger Penrose, mathématicien britannique, il démontra la nécessité de l'existence de singularités de l'espace-temps que sont les trous noirs et le Big Bang. Puis, seul, il découvrit que les trous noirs n'étaient pas si noirs que ça, qu'ils s'évaporaient, et qu'une théorie du tout, qui unirait en un formalisme unique le très grand et le très petit, la gravitation et la physique quantique, était la seule à pouvoir l'expliquer. Cette découverte lui permit enfin de s'attaquer à sa quête originelle, et il fut le premier scientifique à proposer, avec James Hartle, une explication mathématique à l'origine de notre Univers. Retour sur ces trois travaux exceptionnels.

1. Des singularités dans l'Univers
Dans les années 1960 et 1970, les nouveaux accélérateurs de particules permettaient, tous les ans, des découvertes dignes d'un Prix Nobel. La nature dévoilait ses secrets, et ces secrets correspondaient étonnamment bien aux prédictions théoriques.

Le monde quantique était donc à l'honneur, et rares étaient les chercheurs qui travaillaient sur la relativité générale, c'est-à-dire sur notre Univers dans son ensemble. À la suite d'une conférence sur la gravitation, Richard Feynman, Prix Nobel de Physique, écrivait d'ailleurs à sa femme : « Je n'y apprends rien. Parce qu'il n'y a pas d'expériences dans ce domaine, il n'est pas actif, et peu des meilleurs chercheurs travaillent dessus. » Et de conclure : « Rappelle-moi de ne plus jamais retourner à une conférence sur la gravitation. »

Certains chercheurs étaient pourtant en train de créer la cosmologie moderne. Après la Seconde Guerre mondiale, la thèse en vogue pour expliquer l'histoire de notre Univers était celle mise en avant par trois scientifiques de renom : Fred Hoyle, Thomas Gold et Herman Bondi. Dans le modèle d'Univers stationnaire qu'ils proposaient, notre Univers avait été, est et sera toujours identique à lui-même, à la fois dans l'espace et dans le temps.

Au-delà de la relativité. Hoyle, chef de file de ce courant de pensée qui rejetait l'idée d'un Big Bang (c'est d'ailleurs lui qui l'a nommée ainsi, pour dénigrer l'idée), était rattaché à l'université de Cambridge. Mais un autre groupe de scientifiques s'y était constitué sous la direction de Dennis Sciama, que certaines conclusions de Hoyle laissaient perplexe. Stephen Hawking faisait partie de ce groupe. Il collaborait alors avec Roger Penrose sur les implications mathématiques de la relativité générale.

Les équations qui régissent cette théorie, les équations d'Einstein, sont une mise en relation entre énergie et géométrie (lire « À la croisée de deux courants théoriques », p. 42). Pour comprendre une géométrie et, éventuellement, son évolution, il faut donc avoir une idée de l'énergie qui s'y trouve. Stephen Hawking et Roger Penrose s'attelèrent à cette étude en considérant des conditions énergétiques théoriques suffisamment raisonnables pour qu'elles correspondent autant que possible à la matière du monde réel.

Leurs résultats, connus aujourd'hui sous le nom de théorèmes de Penrose-Hawking, sont sans appel : la relativité générale prédit l'existence, dans le passé de notre Univers, d'une singularité, c'est-à-dire un endroit où notre Univers est si petit, où tout devient si extrême, que même la relativité générale n'est plus utilisable [1]. C'est cette singularité que nous appelons aujourd'hui le Big Bang. Mais ce n'était pas tout. Les mêmes calculs montraient qu'une singularité apparaissait aussi au coeur d'astres dont la densité dépasse un seuil limite, et que nous appelons des trous noirs.

Le Big Bang. Les trous noirs. En une série de théorèmes mathématiques, Roger Penrose et Stephen Hawking avaient non seulement rendu obsolètes les idées d'un Univers stationnaire, mais ils avaient aussi prouvé que la relativité générale, la vision d'Einstein, n'est pas complète : les singularités la rendent incapable de maîtriser ses propres prédictions.

Le Big Bang était soudain devenu inaccessible à la relativité générale, mais Stephen Hawking avait alors à peine 30 ans, la maladie semblait lui laisser un sursis, et il n'abandonnait pas sa quête d'une explication à l'origine de tout.

2. L'évaporation des trous noirs
Le problème, avec le Big Bang, c'est que lorsqu'il a lieu, il englobe la totalité de notre Univers. Même théoriquement, il est impossible d'y faire évoluer quoi que ce soit vu que tout fait partie de la singularité. Les trous noirs, en revanche, sont localisés, et finis. On peut tout à fait imaginer des objets évoluant autour, loin de l'horizon qui cache leur singularité.

En 1974, Stephen Hawking s'attaqua donc à un problème inédit : tenter de voir, théoriquement, comment se comporte une particule quantique si on l'envoie, depuis l'infini, vers un trou noir. Pour la gravitation, il prit la géométrie du plus simple des trous noirs, celui de Schwarzschild, qui ne tourne pas et qui n'est pas chargé électriquement. Pour la partie quantique, il prit ce que l'on appelle un champ scalaire, le plus simple des champs quantiques (lire « À la croisée de deux courants théoriques », p. 42), que nous appellerons ci-dessous, pour simplifier, une particule quantique.

En relativité générale, il est assez simple de connaître l'énergie nécessaire à une particule pour qu'elle puisse remonter une dune ou, pour généraliser cela à l'espace-temps, pour qu'elle puisse s'éloigner d'une planète, ou d'une étoile. Depuis la surface de la Terre, par exemple, il faut une vitesse d'un peu plus de 40 000 kilomètres à l'heure pour sortir du champ gravitationnel et se retrouver libre dans l'espace. C'est ce qu'on appelle la vitesse de libération. Pour les trous noirs, c'est un peu plus compliqué : ce sont des astres tellement extrêmes qu'il existe une distance limite, appelée l'horizon, à partir de laquelle la vitesse de libération est celle de la lumière (soit environ 300 000 kilomètres par seconde). Si l'horizon est traversé, même la lumière ne va plus assez vite pour s'échapper : elle ne peut que « tomber » vers la singularité prédite par les théorèmes de Penrose-Hawking. Et comme rien ne peut aller plus vite que la lumière, rien ne peut sortir de l'horizon d'un trou noir. En 1974, ce résultat classique, qui ne prend pas en compte la nature quantique du monde, était admis par tous.

La température des trous noirs. Stephen Hawking lança donc sa particule quantique vers un trou noir, et il n'en crut pas ses calculs : d'après ce qu'il trouvait, les propriétés quantiques des particules leur permettaient de ressortir de l'horizon. Il vérifia ses résultats plusieurs fois et les publia dans la revue Nature [2]. Le résultat était presque choquant : les trous noirs n'étaient pas si noirs que ça ! Ils s'évaporaient ! Einstein avait unifié géométrie et énergie, Stephen Hawking venait de compléter l'unification entre géométrie et thermodynamique ! Les trous noirs étaient gris, et ils avaient une température !

Cette température s'appelle aujourd'hui la température de Hawking. La découverte est historique, car pour la première fois dans l'histoire des sciences, les physiciens avaient une formule réunissant les attributs de la gravitation et de la physique quantique. Alors qu'on n'avait pas encore de théorie de gravitation quantique (on n'en a d'ailleurs toujours pas aujourd'hui) et que peu de personnes en cherchaient une, Stephen Hawking venait d'en publier un résultat.

Mieux encore : étant allé au-delà de la relativité générale, il venait de trouver un moyen de peut-être contourner ses propres théorèmes, et de s'attaquer à nouveau à sa quête de toujours.

3. L'origine de l'Univers
Pour qu'une théorie scientifique permette de faire des prédictions, elle a besoin de répondre à deux questions : « Quelles sont les lois applicables ? » ; « De quelle situation partons-nous ? » En d'autres termes, il faut une formule, ou une loi, décrivant comment un système évolue dans le temps, et une condition initiale pour ce système. Si seule la loi ou seule la condition initiale est connue, aucune prédiction ne peut être proposée. L'exemple d'une flèche tirée par un arc est caractéristique : si on ne sait pas d'où la flèche est partie, aucun calcul ne nous dira où elle atterrira. De même, si on n'a aucune intuition des lois régissant la balistique, savoir d'où part une flèche ne donnera pas son point d'arrivée.

Pour la plupart des phénomènes physiques, avoir une condition initiale est non seulement possible mais aussi renouvelable : s'il le faut, des archers peuvent tirer dix millions de flèches pour vérifier si une théorie fonctionne bien. Mais pour l'Univers, c'est beaucoup plus compliqué.

Non seulement il est impossible de voir son origine, mais il est aussi exclu d'en comparer plusieurs les uns avec les autres. La science ne peut apparemment que se poser la question de son évolution, pas de son état initial. Au début des années 1980, c'est pourtant ce que Stephen Hawking a fait, avec son collègue James Hartle [3]. Pour cela, ils ont à nouveau dû emprunter à la physique quantique une certaine vision de ce qu'est la réalité.

Dans les années 1940, pour comprendre le monde quantique, Feynman a inventé un formalisme fondé sur l'idée suivante : toute particule, pour aller d'un endroit à un autre, doit pouvoir emprunter tous les chemins possibles et imaginables. D'après Feynman, pour décrire le fonctionnement du monde quantique, il faut ajouter tous ces chemins en leur donnant, à chacun, un certain poids. Tous les phénomènes observables dans les accélérateurs de particules peuvent aujourd'hui être décrits par cette vision, et Feynman reçut le prix Nobel pour ces travaux en 1965.

Temps imaginaire. En partant de l'idée que l'Univers devrait, d'une certaine manière, être aussi quantique dans son ensemble que les particules qu'il contient, Stephen Hawking et James Hartle se sont dit qu'il était peut-être la somme de tous les Univers possibles. Le point d'arrivée peut être pris comme étant l'Univers tel que nous le voyons aujourd'hui. Mais le point de départ, quel est-il ?

Les deux physiciens ont non seulement posé cette question mathématiquement, mais ils ont en plus suggéré une réponse, qui peut se résumer ainsi : la fonction d'onde de l'Univers s'obtient en additionnant tous les Univers qui n'ont pas de bord initial. Dit comme cela, cela peut paraître étrange, mais le bord dont il est ici question n'est pas un bord physique. C'est un bord mathématique, dans une représentation géométrique de l'Univers qui ne correspond pas nécessairement à celle qui est utilisée habituellement. James Hartle et Stephen Hawking y ont transformé le temps en une dimension d'espace, appelée temps imaginaire : l'espace-temps devient alors un espace euclidien, beaucoup plus simple à utiliser. Ce formalisme est appelé gravitation quantique euclidienne [4].

Aussi mathématique que soit cette description d'Univers sans bord, pour la première fois, une origine à notre Univers était proposée, signifiait quelque chose et permettait même de tenter de faire des prédictions. Depuis les travaux de Stephen Hawking et James Hartle, la question de l'origine de notre Univers n'est plus réservée à la métaphysique : elle est entrée dans le domaine des sciences. Une traduction de leur hypothèse pourrait être que l'Univers a été créé à partir de rien, par une fluctuation quantique.

Tout comme pour l'évaporation des trous noirs, nous sommes encore loin de pouvoir vérifier ces idées expérimentalement, mais les avancées théoriques et technologiques de ces dernières années nous en rapprochent constamment un peu plus. Depuis que Stephen Hawking a ouvert la voie, de nombreux chercheurs parmi les plus talentueux au monde travaillent désormais, eux aussi, sur l'origine de notre Univers.

Par Christophe Galfard


  DOCUMENT    larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

GRAVITATION

 


1 - Six raisons de modifier les lois de la gravitation


dossier - dans mensuel n°435 daté novembre 2009 à la page 40 (1886 mots) | Gratuit
La théorie de la relativité générale s'est imposée il y a bientôt cent ans pour décrire l'attraction gravitationnelle. Elle a réduit les lois de Newton, qui présidaient jusque-là, à un simple cas particulier. Et si elle-même n'était qu'un cas particulier d'une théorie encore plus générale?

F aut-il modifier les lois de la gravitation ? La question revient régulièrement dans des publications scientifiques qui en appellent à dépasser la relativité générale. Pourtant, s'il est une théorie en physique qui a passé avec brio tous les tests auxquels on l'a soumise, c'est bien celle développée par Albert Einstein en 1915.

À l'époque, le concept est révolutionnaire : Einstein ne considère plus la gravitation comme une force, mais la comme la manifestation de la déformation de l'espace-temps par la masse ou l'énergie. Autrement dit, la vision de Newton d'une attraction exercée par une masse sur une autre, - celle de la Terre sur une pomme ou celle du Soleil sur la Terre - est supplantée par celle du mouvement d'un corps guidé par la géométrie changeante de l'espace-temps.

Toutes les prédictions qui en découlent ont été vérifiées les unes après les autres. À commencer par le décalage progressif de Mercure sur son orbite que les lois de Newton n'expliquent pas. Les déviations des rayons lumineux par un corps massif, autre prédiction de la relativité générale, sont aujourd'hui couramment utilisées pour cartographier la distribution des masses dans l'Univers.

Pourquoi alors la remettre en question ? Quels sont les écueils sur lesquels cette théorie achoppe ? Les arguments pour dépasser la relativité générale sont en réalité de nature différente. Il existe des limites théoriques. Il existe aussi des données cosmologiques qui, pour cadrer avec la relativité générale, requièrent l'existence de matière et d'énergie sombres et inconnues. Une autre manière d'interpréter ces données, sans faire appel à ces mystérieuses composantes, est de revoir les lois de la gravitation. Et enfin des observations intrigantes et toujours inexpliquées poussent également à explorer cette voie. Tout comme la théorie de Newton représente un cas limite de la relativité générale, cette dernière serait-elle à son tour la limite d'une théorie plus générale ?

1 - Les singularités posent problème
Le problème du Big Bang, c'est le Big Bang ! Cette formule illustre une réelle limite de la théorie lorsque les dimensions sont infiniment petites. En cosmologie, le Modèle standard qui décrit l'évolution de l'Univers et, en particulier ses tout premiers instants, bute sur la description du phénomène initial. Tout ramène à un moment où toutes les grandeurs - température, densité, pression, courbure, etc. - deviennent infinies simultanément : c'est ce que les physiciens appellent une singularité. La théorie n'est pas capable de prédire ce qui s'y passe, elle n'est donc plus valide... C'est vrai pour le Big Bang, c'est également vrai au centre des trous noirs, où la densité et l'énergie deviennent, elles aussi, infinies.

2 - La relativité générale n'est pas quantique
La relativité générale est une théorie purement classique. En effet, elle n'intègre pas les lois de la mécanique quantique, l'autre pilier de la physique moderne qui décrit, lui, le comportement de la matière au niveau atomique et subatomique. La vision d'un monde de particules ponctuelles, décrites par leur position, leur vitesse et leur énergie qui se meuvent selon une trajectoire bien définie dans un espace-temps sculpté par l'existence d'objets massifs, fonctionne très bien à notre échelle. Elle est aussi valide à l'échelle du cosmos. Mais elle ne tient plus dès que l'on descend à des distances subatomiques. À ces distances, elle devient incompatible avec le principe d'incertitude propre à la mécanique quantique, selon lequel il est impossible de définir simultanément la position et la vitesse d'une particule.

Comment sortir de l'impasse ? Tenter de « quantifier » la gravitation comme le fait le Modèle standard de la physique pour les trois autres interactions fondamentales forte, faible et électromagnétique. À chacune d'entre elles ce modèle associe en effet une particule élémentaire vecteur de l'interaction respectivement gluon, bosons Z et W, photon. L'interaction gravitationnelle se ferait ainsi par échange de gravitons. Théoriquement, cette particule hypothétique doit posséder certaines caractéristiques une masse nulle, comme le photon, et un spin * égal à 2. Reste que personne n'a encore jamais détecté de graviton. Pas plus qu'il n'existe aujourd'hui de théorie globale, capable de vraiment rendre compte de ce concept.

Pour l'instant il existe deux pistes principales pour changer les lois de gravitation à petite échelle. La première est la théorie des cordes * . Elle a pour ambition d'unifier dans une seule théorie toutes les interactions, c'est la piste qui a été la plus explorée depuis trente ans. Elle décrit la relativité générale comme la limite classique de cette théorie plus complexe. Dans ses nombreux développements, les dimensions cachées de l'espace-temps jouent un rôle crucial lire «La gravité se cache dans d'autres dimensions », p. 50. Mais aucun n'est vraiment achevé à ce jour.

La gravité à boucles, développée en 1990 par trois physiciens Abhay Ashtekar, Carlo Rovelli et Lee Smolin, est l'approche concurrente de la théorie des cordes la plus prometteuse. Elle explore une autre voie, ayant pour seul but de quantifier la gravitation. L'espace-temps y est dynamique, dans la droite ligne de l'esprit de la relativité, et est quantifié en de minuscules parcelles 10-34 mètres qui prennent la forme de boucles [1] .

3 - S'affranchir de la matière noire
Dans les années 1930, l'astronome suisse Fred Zwicky a montré que la dynamique des amas de galaxie semblait indiquer qu'il y avait 10 à 100 fois plus de matière dans ces amas que de matière détectée via son rayonnement électromagnétique. Même si l'écart s'est réduit depuis, des mesures très précises de la vitesse des étoiles en fonction de la distance au centre des galaxies -les courbes de rotation des galaxies - réalisées à partir des années 1980 ont confirmé le phénomène. Et effectivement il y a beaucoup plus de matière que de matière visible.

L'approche standard consiste à dire qu'il existe dans l'Univers une composante de matière noire invisible que l'on ne sait pas expliquer. Elle n'a rien à voir avec la matière ordinaire qui nous compose et qui compose les étoiles et les galaxies. Les physiciens des particules invoquent l'existence d'une nouvelle particule, par exemple, le neutralino, particule hypothétique prévue par la supersymétrie * . Pour l'instant, aucune des candidates envisagées n'a jamais été observée. Mais quand on injecte cette matière noire dans le modèle cosmologique standard, ce dernier fonctionne très bien à grande échelle : il reproduit les observations du fond diffus cosmologique * et décrit bien l'évolution des grandes structures astronomiques. Hormis le fait que la nature de cette composante nous échappe, le modèle semble satisfaisant.

Pourtant, à plus petite échelle, celle des galaxies c'est-à-dire quelque 100 000 années-lumière, ce modèle ne fonctionne pas si bien. Les cosmologistes, spécialistes des très grandes échelles, attribuent en général cette incohérence au fait que toutes les interactions entre particules ne sont pas prises en compte. Mais certains astrophysiciens comme l'Israélien Mordehai Milgrom invoquent une raison plus fondamentale et cherchent à modifier la loi de gravitation lire « Un Univers sans matière noire », p. 44. Il a été suivi dans cet élan par le physicien Jacob Bekenstein. Mais en 2006 l'analyse d'une collision de galaxies dans l'amas du Boulet, considérée par beaucoup comme la première preuve de l'existence de la matière noire, a relancé le débat.

4 - Accélérer l'expansion de l'Univers sans énergie noire ?
Nous vivons dans un Univers en expansion. En 1998, on a découvert contre toute attente que cette expansion s'accélérait [2] . Depuis, le Modèle standard de la cosmologie invoque l'existence d'une mystérieuse énergie pour expliquer cette accélération : l'énergie noire. Il faut en effet ajouter un terme dans les équations pour que le modèle rende compte des observations. Il correspond à une énergie aux propriétés très particulières. Ainsi, alors que toutes les autres formes d'énergie la masse, la lumière se diluent au fil de l'expansion, l'énergie noire correspond, elle, à une densité d'énergie constante qui finit par prendre le pas sur le reste. Et aujourd'hui, elle contribue pour 70% à l'énergie totale de l'Univers. Comme ce terme joue le même rôle que la constante cosmologique introduite par Einstein dans ses équations, on a pour habitude d'associer les deux.

La relativité générale associée à une constante cosmologique offre donc un cadre théorique cohérent. Néanmoins, l'interprétation physique de cette constante ad hoc pose problème : on pense qu'elle peut correspondre à une manifestation des fluctuations quantiques du vide. Mais les calculs fondés sur cette hypothèse conduisent à une valeur 10123 fois plus élevée que celle déduite des observations cosmologiques.

Face à ces difficultés, plutôt que d'invoquer cette mystérieuse énergie, pourquoi ne pas changer les lois de la gravitation ? La proposition tient en fait plus de l'amendement que d'une réelle modification. En relativité générale, la gravitation est liée à un champ qui décrit l'espace-temps, que l'on appelle un tenseur. L'idée est d'ajouter un terme, d'une autre nature, un champ dit scalaire défini par un nombre en chaque point, de manière à reproduire le comportement de la constante.

Parmi les physiciens qui développent ces modèles, certains pensent même qu'un seul et même champ scalaire pourrait expliquer du même coup l'inflation, phase d'expansion gigantesque du tout début de l'Univers dans le modèle du Big Bang, et la constante cosmologique. Cela est extrêmement spéculatif. Et reste de l'ordre d'une approche assez phénoménologique.

Pour d'autres, cette question de l'énergie noire pourrait être naturellement résolue dans une théorie plus fondamentale, qui aurait trouvé comment rendre la gravitation quantique et qui permettrait ainsi d'assembler tous les morceaux du puzzle.

5 - L'anomalie Pioneer inexpliquée
Quand on évoque une mise en défaut de la théorie de la gravitation, une observation inexpliquée revient toujours dans les discussions : l'anomalie de la sonde Pioneer. De quoi s'agit-il ? Lancées, au début des années 1970, les deux sondes Pioneer 10 et 11 ont été les premières à approcher Jupiter pour continuer ensuite leur voyage vers l'extérieur du système solaire. Aujourd'hui, mission accomplie, Pioneer 10 quitte progressivement notre système stellaire et serait à plus de 12 milliards de kilomètres du Soleil. Dans les années 1980, une anomalie dans la trajectoire de la sonde intrigua les scientifiques de la NASA. Pioneer 10 allait moins vite que prévu. Le même ralentissement a ensuite été observé sur Pioneer 11.

Toute une série d'explications possibles ont été passées en revue. En 2006, elles ont toutes été écartées, tant et si bien que l'on a évoqué une manifestation d'un type nouveau, non prédit par la relativité générale. Depuis l'effet Pioneer a semble-t-il touché d'autres sondes, comme la sonde Near Near Earth Asteroide Rendez-vous en 2008. Mais la prudence est de mise, les causes peuvent être finalement très banales. Modifier les lois de la gravitation pour expliquer l'effet Pioneer serait vraiment un dernier recours. Avant de le faire, on y réfléchira à deux fois.

6 - L'étude expérimentale à petite échelle est limitée
On n'expérimente la gravitation qu'à grande échelle : au-dessous du millimètre il est difficile d'analyser son comportement ! En raison de la faiblesse de cette force, on se heurte au fait qu'à petite échelle les autres interactions masquent l'effet de la gravitation. Une équipe de physiciens de l'université de Washington s'est fait une spécialité des tests de la loi de Newton: ils ont réussi à montrer qu'elle est encore valide jusqu'à une cinquantaine de micromètres. Aux difficultés de passer à une théorie quantique s'ajoute donc l'impossibilité de l'étudier en laboratoire.

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] Précédente - Suivante
 
 
 
Google