|
|
|
|
 |
|
ONDE |
|
|
|
|
|
ONDE
PLAN
* ONDE
* 1. Les différents types d’ondes
* 1.1. Les ondes mécaniques progressives
* 1.1.1. Les vagues
* 1.1.2. Les cordes
* 1.1.3. Les ondes sonores ou acoustiques
* 1.2. Les ondes mécaniques stationnaires
* 1.3. La lumière et les ondes électromagnétiques
* 1.3.1. La nature ondulatoire de la lumière
* 1.3.2. Les ondes électromagnétiques
* 1.3.3. La dualité onde-corpuscule
* 2. Caractéristiques physico-mathématiques des ondes
* 2.1. Généralités
* 2.2. Grandeurs caractéristiques
* 2.2.1. Période et fréquence
* 2.2.2. Longueur d'onde
* 2.3. Les ondes sinusoïdales
* 2.4. Aspects énergétiques
* 3. Le spectre des ondes électromagnétiques
Voir plus
onde
(latin unda)
Cet article fait partie du dossier consacré à la lumière.
Modification de l'état physique d'un milieu matériel ou immatériel, qui se propage à la suite d'une action locale avec une vitesse finie, déterminée par les caractéristiques des milieux traversés.
Les techniques de télécommunication – radio, télévision, téléphone – nous ont rendu familière la présence des ondes. Avant de donner lieu à des utilisations de cette importance, les phénomènes ondulatoires ont progressivement occupé une place de plus en plus grande en physique. Ils ont révélé leur présence dans les domaines les plus divers, au point d'apparaître comme intimement liés, d'une certaine façon, à la constitution de la nature en ses aspects fondamentaux. Si l'onde sonore s'explique en termes mécanistes par les mouvements des particules dont l'air est constitué, il n'y a rien de tel, par exemple, pour les ondes hertziennes. Leur analyse mathématique n'en revêt que plus d'importance. Avec la mécanique ondulatoire, on est même tenté de dire qu'il ne s'agit plus que de mathématiques.
1. Les différents types d’ondes
1.1. Les ondes mécaniques progressives
1.1.1. Les vagues
Un objet – une simple goutte – qui tombe sur la surface d'une eau calme y produit des ondulations. Ce train d'ondes est constitué de quelques cercles qui, issus de la source du phénomène, vont en s'agrandissant et qui finissent par s'affaiblir. Si un corps flotte immobile, les ondes, en l'atteignant, ne le déplacent pas à la surface de l'eau dans le sens de leur mouvement. Elles l'agitent verticalement, tout comme le feraient les vagues de la mer. « Onde » vient d'ailleurs de unda, qui désigne l'eau de la mer, avec les mouvements qui s'y peuvent voir. Les rides circulaires à la surface de l’eau se propageant dans deux directions sont qualifiées d’ondes mécaniques progressives à deux dimensions.
1.1.2. Les cordes
Une autre manière de produire un phénomène semblable consiste à déployer une corde, sans nécessairement attacher l'une de ses extrémités, et à secouer l'autre assez vigoureusement. Chaque secousse engendre une déformation que l'on voit se propager le long de la corde. En faisant se succéder les secousses, on obtient un train d'ondes. Ces ondes se propageant dans une seule direction sont qualifiées d’ondes mécaniques progressives à une dimension.
1.1.3. Les ondes sonores ou acoustiques
C'est un phénomène analogue qui a servi à expliquer la nature physique du son et à étudier en finesse ses propriétés. La corde de lyre que l'on pince vibre rapidement. Ses vibrations se transmettent à l'air, s'éloignant dans toutes les directions. Les ondes acoustiques se propageant dans trois directions sont qualifiées d’ondes mécaniques progressives à trois dimensions. Une oreille, placée n'importe où autour, reçoit des ondes (→ audition). Les vibrations sont communiquées par l'air au tympan. La source peut être n'importe quelle membrane susceptible de vibrer : la peau d'un tambour, mais aussi les cordes vocales.
En vibrant, la membrane pousse l'air tout proche ; les particules d'air déplacées poussent à leur tour leurs voisines et ainsi de suite. Si l'on pouvait voir un petit corps flotter dans cet air, on observerait toutefois que l'agitation très rapide qu'il subit sur place ne se fait pas comme celle d'un bouchon sur l'eau. Ce dernier oscille verticalement, tandis que les ondes s'éloignent horizontalement de leur source : de telles ondes sont dites transversales. Dans le cas de l'air, l'objet est agité dans la direction même du mouvement des ondes : celles-ci sont dites longitudinales.
1.2. Les ondes mécaniques stationnaires
Les ondes des trois genres mentionnés auparavant peuvent donner lieu à des phénomènes stationnaires. Si un caillou tombe dans l'eau d'un bassin, les ondes se réfléchissent sur le bord. De même, si l'on secoue sans cesse le bout d'une corde qui est fixée à l'autre extrémité et légèrement tendue, les ondes repartent de cette extrémité. Certains points de la corde peuvent ne pas bouger du tout, alors que tout s'agite autour d'eux, parce que le mouvement qui y est créé par les ondes allant dans un sens est constamment contrarié par celui qu'y induisent les ondes allant dans l'autre sens. Les points pour lesquels l'oscillation est maximale sont appelés les ventres ; ceux pour lesquels elle est nulle, les nœuds.
Semblablement, si deux pointes vibrent ensemble à la surface d'un liquide, les deux trains d'ondes ainsi entretenus laissent immobiles des points de cette surface formant des lignes entières, des hyperboles très précisément. C'est le phénomène des interférences, difficile à observer sans un éclairage adapté.
1.3. La lumière et les ondes électromagnétiques
1.3.1. La nature ondulatoire de la lumière
Thomas Young (1773-1829) montra que des interférences peuvent s'observer aussi en optique : une lumière monochromatique passant par deux fentes parallèles donne sur un écran une alternance de franges brillantes et de franges sombres. L'apparition de ces dernières ne s'expliquerait pas si la lumière était constituée de corpuscules en mouvement, comme Isaac Newton (1642-1727) en avait fait admettre l'idée.
Augustin Fresnel (1788-1827) montra que, au contraire, si la lumière est de nature ondulatoire, les interférences s'expliquent jusque dans leurs aspects quantitatifs. Ainsi s'installa l'idée que l'espace est rempli par un milieu imperceptible, l'éther, dont les vibrations constituent la lumière, tout comme les vibrations de l'air et d'autres milieux matériels constituent le son. La découverte du phénomène de polarisation par Étienne Malus (1775-1812) contraria rapidement l'idée qu'il s'agissait, comme dans le cas du son, d'ondes longitudinales.
Un autre phénomène bien connu, la diffraction, s'explique mieux dans une théorie ondulatoire que dans une théorie corpusculaire de la lumière. On l'obtient en faisant passer de la lumière par un trou que l'on rétrécit. Le pinceau de lumière commence par s'affiner mais, à partir d'une certaine petitesse du trou, au lieu de continuer de se rétrécir, le pinceau se disperse.
1.3.2. Les ondes électromagnétiques
Un demi-siècle plus tard, James Maxwell (1831-1879) ayant réduit l'électricité et le magnétisme à quelques formules, il apparut par le calcul que la propagation des actions électromagnétiques devait prendre la forme d'ondes. Heinrich Hertz (1857-1894) les produisit et les étudia expérimentalement. Transversales elles aussi, elles se déplacent à une vitesse qui se trouve être celle de la lumière. Ainsi s'achemina-t-on vers la conclusion que la lumière n'est elle-même qu'une onde électromagnétique, occupant une modeste place dans la gamme des cas possibles. Si l'on préfère, ces ondes constituent une lumière généralement invisible, c'est-à-dire insensible à l'œil, à l'exception d'une petite partie. L'éther que l'on cherchait à mieux connaître n'était plus le siège des seules ondes lumineuses, mais celui des ondes électromagnétiques en général. Les diverses propriétés qu'il se devait de posséder étaient si difficiles à accorder entre elles qu'il constituait une grande énigme. On a fini par renoncer à cette notion.
On accepte l'idée qu'il puisse y avoir de telles ondes sans qu'elles soient les ondulations d'un milieu. On sait seulement que ce sont des charges électriques en mouvement qui les produisent.
Pour en savoir plus, voir l'article ondes électromagnétiques [santé].
1.3.3. La dualité onde-corpuscule
Albert Einstein (1879-1955), l'année même où il proposa la théorie de la relativité restreinte (1905), donna une explication de l'effet photoélectrique. Elle consistait à revenir à la conception corpusculaire de la lumière, sans renoncer pour autant à son aspect ondulatoire. Plus généralement, l'onde électromagnétique s'est vu associer un flux de photons, association purement mathématique et qui rendait encore plus intenable l'hypothèse d'un éther. Louis de Broglie (1892-1987), en l'inversant, étendit l'idée à toutes les particules : à chacune on associe une onde. L'expérience a confirmé la justesse de cette hypothèse : il fut établi qu'un faisceau d'électrons est susceptible de donner lieu au phénomène de diffraction.
La mécanique quantique prend désormais pour objets des quantons, qui se comportent comme des corpuscules dans certains contextes expérimentaux et comme des ondes dans d'autres. La fonction d'onde de la particule, obtenue par la résolution de l'équation de Schrödinger, sert à calculer les caractéristiques de son mouvement, mais en termes de probabilité seulement. On ne peut pas annoncer qu'à tel instant la particule sera en tel point, comme on le fait en mécanique classique. On peut seulement calculer avec quelle probabilité elle se trouvera dans telle portion d'espace.
2. Caractéristiques physico-mathématiques des ondes
2.1. Généralités
Un mécanisme de production et de propagation des ondes peut être détaillé dans le cas de la surface d'un liquide ou dans celui du son, parce que l'on peut analyser le comportement d'un milieu – le liquide, l'air – en termes mécanistes. Il n'en va plus de même pour les ondes électromagnétiques, et encore moins pour celles de la mécanique ondulatoire, puisqu'il n'y a plus de milieu connu dans ces cas-ci. Une étude générale des ondes doit donc se rabattre sur la description mathématique de la propagation.
→ mécanique.
Il convient de remarquer que, lorsqu'une description mécaniste est possible, elle n'explique pas la toute première apparence. Une onde, qu'il s'agisse d'une vague ou de la déformation d'une corde, se présente spontanément comme quelque chose qui se déplace. C'est ce déplacement qui est désigné par le terme « propagation ». Il ne se présente pas comme le déplacement d'un objet (navire avançant sur l'eau ou anneau coulissant sur une corde). Le phénomène offre le spectacle de quelque chose qui se meut et ne se meut pas à la fois.
Le mécanisme de la production de la perturbation à la source, et de sa transmission par le milieu, explique qu'un corps flottant ainsi que l'eau qui l'entoure montent et descendent alternativement. Il n'explique pas complètement l'illusion que constitue le déplacement de la vague. On peut dire néanmoins que c'est le déplacement transversal de l'eau qui se décale dans la direction de propagation.
2.2. Grandeurs caractéristiques
Lorsqu'aucun milieu n'est le siège de la propagation, on peut néanmoins concevoir qu'il y ait, attachée à chaque point de l'espace, une certaine grandeur qui soit l'analogue de l'altitude de la surface de l'eau. En prenant pour niveau de référence celui de la surface liquide au repos par exemple, le phénomène de l'ondulation peut être décrit mathématiquement en donnant, pour chacun des points de la surface, son altitude en fonction du temps. Pour une onde d'une autre nature, le rôle joué précédemment par l'altitude peut l'être par la valeur d'un champ, électrique ou magnétique.
De façon plus générale, en se plaçant en un point P de l'espace, a (t) désignera la valeur, à l'instant t, de la grandeur qui varie.
2.2.1. Période et fréquence
On se place dans l'hypothèse d'une onde entretenue et périodique : en P, la grandeur oscille sans cesse et elle reprend toujours la même valeur au bout d'un même temps T, appelé la période de l'onde. Autrement dit, quel que soit l'instant t,
a (t + T) = a (t)
On appelle alors fréquence de l'onde le nombre d'oscillations complètes que P effectue pendant une unité de temps. La fréquence f (aussi notée N, ou encore ν) est reliée à la période par
f = 1 / T
Si l'on adopte la seconde comme unité de temps, la fréquence s'exprime en hertz, de symbole Hz (ou cycles par seconde).
2.2.2. Longueur d'onde
La longueur d'onde λ est la distance parcourue par l'onde pendant le temps T. Si V est la vitesse de propagation, supposée constante, on a
λ = VT
soit encore
λ = V / f
C'est ainsi que, dans un cas comme celui de la lumière, où la vitesse de propagation est connue (près de 300 000 km.s−1 dans le vide), la détermination expérimentale d'une longueur d'onde permet de trouver la fréquence correspondante.
2.3. Les ondes sinusoïdales
Une situation particulière de grande importance est celle des ondes sinusoïdales, pour lesquelles
a (t) = A (sin ω t + ϕ)
L'importance des ondes sinusoïdales tient à ce qu'elles fournissent un modèle mathématique satisfaisant pour nombre de phénomènes. C'est le cas pour les ondes électromagnétiques en particulier, où se rencontre une complication par rapport aux situations envisagées jusqu'à présent : il n'y a pas, en un point, une grandeur a qui varie sinusoïdalement, mais deux, le champ électrique et le champ magnétique, vecteurs orthogonaux entre eux ainsi qu'à la direction de propagation (le rayon lumineux).
Une autre raison de l'intérêt porté aux ondes sinusoïdales est que l'on sait, depuis les travaux mathématiques de Joseph Fourier (1768-1830), que pour toute fonction périodique, on peut envisager une décomposition sous la forme d'une somme de fonctions sinusoïdales. La connaissance de ces dernières fournit donc la clef de l'analyse d'un phénomène périodique quelconque.
Lorsque t varie, a (t) varie perpétuellement entre − A et A.
• Amplitude. La constante positive A est l'amplitude de l'onde au point P.
• Phase. L'expression ω t + ϕ est appelée la phase ; ϕ est la phase à l'origine, c'est-à-dire la valeur de la phase à l'instant 0.
• Pulsation. Le coefficient ω est la pulsation ; il est lié à la période par T = 2 π / ω et à la fréquence par ω = 2πf ; il s'exprime en radians par seconde (rad / s ou rad.s−1).
La valeur de ϕ est propre au point P où l'on se place. Pour un point P′ autre, la phase à l'origine a une valeur ϕ′, alors que ω et A sont les mêmes partout. Mais si l'on prend pour P′ un point situé à une distance de P égale à la longueur d'onde λ, ϕ′ = ϕ + 2π, de sorte que la grandeur a prend à tout instant la même valeur en P et en P′. On dit que ces points vibrent en phase.
2.4. Aspects énergétiques
Le déplacement d'une onde est en un sens une illusion. Le point de vue énergétique permet au physicien de donner une certaine consistance à ce déplacement. À la source S, on fournit une énergie essentiellement cinétique aux parties de la corde qu'on y agite, celle du mouvement transversal. Cette énergie se transmet de proche en proche. Lorsque l'agitation atteint les parties les plus proches de l'extrémité S′, on peut l'utiliser pour mettre un objet en mouvement, ou pour obtenir d'autres sortes d'effets. Au total, il y a eu transfert progressif d'énergie de la source à l'extrémité. La quantité d'énergie qui se propage est, pourrait-on dire, un pseudo-objet qui s'éloigne de la source. Dans une perspective de communication, on préfère dire qu'un signal est émis en S et propagé jusqu'en S′.
Pour ce qui est de la mécanique quantique, la prise en compte de l'énergie est à la base même de l'association entre l'onde et la particule. Si ν et E sont respectivement la fréquence de la première et l'énergie dont la seconde est porteuse,
E = hν
(relation de Planck-Einstein, où h est la constante de Planck).
De manière analogue, si λ et p sont respectivement la longueur d'onde et la quantité de mouvement,
p = h / λ (relation de de Broglie)
3. Le spectre des ondes électromagnétiques
La première application pratique des ondes électromagnétiques a été la télégraphie sans fil, bientôt rebaptisée radiophonie (→ radiocommunication). La télévision devait suivre. Le radar, quant à lui, n'est rien d'autre que l'utilisation de la propriété qu'ont les ondes électromagnétiques, à l'instar de la lumière, de se réfléchir sur un obstacle. Le fonctionnement s'apparente étroitement à celui de l'écho sonore.
Chacune de ces applications fait appel à un certain domaine des ondes caractérisé par ses longueurs d'onde extrêmes (ou, ce qui revient au même, par ses fréquences-limites). Les cas évoqués ci-dessus sont des exemples d'ondes hertziennes. On désigne ainsi celles dont la longueur d'onde s'étend entre le centimètre et quelques kilomètres. La lumière visible correspond à la bande qui va de 0,4 à 0,8 micromètre. Entre celle-ci et les précédentes se situe le domaine de l'infrarouge. Au-delà, on passe dans l'ultraviolet, puis, entre 3 nanomètres et 0,01 nanomètre, aux rayons X. Enfin viennent les rayons gamma (γ) et le rayonnement cosmique. Les derniers cités, ayant la plus petite longueur d'onde, ont la fréquence la plus élevée. Conformément à la relation E = hν, ce sont leurs photons qui sont porteurs de l'énergie la plus grande. De fait, ultraviolet, rayons X et rayons γ sont connus pour le danger qu'ils représentent pour les organismes vivants, plus grand même pour les derniers que pour les premiers.
→ ondes électromagnétiques [santé].
Mais c'est aussi par l'analyse de la diffraction qu'un cristal impose aux rayons X que l'on a pu y étudier de manière précise, à partir de 1912, l'arrangement des atomes (→ cristallographie).
DOCUMENT larousse.fr LIEN
|
|
|
|
|
 |
|
MATIÈRE |
|
|
|
|
|
matière
(latin materia)
Cet article fait partie du dossier consacré à la matière.
Substance constituant les corps, douée de propriétés physiques
PHYSIQUE
1. Qu'est-ce que la matière ?
La nature qui nous entoure, et dont nous faisons partie, offre à l'observation des réalités et des apparences, des substances et des phénomènes. Le magnétisme, cette capacité qu'ont les aimants de s'attirer ou de se repousser, est à ranger dans les phénomènes, mais on a pu se demander si l'aimant lui-même n'était pas une substance. Des interrogations tout aussi légitimes ont porté sur la chaleur, la lumière et l'électricité. La matière, en revanche, est sans hésitation possible le type même de la substance.
Elle est ce dont les corps sont faits, elle a des qualités et des propriétés, elle peut être le siège de divers phénomènes. En un sens, conformément à un usage bien établi, il y a plusieurs matières : un objet peut être en bronze ou en bois, en chêne ou en pin. Chaque variété de bois, chaque métal, a ses qualités propres. Mais ces matières – ces matériaux comme on dit aussi à propos des objets fabriqués, ces substances comme disent les chimistes – ont en commun d'être des variétés d'une seule et même substance, qui est ce que l'on appelle la matière.
Chacun sait qu'il y a des corps lourds, que certains sont chauds, bref que les corps ont des qualités plus ou moins définitives, plus ou moins changeantes. Quand toutes les qualités des corps viendraient à changer, quelque chose n'en subsisterait pas moins. C'est cette substance que la science appelle la matière et dont elle cherche, sinon la nature, du moins la constitution.
Au fil des siècles, la science s'est préoccupée de déterminer le plus possible de propriétés empiriques – ou macroscopiques – de la matière. Elle a eu à en chercher aussi la structure intime, ainsi que les propriétés de ses constituants, afin de pouvoir expliquer les différentes propriétés et les différents phénomènes dont la matière est le siège, telles la dureté et la chaleur. Ses succès remarquables ont, en un sens, déplacé le problème. Car la question est maintenant de savoir de quoi les particules élémentaires sont faites. Les seules réponses que l'on sache donner à cette question sont quasiment d'ordre mathématique.
2.1. Les conceptions anciennes
Les Grecs, dans leurs audacieuses spéculations, avaient proposé différentes conceptions de la matière. Pour certains, tels qu’Épicure (vers 341-270 avant J.-C.), puis Lucrèce (vers 98-55 avant J.-C.), il s'agissait de quelque chose de lacunaire, voire de particulaire ; pour d'autres, notamment Aristote (384-322 avant J.-C.), de quelque chose de continu. Rien n'avait véritablement permis de les départager sinon, au Moyen Âge, l'autorité reconnue par l'Université à Aristote.
La situation changea au début du xviie s. avec René Descartes (1596-1650). Celui-ci formula une doctrine mécaniste que l'on peut dire radicale. Non seulement la matière fut entièrement séparée de l'esprit, mais en outre elle ne devait plus avoir que le minimum le plus strict de qualités fondamentales : être étendue et divisible en parties susceptibles de se mouvoir, le mouvement devant suivre quelques lois extrêmement simples. Il s'agissait de rendre compte sur cette base de tout ce qui se rencontre dans la nature, par des explications données en termes de machineries, en quelque sorte. Le cartésianisme fut un temps de chasse aux qualités. Il ne niait pas que, dans les phénomènes, il puisse se rencontrer par exemple des attractions entre aimants, mais pas question d'y voir l'effet d'une vertu magnétique conçue comme qualité dernière. L'aimantation de la pierre de Magnésie était attribuée aux formes et aux mouvements d'une partie imperceptible de la matière. Quoique ce projet ait échoué, il avait marqué les esprits.
2.2. Du xviiie s. à nos jours
Petit à petit, il fallut admettre d'autres propriétés fondamentales de la matière. Isaac Newton (1643-1727) notamment, démontra que deux corps s'attirent toujours, quoique l'on n'ait jamais réussi à imaginer un mécanisme expliquant ce phénomène et les lois qui le régissent. La notion même de masse, déjà, ne se laisse guère expliquer en termes mécanistes. La masse a dû être acceptée comme qualité première, tandis que le poids devenait un simple phénomène, explicable par les masses et les forces de gravitation. Ces forces à distance, à l'existence bien établie, valurent un embarras certain à leurs premiers défenseurs, parce qu'elles semblaient réintroduire les qualités occultes.
C'est dans le cadre d'un mécanisme relatif, comme à regret, que les physiciens puis les chimistes ont emboîté le pas à Galilée (1564-1642). Reprenant la démarche qui avait réussi à Archimède en statique, celui-ci avait montré comment concentrer l'interrogation de la nature sur les grandeurs que l'on peut définir : longueurs, vitesses, poids, etc. Les physiciens inventèrent ainsi la température, au xviiie s., en la distinguant de la chaleur. Ils firent ensuite de celle-ci l'une des formes de l'énergie, nouvelle grandeur douée comme la masse de la propriété d'invariance : dans un système isolé, elle se conserve en quantité même si elle change de forme.
Un nouveau virage intervint au début du xxe s., où matière et énergie étaient encore considérées comme deux concepts indépendants, à l'origine de tout phénomène physique. En effet, la théorie de la relativité restreinte d’Einstein, formulée en 1905, permit de regrouper ces deux concepts par la célèbre relation d’équivalence entre la masse et l’énergie : E = mc2. Puis se développa la physique quantique, sous l’impulsion notamment de Max Planck, qui accentua le bouleversement de notre conception de la matière : la matière, à son stade ultime de particule élémentaire, peut être considérée comme une perturbation de l’espace-temps.
3. Les états de la matière
De manière générale, la matière peut être solide ou fluide. Les corps solides conservent leur forme, tandis que celle des fluides s'adapte au récipient qui les contient. Parmi les fluides on distingue les liquides et les gaz : ces derniers peuvent être aisément comprimés. La matière se présente donc généralement sous trois états physiques : solide, liquide ou gazeux. De très nombreux genres de corps peuvent passer par ces trois états, selon les conditions. On sait bien que l'eau peut devenir glace comme elle peut devenir vapeur. Il suffit que la température varie. Les changements d'état d'un corps peuvent aussi résulter des variations de la pression.
Par ailleurs, il existe des états particuliers, comme l’état de plasma (gaz partiellement ou totalement ionisé), l’état superfluide (viscosité nulle), l’état supraconducteur (résistance électrique nulle) ou encore l’état de condensat de Bose-Einstein (atomes dans le même état quantique d’énergie minimale), qui nécessitent un formalisme quantique complexe.
La physique a établi, pour chaque substance et dans chacun des états, diverses propriétés quantitatives : masse volumique, densité, température de fusion à la pression atmosphérique, etc. La chimie a poursuivi de son côté l'idée qu'il se produit, lors d'une réaction, des changements qui affectent la matière plus profondément que ne le font les simples changements d'état. En d'autres termes, elle a fait sienne l'enquête sur la nature de chaque matière. Une fois devenue attentive elle aussi aux aspects quantitatifs des choses, elle a pu établir que la masse totale des corps se conserve au cours de toute réaction. La physique, peu après, affirma un principe de conservation de portée encore plus grande pour l'énergie, notion qui en est venue ainsi à concurrencer celle de matière.
→ transition de phase, phase.
4. La structure intime de la matière
La chimie, au début du xixe s., a commencé à donner une forme élaborée à l'une des vieilles conceptions de la matière, l'atomisme. L’histoire attribue généralement à Démocrite l'idée que la matière pouvait être composée de corpuscules insécables , plus ou moins semblables les uns aux autres, et que toutes les propriétés de la matière devaient pouvoir s'expliquer par leurs divers arrangements. Toutefois, il semblerait que Démocrite ne soit pas le matérialiste qu’on a l’habitude de décrire et que l’atomisme soit plutôt porté par Épicure puis par son disciple Lucrèce. Les chimistes, tout un siècle durant, tâtonnèrent à la recherche d'une théorie apte à rendre compte de tous les faits, qualitatifs et quantitatifs. Les physiciens prirent le relais à la fin du xixe s., et révélèrent enfin la structure générale de la matière.
4.1. Les atomes
Les atomes d'un même élément, le néon (Ne) par exemple, peuvent rester isolés les uns des autres. La plupart s'associent, en molécules ou bien en cristaux. Ainsi l'eau est-elle composée de molécules comportant chacune deux atomes d'hydrogène et un d'oxygène (H2O). Un cristal est constitué de nombreux atomes disposés de manière tout à fait régulière. Le chlorure de sodium, par exemple, c'est-à-dire le sel de table, est fait d'atomes de chlore (Cl) et d'atomes de sodium (Na) en nombre égal, rangés selon un ordre répétitif et rigoureux.
Dans une molécule, comme dans un cristal, les atomes restent ensemble sous l'effet des forces qu'ils exercent les uns sur les autres. Il s'agit de forces électriques dues à la présence de charges. Elles sont présentes dans tout atome, quoique celui-ci, au total, soit électriquement neutre.
Ces forces s'exercent aussi entre les molécules, plus ou moins selon les circonstances, ce qui explique les états physiques. Fortement liées entre elles, les molécules ne peuvent pas bouger les unes par rapport aux autres : le corps est solide. Totalement libres au contraire, elles se déplacent à grande vitesse et dans tous les sens : le corps est gazeux. Ces mouvements se produisent au milieu de beaucoup de vide, ce qui explique qu'un gaz puisse voir son volume réduit par compression. Le liquide est la situation intermédiaire où les forces s'exercent suffisamment pour limiter la liberté, mais pas assez pour empêcher un glissement relatif des molécules.
Quant à la température on l'explique, dans les trois états, par le degré d'agitation des atomes et des molécules.
4.2. Les noyaux atomiques
Les atomes sont tous composés d'un noyau autour duquel gravitent des électrons. Les nucléons, c'est-à-dire les constituants du noyau, sont des protons et des neutrons. Tous ont une masse. Protons et électrons portent en outre des charges électriques, égales et de signes opposés. Au sein du noyau, les protons, chargés positivement, devraient se repousser. Or l'attraction universelle est bien trop faible pour compenser la force électrique. C'est une autre force, l'interaction forte, qui retient les nucléons groupés.
Un atome peut s'ioniser, c'est-à-dire perdre ou gagner un ou plusieurs électrons. L'ionisation est un aspect important des atomes pour la chimie : de la capacité des atomes à s'ioniser dépend dans une large mesure l'aptitude des corps à réagir ou pas les uns avec les autres.
→ ion, réaction chimique
Dans des conditions extrêmes, les atomes peuvent même perdre tous leurs électrons. On obtient alors un plasma, considéré comme un quatrième état de la matière. Les étoiles, autrement dit la plus grande partie de la masse de l'Univers, sont à l'état de plasma.
4.3. Les particules
Les nucléons eux-mêmes se sont révélés être des particules composées par d’autres particules plus élémentaires encore : les quarks. La théorie des quarks a été élaborée puis confirmée expérimentalement dans la seconde moitié du xxe s. Elle consiste à expliquer l'existence et les propriétés des protons et des neutrons, et, avec eux, de toutes les particules que l'on place dans la catégorie des hadrons, par les combinaisons de six types de quarks, aussi appelés « saveurs ». Chacun est désigné par une lettre : u (up), d (down), c (charm), s (strange), t (top), b (bottom). Les quarks sont caractérisés par leur masse et leur charge électrique, mais aussi par d'autres paramètres tels que leur couleur. Le proton correspond à la combinaison uud, et le neutron, à udd. L'électron n'est pas concerné car il n'est pas de la famille des hadrons mais de celle des leptons, qui compte six particules (l’électron, le neutrino électronique, le muon, le neutrino muonique, le tau, et le neutrino tauique).
On a ainsi les douze particules élémentaires du modèle standard. Et la masse de ces douze particules fait intervenir une seule particule : le boson de Higgs, très probablement détecté en 2012 dans le grand collisionneur de hadrons (LHC) du Cern, près de Genève..
4.4. Formes et apparences de la matière
La matière était initialement regardée comme ce dont les corps « sensibles » sont faits. Elle était conçue comme une substance, opposée en cela aux phénomènes. De ces derniers, comme pour le magnétisme, on pouvait espérer trouver une explication qui les aurait réduits à un statut d'illusions inévitables. Or la matière n'est pas que formes et mouvements, c'est aussi de la masse ainsi qu'une capacité attractive liée à celle-ci. L'électricité, en revanche, n'apparaissait liée à la matière que de façon accidentelle. Il fallait électriser un corps pour qu'il portât une charge. Tout cela reste vrai lorsque l'on prend les choses au niveau de nos sens. Mais lorsque le regard pénètre plus en profondeur, grâce à tout l'arsenal de la science, expérimental et théorique à la fois, cet ordonnancement doit laisser place à d'autres, plus complexes.
4.5. Matière et ondes
La mécanique rationnelle de Newton, science des mouvements et de leurs rapports avec les forces, avait obtenu de beaux succès à l'échelle macroscopique, tout particulièrement dans l'étude du Système solaire. Pour l'atome isolé et pour ses constituants, il a fallu l'abandonner au profit de la mécanique quantique. Un des aspects majeurs de celle-ci est que toute particule se voit associer une onde, tout comme l'onde électromagnétique s'était vue associer une particule, le photon. L'opposition de la matière et de la lumière en a été sensiblement réduite ; la barrière qui les sépare peut être repérée dans les caractéristiques du photon. Notamment, bien qu'il ait une quantité de mouvement et une énergie, celui-ci n'a pas de masse. La mécanique quantique, en même temps, a limité drastiquement les espoirs de pouvoir acquérir une connaissance expérimentale aussi fine que voulue de l'infiniment petit : ce qui se gagne en précision dans la connaissance d'une grandeur (position, temps) ne peut que se perdre sur une autre (vitesse, énergie).
4.6. Matière et énergie
Une autre mécanique, celle de la relativité restreinte, nécessaire lorsque les particules sont animées de grandes vitesses (proches de celle de la lumière), a annoncé que la matière ne devait pas être opposée à l'énergie de manière trop tranchée. Plus exactement, la masse, qui passait auparavant pour la grandeur la plus caractéristique de la matière, peut se transformer en énergie (selon la célèbre formule d’Einstein : E = mc2). La technique des explosifs nucléaires et thermonucléaires témoigne de la justesse de cette conception, de sorte que la matière n'a pu conserver un statut de véritable substance.
Pis encore, lorsque de l'énergie se transforme en matière, il y a création simultanément d'antimatière. Le phénomène se produit dans le cosmos, ou bien à l'occasion de collisions dans les accélérateurs de particules. Pour chaque particule il existe une antiparticule, de même masse mais de charge électrique opposée : le positon (ou positron), par exemple, pour l'électron. L'antiparticule est détruite par la rencontre de sa particule associée, aussi ne peut-elle exister que pendant un temps extrêmement bref. Ainsi la matière se trouve-t-elle doublée, au moins sur un plan théorique, par quelque chose dont on ne sait trop s'il faut en parler comme d'une autre substance.
Mais le plus grand mystère concernant la matière est le fait que celle-ci représente moins de 5 % du total masse/énergie de l’Univers ! En effet, l’Univers serait également composé d’environ 25 % de matière noire de nature inconnue et de 70 % d’une d’énergie noire tout aussi mystérieuse…
4.7. Matière et interactions
L'analyse de la matière, depuis la découverte de la gravitation universelle jusqu'à nos jours, a constamment donné le beau rôle aux interactions, c'est-à-dire aux forces qui s'exercent entre les corps. La physique tend à réduire le nombre de celles-ci. Déjà l'interaction électromagnétique et l'interaction faible, propre aux particules à faible durée de vie, ont pu être réunies en une seule théorie, celle de l'interaction électrofaible, et les théoriciens espèrent bien parvenir à une théorie qui la réunirait aux deux autres, l'interaction forte et l'attraction universelle.
→ interactions fondamentales, gravitation.
Mais quelle que soit l'unité que l'on puisse mettre dans ce domaine, il faut tenir compte d'une nouvelle réalité, bien établie désormais : le phénomène de l'interaction entre deux particules A et B s'accompagne de l'échange, entre A et B, d'une troisième, à durée de vie limitée, désignée de manière générique sous l'appellation de boson vecteur. Celui de l'attraction universelle, qui n'a pas encore été mis en évidence expérimentalement, serait le graviton. Ainsi la distinction entre particules et interactions est devenue de plus en plus floue.
5. La nature de la matière
5.1. Une définition de plus en plus complexe
Au point où sont parvenues les sciences de la nature, la matière est une notion qui a perdu une partie de son importance au bénéfice de l'énergie, de l'interaction, de l'antimatière, voire du vide. Ce dernier s'est révélé posséder tant de propriétés qu'il est presque permis d'y voir une substance, moins évanescente, en un sens, que la matière.
→ vide.
À la question de savoir ce qu'est la matière, il n'est plus guère possible de donner une réponse unique. Il faut que la question soit précisée par l'indication du niveau visé (macroscopique, atomique ou particulaire). Une réponse simplifiée consiste à dire qu'elle est un assemblage de particules ; la propriété qui assure le mieux leur unité étant la masse.
5.2. Au carrefour de plusieurs sciences
L'étude de la matière est une tâche répartie entre différentes sciences de la nature. Si la physique a été la première héritière de la philosophie naturelle, la chimie l'a suivie et l'on a d'abord eu l'impression qu'elles pouvaient se répartir les rôles. Cette dernière se réservait la question de la nature intime de la matière, de ce qui fait que le bronze n'est pas le fer. Mais la chimie s'est vue en quelque sorte contournée : elle est science des molécules et autres arrangements d'atomes. Elle étudie les transformations au cours desquelles les atomes, ou du moins les noyaux, conservent leur intégrité. Dès qu'il n'en va plus ainsi, on parle de physique nucléaire et, au niveau inférieur, de physique des particules. Même la science de l'atome, indépendamment de toute transformation, est plutôt cataloguée comme physique atomique, malgré tout ce qu'elle doit aux efforts des chimistes du xixe s. D'un point de vue théorique, la chimie n'est qu'une branche spécialisée de la physique. Quant à la biologie prise dans son unité, elle vise elle-même à n'être qu'une branche spécialisée de la physique-chimie, celle qui se consacre à l'étude des phénomènes de la vie. Les chimistes, mais aussi des biochimistes et des astrochimistes, ont mis à mal l'idée d'une nature propre à la matière vivante, en réalisant notamment des synthèses de substances organiques. Si le passage de l’inerte au vivant reste encore une énigme, celle-ci semble de plus en plus à portée de main.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
Mieux comprendre les hommes... |
|
|
|
|
|
Mieux comprendre les hommes...
Luc Steels dans mensuel 350
daté février 2002 -
Construirons-nous un jour des robots humanoïdes autonomes et aussi performants que nous-mêmes dans les domaines moteur, sensoriel et cognitif ? C'est peu probable. En revanche, la mise au point de machines de plus en plus perfectionnées permet de mieux comprendre les capacités humaines, telles que la marche ou l'apprentissage du langage.
IA, le récent film de Steven Spielberg, où un robot ressemble à s'y méprendre à un humain, est une histoire étonnante, dont chaque spectateur appréciera ou non l'intérêt dramatique. Toutefois, en ce qui concerne sa vraisemblance, les spécialistes de l'intelligence artificielle savent à quoi s'en tenir : non seulement aucun d'entre nous ne sait aujourd'hui fabriquer des machines aussi perfectionnées, mais cela ne fait même pas partie de notre programme de recherche.
Cette affirmation peut sembler paradoxale au vu des efforts intenses que poursuivent aujourd'hui quelques entreprises pour mettre au point des robots humanoïdes. De tels robots, qui marchent sur deux jambes, saisissent des objets avec leurs mains et interagissent avec leur environnement grâce à des capteurs visuels, auditifs ou tactiles, auront vraisemblablement des applications pratiques dans notre vie quotidienne, ne serait-ce que comme jouets.
Mais aux yeux des chercheurs en intelligence artificielle, ce n'est pas leur principal intérêt. Notre préoccupation est plutôt de mieux comprendre comment les hommes pensent, se comportent ou se développent. De ce point de vue, les robots permettent de tester des hypothèses en réalisant des expériences. Nous pouvons par exemple déterminer la validité d'un modèle théorique associé à une fonction telle que la marche ou le langage : sa mise en oeuvre révèle sans équivoque s'il permet à un robot de marcher ou de parler. En cas d'échec, le modèle est éliminé. En cas de réussite, nous n'avons bien sûr pas la certitude que les humains fonctionnent de la même façon, mais le modèle testé entre dans la catégorie des mécanismes plausibles, que les psychologues et les biologistes peuvent à leur tour soumettre à d'autres tests.
Avancées techniques. L'intelligence artificielle a émergé vers 1960, à une époque où les capacités des ordinateurs étaient bien trop faibles pour que quiconque puisse prétendre recréer une quelconque forme d'intelligence. Elle n'a en fait vraiment pris son essor que depuis une dizaine d'années, grâce à trois avancées importantes. D'abord, toutes les technologies nécessaires au fonctionnement de robots autonomes assez performants pour tester des modèles d'apprentissage ou de comportement ont énormément progressé : capacités des batteries, des moteurs, des microprocesseurs ou des capteurs.
Ensuite, dans la même période, les différents sous-domaines de l'intelligence artificielle ont aussi beaucoup progressé. Nous disposons désormais d'algorithmes performants pour l'apprentissage de connaissances, pour la vision par ordinateur voir l'article de Thierry Viéville p. 42, pour la planification de l'action ou pour le traitement de la parole. Le principal défi à relever aujourd'hui est l'intégration de toutes ces fonctionnalités au sein d'un système unique, dont les performances seraient supérieures à la somme des performances des systèmes spécialisés : ces derniers compenseraient mutuellement leurs éventuelles imperfections en interagissant. Par exemple, le système de vision et de reconnaissance d'objets d'un robot aiderait son système de traitement de la parole à comprendre des informations orales concernant les objets présents dans l'environnement.
La troisième grande avancée de l'intelligence artificielle, la plus importante, concerne l'architecture des robots. Contrairement aux deux autres, il ne s'agit pas seulement d'une amélioration de dispositifs existants, mais d'une totale remise en question des approches antérieures. Jusqu'au début des années 1990, en intelligence artificielle, on construisait un module de contrôle central, qui prenait toutes les décisions et qui ne déclenchait l'action qu'après une réflexion attentive. Avec Rodney Brooks, du Massachusetts Institute of Technology, j'ai alors proposé de développer une « robotique comportementale », où l'intelligence est distribuée dans plusieurs modules qui coopèrent de manière dynamique. Chaque module est entièrement responsable de l'accomplissement d'un certain nombre d'actions, telles que marcher, saisir des objets ou se lever. Il recueille des informations provenant de son environnement et de ses propres états, il décide de l'action à mener, et influence le comportement global du robot. Le fonctionnement résultant est complexe, mais le robot adapte mieux et plus vite ses actions aux variations de son environnement.
Modèles partiels. Ainsi, le robot n'a plus besoin d'un modèle du monde centralisé comme en intelligence artificielle classique, mais chaque module développe ses propres représentations, qui peuvent être partielles et spécialisées. Par exemple, afin d'éviter un objet, il n'est pas nécessaire de l'identifier, ce qui prend beaucoup de temps et qui n'est pas vraiment fiable : il suffit d'en détecter les contours pour réagir immédiatement. Cela donne un comportement moins sujet aux erreurs et des réponses plus rapides au monde extérieur, comme nous l'avons vérifié lors d'essais comparatifs entre les deux types d'approche1.
Décisions émotionnelles. Enfin, au lieu d'utiliser des procédures de décision rationnelle fondées sur le raisonnement logique, les architectures comportementales se fondent sur des modèles éthologiques du comportement animal : des états de motivation qui varient dans un espace continu et sont directement connectés à la perception et aux actions dans le monde, influencent mais ne contrôlent pas totalement l'activation des différents comportements et leurs interactions. Cela permet au robot de prendre des décisions dans des circonstances que les raisonnements rationnels de l'intelligence artificielle classique ne peuvent pas traiter, par exemple de décider ce qu'il doit regarder dans une scène où plusieurs objets bougent, accompagnés par des sons. De la même façon, un robot alimenté par une batterie tiendra compte de la charge de celle-ci avant de s'engager dans la réalisation d'une tâche.
La pertinence de cette approche comportementale a été validée dans le domaine sensori-moteur. C'est en effet en l'utilisant que Sony a mis au point Aibo , le robot chien de compagnie voir l'article de F. Kaplan, M. Fujita et T. Doi, p. 84 et le DreamRobot qui peut se lever, vous serrer la main ou danser la Macarena.
En revanche, dans le domaine cognitif, les résultats de la robotique comportementale ne sont pas encore très impressionnants. En particulier, les capacités de communication des robots restent limitées. C'est sur ce point que porte l'essentiel des travaux que nous menons aujourd'hui à Bruxelles et à Paris. Chez l'homme, le langage est le mode de communication le plus naturel et le plus efficace. Vers l'âge de deux ans, on assiste chez les enfants à une explosion de son utilisation et à un développement rapide de la conceptualisation. Pourrait-on atteindre au moins cette étape avec des robots ?
Au XXe siècle, la psychologie cognitive s'est focalisée sur l'individu, et la recherche en intelligence artificielle s'est engagée sur la même voie. Les behavioristes*, en particulier, ont défendu l'hypothèse que les enfants apprennent par induction à partir d'un ensemble de situations modèles. D'après eux, par exemple, l'enfant créerait des catégories naturelles telles que les couleurs, les formes ou les textures en catégorisant spontanément les caractéristiques des objets qu'il voit, et qui changent en permanence. Ensuite seulement, il nommerait ces catégories avec précision. Aujourd'hui, beaucoup d'algorithmes d'apprentissage fonctionnent de cette façon. Mais cela n'aboutit souvent qu'à des concepts très éloignés de ceux rencontrés dans les langues humaines, sauf si l'expérimentateur choisit très soigneusement les exemples proposés au robot comme support de l'apprentissage2.
Ce n'est en fait pas comme cela que nous apprenons à parler. Au milieu des années 1990, des psychologues tels que Michael Tomasello, aujourd'hui à l'Institut Max Planck d'anthropologie évolutionniste de Leipzig, et Jérôme Bruner, aujourd'hui à l'université de New York, ont proposé une théorie alternative : l'apprentissage social. Selon eux, la plupart des apprentissages ne sont pas le fait d'un individu isolé : il nécessite l'interaction d'au moins deux personnes. Appelons-les l'apprenant et le médiateur. Le plus souvent, le médiateur est un parent et l'apprenant un enfant, bien que les enfants ou les adultes puissent aussi apprendre les uns des autres. Le médiateur impose des contraintes à la situation afin d'encadrer l'apprentissage : il encourage verbalement, donne des appréciations et agit sur les conséquences des actions de l'apprenant. Les appréciations ne sont ni très précises ni très régulières, mais le plus souvent pragmatiques, selon que l'objectif fixé a été atteint ou non. Le médiateur est absolument nécessaire, sans quoi le champ des possibilités qui s'offrent à l'apprenant serait vraiment trop vaste pour qu'il puisse deviner ce qu'on attend de lui.
Les jeux de langage sont un bon exemple de ce mode d'apprentissage3. Un jeu de langage est une suite répétitive d'interactions entre deux personnes. Tous les parents jouent à des milliers de jeux de ce type avec leurs enfants. Et, tout aussi important, les enfants jouent à ce type de jeux entre eux à partir d'un certain âge. En voici un exemple type, entre un père et son enfant devant des images d'animaux. L'enfant apprend à reconnaître et à reproduire les sons émis par les différents animaux, à associer son, image et mot.
Le père : « Comment fait la vache ? [il montre la vache] Meuh ».
L'enfant : [il se borne à observer]
Le père : « Comment fait le chien ? » [il montre le chien] « Ouah. »
L'enfant : [il observe]
Le père : « Comment fait la vache ? »
[il montre à nouveau la vache puis attend...]
L'enfant : « Meuh »
Le père : « Oui ! »
Cet apprentissage nécessite plusieurs modalités et capacités sensorielles son, image, parole et il contient un ensemble d'interactions répétitives qui est bien implanté au bout d'un moment, de sorte que ce qui est attendu est clair. Le sens d'un mot nouveau, par exemple, ici, du nom d'un nouvel animal, peut être deviné grâce à sa position dans la phrase prononcée par le médiateur.
Pour les théoriciens de l'apprentissage social, l'apprenant ne reçoit pas passivement les données qui lui sont transmises mais teste ses connaissances en interagissant avec son environnement et avec les personnes qui s'y trouvent. Toute interaction est une occasion d'apprendre ou de mettre à l'épreuve des connaissances existantes. Il n'y a pas de dichotomie marquée entre une phase d'apprentissage et une phase d'utilisation.
Jouer aux devinettes. Enfin, l'une des caractéristiques de l'apprentissage social - probablement la plus importante illustrée par ce jeu - est que l'apprenant essaie de deviner les intentions du médiateur. Ces intentions sont de deux ordres. D'abord, l'apprenant doit deviner l'objectif que le médiateur cherche à lui faire accomplir. Ensuite, il doit deviner la manière de penser du médiateur : l'apprenant doit, dans une certaine mesure, développer une idée de ce que pense son interlocuteur, ce qui lui permet de comprendre ses ellipses de langage.
Un robot humanoïde apprendra-t-il un jour de cette façon à parler comme nous ? J'en doute fort, mais, au moins dans un premier temps, les expériences menées avec les robots nous aideront à tester des modèles scientifiques de l'apprentissage social et de le comparer systématiquement à l'apprentissage solitaire de type behavioriste. Pour cela, le robot doit d'abord remplir certaines conditions préliminaires. En particulier, il doit pouvoir interagir avec des interlocuteurs. Divers chercheurs en intelligence artificielle explorent actuellement ce sujet.
Ainsi, en 1998, au Massachusetts Institute of Technology, Cynthia Breazeal a mis au point Kismet , une tête animée dont les yeux sont des caméras et les oreilles, des micros4. Il est équipé d'un synthétiseur pour produire des sons. Ses traits sont stylisés, mais ils traduisent bien l'animation du visage. Il a déjà prouvé qu'il pouvait établir un espace d'attention partagée avec un expérimentateur. Ainsi, lorsque ce dernier saisit un objet et le déplace, Kismet le suit des yeux. Il peut aussi identifier et suivre des visages, reconnaître quand les gens montrent un objet du doigt, prendre la parole à son tour même si les sons qu'il produit n'ont aucun sens, identifier et exprimer des états émotionnels comme la peur, l'intérêt ou la joie ce qui n'est évidemment pas la même chose que d'éprouver vraiment ces émotions. Toutes ces fonctions sont essentielles pour l'apprentissage social. Elles ont été obtenues par la combinaison d'algorithmes de reconnaissance des formes et d'analyse de scènes avec des programmes perfectionnés d'intelligence artificielle qui construisent les modèles du monde et des individus qui participent à l'interaction.
Nous avons franchi une étape supplémentaire en explorant l'apprentissage social par les jeux de langage avec différents robots possédant les mêmes capacités que Kismet , notamment des dérivés d' Aïbo voir aussi l'encadré : « Les têtes parlantes ». Dans une première série d'expériences, un expérimentateur a proposé à Aïbo de jouer à la balle. Le chien robot percevait des images de la balle dans son environnement. Contrairement à ce qu'on pourrait naïvement croire, il est extrêmement difficile de déterminer que différentes images correspondent à un même objet, en l'occurrence à une balle. On ne voit en effet jamais celle-ci en entier. En outre, sa couleur change selon sa position et l'éclairage de la pièce. Parfois, l'algorithme de reconnaissance d'objets détecte la présence de plusieurs objets au lieu d'un seul, simplement à cause d'une tache de lumière sur la balle. Avec des objets plus complexes, l'aspect peut même être complètement différent selon l'angle sous lequel on regarde. Au lieu de se fier à une reconnaissance d'objet rigoureuse selon, les critères de l'intelligence artificielle classique, le robot utilise donc une approche fondée sur la mémoire sensitive du contexte. Il mémorise toutes les caractéristiques des situations d'apprentissage, aussi bien sa propre position ou les actions qu'il est en train d'effectuer que la distribution des couleurs dans la scène visuelle, et la reconnaissance d'objet se fait avec un algorithme de recherche de la situation la plus proche. L'avantage de cette technique est que le robot peut mémoriser à tout moment de nouvelles situations décrivant l'objet. Ainsi la caractérisation d'un objet est affinée en permanence.
Chien parlant. Ici, le rôle du langage est fondamental pour déterminer ce qui est une balle. Le médiateur choisit les situations qui servent d'exemples et donne son appréciation sur les performances du robot. En utilisant ces mécanismes, nous avons programmé une version améliorée d' Aïbo pour qu'elle utilise un vocabulaire restreint de mots ancrés dans son expérience sensori-motrice.
Ces premiers résultats sont encourageants. Nous sommes bien sûr encore très éloignés d'humanoïdes entièrement autonomes dont les capacités cogni-tives s'approcheraient, même de loin, de celles de l'homme. Mais la fabrication de machines est bien un moyen puissant pour mieux comprendre ce qui nous rend uniques en tant qu'humains, ne serait-ce que parce que ces machines constituent des points de comparaison. Nos travaux montrent qu'un ancrage dans le monde par l'intermédiaire d'un corps physique et l'appartenance sociale à une communauté sont d'une grande importance pour apprendre les concepts et le langage utilisés dans les communautés humaines. Si nous sommes intelligents, c'est en partie parce que nous vivons en société. Si nous voulons des robots intelligents, nous devrons beaucoup interagir avec eux.
1 L. Steels et R.A. Brooks, The Artificial life Route to Artificial Intelligence : Building Embodied Situated Agents , Lawrence Erlbaum Associates, 1995.
2 L. Steels et F. Kaplan, AIBO's F irst W ords. The S ocial L earning of L anguage and M eaning. Evolution of Communication , 41, 2001.
3 L. Steels, IEEE Intelligent S ystems , September/October 2001, p. 16.
4 C. Breazeal et B. Scassellati, Infant-like Social Interactions Between a Robot and a Human Caretaker, in Special Issue of Journal of Adaptive Behavior, Simulation Models of Social Agents , guest editor Kerstin Dautenhahn, 1999.
5 L. Steels et al. , in The Transition to Language , édité par A. Wray et al. , Oxford University Press, 2002.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LA GRAVITATION |
|
|
|
|
|
Texte de la 578 e conférence de l'Université de tous les savoirs prononcée le 21 juin2005
Par Nathalie Deruelle: « La gravitation »
la transcription de cette conférence a été réalisée par Pierre Nieradka
VIDEO canal U LIEN
1. Le terme « gravitation » a une origine relativement récente puisqu'il date du XVIIIème siècle : il a été inventé pour désigner une théorie, un cadre de pensée même, tout à fait nouveaux, qui jetaient pour la première fois un pont entre les phénomènes terrestres et célestes. Ce pont fut la physique de Newton, qui tint pendant 250 ans. Mais en 1916, ce « Pont-Neuf » s'avéra trop étroit pour canaliser les découvertes de la physique moderne ; il fut remplacé par un «Golden Gate Bridge » : la relativité générale d'Einstein.
I / Contexte historique :
2. La science grecque faisait une distinction très nette entre Ciel et Terre. Le monde des astres était la réalisation de la géométrie d'Euclide ; leurs mouvements, sans cause, étaient décrits en termes purement mathématiques. En revanche, c'étaient en termes quasi-animistes que l'on décrivait notre monde sublunaire. Par exemple, le mot « gravitas » a d'abord décrit une personne « pondérée » avant de désigner la cause de la chute des corps. Cette dichotomie dura presque 2000 ans.
3. Au XVI-XVIIème siècles, deux révolutions résolurent cette dichotomie. La première fut celle de Nicolas Copernic qui eut l'idée, non évidente, de bâtir une nouvelle astronomie en plaçant le Soleil, et non la Terre, au centre du système solaire. Ce changement de point de vue permit d'abord une description plus économique et plus précise du mouvement des astres, comme le montra brillamment Kepler. Mais il permit aussi de considérer les autres étoiles comme le centre d'autres mondes. Ainsi la physique « sublunaire » se mit à étendre considérablement son champ d'application.
4. La deuxième grande révolution fut celle de Galilée, grand astronome, mais aussi et surtout le premier physicien moderne pour avoir dit que « Le livre de la Nature est écrit en termes mathématiques ». Cela signifiait que les mathématiques, et en particulier la reformulation de la géométrie d'Euclide (et de son théorème de Pythagore) par Descartes devaient s'appliquer à la fois au monde céleste et au monde terrestre. Grâce à ces deux révolutions un pont entre Ciel et Terre se dessinait.
5. C‘est Newton qui bâtit réellement ce pont, en 1666, à l'âge de 24 ans, dans la maison de ses parents où il fuyait la peste qui sévissait à Cambridge. Il eut en effet l'idée géniale de considérer que la gravité (la cause de la chute des corps terrestres) devait AUSSI régir le mouvement des astres. Pour marquer ce gigantesque saut conceptuel un nouveau mot fut créé pour désigner cette cause commune, ce « champ de force » qui envahit l'espace de la Terre jusqu'à la Lune : le terme gravitation. Il fallut ensuite formuler cette idée en langage
mathématique, ce qui prit 20 ans de travail à Newton, travail que l'on résume aujourd'hui en deux équations :
La première équation dit que l'accélération d'un corps est proportionnelle à la force qui lui est appliquée. Ainsi si les forces extérieures sont nulles, si donc le mouvement est « libre », le corps a une accélération nulle, une vitesse constante : il est en « translation rectiligne uniforme ». C'est la loi d'inertie des corps libres, le « mouvement inertiel » trouvés par Galilée. Une pomme qui tombe d'un arbre en revanche n'a pas une vitesse constante, comme le montra Galilée ; pas plus que la Lune qui ne va pas en ligne droite puisqu'elle tourne autour de la Terre le long d'un cercle un peu déformé, l'ellipse de Kepler. La pomme et la Lune sont donc soumises à une force, la même avait compris Newton : la force de gravitation exercée par la Terre.
La deuxième équation est l'expression mathématique donnée par Newton à cette force de gravitation : elle est proportionnelle à chacune des deux masses et inversement proportionnelle au carré de la distance (Terre/Lune ou Terre/pomme). Les petites flèches qui surmontent certaines lettres désignent des objets mathématiques, des « vecteurs » qui représentent la direction de la force dans l'espace. Cette direction n'est pas repérée par rapport aux murs de la salle par exemple, mais par rapport à l'ensemble des étoiles lointaines, quasiment fixes, qui définissent un repère, appelé le « repère absolu de Newton ».
6. Ce pont, construit par Newton, ouvrit une ère nouvelle à la physique qui connut deux siècles d'or.
Deux siècles, marqués d'abord par une formulation mathématique de plus en plus performante des équations de Newton, en particulier par Laplace.
Deux siècles marqués aussi par de spectaculaires découvertes. Ainsi l'astronome britannique Herschel découvrit à la fin du XVIIIème siècle que la trajectoire de la planète Uranus était anormale dans le sens où elle ne respectait pas rigoureusement les deux lois de Newton. Adams, en Grande-Bretagne, et Le Verrier, en France, parièrent pour les équations de Newton et émirent l'hypothèse que la trajectoire d'Uranus devait être perturbée par une autre planète, baptisée Neptune. Ils calculèrent la trajectoire de cette planète postulée et deux mois plus tard, elle fut découverte, par l'astronome allemand Gall, à l'endroit prédit ! Cette magnifique confirmation de la théorie de Newton valut à Le Verrier une réception triomphale à l'Académie des sciences, Arago s'exclamant : « Monsieur le Verrier a découvert un astre nouveau au bout de sa plume ».
Enfin, d'autres forces que l'on découvrait peu à peu, notamment la force électrique de Coulomb, pouvaient être décrites par les mêmes équations, en remplaçant les masses des corps par leurs charges.
7. Le tableau avait cependant quelques ombres qui pendant longtemps furent considérées comme de simples curiosités ou alors tout simplement ignorées.
Par exemple, le coefficient de proportionnalité m de la première loi est une masse dite inerte qui mesure la résistance d'un corps au mouvement. Tandis que dans la deuxième loi, le
coefficient m est une masse dite grave qui mesure l'ampleur de la réponse à l'attraction gravitationnelle du corps M. Il n'y a à priori aucune raison que ces deux masses m soient égales mais il se trouve que c'est le cas. Ceci a pour conséquence que le mouvement d'un corps en chute « libre » (c'est à dire soumis seulement à un champ de gravitation) ne dépend pas de sa masse, puisque, en égalant les deux équations, m se simplifie. Newton, étonné de cette égalité, voulut la vérifier avec précision expérimentalement et obtint une précision du millième. La relativité générale se base sur cette égalité comme nous le verrons, d'où l'importance de la vérifier expérimentalement : la précision actuelle est de 10-12 !
Une autre énigme était la trajectoire de Mercure autour du soleil. En effet, malgré les efforts des astronomes, Le Verrier en particulier, pour la faire « rentrer dans le rang » l'ellipse de sa trajectoire tournait autour du soleil un peu plus que ce que la théorie newtonienne prévoyait.
Une autre question enfin concernait le repère « absolu » des étoiles fixes par rapport auquel s'orientent les directions des forces. On remarqua d'abord qu'on pouvait en fait utiliser tout une série d'autres repères pour décrire les mouvements : les repères dits libres, inertiels, ou galiléens, en translation uniforme quelconque par rapport au repère absolu, dans lesquels les deux lois de Newton restent les mêmes. L'utilité du repère absolu était donc limitée. Par ailleurs, les étoiles fixes, censées incarner ce repère absolu, ne peuvent en fait rester fixes car aussi loin soient elles les unes des autres, la force de gravitation les attire.
Ces différentes questions pouvaient laisser penser que le pont de Newton, était peut-être bâti sur du sable.
8. Le premier coup de butoir à l'édifice newtonien vint d'un côté inattendu de la physique, à savoir des propriétés électriques et magnétiques de la matière, plus spécifiquement des propriétés de la lumière, qui est l'agent de transmission de l'interaction électromagnétique entre les corps chargés, propriétés magistralement résumées par Maxwell.
Toutes les expériences montraient en effet que la vitesse de la lumière, c, était la même dans tous les repères libres. Ceci venait évidemment en contradiction avec la loi de composition des mouvements galiléenne qui implique que si je marche à 3km/h dans un TGV qui lui- même traverse une gare à 300km/h, je me déplace à 303 km/h par rapport au quai. Et bien cela n'est plus vrai si je suis un rayon de lumière : je vais à 300 000 km /sec par rapport au TGV ET au quai ! Lorentz et Poincaré essayèrent de réconcilier cette invariance de la vitesse de la lumière et la loi de composition des vitesses. Techniquement, ils réussirent.
9. Prenons par exemple, l'équation de Maxwell
A est une fonction du temps et de l'espace qui repère la position d'un photon (ou rayon de lumière) à un instant donné. Le Carré (ou D'Alembertien) est un opérateur qui agit sur la fonction A et la transforme selon des opérations bien définies. Cette équation est vraie dans un repère R donné, assimilé au repère absolu de Newton. Lorentz et Poincaré remarquèrent qu'on pouvait l'écrire de la même façon dans un autre repère R' allant à la vitesse V par rapport au premier, mais qu'il fallait pour cela introduire de nouvelles variables, auxiliaires, « fictives », x' et t', liées à la position du photon x dans R et au temps t, non pas par les relations prédites par la physique newtonienne, à savoir x'=x-Vt et t'=t, mais par des transformations mathématiques plus compliquées, dites de Lorentz. Et il se trouve que ces transformations sont telles que si la vitesse d'un objet, v=x/t, vaut c, la vitesse de la lumière, dans R, alors sa vitesse « fictive » v' =x'/t' est aussi c dans R'. Ils étaient donc tout près du but.
Il restait cependant un pas à franchir : donner une réalité à cette vitesse « fictive » v'.
C'est Einstein qui en 1905 franchit ce pas et donna son véritable sens aux transformations de Lorentz-Poincaré, par une illumination géniale, qui fut de dire que la variable « auxiliaire, fictive » t' n'était autre que le temps, le temps « pur et simple » mesuré par une horloge liée à R'. Ce fut une véritable révolution car c'était postuler, contrairement à Newton, que le temps ne s'écoule pas de la même façon pour tout le monde. « Le temps est affaire de perspective », dépend du repère, de l' « angle » sous lequel on le mesure (comme le dit joliment Jean-Marc Levy-Leblond), et se retrouve donc sur le même pied que la largeur, la hauteur et la profondeur. Bientôt, avec le mathématicien Minkowski, on parla non plus d'espace à trois dimensions mais d'espace-temps à quatre dimensions.
Les lois de Newton étaient formulées comme nous l'avons vu, en termes de vecteurs définis dans un espace à 3 dimensions où s'appliquait le théorème de Pythagore. Puisque le temps était devenu une dimension il fallut, avec le mathématicien Minkowski, reformuler les lois de la mécanique et de l'électromagnétisme en termes de « quadrivecteurs » dans un espace-temps à quatre dimensions où la « distance d'espace-temps » entre deux événements (deux flashs lumineux par exemple) est donnée par un théorème de Pythagore généralisé.
10. En 1905, la gravitation restait cependant décrite par les lois de Newton, alors qu'Einstein venait de montrer que le cadre mathématique dans lequel s'exprimaient ces lois était trop restreint pour rendre compte des phénomènes électromagnétiques. Le pont reliant Ciel et Terre était donc rompu. Einstein considéra cette reconstruction comme prioritaire devant la physique quantique et y consacra dix ans de travail acharné entre 1905 et 1915.
Il trouva la solution grâce à une autre illumination. Supposez que vous tombiez d'un toit en même temps que votre pomme. Comme tous les corps tombent de la même façon la pomme doit rester immobile par rapport à vous, exactement comme si vous étiez dans un astronef, loin de tout champ de gravitation. Vous pouvez donc considérer votre mouvement et celui de la pomme comme libres, et les décrire comme si votre chute avait effacé la gravitation. Vous ne pouvez cependant pas dire que votre mouvement « est comme rien » trop longtemps. Car au bout d'un certain temps vous allez vous apercevoir que la pomme se rapproche lentement de vous. En effet deux objets qui chutent se rapprochent car ils sont attirés par le centre de la Terre. Comment réconcilier cela avec l'idée que ces objets sont censés avoir des mouvements libres l'un par rapport et donc des trajectoires parallèles ?
Pour réconcilier l'idée de mouvement libre avec le fait que les trajectoires convergent, Einstein supposa que les mouvements s'effectuent, non pas dans l'espace euclidien de Newton mais dans un espace courbe où les parallèles peuvent se couper. Pour la mathématisation de ces idées, Einstein fit appel à son ami Marcel Grossman qui lui expliqua les travaux de Riemann, alors récents, sur la géométrie des espaces courbes.
11. Dans un espace-temps courbe le théorème de Pythagore se généralise une nouvelle fois :
La distance ds entre 2 flashs lumineux dépend de 10 fonctions de l'espace et du temps gij(t,x,y,z), appelées la « métrique » de l'espace-temps. Ainsi, grâce à une formidable intuition physique guidée par les mathématiques, Einstein aboutit en 1915-1916 aux nouvelles équations de la gravitation :
Le « tenseur » Gμν représente la courbure de l'espace temps ; c'est un opérateur, un « programme de manipulation » qui agit sur les 10 fonctions gi.Tμν représente la masse énergie des objets qui courbent l'espace temps. Enfin, le coefficient 8πG/c4 assure que pour des espaces faiblement courbés, la théorie newtonienne rejoint celle d'Einstein.
Ces équations sont donc le « Golden Gate Bridge » qui remplace le « Pont Neuf » de Newton.
II / Les succès de la relativité générale :
12. Commençons par passer rapidement en revue quelques tests de la relativité générale, quelques exemples, qui démontrent la puissance de cette théorie.
Nous avons vu précédemment que Le Verrier avait échoué dans ses tentatives d'explications de l'avance du périhélie de Mercure dans le cadre de la théorie newtonienne. Einstein, qui pourtant avait basé sa théorie sur une base très conceptuelle, calcula cette avance dans le cadre de la relativité générale et obtint 43 secondes d'arc par siècle, exactement la valeur observée ! Ce fut dit-il la plus grande émotion scientifique de sa vie.
En 1916, Einstein fit cette fois ci une prédiction : la lumière ne devait pas se propager en ligne droite comme le supposait Newton mais devait être déviée par les champs de gravitation des astres. Eddington vérifia cette prédiction en 1919 ; on la vérifie maintenant avec une grande précision, récemment grâce aux signaux radio émis par la sonde Cassini lors de son voyage vers Saturne. Grâce à cette propriété de la lumière d'être déviée par les corps massifs on peut ainsi maintenant calculer la masse (en particulier la masse invisible des galaxies) présente entre un astre lumineux, un quasar par exemple, et nous en étudiant le trajet que prend la lumière entre lui et nous.
En relativité générale l'écoulement du temps dépend du mouvement mais aussi du champ gravitationnel dans lequel l'horloge se trouve. Ce 3ème effet est appelé le « redshift gravitationnel ». Il a été mesuré pour la première fois en 1963 et aujourd'hui la précision des horloges est telle qu'il est indispensable d'en tenir compte dans les routines du programme du Global Positionning System, sans quoi ce système ne fonctionnerait pas !
Mentionnons enfin, l'effet Shapiro : si on envoie de la Terre un signal laser ou radar sur la lune ou sur une sonde et si ce signal revient, on calcule que le temps que met ce signal pour faire l'aller retour est différent de ce que prévoit la physique newtonienne. C'est aussi la sonde Cassini qui a permis de vérifier cet effet avec la plus grande précision.
Après ce bref survol des tests de la relativité générale, concentrons-nous sur une autre facette de la relativité générale : les ondes gravitationnelles.
13. Commençons par présenter les « pulsars binaires » grâce auxquels les ondes gravitationnelles ont été détectées. Un « pulsar » est une étoile à neutrons, c'est à dire dont la densité est celle de la matière nucléaire, qui peut donc peser 2 ou 3 masses solaires pour seulement quelques kilomètres de rayon. Ces pulsars produisent, par des mécanismes encore mal connus, des champs magnétiques très intenses. De plus, ces étoiles tournent sur elles- mêmes parfois avec une période de rotation de 1 milliseconde (à comparer au 24 h pour la
Terre !). Le champ magnétique tourne alors autour de l'axe de rotation. Ce pulsar émet donc un « pinceau de magnétisme », un faisceau lumineux (radio), qui balaie l'espace comme un gyrophare et qui peut être détecté par des radiotélescopes si la Terre se trouve dans sa trajectoire.
Un pulsar « binaire » est une étoile à neutrons qui gravite autour d'un autre objet, qui peut lui- même être une autre étoile à neutrons. L'intervalle de temps entre l'arrivée sur Terre de deux flashs, 2 « bips » consécutifs du « gyrophare » n'est alors pas constant du fait que pulsar s'éloigne et se rapproche périodiquement de l'observateur, lors de ses révolutions autour de son compagnon. On peut ainsi reconstituer, par cet « effet Doppler », la trajectoire de ce pulsar binaire.
14-15. Enfin, en tournant l'un autour de l'autre, les deux étoiles déforment périodiquement l'espace-temps et ces déformations de la métrique se propagent jusqu'à l'infini : ce sont les ondes gravitationnelles.
16. Il s'agit de mettre en équations ces ondes...
La phase du pulsar, qui donne le rythme auquel le gyrophare tourne, est donné en fonction du temps par l'équation suivante :
Le temps t qui apparaît dans cette équation est celui d'une horloge liée au pulsar. Ce temps n'est pas le même dans le laboratoire qui détecte le signal (la Terre), en raison notamment du ralentissement des horloges. Appelons Τ le temps du laboratoire. On montre à partir des équations d'Einstein de la relativité générale que les temps t et T sont liés par la relation suivante :
Le premier terme correctif Delta R est une correction simplement newtonienne, qui tient compte du fait que la distance entre le pulsar et le laboratoire est variable et que la lumière a une vitesse finie.
Les termes suivants sont des corrections relativistes.
Plus précisément, ∆E, appelé effet Einstein, est une correction qui combine les effets de retard dus au mouvement du pulsar et au champ de gravitation de son compagnon (c'est de ce même effet qu'il faut tenir compte pour faire fonctionner le système GPS). Il s'exprime de la façon suivante :
Enfin, le dernier terme ∆S, est l'effet Shapiro. Il s'agit de l'effet dû au retard que prend la lumière dans le champ de gravitation des étoiles à neutrons :
Les différents paramètres, delta, γ, r, s, etc, intervenant dans ces différentes équations sont des paramètres dits « post-képlériens », dont les valeurs sont nulles en théorie newtonienne. En ajustant cette « formule de chronométrage » Φ=Φ(T) avec la phase phi observée, on obtient les valeurs numériques de ces différents paramètres.
17. Par exemple, pour le pulsar binaire récemment observé par Kramer et al, on trouve que l'avance du périastre est de 16,9 degrés/an (à comparer aux 43 secondes d'arcs par siècle pour Mercure !). De même la période orbitale est de 0,1 jour contre 365 jours pour la Terre. Enfin, l'ellipse de la trajectoire du pulsar rétrécit peu à peu au cours du temps. Le système perd de l'énergie lors de ce rétrécissement et cette énergie est dissipée sous forme d'ondes gravitationnelles. Il s'agit d'un effet extrêmement faible : il faut compter une centaine de millions d'années pour qu'ils deviennent notable.
18. Ces paramètres post-képlériens, comme nous l'avons dit, devraient être nuls en théorie newtonienne. Le fait qu'on observe qu'ils ne le sont pas montre déjà que la théorie newtonienne est inapte à décrire le mouvement d'un tel pulsar binaire. La relativité générale quant à elle, non seulement prédit une valeur non nulle pour ces paramètres mais les exprime en fonction des masses des deux objets MA et MB, selon des formules plus ou moins compliquées extraites des équations d'Einstein.
19. On peut ainsi tracer sur un diagramme l'avance du périastre, la variation de la période orbitale, etc, en fonction des masses MA et MB. Si ces courbes ne se recoupaient pas en un seul point cela signifierait un désaccord entre théorie et expérience car on obtiendrait des valeurs contradictoires pour les masses MA et MB du pulsar et de son compagnon. Mais il se trouve qu'elles se coupent toutes, avec une très grande précision ! L'intersection de deux courbes (l'avance du périastre omega dot et de l'effet Einstein gamma par exemple) donne les masses Ma et MB. Chaque courbe supplémentaire, à condition qu'elle passe au même point, représente un test de la relativité générale ; ainsi le pulsar binaire de Kramer et al fournit trois tests indépendants !
Grâce donc à un système d'étoiles situé à plusieurs milliers d'années-lumière de la Terre on vérifie actuellement une théorie construite en 1915 sur une base surtout conceptuelle avec une précision supérieure au millième.
20. Le test consistant à mesurer le rétrécissement de l'orbite d'un pulsar binaire dû à l'émission d'ondes gravitationnelles et vérifier qu'il coïncide avec la valeur prédite par la relativité générale, a été effectué pour la première fois par Hulse et Taylor à l'aide du premier pulsar binaire qu'ils avaient découvert en 1974. Pendant 30 ans, ils ont monitoré ce système pour mesurer avec un précision de plus en plus grande l'effet cumulatif de retard au périastre dû à ce rétrécissement et ont obtenu un accord entre observation et prédiction supérieur à 2 millièmes. Ces travaux ont valu à Hulse et Taylor le premier prix Nobel de relativité générale en 1993.
III/ Une nouvelle fenêtre sur l'univers :
22-23. Les ondes gravitationnelles ont donc été détectées par l'intermédiaire du rétrécissement de l'ellipse tracée par deux étoiles en orbite l'une autour de l'autre mais pas « directement »,
c'est à dire par l'intermédiaire de télescopes « gravitationnels » placés sur Terre sensibles aux « frémissements » de la géométrie de l'espace-temps. Tant que les étoiles sont éloignées l'une de l'autre, les ondes gravitationnelles sont beaucoup trop faibles pour être détectées par de tels « télescopes ». En revanche, on peut espérer les détecter lorsque les deux étoiles se rapprochent l'une de l'autre et fusionnent pour donner par exemple un trou noir car alors une énorme « bouffée » d'ondes est émise.
24. Un effort international important est par conséquent mené pour essayer d'observer directement ces ondes. Les Etats-Unis, l'Europe et le Japon construisent actuellement des détecteurs gigantesques, sous forme d'interféromètres constitués de deux bras perpendiculaires d'environ 3 km de long, dans lesquels un faisceau laser se propage et se réfléchit des centaines de fois. Ces différents rayons lumineux se combinent en fin de course en un « creux de lumière », une frange noire. Si une onde gravitationnelle arrive sur Terre, la géométrie d'espace-temps entre les miroirs va être très légèrement perturbée, les miroirs aux extrémités des bras vont très légèrement bouger et une frange de lumière va apparaître puis disparaître.
25. Il s'agit là encore d'expliquer ce mouvement des miroirs en « faisant parler » les équations d'Einstein. L'accélération du pulsar qui va déterminer le mouvement et donc la courbure de l'espace-temps dont les frémissements vont atteindre le détecteur s'exprime de la manière suivante :
Le premier terme est celui de Newton, inversement proportionnel au carré de la distance entre le pulsar et son compagnon.
Les termes suivants sont les corrections relativistes obtenues en résolvant, avec une précision croissante (« itérativement ») l'équation d'Einstein
1/c2.A1PN est le terme donnant en particulier l'avance du périastre.
1/c5A2 .5PN représente la force qui provoque le rétrécissement de l'ellipse observé par Hulse et Taylor (son expression a été obtenue en 1982).
Enfin, le terme 1/c7.A3.5PN a été obtenu au début des années 2000.
26. Mais ce travail n'est qu'une étape pour décrire correctement l'onde gravitationnelle qui va faire bouger les miroirs et qu'on puisse un jour, à partir de ce mouvement, vérifier si la relativité générale décrit correctement le début de la coalescence des deux étoiles : il faut prédire plus précisément encore la phase de l'orbite (liée au temps mis par le pulsar à faire un tour : Φ=Ω.t pour un mouvement circulaire newtonien). Dans son expression obtenue très récemment dans le cadre de la relativité générale, le premier terme décrit le rétrécissement de l'orbite dû au seul terme 1 /c5.A2.5PN. Les corrections suivantes nécessitent la connaissance du champ de gravitation et de la luminosité (puissance rayonnée par ce champ) très loin du pulsar
binaire. Ces calculs on représenté un travail de très longue haleine, où l'école française, pilotée notamment par Thibault Damour, s'est distinguée.
27. Cependant, ces corrections de plus en plus fines à la physique newtonienne ne suffisent plus lorsque les deux étoiles coalescent. Pour décrire cette phase ultime il faut résoudre exactement les équations d'Einstein, ce que l'on ne peut faire que numériquement dans ce cas. La relativité numérique est donc en plein essor, en particulier à l'Observatoire de Meudon. Parmi les succès récents de cette discipline citons le calcul de la coalescence de deux étoiles à neutrons et celle de deux trous noirs ---qu'on ne peut pas voir car les trous noirs ne rayonnent pas de lumière mais qui doivent produire, si ils coalescent, une énorme bouffée d'ondes gravitationnelles.
28. La détection d'ondes gravitationnelles ouvrira une nouvelle fenêtre sur l'univers dans la mesure où il s'agit d'un signal non lumineux, de « friselures » de l'espace-temps. L'observation de ces ondes permettrait d'en savoir plus sur les étoiles à neutrons car le signal gravitationnel émis dépend de leur structure interne. Grâce aux ondes gravitationnelles on devrait donc mieux connaître les propriétés nucléaires de la matière, la structure des trous noirs, voire même les débuts de l'univers dans lequel les ondes gravitationnelles se sont propagées librement bien avant la lumière.
IV / Les défis à relever :
Les succès de la relativité générale sont donc nombreux mais il reste des défis à relever.
29. Le premier est celui de la cosmologie. En effet, toutes les mesures actuelles tendent à montrer que la matière qui compose l'univers est, quasiment en totalité, totalement inconnue (30 % de « matière noire », 70 % d' « énergie noire »). Ainsi la matière dont les étoiles sont constituées ne représenterait qu'une infime partie de la masse totale. L'hypothèse optimiste est de parier sur les équations d'Einstein et de les utiliser pour mieux connaître les caractéristiques de l'univers, la nature de la matière et l'énergie noires ou la valeur de l'accélération de son expansion par exemple. Mais il n'est pas exclu, hypothèse pessimiste que la Relativité Générale trouve ses limites en cosmologie.
30. Le second défi est celui de la quantification de la gravitation : le pont entre Ciel et Terre dressé par Einstein ignore en effet la mécanique quantique dont les lois régissent pourtant superbement le monde microscopique. Bien qu'aucune évidence expérimentale ne l'impose actuellement (sauf peut-être les mystères de la cosmologie ?), réconcilier les principes et cadres conceptuels de la relativité générale et de la mécanique quantique est un programme majeur de la physique du XXIème siècle. Des théories sont en chantier pour tenter de répondre à ces interrogations, parmi elles la théorie des supercordes sur laquelle beaucoup de physiciens fondent leurs espoirs depuis déjà une trentaine d'années.
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|