|
|
|
|
|
|
LES ÉTATS DE LA MATIÈRE |
|
|
|
|
|
LA MATIÈRE -
PLAN
* ÉTAT
* PHYSIQUE
* Introduction
* De la notion au concept
* La genèse de la classification périodique
* La description quantique
* La thermodynamique : « deus ex machina »
* Les outils de description
* Les différents types de liaisons chimiques
* L'organisation spatiale d'un grand nombre d'atomes : ordre et désordre
* L'organisation temporelle et les propriétés de transport
* Les états structurés à courte distance
* Les fluides
* Au point critique, la matière hésite
* Le gaz parfait, état de référence
* Longueurs caractéristiques dans les fluides
* Les solides désordonnés à l'échelle atomique
* Un état complexe : le plasma
* Les états ordonnés à grande distance
* Le magnétisme, un modèle pour la matière organisée
* L'ordre spatial d'un ensemble d'objets microscopiques en interaction, selon Ernest Ising
* L’évolution du modèle d’Ising
* L'ordre cristallin
* Les cristaux liquides
* Une exception : supraconductivité et superfluidité
* L'état supraconducteur
* La superfluidité
* Les défauts
* La matière hétérogène
* Une infinie variété d'états naturels et artificiels
* L'état vivant : structuration spontanée de systèmes ouverts ?
état
(latin status, de stare, se tenir)
Consulter aussi dans le dictionnaire : état
Cet article fait partie du dossier consacré à la matière.
Nature sous laquelle se présente un corps.
PHYSIQUE
Introduction
La matière est le premier concept physique, le plus concret, et apparemment le plus simple. Pourtant, au-delà de cette apparence, les hommes se sont toujours interrogés sur la nature de la matière, et les théories les plus évoluées n'ont fait que renforcer son caractère étrange.
Parmi les descriptions de la matière, la théorie quantique est, dans l'état actuel des connaissances, l'outil le plus rigoureux pour décrire les propriétés physiques et chimiques de la matière. Elle bouleverse cependant les images intuitives à travers lesquelles nous percevons la matière. Il n'est heureusement pas nécessaire de réconcilier l'intuition avec la théorie quantique pour parvenir à décrire les différents états de la matière.
En effet, si le formalisme quantique est indispensable pour rendre compte de la structure interne des atomes, une description très simple des atomes suffit en général pour représenter les états de la matière. Ces derniers sont déterminés par deux types de propriétés : la nature des états de liaison entre les atomes constituant le matériau considéré, et le type et le degré d'organisation spatiale et temporelle des atomes entre eux.
De la notion au concept
Historiquement, les Grecs furent les premiers à tenter une classification de la multitude des objets matériels qui se présentaient à eux. Ils fondèrent cette classification sur les états dans lesquels apparaît la matière (solide, liquide, gazeux) et sur certaines de ses propriétés. Pour Aristote, il existait quatre éléments essentiels : la terre, l'eau, l'air et le feu. Les Grecs se sont interrogés également sur la nature de la matière. Est-elle indéfiniment sécable en parties qui conservent les mêmes propriétés ? Ou bien est-elle constituée de petits grains insécables, littéralement des « atomes » ? DémocriteDémocrite d'Abdère défendra, quatre siècles avant notre ère, l'image d'une matière constituée d'atomes en mouvement : selon lui, la diversité des états et des formes de la matière est simplement due à la multiplicité des combinaisons possibles de position et de mouvement de ces atomes, particules matérielles immuables et indivisibles. Cette image mécaniste du monde – selon laquelle la matière a des propriétés essentiellement géométriques et mécaniques – marquera en profondeur les sciences physiques aux xixe et xxe s.
Aristote avait proposé une autre description de la matière, dans laquelle priment les formes qui lui sont conférées… par la nature, par Dieu, ou par l'homme : une table est, par exemple, de la matière bois, sculptée ; si l'on s'intéresse au bois, il est constitué de matière cellulaire agencée sous forme de fibres agrégées, plus ou moins desséchées, etc. La notion de matière recule ainsi à l'infini, tel un ultime noyau caché à l'intérieur de formes qui s'emboîteraient indéfiniment les unes dans les autres, comme des poupées russes.
La genèse de la classification périodique
L'influence de la conception aristotélicienne de la matière va perdurer pendant deux millénaires. Cependant, les alchimistes essaieront de découvrir la matière fondamentale, celle qui serait à l'origine de tout : ils réalisent ainsi les premiers essais d'analyse et de synthèse, et certaines propriétés chimiques et physiques de différents corps sont découvertes et classées.
Les savants du xviie et du xviiie s. reprennent cet héritage, en introduisant de nouvelles méthodes de travail ; ils entreprennent une étude systématique des propriétés chimiques des différents corps, qui conduit à la notion d'élément chimique.
Antoine Laurent de Lavoisier, par exemple, montre que l'eau est composée de deux éléments, l'hydrogène et l'oxygène, impossibles à obtenir eux-mêmes par une combinaison d'autres éléments : ce sont des éléments de base. Quelques dizaines d'éléments sont ainsi identifiés, dont les propriétés chimiques peuvent être classées par référence à leur affinité pour l'oxygène : éléments oxydables, éléments oxydants.
Dimitri Ivanovitch Mendeleïev propose, en 1869, une classification systématique des éléments qui repose sur une périodicité approximative de l'affinité de certains éléments pour l'oxygène en fonction de leur masse. Le succès de cette classification est immense, car elle prévoit l'existence d'éléments, alors inconnus, de masse déterminée et devant présenter un type précis de propriétés chimiques ; ces éléments sont découverts quelques années plus tard, avec les propriétés prévues par cette classification ! Le tableau de Mendeleïev est ensuite interprété comme le reflet de la structure électronique de chaque élément : passer d'un élément à l'élément suivant signifie ajouter un électron à l'atome.
La description quantique
En 1897, sir Joseph John Thomson découvre l'électron, et Ernest Rutherford démontre en 1907 qu'un atome est constitué d'un noyau qui contient deux types de particules, les neutrons – sans charge électrique – et les protons – porteurs d'une charge opposée à celle de l'électron. Ensuite, les travaux d'Einstein sur l'émission photoélectrique et ceux de Max Planck sur le rayonnement du corps noir mettent en évidence les propriétés quantiques, c'est-à-dire particulaires, de la lumière. C'est une première grande brèche dans la physique classique, qui repose notamment sur l'image ondulatoire de la lumière, description bien assise grâce au formalisme des équations de James Clerk Maxwell.
Les physiciens découvrent que la lumière peut se comporter, suivant la situation expérimentale, soit comme une onde, soit comme un ensemble de particules. En 1927, Clinton J. Davisson et Lester H. Germer démontrent expérimentalement l'existence d'interférences dans un faisceau d'électrons réfléchi par un cristal de nickel : le comportement ondulatoire des électrons est établi sans ambiguïté, la matière – comme la lumière – se révèle tantôt particulaire, tantôt ondulatoire, suivant la situation expérimentale. Depuis, des progrès considérables ont été effectués dans la compréhension de la structure de la matière à l'échelle infra-atomique, par exemple par l'introduction des quarks, particules fondamentales constitutives du proton et du neutron. Cependant, la description des propriétés « courantes » de la matière (mécaniques, optiques, électriques…) repose sur les propriétés du cortège électronique de l'atome, elles-mêmes établies par la théorie quantique au cours du premier quart du xxe s.
La thermodynamique : « deus ex machina »
Parallèlement à ce travail sur les propriétés chimiques des éléments débutent, au cours du xixe s., des études approfondies sur les états de la matière. L'état gazeux est particulièrement bien compris, car il est le plus simple ; il devient le fondement de la science thermodynamique, qui décrit les échanges énergétiques au sein de la matière. Les travaux de Sadi Carnot, puis ceux de Ludwig Boltzmann posent les bases théoriques de la thermodynamique, et permettent ainsi de décrire les changements d'état de la matière. Au xxe s., les contributions des physiciens Lev D. Landau, Ilya Prigogine et Kenneth Wilson affinent considérablement la description des changements d'état de la matière, nommés également transitions de phase. La vision d'Aristote d'une matière informe sculptée par la nature est ainsi relayée par le deuxième principe de la thermodynamique. Selon les physiciens, le premier des mécanismes qui sculptent la matière est la tendance de l'Univers à augmenter son désordre : son entropie.
Les outils de description
La théorie quantique est le premier outil de description de la matière ; très puissant, cet outil exige cependant l'utilisation d'un formalisme pesant. Il permet un calcul rigoureux des états fondamentaux, c'est-à-dire des états au repos de systèmes microscopiques – ne comportant que quelques atomes, voire quelques dizaines d'atomes –, mais au prix d'un travail laborieux sur des ordinateurs puissants. Une telle description est rapidement impraticable si l'on s'intéresse à l'évolution de ces systèmes dans le temps et dans l'espace sous l'effet d'un apport d'énergie lumineuse, électrique, mécanique, magnétique ou chimique. Il est actuellement impensable d'effectuer le calcul rigoureux de l'état de systèmes contenant une quantité d'atomes de l'ordre du nombre d'Avogadro, c'est-à-dire de taille macroscopique, de l'ordre du centimètre cube, à partir de la théorie quantique. Fort heureusement, les résultats décisifs peuvent le plus souvent être caractérisés principalement par quelques types de liaisons interatomiques : il est alors possible d'appliquer une description classique à l'ensemble des atomes, reliés entre eux par des « liaisons » que caractérisent quelques propriétés simples.
Les différents types de liaisons chimiques
Deux atomes qui s’attirent peuvent former une liaison chimique : ils gagnent, à être proches l'un de l'autre, une quantité d'énergie potentielle. On distingue ainsi les liaisons fortes, dont l'énergie associée est de l'ordre de 1 eV ou supérieure. Dans ce cas, la paire d'atomes en interaction fait apparaître des états électroniques complètement nouveaux pour les électrons ; ainsi, dans les liaisons ioniques, un ou plusieurs électrons d'un atome sont cédés à l'autre atome. Ce type de liaison se rencontre, par exemple, dans des sels tels que le chlorure de sodium (NaCl). Un autre type de liaison forte caractéristique est la liaison covalente, dans laquelle des électrons isolés de chacun des atomes s'associent pour former des paires d'électrons fortement liées. Les liaisons covalentes, contrairement aux liaisons ioniques, sont en général anisotropes, c'est-à-dire qu'elles tendent à s'orienter dans des directions particulières de l'espace.
Par opposition, les liaisons d'énergie inférieure ou de l'ordre de 0,1 eV sont nommées liaisons faibles. Les états électroniques des atomes isolés sont peu modifiés par l'interaction. C'est le cas des forces d'attraction dites de Van der Waals, que l'on rencontre dans le processus d'adhérence des molécules en longues chaînes, les polymères, utilisés par exemple pour les rubans adhésifs.
L'organisation spatiale d'un grand nombre d'atomes : ordre et désordre
La taille du nombre d'Avogadro étant considérable, la matière semble continue à notre échelle : le déplacement d'un seul atome n'est pas perceptible. Mais elle peut prendre des formes et des textures très diverses, suivant son état ; elle peut aussi présenter des orientations préférentielles, parallèlement à une direction ou à une surface. Ces états sont généralement caractérisés par une (ou des) longueur(s) associée(s) à des propriétés bien précises.
L'utilisation des méthodes statistiques (emploi de la mécanique statistique, ou physique statistique), lorsqu'une multitude d'atomes sont mis en jeu dans une quantité macroscopique de matière, permet d'obtenir des résultats remarquables.
Cette approche de l'organisation spatiale des atomes rejoint les résultats de la thermodynamique, fondée sur les deux principes suivants : selon le premier, l'énergie de l'Univers peut changer de forme à condition de se conserver globalement ; selon le second, le désordre doit être maximal dans un système physique isolé. La thermodynamique est, en quelque sorte, une économie de l'énergie dans les systèmes physiques. Elle permet en principe de déterminer quels sont les états d'équilibre d'un système en postulant que le désordre de l'Univers entier (considéré comme un système isolé) est maximal : une quantité de matière isolée du reste de l'Univers tend ainsi vers un maximum d'entropie. Si l'on tient compte des échanges d'énergie, d'espace ou de matière avec le reste de l'Univers, la conséquence des principes de la thermodynamique est alors, en général, que le système étudié s'ordonne à basse température, et qu'il adopte un état désordonné à haute température. Ces transitions ordre/désordre apparaissent dans des systèmes physiques très variés.
L'organisation temporelle et les propriétés de transport
Les mouvements des atomes au sein de la matière peuvent être complètement désordonnés au niveau microscopique et ne correspondre à aucun mouvement à notre échelle. C'est le cas des mouvements des atomes ou des molécules dans un gaz ou dans un liquide, c'est aussi le cas des vibrations des atomes dans un solide, qui sont ordonnées à courte distance mais en général désordonnées à l'échelle macroscopique. La facilité, ou la difficulté, à faire circuler un courant électrique ou un flux de matière dépend fortement des caractéristiques de l'état dans lequel se trouve la matière. Le diamant et le graphite sont, par exemple, deux formes cristallines du carbone pur : le diamant est un très bon isolant électrique, tandis que le graphite est conducteur.
Les états structurés à courte distance
La notion d'ordre est le fil directeur de cette exploration des états de la matière. Certains états ne présentent cependant pas d'organisation régulière au-delà de l'échelle microscopique. Ce sont les états gazeux et liquide, que l'on regroupe sous le nom d'état fluide. C'est aussi le cas des solides désordonnés, dits solides amorphes. Enfin, dans l'état de plasma, où la température dépasse le million de degrés, la matière présente un comportement fort complexe.
Les fluides
Une propriété macroscopique simple caractérise l'état fluide : un fluide s'écoule et se déforme sous l'effet de forces très faibles. De façon plus précise, on dit que les fluides ne présentent pas de résistance au cisaillement.
À l'échelle microscopique, les fluides – à l'exception des cristaux liquides – ne sont pas organisés sur de grandes distances. L'agitation des atomes entraîne un brassage permanent de leurs positions. Deux états fluides qui nous sont familiers, le gaz et le liquide, se distinguent par des propriétés différentes : les gaz sont mille fois moins denses que les liquides, et sont compressibles alors que les liquides le sont très peu.
À l'échelle atomique, la différence est également remarquable. Les molécules d'un gaz ont peu d'interactions sur la plus grande partie de leur trajectoire (99,9 %), elles sont isolées dans le vide, et les collisions n'affectent que 0,1 % de celles-ci. Le désordre, c'est-à-dire l'entropie, associé à leur position est important. Les molécules d'un liquide sont, au contraire, en interaction permanente avec leurs voisines, et bénéficient ainsi de l'abaissement de leur énergie potentielle dû à l'attraction mutuelle. L'entropie associée au désordre de leur position est cependant plus faible que dans un gaz ; mais, à la température d'ébullition, les états gazeux et liquide d'un même corps coexistent en équilibre. Dans un gaz, l'énergie cinétique des molécules est élevée, et l'entropie (Sg) est également plus élevée que celle du liquide (Sl), car le désordre des positions y est plus grand. Dans un liquide, l'énergie totale des molécules est plus faible que dans un gaz, et ce en raison de l'énergie d'attraction gagnée et cédée au reste de l'Univers ; cette énergie cédée au reste de l'Univers en augmente l'entropie. L'état gazeux et l'état liquide contribuent donc tous deux à augmenter l'entropie de l'Univers. Dans les conditions de l'ébullition, le produit du gain d'entropie ΔS = Sg – Sl associé au désordre des positions atomiques par la température absolue T est juste équilibré par l'énergie potentielle liée à l'attraction mutuelle de ses molécules au sein du liquide. Ce produit L = T . ΔS est la chaleur latente qu'il faut fournir au liquide pour le vaporiser.
Au point critique, la matière hésite
L'un des résultats de la physique classique est que ΔS doit être supérieur à la constante de Boltzmann (k) pour que l'état gazeux et l'état liquide soient clairement différents. Pour un corps donné, il n'existe plus de frontière nette entre l'état liquide et l'état gazeux au-delà d'une température dite critique, telle que ΔS est de l'ordre de k. L'état du fluide hypercritique, lorsque ΔS est inférieur à k, est toujours homogène quelles que soient la pression et la densité : il n'y a plus ni gaz ni liquide mais un seul fluide qui n'est ni l'un ni l'autre.
Au point critique, c'est-à-dire au voisinage de la température critique et de la pression critique, les propriétés du fluide sont particulièrement intéressantes. En effet, le gain entropique dans le gaz équilibre exactement le gain d'énergie potentielle dans le liquide, comme au point d'ébullition, mais au point critique ces quantités sont également du même ordre que l'énergie caractéristique kT reçue de l'agitation thermique. Il en résulte un comportement d'« hésitation » de la matière entre l'état liquide et l'état gazeux, qui se traduit par l'apparition de régions très étendues de type liquide alternées avec des régions de type gaz. Ces régions, nommées fluctuations critiques, peuvent s'étendre sur plusieurs microns et produisent le phénomène bien visible et spectaculaire d'opalescence critique.
La notion de fluide est toute relative : à une échelle ou à une autre, la matière est toujours susceptible de s'écouler. Ainsi, à l'échelle de la Terre et des temps géologiques, une partie du manteau terrestre (l'asthénosphère), située entre 70 et 100 km de profondeur, se comporte comme un fluide. Ce niveau « plastique » permet à la croûte terrestre et à la partie du manteau située au-dessous (cet ensemble constitue la lithosphère), dont le comportement est plus rigide, de se déplacer par l'intermédiaire de plaques. La dérive des continents, qui renouvelle complètement la géographie continentale tous les 200 millions d'années, n'est ainsi que le fait de courants de convection dans le manteau terrestre.
Le gaz parfait, état de référence
L'état gazeux occupe une place particulière parmi les différents états de la matière en raison des faibles interactions de ses molécules. Les physiciens ont élaboré un modèle simplifié qui sert de référence, le gaz parfait. Ce modèle est très efficace, bien qu'il soit intrinsèquement contradictoire! Il suppose en effet que les atomes du gaz parfait présentent simultanément deux propriétés :
– ils n'interagissent pratiquement pas, au sens où leurs interactions représentent une énergie négligeable par rapport à leur énergie cinétique ;
– ils interagissent fortement, au sens où l'on peut considérer le gaz comme étant au point d'équilibre à chaque instant.
Moyennant cette « pirouette conceptuelle », ce modèle constitue la base de la description thermodynamique de tous les états de la matière où l'énergie associée aux interactions est faible. Dans de nombreuses situations – celles des gaz réels et des solutions diluées –, la matière se comporte presque comme le prévoit le modèle du gaz parfait.
Longueurs caractéristiques dans les fluides
Dans un assemblage désordonné d'atomes de diamètre a, deux distances caractéristiques sont importantes.
Tout d'abord la distance moyenne d entre les atomes. Il est relativement facile de la relier au nombre n de molécules par unité de volume en exprimant que chaque atome occupe en moyenne un volume d3. Une unité de volume est donc remplie par n petits volumes d3, soit n d3 = 1. La distance moyenne d varie ainsi comme la racine cubique de l'inverse de n.
Une seconde longueur, L, nommée libre parcours moyen, est la distance moyenne que parcourt un atome sans entrer en collision avec un autre atome. On schématise une collision par le fait que la distance entre les centres de deux atomes devient égale ou inférieure à 2a. Une telle collision se produit si, durant le mouvement d'un atome le long d'une direction, le centre d'un autre atome se trouve à l'intérieur du cylindre de rayon 2a axé selon cette direction. Dans un cylindre de longueur L, un seul centre d'atome est présent en moyenne. Le volume du cylindre est donc le volume moyen occupé par un atome : π (2a)2 . L = 1/n. La longueur L est donc inversement proportionnelle au nombre n d'atomes par unité de volume.
Dans un liquide, les atomes sont au contact les uns des autres dans un assemblage mouvant mais compact. Les trois longueurs a, d et L sont du même ordre, c'est-à-dire comprises entre 0,1 et 1 nm.
Dans un gaz à la pression atmosphérique, la masse volumique typique est de 1 kg/m3, soit mille fois moins que celle des liquides. Dans un liquide, le nombre d'atomes par centimètre cube est de l'ordre de 1022, tandis que dans un gaz il est de l'ordre de 10−9. La distance moyenne d entre deux atomes dans le gaz est typiquement de 3 nm, alors que le libre parcours moyen L est cent fois plus grand, soit environ 0,3 μm.
Les solides désordonnés à l'échelle atomique
Lorsqu'un fluide est suffisamment refroidi, il se condense sous forme solide. On connaît une seule exception à cette règle, l'hélium : il reste liquide même à très basse température. Suivant la vitesse de refroidissement, les atomes et molécules du liquide ont ou n'ont pas le temps de s'organiser au moment de la solidification. Si l'on opère très rapidement, le solide peut conserver un état désordonné, dit état amorphe, qui ressemble à un liquide figé. Cependant, certains mélanges d'atomes ne cristallisent pas, même s'ils sont refroidis lentement ; ils forment alors des verres, après être passés par un état pâteux lors du refroidissement. L'étude expérimentale et théorique des solides désordonnés est plus délicate que celle des solides cristallins. Le désordre apparent de ces structures cache en général une organisation plus fine et plus difficile à évaluer, qui entraîne des propriétés subtiles. Dans certaines régions volcaniques, on trouve des verres naturels (l'obsidienne), dont la formation est due à la trempe rapide d'un magma riche en silice arrivant en surface.
Un solide dans l'état amorphe présente des propriétés particulières, souvent bien différentes de celles du solide cristallin correspondant. La tenue mécanique d'un matériau amorphe est en général meilleure que celle des cristaux, et la conductivité électrique est bien différente. Ainsi, les propriétés supraconductrices du molybdène amorphe sont bien meilleures que celles du molybdène cristallin, ce qui signifie que le désordre dans la position des noyaux atomiques favorise, paradoxalement, l'apparition de l'ordre électronique lié à l'état supraconducteur. C'est un effet indirect de la suppression de l'ordre magnétique existant dans le molybdène cristallin, qui disparaît au profit de l'ordre supraconducteur dans le molybdène amorphe : l'état magnétique est plus stable que l'état supraconducteur, mais il est moins robuste face au désordre cristallin.
Une autre différence importante entre les solides cristallisés et les solides amorphes est la faible sensibilité de ces derniers aux impuretés et aux défauts. Le silicium utilisé pour réaliser les circuits électroniques des ordinateurs, par exemple, contient des impuretés volontairement ajoutées au cristal pour ajuster sa conductivité électrique : 1 atome de bore pour 100 millions d'atomes de silicium suffit à régler la conductivité du canal du transistor. En revanche, dans le silicium amorphe, il faut une proportion relativement importante d'impuretés pour modifier sensiblement la conductivité électrique. Cette propriété caractéristique des verres est exploitée lorsque l'on souhaite réaliser des composants électroniques d'une grande robustesse pouvant résister à un rayonnement ionisant.
Un état complexe : le plasma
Un plasma est un gaz d'atomes ou de molécules partiellement ou totalement ionisés. Des plasmas se produisent dans les étincelles ou dans les éclairs d'orage ; ils sont aussi la source de lumière dans les tubes au néon. En général, ils sont composés d'un mélange d'ions positifs et d'électrons, mais il existe aussi des plasmas d'ions négatifs. Les plasmas occupent une place d'exception dans les états de la matière : ils sont éloignés de l'équilibre thermodynamique, gardent longtemps la trace de leur états successifs et présentent des évolutions difficilement prévisibles. Leur comportement irrégulier et instable s'explique par les fortes interactions à longue distance des particules chargées.
Ce sont par ailleurs des états où la température de la matière peut dépasser plusieurs millions de degrés. Lorsque cette température est de l'ordre de 100 millions de degrés, l'état de plasma est sur le chemin de la fusion nucléaire. En effet, l'énergie cinétique des ions est suffisante pour que les noyaux interagissent fortement durant les collisions et induisent des réactions nucléaires, de fission ou de fusion. Si les gaz du plasma sont des atomes légers, il peut résulter de ces réactions que les noyaux produits par la fusion développent une grande énergie cinétique : ceux-ci peuvent alors échauffer le plasma, renforcer les réactions de fusion, et ainsi de suite. La réaction est alors divergente et peut produire une explosion : c'est le principe de la bombe H (à fusion d'hydrogène). Si cette réaction est contrôlée, la fusion nucléaire peut devenir une source d'énergie exploitable à grande échelle. Pour contrôler la production d'énergie, il faut connaître le comportement des plasmas à haute température et à forte densité. L'exploration de cet état de la matière depuis plus d’un demi-siècle a révélé une grande variété d'instabilités dans les plasmas à mesure que leur température augmente.
Il faut signaler l'étude récente des microplasmas constitués de quelques centaines à quelques milliers d'ions confinés par un champ électromagnétique. La température de tels plasmas peut être abaissée au voisinage du zéro absolu. Ces plasmas se comportent comme des solides ou comme des liquides, alors que la distance entre les ions est de plusieurs dizaines de microns, soit 100 000 fois plus que dans les solides ou liquides ordinaires. À la différence des plasmas, les microplasmas n'ont pour l'instant aucune autre application que l'étude de la matière.
Les états ordonnés à grande distance
Un solide est le plus souvent cristallisé, c'est-à-dire que ses atomes sont parfaitement rangés sur de grandes distances. Il n'y a pas de frontière nette entre ordre dit à courte distance et ordre dit à grande distance : l'un s'arrête à quelques distances atomiques, tandis que l'autre peut se propager sur des millions de distances atomiques. Selon la thermodynamique, le désordre tend à augmenter, et il semble étonnant que la matière s'ordonne spontanément dans certains cas. En fait, l'ordre, qui permet de diminuer l'énergie potentielle de la matière, s'installe à basse température, là où les bénéfices thermodynamiques de l'augmentation de l'entropie sont plus faibles. Les innombrables situations physiques où la matière s'ordonne sont définies par la géométrie de l'espace occupé par la matière et par le nombre de degrés de liberté de la quantité physique qui s'ordonne. Il est ainsi possible d'appliquer la même description, dite universelle, à des situations physiques aussi différentes que les aimants, les mélanges liquide-vapeur, les supraconducteurs ou les étoiles à neutrons.
Le magnétisme, un modèle pour la matière organisée
Les aimants, ou matériaux ferromagnétiques, perdent leur aimantation lorsqu'ils sont portés à une température supérieure à la température de Curie. Cette propriété, connue depuis la Renaissance, a été étudiée en détail par Pierre Curie dans sa thèse, en 1895. Dans la première moitié du xxe s., des physiciens comme Paul Langevin, Heike Kamerlingh Onnes, Pierre Weiss, Paul Ehrenfest, Louis Néel, Ernest Ising, Lars Onsager ou encore Lev Landau ont décrit les propriétés magnétiques de la matière afin de les relier à sa structure microscopique. Il s'agissait de décrire la façon dont l'aimantation varie en fonction de la température et du champ magnétique extérieur. L'étude de ces situations a débouché sur une description beaucoup plus générale des états ordonnés de la matière.
L'ordre spatial d'un ensemble d'objets microscopiques en interaction, selon Ernest Ising
Ernest Ising propose, en 1920, un modèle simple pour décrire les mécanismes microscopiques de l'aimantation d'un solide. Selon ce modèle, l'aimantation du solide est la somme vectorielle des aimantations locales dues aux spins des électrons. Les atomes constituant le solide sont situés aux nœuds d'un réseau cristallin de dimension d : sur une ligne d = 1, dans un plan d = 2, dans l'espace d = 3. Sur chacun des sites du réseau cristallin se trouve un spin qui se comporte comme un petit aimant, ou moment magnétique. Le calcul de l'aimantation est effectué dans le cadre de deux hypothèses.
Selon la première, les moments magnétiques sont tous identiques en module et s'orientent dans des directions cristallines privilégiées. Ising suppose que les moments magnétiques sont tous parallèles à une direction et que seul leur signe les différencie d'un site à l'autre, mais on peut aussi étudier les situations où les moments magnétiques ont des composantes dans deux ou trois directions. L'aimantation ou, plus généralement, une grandeur physique nommée paramètre d'ordre, qui permet de mesurer l'ordre, présente un nombre n de composantes (n = 1, 2 ou 3).
Selon la seconde hypothèse par le calcul de l'aimantation, deux moments magnétiques Si et Sj situés sur des sites voisins présentent une énergie d'interaction proportionnelle à leur produit Si . Sj. Il faut ensuite appliquer les principes de la thermodynamique pour calculer l'état d'équilibre d'un tel système en fonction de la température et du champ magnétique. On s'attend à ce que le diagramme de phase magnétique de ce système présente des propriétés universelles dépendant essentiellement des valeurs de d et de n. On peut ainsi associer à chaque système physique une « classe d'universalité » (d, n).
L’évolution du modèle d’Ising
Le modèle d’Ising, bien qu'il corresponde à une très grande simplification de la situation physique réelle, se révèle ardu à résoudre ; des solutions rigoureuses ne sont obtenues que dans des cas très simples. C'est ainsi que Lev Landau établit qu'il ne peut apparaître un ordre à grande distance sur un réseau à une seule dimension (d = 1). Lars Onsager calcule en 1944 l'aimantation du modèle d'Ising dans un plan (d = 2 et n = 1) au moyen d'une méthode mathématique complexe ; mais une approche générale n'est proposée qu'en 1972, par Kenneth Wilson, qui obtient le prix Nobel de physique en 1982 pour son travail sur la méthode dite du « groupe de renormalisation ». Il montre que le comportement de l'ordre est le même dans des systèmes aussi différents que les matériaux magnétiques, les mélanges liquide-gaz ou les cristaux liquides. C'est une confirmation remarquable de la justesse de l'approche proposée par Ising : les objets microscopiques peuvent être décrits de façon rudimentaire, car c'est la géométrie du système qui détermine seule les propriétés essentielles du diagramme de phase.
L'ordre cristallin
La plupart des corps purs adoptent un état cristallin à basse température. Les atomes sont disposés dans le cristal en un motif qui est répété périodiquement ; cette disposition parfaitement régulière détermine des propriétés électroniques, optiques et mécaniques bien précises. En raison de la périodicité des cristaux, il est possible de prévoir ces propriétés grâce aux outils théoriques de la physique des solides, mis en œuvre dès les années 1930. De nombreuses applications en électronique sont issues de ces travaux. Un domaine particulièrement notable est celui des semi-conducteurs : une page de notre civilisation est tournée avec la publication du principe du transistor à pointes par John Bardeen et Walter H. Brattain en 1948, qui reçoivent avec William B. Shockley le prix Nobel de physique en 1956 pour la réalisation, en 1951, du premier transistor à jonctions.
Les molécules peuvent également former des cristaux moléculaires en obéissant à des règles de compacité maximale. Cette possibilité de cristalliser permet de connaître la structure des molécules biologiques : c'est, par exemple, en étudiant aux rayons X des cristaux constitués de molécules d'ADN que James D. Watson et Francis C. Crick réussissent en 1953 à déterminer la structure en double hélice de ces longues chaînes qui portent le code génétique des êtres vivants.
Les cristaux liquides
Les cristaux liquides combinent certaines propriétés des liquides et certaines propriétés des solides cristallins : ce sont des liquides constitués de molécules organiques de forme particulière et qui peuvent adopter une orientation bien précise (les mousses de savon et certaines membranes cellulaires sont des cristaux liquides). L'orientation des molécules n'est pas aussi parfaite que dans un solide cristallin, mais elle suffit pour conférer au liquide des propriétés optiques utilisables pour les affichages.
Il existe une grande variété de familles de cristaux liquides. La famille des nématiques, constitués de molécules allongées en forme de bâtonnets, est généralement utilisée pour les écrans. Le principe d'affichage repose sur la possibilité de commander par une tension électrique le passage de l'état orienté polarisant la lumière à l'état désorganisé de liquide ordinaire non polarisant. Le prix Nobel a été attribué en 1991 au physicien Pierre-Gilles de Gennes pour ses travaux sur les cristaux liquides.
Une exception : supraconductivité et superfluidité
Une magnifique exception dans cette présentation des états ordonnés est constituée par les états superfluides : la supraconductivité et la superfluidité. Il s'agit là d'une des rares manifestations d'un effet quantique à l'échelle macroscopique.
L'état supraconducteur
Les propriétés des supraconducteurs sont spectaculaires : disparition totale de la résistance au passage du courant électrique, accompagnée par une expulsion du flux magnétique, et ce au-dessous d'une température critique qui dépend du matériau. Cette propriété n'est pas exceptionnelle : depuis la découverte en 1911 de la supraconductivité du mercure par Kamerlingh Onnes et Gilles Holst, des centaines de matériaux supraconducteurs ont été synthétisés. Mais elle heurte l'intuition des physiciens, car elle semble contraire au principe d'impossibilité du mouvement perpétuel : un courant installé dans un anneau supraconducteur peut s'y maintenir pendant des milliards d'années. Aucune description du mécanisme microscopique de la supraconductivité ne fut proposée avant qu'en 1956 John Bardeen, Leon N. Cooper et John Robert Schrieffer n'élaborent enfin une théorie de la supraconductivité (nommée théorie BCS), rapidement corroborée et adoptée par la communauté des physiciens.
Selon cette théorie, certains électrons forment des paires, les paires de Cooper, sous l'effet d'une force d'attraction, laquelle correspond dans le formalisme quantique à l'émission et à l'absorption par les électrons de vibrations des ions du réseau cristallin. Les paires d'électrons, contrairement aux électrons isolés, ont la faculté de participer collectivement à une onde quantique qui peut s'étendre sur des distances macroscopiques. Cette onde, qui peut transporter un courant électrique sans qu'il rencontre de résistance, est assez robuste ; elle résiste ainsi à la chaleur, tant que la température reste inférieure à la valeur critique ; elle résiste aussi au champ magnétique et aux défauts cristallins : des matériaux amorphes ou liquides peuvent être supraconducteurs.
La théorie BCS a entraîné de nombreux progrès théoriques et expérimentaux, mais l'état supraconducteur n'était observé qu'à très basse température. Dans les années 1970, le matériau supraconducteur présentant la température critique la plus haute (23 K) était le composé Nb3Ge. L'opinion générale des physiciens était alors que, pour des raisons fondamentales, la température critique de l'état supraconducteur ne pouvait probablement pas dépasser 30 K. En 1986, Georg Bednorz et Alexander Müller atteignent précisément cette température avec le composé LaBaCuO ; un an plus tard est synthétisé YBa2Cu3O7, qui atteint 92 K ; et, en 1988, Tl2Ba2Cu3O10, un matériau de la même famille des cuprates, avec une température critique de 125 K. Actuellement, il semble que la substitution du mercure dans ce composé permettrait d'atteindre 135 K, et que des cuprates supraconducteurs fabriqués couche atomique par couche atomique pourraient atteindre – et peut-être dépasser – une température critique de 250 K.
La superfluidité
L'hélium est le seul fluide qui ne se solidifie pas à basse température. L'hélium liquide présente alors la propriété étonnante de pouvoir s'écouler sans viscosité, donc sans le moindre frottement. La superfluidité, comme la supraconductivité, semble permettre un mouvement perpétuel « interdit » par la physique. Les deux phénomènes physiques sont décrits par le même mécanisme, qui s'applique cette fois aux noyaux d'hélium et non plus aux électrons. Les analogies sont ainsi nombreuses entre supraconducteurs et superfluides.
Les défauts
Les propriétés de la matière ordonnée sont souvent déterminées par les défauts de l'ordre, dont la grande variété interdit une présentation complète de leurs effets. Les trois cas suivants montrent les effets des impuretés dans les semi-conducteurs, des lignes de dislocation dans les solides et des parois dans les matériaux magnétiques. Nous avons déjà mentionné l'effet d'une très faible concentration d'impuretés (un atome étranger pour 100 millions d'atomes) sur la conductivité d'un semi-conducteur. Un atome étranger est un défaut ponctuel, mais on peut observer également des défauts sous forme de lignes ou de parois. Une ligne de dislocation est réalisée par l'interruption brutale d'un plan atomique dans un cristal ; grâce à la présence des dislocations, les cristaux de métal sont étonnamment malléables tant qu'ils n'ont pas été fortement déformés ; au contraire, après des déformations importantes, les dislocations sont enchevêtrées et ne peuvent plus se déplacer : on dit que le matériau est écroui. De même, l'aimantation macroscopique d'un métal comme le fer peut varier très facilement par le mouvement de parois qui séparent des domaines d'aimantations opposées ; une façon d'obtenir des aimants puissants et stables est d'agréger de petits grains magnétiques ne contenant qu'un seul domaine : ces matériaux sont les ferrites, couramment utilisées pour les fermetures de portes.
Cependant, les états de la matière étendue, homogène et en équilibre thermodynamique n'ont pas la diversité des états de la matière hors de ces conditions. La matière sous la forme d'objets de petite taille présente en effet des états différents de ceux de la matière étendue : par exemple, les quasi-cristaux à symétrie pentagonale ou bien les petits grains qui sont constitués d'un seul domaine magnétique. La matière peut aussi se présenter sous la forme de minces films, comme les bulles de savon, ou de fibres aux propriétés physiques très différentes de celles qu'elle possède lorsqu'elle se présente comme un volume.
La matière hétérogène
Une infinie variété d'états naturels et artificiels
Les combinaisons de ces formes (bulle, graine, fibre, lamelle…) dans des mélanges désordonnés ou bien des structures ordonnées conduisent à une infinie variété d'états de la matière hétérogène. L'hétérogénéité peut être liée à l'histoire du matériau (roches poreuses, boues, ciments, matériaux composites…) ou à un état d'équilibre (microémulsions, supraconducteurs contenant des fluxons magnétiques…). La structure géométrique des systèmes hétérogènes est aussi importante que la structure microscopique de l'ordre dans la matière homogène. Les systèmes granulaires présentent des comportements complexes particulièrement utiles à décrire pour prévoir le comportement des sols, éventuellement des avalanches. La matière fibrée, feuilletée, poreuse, les suspensions et les gels dans les liquides… illustrent des états et des comportements qui montrent l'imagination sans mesure de la nature, ou celle des hommes lorsque ces matériaux sont artificiels.
L'état vivant : structuration spontanée de systèmes ouverts ?
La matière se trouve souvent dans un état déterminé par son histoire ou par des conditions thermodynamiques hors de l'équilibre. La dynamique des changements d'état et les mécanismes de la croissance de l'ordre cristallin conduisent à des formations caractéristiques telles que des dendrites, des précipités, des agrégats de forme fractale, etc. Une autre caractéristique des états où la matière n'est pas au point d'équilibre est qu'elle s'organise et se structure spontanément. Dans les systèmes qui consomment de l'énergie (systèmes ouverts), le deuxième principe de la thermodynamique se traduit en effet par une tendance à réduire au minimum la production de désordre (entropie) par unité de temps, comme cela a été démontré de façon générale par Ilya Prigogine. Ce mécanisme est, entre autres, à l'origine de certaines formations nuageuses que l'on peut parfois observer (rouleaux régulièrement disposés parallèlement les uns aux autres). Il résout également le paradoxe – apparent – de la possibilité que présentent les systèmes vivants d'augmenter la complexité de leur organisation au cours du temps. Le paradoxe n'en est en fait pas un : les systèmes vivants ne sont pas contraints d'augmenter leur entropie, car ils ne sont pas isolés (si on isole un système vivant, il est bien connu qu'il finit par se dégrader irréversiblement). Les organismes vivants sont des systèmes ouverts, qui consomment de l'énergie en permanence. S'ils peuvent ainsi se structurer spontanément, d'après les résultats obtenus par Ilya Prigogine, il est difficile de savoir si ce mécanisme suffit à rendre compte de l'apparition de la vie sur notre planète, comme le suggèrent certains.
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG |
|
|
|
|
|
VIDEO canal U LIEN
CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG
Les Casseurs d'atomes, plus communément appelés Accélérateurs, sont les outils de tous les jours de nombreux physiciens des particules qui sondent la matière infiniment petite. Il y a de ça un peu plus d'un siècle, en 1894, Albert Michelson - qui étudia le comportement de la lumière - n'aurait jamais imaginé se retrouver devant un monde incroyablement plus complexe qu'il l'aurait cru lorsqu'il déclara que tout ce qu'il restait à faire en physique était de déterminer jusqu'à la sixième décimale les valeurs connues en ce temps là. Il ne se doutait pas que la structure entière de la physique serait complètement révolutionnée dans les 20 années qui allaient suivre. Les premiers accélérateurs sont apparus au début du 20e siècle et ce qui fut dévoilé au fil des années a permis de construire un modèle théorique cohérent, le Modèle Standard (MS). Les particules prédites par ce modèle furent presque toutes observées, les prédictions sur leur comportement furent testées, mais effectivement le plus important manquait et manque toujours. Le boson de Higgs, auquel est associé le champs de Higgs qui permet à toutes les particules d'acquérir une masse, reste encore aujourd'hui inobservé. Les expériences du futur nous permettront de vérifier si cette particule existe vraiment, et si d'autres modèles théoriques au-delà du MS sont viables i.e. la Super Symétrie, l'existence de dimensions supplémentaires. Il faut toutefois garder les pieds sur terre, ou peut-être pas, car la physique des particules aux accélérateurs, résumé sur l'échelle universelle du temps depuis le Big Bang jusqu' aujourd'hui, ne correspond qu'à un tout petit pas. Le terrain à défricher reste encore énorme, et les Casseurs d'atomes joueront un rôle clef dans la compréhension de cet Univers de l'infiniment petit. Je tenterai donc, dans cette présentation, de faire un survol historique de la théorie, des accélérateurs, des découvertes et de parler du futur de la physique aux accélérateurs.
Texte de la 529e conférence de l’Université de tous les savoirs donnée le 16 juin 2004
Les casseurs d’atomes Helenka Przysiezniak
Plus communément appelés accélérateurs de particules, les « casseurs d’atomes » permettent de sonder l’infiniment petit avec des particules extrêmement énergétiques. La relation de Broglie
E=h/λ
relie l’énergie E à la longueur d’onde λ d’une particule (reliée à sa taille). Plus l’énergie des
particules incidentes est grande, plus les distances sondées sont petites.
Dans la figure 1, l’ordonnée représente l’échelle de temps en secondes allant de 10-43 seconde après le Big Bang à 1017 secondes (1010 années), l’âge de notre Univers. L’abscisse représente la température : de 0 à 1032 Kelvin (0o Celsius = 273 Kelvin).
Figure 1
Référence: From Quarks to the Cosmos de Lederman et Schramm.
L’Univers aujourd’hui est très froid (~10 Kelvin), alors qu’au moment du Big Bang, sa température est de 1032 Kelvin, et il est infiniment petit (il mesure 10-33cm i.e. beaucoup plus petit qu’un noyau d’atome 10-13 cm) et lourd. La densité d’énergie atteinte dans les accélérateurs de particules aujourd’hui est semblable à celle dans l’Univers environ 10-13 secondes après le Big Bang (T~1016 Kelvin). Comment et pourquoi en sommes nous arrivés à construire de telles machines ?
1
Contexte historique
Au 19ème siècle, James Maxwell (1831-1879) unifie deux interactions fondamentales, l’électricité et le magnétisme, dans sa théorie de l’électromagnétisme. Les deux ne sont que des représentations différentes d’une seule et même interaction. Une conséquence de ses équations est que les ondes doivent de propager à 3x108 (300 000 000) m/s, ce qui est exactement la vitesse de la lumière.
En 1894 Albert Michelson (prix Nobel de physique 1907 pour ses travaux sur la lumière) déclare, en parlant de la physique, qu’il ne reste plus qu’à mesurer tout ce que l’on connaît déjà jusqu’à la sixième décimale. En fait, la structure entière de la physique sera complètement révolutionnée dans les 20 années qui suivent.
Un premier bouleversement survient en 1896, quand Henri Becquerel (Nobel 1903) découvre accidentellement la radioactivité. Il enveloppe de papier noir des plaques photographiques et les placent dans un tiroir avec des sels d’uranium. Quand il les développe, elles sont devenues toutes noires ! Il pense que l’uranium a émis un certain type de radiation. On comprend que cette nouvelle radioactivité est l’émission spontanée de trois types de radiations : les rayons gamma γ (photons), les particules alpha α chargées (noyau d’atome d’hélium), et les particules beta β (électrons).
Ernest Rutherford (1871-1937 ; Nobel 1908) découvre en 1888 que les particules alpha sont des atomes d’hélium sans leur électron. Les particules alpha sont éjectées des matériaux radioactifs à grande vitesse : 10 000 km/s. En 1910, il reconnaît que ces particules peuvent être utilisées pour sonder les atomes.
Dans ce qui devient le prototype de l’expérience de diffusion, Rutherford vise un faisceau de particules alpha sur une plaque très fine d’or (figure 2). Celle-ci est entourée d’écrans recouverts d’une fine couche de sulfate de zinc (ZnS). En traversant cette fine couche, la particule alpha perturbe les molécules de ZnS, et celles-ci émettent des photons de lumière. L’éclat est à peine visible à l’œil nu. L’expérience doit être répétée plusieurs fois pour se convaincre de la validité du résultat qui est saisissant : la plupart des particules α passent à travers l’or en subissant de petites déviations par rapport à leur direction initiale, mais quelques unes rebondissent vers l’arrière. La particule α rapide et massive doit rencontrer quelque chose d’encore plus massif. De simples calculs montrent qu’il doit y avoir un champ électrique énorme à l’intérieur de l’atome d’or. Un champ aussi puissant ne peut exister que si la charge positive est concentrée dans un
volume extrêmement petit. Rutherford évalue que la charge positive occupe moins de 10-14 du volume de l’atome. Il découvre ainsi le noyau atomique !
figure 2
Expérience de diffusion sur l’or de Rutherford. Référence: From Quarks to the Cosmos de Lederman et Schramm.
2
En 1911, quand Niels Bohr (1885-1962 ; Nobel 1922) arrive au laboratoire de Rutherford, l’atome est considéré comme étant constitué d’un cœur minuscule de charge positive exactement égale à la charge négative des électrons gravitant autour. Pourtant, on ne comprend pas comment les constituants de l’atome tiennent ensemble et pourquoi l’atome est un objet stable. L’électron ne peut rester immobile, sinon il plongerait dans le noyau ; pourtant s’il gravite autour du noyau comme la terre autour du soleil, selon les équations de l’électromagnétisme de Maxwell il émettrait de la radiation synchrotron perdant son énergie, et plongerait en spirale dans le noyau. Existe-il d’autres lois dans la nature? Niels Bohr propose une solution révolutionnaire: seules certaines orbites sont permises aux électrons d’un atome et leur énergie est quantifiée. La théorie quantique est née, aussi bouleversante soit-elle !Une autre théorie révolutionnaire est conçue par Albert Einstein (1879-1955 ; Nobel 1921). Selon lui, notre expérience de l’espace et du temps dépend de notre propre état de mouvement, d’où la relativité de toute observation. La seule exception concerne la vitesse de la lumière (=c), qui est constante en toutes circonstances. Einstein reconnaît d’ailleurs la constance de la vitesse de la lumière comme un fondement de sa théorie. Il étend ses idées à la force gravitationnelle, construisant sa fameuse théorie de la relativité générale.
Les découvertes de la radioactivité et du noyau atomique, ainsi que les révolutions théoriques de la mécanique quantique et de la relativité générale, redonnent vie à la physique et notamment à la physique des particules élémentaires.
Les particules élémentaires
Le terme particule élémentaire désigne une particule indivisible, fondamentale et constituante de la matière environnante. En cette fin du 19ème, début du 20ème siècle, on commence à observer de nouveaux phénomènes qui indiquent que nous n’avons pas encore tout compris. Plusieurs découvertes vont permettre par la suite de poser les bases du Modèle Standard des particules élémentaires tel qu’il est connu aujourd’hui.
Les rayons cosmiques
En août 1912, Victor Hess (1883-1963) envoie dans l’atmosphère un ballon rempli d’hydrogène équipé d’un compteur à ionisation. Cet appareil mesure l’intensité de l’ionisation qui résulte quand des particules énergétiques séparent les atomes normalement neutres d’un gaz en électrons libres et un résidu chargé. Les charges sont récupérées et la quantité de charges est une mesure d’intensité de l’ionisation. Hess observe d’abord un certain taux d’ionisation sur terre, puis plus le ballon s’élève, plus le taux augmente. Il effectue l’expérience de jour comme de nuit, et n’observe aucune différence entre les deux mesures. Il a donc la preuve que le soleil n’en est pas la source. Comme le taux d’ionisation augmente au fur et à mesure que le ballon s’élève, il sait aussi que cela ne peut provenir de la radioactivité naturelle de la terre. Hess argumente que les particules viennent de l’espace, mais 15 années s’écoulent avant que leur origine extra-terrestre ne soit acceptée : Hess a découvert les rayons cosmiques.
UnitésPour décrire ces nouveaux rayonnements et particules microscopiques, on utilise des unités adaptées. L‘énergie et la masse sont reliées par la relation E=mc2 où m = m0/[1-(v2/c2)]
1/2. L’unité utilisée pour l’énergie ou la masse d’une particule est l’électron-Volt, qui équivaut à l’énergie acquise par un électron lorsqu’il traverse la brèche entre deux électrodes connectées à une pile d’un Volt. En comparaison, un joule, l’énergie potentielle d’une masse de 1kg élevée à
une hauteur de 1m, équivaut à 6 X 1018 eV, et un kilowatt-heure, ce par quoi notre facture d’électricité est calculée, équivaut à 3,600,000 joules !
Aux accélérateurs, les particules peuvent atteindre des énergies de l’ordre du MeV (1 Méga-
électron-Volt = 106eV), du GeV (= 109eV) et même du TeV (= 1012eV). Toutefois, les particules 3
les plus énergétiques que l’on connaisse sont les rayons cosmiques, dont l’énergie peut atteindre
1020eV, c’est à dire l’énergie d’une balle de tennis au service, ou encore 100 millions de fois l’énergie des particules dans le plus grand des accélérateurs.
La découverte du neutrino
James Chadwick (1891-1974) est l’étudiant le plus productif de Rutherford. Son premier travail significatif concerne l’étude de l’émission des particules β (électrons) par des noyaux radioactifs.
Il veut savoir si les particules β ont toutes la même énergie ou si leur énergie a une certaine distribution. Chadwick utilise un type de compteur Geiger pour mesurer l’énergie et l’impulsion d’électrons émergeant du radium. Il voit que les électrons ont un spectre d’énergie continu, ce qui semble violer la loi de la conservation de l’énergie pour une désintégration en deux particules. Une particule invisible est elle émise? En 1929, l’expérience a déjà été répétée plusieurs fois et les résultats sont très gênants. Niels Bohr suggère que la loi de la conservation de l’énergie ne s’applique peut être pas aux noyaux !Wolfgang Ernst Pauli (1900-1958) est un brillant théoricien suisse qui fait sa réputation à l’âge de 19 ans lorsqu’il écrit une revue de la théorie de la relativité générale. Il est aussi l’auteur, à 25 ans, du fameux principe d’exclusion de Pauli qui explique la structure en orbites des électrons dans l’atome et le tableau périodique. Pauli ne peut accepter l’idée de Bohr de la non-conservation de l’énergie, et il propose en 1930 l’existence d’une nouvelle particule qui s’échappe, ne laissant aucune trace et ne déposant aucune énergie dans les détecteurs. Cette particule doit être neutre, très pénétrante, et de très petite masse. Pauli prédit ainsi le neutrino, comme Enrico Fermi devait la surnommer plus tard. Le neutrino n’est observé directement qu’en 1959. Néanmoins, cette évidence indirecte, déduite à partir des lois de conservation, mène à l’acceptation générale de l’idée du neutrino.
La découverte du neutron
Durant la période de la course effrénée mondiale pour comprendre la radioactivité, plusieurs substances radioactives sont découvertes et utilisées comme des sources de radiation. En 1928 en Allemagne, des particules α issues du polonium sont dirigées sur du béryllium. Une radiation pénétrante sans charge électrique est observée. Cette radiation est aussi observée à Paris. Tout ceci attire l’attention de Rutherford et de Chadwick. Ce dernier utilise un mélange de polonium et de béryllium, puis parvient à mesurer la masse de la nouvelle radiation, à peu près égale à la masse du proton. Il découvre ainsi le neutron.
La force forteCette dernière découverte permet de clarifier la structure du noyau atomique, qu’on conçoit rapidement comme composé de neutrons et de protons. La force qui lie les neutrons et protons entre eux doit être très forte et de très courte portée, sinon la force électrique poussant les charges positives hors du noyau feraient exploser le noyau. Graduellement, suite à plusieurs expériences, on parvient à décrire quantitativement cette nouvelle force qu’on appelle la force forte.
Le positron et l’antimatière
En 1927, un théoricien de Cambridge Paul Dirac tente de marier la relativité restreinte à la mécanique quantique. Il étudie l’électron sujet aux champs électromagnétiques. Avant Dirac, ces deux théories sont considérées comme des révolutions séparées. La mécanique quantique a été appliquée à des électrons circulant lentement dans l’atome. La relativité restreinte s’applique au contraire à des particules circulant à la vitesse de la lumière. Personne n’a encore réussi à rendre les équations du mouvement de l’électron en accord avec la relativité. Les efforts de Dirac mènent à une nouvelle équation gouvernant le comportement de l’électron en présence de champs. Une fois résolue, elle donne quelques prédictions saisissantes : l’électron a un spin (moment angulaire quantifié ; mesure de l’activité de rotation d’un objet) de 1⁄2 . L’autre
4
prédiction est complètement inattendue: une particule de charge positive doit exister, avec la même masse et le même spin que l’électron. Dirac prédit ainsi l’existence de l’antimatière. Il faut attendre 1933 pour que Carl Anderson découvre le positron expérimentalement.
La force faible
Enrico Fermi (1901-1954) est considéré comme un des génies du siècle. Il contribue autant à la physique expérimentale qu’à la physique théorique. Il donne une interprétation du principe d’exclusion de Pauli en termes de la nature statistique des électrons. Les particules de spin 1⁄2 sont surnommées fermions et se comportent selon la statistique de Fermi. Les particules de spin entier (photons de spin 1 ; particules α de spin 0), que l’on surnomme bosons, obéissent à un ensemble de règles complètement différentes : la statistique de Bose Einstein.
En 1931, Pauli suggère que la désintégration β (i.e. n → p+ + β) soit associée à l’émission d’électrons et de neutrinos (i.e. n → p+ + β → p+ + e- + ν). En mécanique quantique, les champs des forces classiques sont remplacés par des particules qui transportent l’influence des champs d’un point à l’autre, dans l’espace et le temps. Dans le cas du champ électromagnétique, le transmetteur est le photon, le quantum d’énergie de la lumière (Einstein). La force entre deux particules chargées survient à cause de l’échange de photons. En 1933, Fermi adopte cette idée pour la désintégration β. Il est le premier à formuler clairement l’existence d’une nouvelle force fondamentale. Certains appellent la nouvelle interaction de Fermi la force faible.
En 1933, Fermi décrit correctement les distributions en énergie des électrons émergeant des désintégrations β, mais prédit aussi les temps de vie et autres caractéristiques de noyaux radioactifs. L’interaction de Fermi est la composante clef du Modèle Standard des particules des années 1980.
Lemuonμetlepion π
En 1935, Hideki Yukawa prédit l’existence d’une particule ayant 200 fois la masse de l’électron qui expliquerait à la fois la force forte entre les protons et neutrons et la force faible induisant les désintégrations radioactives. Il pense que cette nouvelle particule serait le transmetteur de la force forte. Quand en 1937, Carl Anderson découvre le muon en détectant des rayons cosmiques, beaucoup pensent que c’est la particule prédite par Yukawa. Bruno Rossi en mesure le temps de
vie, 2 X 10-6s, ce qui est trop long pour être une particule de Yukawa forte, dont le temps de vie
doit être de l’ordre de 10-8s. De plus, une particule forte interagit fortement avec la matière qu’elle traverse, alors que le muon ne laisse presque aucune trace.
Le mystère de la particule de Yukawa est résolu avec la découverte du pion en 1947. Il a toutes les bonnes propriétés. Il est découvert accidentellement en détectant des rayons cosmiques avec des émulsions photographiques. Cecil Powell et Giuseppe Occhialini. apportent au pic du Midi dans les Pyrénées de toutes nouvelles émulsions fabriquées par Illford à leur demande. Le taux des rayons cosmiques est dix fois plus élevé à 3000m qu’au niveau de la mer. Les plaques révèlent un foisonnement d’activité jamais vue auparavant. Une particule d’une masse
intermédiaire de 140 MeV et d’un temps de vie fort de 10-8s est observée. Elle se désintègre en un muon et un neutrino. On l’appelle le pion.
En bref
Les découvertes et théories issues de cette période changent radicalement le paysage de la physique des particules élémentaires. Les interactions fondamentales se résument à quatre forces : gravitationnelle, électromagnétique, nucléaire faible et nucléaire forte. Le transmetteur de la force électromagnétique est le photon γ alors que celui de la force forte est relié d’une certaine manière au pion π. Quant aux deux autres forces (faible et gravitationnelle), aucun candidat transmetteur n’a encore été identifié. Les leptons sont définis comme des particules qui
5
ne subissent pas la force forte : on connaît l’électron e-, son anti-particule le positron e+, le muon μ± et le neutrino ν. Les fermions ont un spin demi-entier, et les bosons ont un spin entier. Finalement, à chaque particule est associée son anti-particule.
Pour sonder en profondeur les propriétés de la matière, on comprend qu’il faut utiliser des particules plus énergétiques et abondantes que celles produites dans la nature. Les accélérateurs de particules vont grandement contribuer à compléter le tableau des particules élémentaires tel que nous le connaissons aujourd’hui.
Les accélérateurs de particules
En 1919 Rutherford démontre que le noyau de nitrogène se désintègre si on le bombarde de particules α. Ceci marque le début d’un tout nouveau champ, la physique nucléaire, et d’un niveau d’observation plus profond. L’habileté des particules de grande vitesse à provoquer des désintégrations nucléaires mène à des tentatives de produire des particules encore plus énergétiques que celles émergeant naturellement de substances radioactives. Un appareil pouvant générer un faisceau intense de particules très énergétiques permettrait de sonder les propriétés de la matière.
Pour accélérer une particule chargée, un simple champ électrique suffit. L’accélération a lieu quand la particule en mouvement traverse une brèche où une tension électrique est appliquée : la particule est tirée vers l’avant par une charge de signe opposé, et poussée par derrière par une charge de même signe. Chaque fois qu’elle traverse la brèche, elle est accélérée par l’élan électrique qu’elle reçoit. En partant de ce principe très simple, les tout petits accélérateurs de particules des années 1920 (d’une dizaine de cm de diamètre ; figure 3), se muent en machines gigantesques dans les années 1980 (de plusieurs km de diamètre ; figure 4), des millions de fois l’énergie des particules α de Rutherford.
figure3
Chambre accélératrice de 28cm de diamètre du cyclotron construit en 1937 au Laboratoire Lawrence Berkeley. Référence: From Quarks to the Cosmos de Lederman et Schramm.
6
figure 4
Large Electron Positron Collider (LEP) de 27km de circonférence au CERN (France-Suisse) construit de 1983 à 1989. Référence : CERN.
Un accélérateur de particules est caractérisé par l’énergie E des particules circulant à des vitesses frôlant celle de la lumière, par l’intensité I, le nombre de particules passant en un point donné par seconde, et par la luminosité L, le nombre de particules passant en un point donné par seconde et par unité de surface.Il existe aujourd’hui deux conceptions différentes d’accélérateurs: ceux à cible fixe et ceux dits collisionneurs. Dans le premier cas, les particules sont accélérées et entrent en collision avec une cible fixe. Quelques particules vont frapper les atomes de la cible et vont, s’ils sont assez énergétiques, libérer un jet de neutrons, protons, et autres particules, toutes pouvant être identifiées correctement par des détecteurs placés adéquatement. En compilant les résultats de milliers voire de millions de telles collisions, on acquiert des connaissances sur la structure du noyau.
Dans le cas des collisionneurs, deux paquets de particules circulent en sens opposé. Chaque paquet est accéléré au maximum des possibilités de la machine, puis on les fait entrer en collision frontale. Le gain en énergie par rapport à une collision sur cible fixe est important. En effet, l’énergie dans le centre de masse Ecm, (en quelque sorte l’énergie utile) pour un proton de 1000 GeV qui entre en collision avec une cible fixe est de 42 GeV, alors que l’énergie dans le centre de masse pour deux faisceaux de protons de 1000 GeV qui entrent en collision l’un avec l’autre est de 2000 GeV !
Le tube cathodique et la découverte de l’électron
Le tout premier appareil ayant accéléré des particules est le tube cathodique. Le principe est le suivant : une tension est appliquée à un gaz raréfié en scellant des fils, appelés électrodes, aux deux bouts d’un tube en verre. L’électrode connectée à la source négative d’électricité est la cathode et le terminal positif est l’anode. Des décharges électriques luminescentes spectaculaires sont observées. Elles émanent de la cathode et foudroient le verre autour de l’anode, illuminant le verre. Les rayons des cathodes sont en fait des faisceaux d’électrons accélérés, découverts par J.J.Thomson (1856-1940) en 1896.
Accélérateur électrostatique
En 1932, John D.Cockroft et Ernest T.S.Watson réussissent pour la première fois à accélérer des protons jusqu’à 770 KeV (770⋅103eV) d’énergie, dans une machine électrostatique (champ électrique accélérateur) faisant usage d’une tension fixe et stable. La machine électrostatique la plus réussie est développée par Robert Van de Graaff en 1931 et atteint 1.5 MeV d’énergie.
Le cyclotronLa percée technologique donnant naissance aux accélérateurs modernes vient grâce à Ernest O.Lawrence (1901-1958) de Berkeley en Californie, aux environs de 1930. Il reçoit d’ailleurs le prix Nobel en 1957 pour la mise en application de ce tout nouveau principe d’accélération. En 1929, il tombe sur l’article d’un Norvégien autodidacte Rolf Wideroe. Celui- ci imagine à 21 ans un accélérateur atteignant 100 MeV d’énergie. L’idée est d’utiliser plus qu’une brèche accélératrice, ou d’utiliser la même brèche plusieurs fois.
Lawrence ajoute au concept de Wideroe l’idée de confiner le mouvement des particules accélérées avec un champ magnétique. Dans un champ vertical, une particule chargée en
7
mouvement horizontal trace un cercle et le temps du circuit est indépendant de la vitesse de la particule. Plus la vitesse augmente, plus le rayon de sa trajectoire circulaire augmente, et le parcours plus long compense exactement la vitesse plus élevée. Ainsi, une tension électrique oscillante (champ alternatif), de radio-fréquence (RF ; haute fréquence) exactement égale à la fréquence de rotation de la particule, donne l’élan dans la brèche. La tension radio fréquence est simplement une tension qui alterne entre tension positive et négative de manière synchrone avec le parcours circulaire de la particule. Chaque passage de la particule dans la brèche donne un nouvel élan à la particule. La particule gagne en énergie, et le rayon augmente, mais la période de l’orbite est constante.
Le premier modèle de Lawrence construit avec son étudiant Stanley Livingston a un aimant dont les pièces circulaires mesurent quelques cm de diamètre. Des protons y sont accélérés jusqu’à 80 KeV. Son deuxième modèle atteint 1.2 MeV et les particules produisent des désintégrations nucléaires. La tension de radio-fréquence n’est que de 1000 Volts, mais les protons effectuent plus de 1000 tours en effectuant des spirales de plus en plus grandes. Il appelle ses machines des cyclotrons (figure 5).
Figure 5
Schéma de cyclotron. Référence: From Quarks to the Cosmos de Lederman et Schramm
Focalisation
Lawrence a beaucoup de chance. Une condition connue sous le nom de focalisation (focusing) est nécessaire pour empêcher les particules de se disperser loin des orbites circulaires propres. Toute petite déviation d’un tir parfait augmente graduellement au cours des centaines de milliers de tours, donnant un faisceau de particules complètement dispersés dans le cyclotron. Mais, et voici la chance de Lawrence, la convergence nécessaire est naturellement donnée par le fait que le champ magnétique est plus faible vers l’extérieur de l’orbite, proche du bord de l’aimant. Une analyse mathématique par un autre jeune étudiant, R.R.Wilson, montre que cet affaiblissement du champ magnétique, plus tard connu sous le nom de gradient du champ magnétique, fournit une force qui rétablit les particules déviées sur l’orbite idéale.
Synchrocyclotron
8
Hans Bethe (1906-) se rend compte, en ce qui concerne le cyclotron de Lawrence, que quand la masse des particules accélérées augmente, tel que décrit dans la théorie de la relativité, la période de l’orbite change et la particule n’est plus synchronisée avec la radio-fréquence dans la brèche accélératrice. Ceci pose une limite supérieure sur l’énergie à laquelle les particules peuvent être accélérées dans un cyclotron. L’obstacle soulevé par Bethe donne lieu à une nouvelle invention, le synchrocyclotron, dans lequel la radio-fréquence varie pour tenir compte de l’augmentation de la masse. Après la deuxième guerre mondiale, des synchrocyclotrons de diverses énergies sont construits, et opèrent dans le domaine de quelques centaines de MeV, le plus puissant a 600 MeV. Il faut construire des aimants de plus en plus grands, de 60 à 500 cm de diamètre, en fer et pesant plusieurs milliers de tonnes. Ces aimants deviennent de plus en plus difficile à construire, et pour atteindre des énergies plus élevées, il faut imaginer une approche différente.
Synchrotron
La solution vient avec le synchrotron. Le rayon de l’orbite est maintenu constant, et le champ magnétique est augmenté en synchronisant avec le gain en impulsion. La radio-fréquence est variée aussi puisque les orbites sont complétées de plus en plus rapidement. Puisque l’orbite est fixe, un champ magnétique est requis seulement autour de l’orbite, nécessitant un volume d’aimant beaucoup plus petit. Les synchrotrons à protons et à électrons construits dans les années 1950 atteignent le GeV (109eV) et ainsi débute l’ère moderne des grands accélérateurs !
Focalisation forte
Dans les accélérateurs circulaires, les particules tournent des dizaines de millier de fois durant le cycle d’accélération. La stabilité des orbites est un facteur crucial. Toute petite déviation de la trajectoire, par exemple due à une collision avec un atome de gaz résiduel, augmenterait en taille avec chaque tour effectué et mènerait éventuellement à la perte de la particule, à moins que des forces convergentes soient utilisées. En 1952, une découverte sur la convergence magnétique est faite au laboratoire de BNL (Brookhaven National Laboratory). Stanley Livingston, Ernest Courant, Hartland Snyder et d’autres découvrent que si le champ magnétique est ajusté pour alternativement focaliser et dé-focaliser le faisceau (principe du gradient alternatif ; se dit alternating gradient en anglais), la stabilité des orbites augmente. L’effet net est une focalisation qu’ils surnommeront la focalisation forte. Les variations autour de l’orbite circulaire idéale sont ainsi minimisées, réduisant aussi l’ouverture requise des aimants, leur taille et leur coût. La focalisation et la dé-focalisation peut être induite en façonnant des aimants dipôles, ou grâce à une nouvelle invention de BNL, les aimants quadrupoles : deux pôles nord et deux pôles sud sont arrangés de manière à générer des forces perpendiculaires à la trajectoire, poussant les particules vers ou loin du centre de l’axe de mouvement. Un PS (Proton Synchrotron) de 25 GeV est construit au CERN en 1959, puis BNL construit le leur de 30 GeV en 1960 (AGS : Alternating Gradient Synchrotron ; figure 6).
Les deux plus grands synchrotrons à protons construits sont le SPS (Super PS) de 450 GeV du CERN et le PS de 1000 GeV de Fermilab, de 6.9km et 6.3km de circonférence respectivement, datant du milieu des années 1970.
9
figure 6
Schéma de l’AGS, le synchrotron à protons à Brookhaven National Laboratory. Référence: BNL.
Accélérateur linéaire
Les accélérateurs linéaires utilisent le même principe d’accélération que les synchrotrons, c’est à dire un champ électrique alternatif de haute fréquence (RF). Celui-ci est établi dans l’axe d’un long tube rectiligne. Des sources puissantes de haute fréquence n’apparaissent qu’après la Seconde Guerre mondiale. Dès le lendemain de la guerre, un accélérateur à protons de 32 MeV entre en service aux États Unis. L’accélérateur à protons de Los Alamos au Nouveau Mexique atteint 800 MeV d’énergie. Le plus grand accélérateur linéaire à électrons est construit à l’Université de Stanford en Californie, mesure 3km de long et atteint 30 GeV d’énergie!
Collisionneurs
Dans les années 1960, des anneaux de stockage sont conçus. Des paquets de particules (électrons et positrons ; protons et anti-protons) circulent autour d’un anneau magnétique en directions opposées. Les paquets se rencontrent à des endroits précis. Aux points de rencontre, deux particules entrent occasionnellement en collision, et une variété de particules sont créées: photons, pions, kaons, protons, anti-protons, etc... On appelle aussi ces anneaux de stockage des collisionneurs. La collision frontale entre deux paquets de particules permet d’atteindre des énergies dans le centre de masse plus élevées que si un seul faisceau entre en collision avec une cible fixe. Au fur et à mesure que la technique mûrit, la densité des paquets et les taux de collisions augmentent.
En bref
L’évolution des accélérateurs est spectaculaire. Tout commence avec Rutherford qui sonde l’atome d’or avec des particules α de 5 MeV (5⋅106eV). Cent années plus tard, des électrons d’énergie 10000 fois supérieure sont produits. Évidemment, les découvertes en physique des particules ponctuent, voire même motivent le développement des accélérateurs, et permettent de mettre en place le Modèle Standard des particules élémentaires.
La construction du Modèle Standard
Le tableau périodique des éléments est une liste ordonnée des atomes et ses mystérieuses régularités ne sont comprises que lorsque l’électron est découvert et la théorie quantique construite. Dans les années 80, l’organisation correspondante des particules de base est appelée le Modèle Standard des particules élémentaires.
Découverte du neutrino muonique
La première découverte majeure au synchrotron à protons de BNL, l’AGS, arrive avec l’expérience aux deux neutrinos, menée en 1961 par trois physiciens (prix Nobel 1988) Jack Steinberger, Leon Lederman et Melvin Schwartz. Ils cherchent à étudier la force faible, la seule qui affecte les neutrinos. Mais les neutrinos interagissent très peu avec la matière : un neutrino passant dans 100 millions de km d’acier a une chance sur deux d’être arrêté ou défléchi. À l’Université de Columbia (ville de New York), Schwartz suggère de créer des faisceaux de neutrinos énergétiques. Des protons de 15 GeV sont précipités sur une cible de béryllium, produisant ainsi des protons, neutrons, et pions. Ces derniers se désintègrent presque tout le temps en muon et neutrino. Toutes ces particules fuient vers l’avant dans la même direction que
10
le faisceau de protons incidents. Pour filtrer tout sauf les neutrinos, ils mettent un obstacle : une barrière d’acier d’une dizaine de mètres d’épaisseur. L’acier arrête presque toutes les particules, permettant aux neutrinos seulement de passer. Le résultat est le premier faisceau de neutrinos énergétiques ! Même si la probabilité d’interaction des neutrinos est extrêmement faible, il y en a tellement qu’ils arrivent à observer, en 8 mois de prises de données, 56 interactions dans leur détecteur de 10 tonnes.
Le neutrino de Pauli, né avec un électron, peut produire des électrons. La désintégration d’un pion en un muon et un neutrino signifie que ce neutrino peut produire des muons dans une collision. Mais ces deux neutrinos sont ils identiques? S’ils l’avaient été, l’expérience aurait produit autant d’électrons que de muons. Cependant, seuls des muons sont observés. Ainsi, le groupe de Columbia découvre un nouveau type de neutrino, ce qui aura des conséquences profondes sur la structure du Modèle Standard.
Avant l’expérience aux deux neutrinos, le seul neutrino connu est celui produit par les désintégrations β- →e- ν. Les neutrinos produits par l’expérience de Columbia sont qualifiés de muoniques. On suggère, de manière pas tout à fait sérieuse, qu’ils diffèrent de saveur : l’un est de saveur électronique, l’autre de saveur muonique. Ce concept de saveur devient finalement crucial pour l’élaboration du Modèle Standard. Dans cette généralisation, nous verrons qu’il existe 6 saveurs de quarks (i.e. composants des protons, neutrons, pions), et de manière équivalente, 6 saveurs de leptons (particules qui n’interagissent pas fortement). À chaque membre expérimentalement distinct d’une classe de particules (quarks ou leptons) est assigné une saveur. L’idée simple de saveur est reconnue dans le cas des deux saveurs de neutrinos, où la distinction est subtile.
Gell-Mann et la classification des nouvelles particules
Au début des années 1960, une centaine de nouvelles particules ont été découvertes dans les accélérateurs. La plupart sont des produits de la force forte, et on les surnomme des hadrons, du mot grec pour « fort ». En 1962, un faisceau de kaons chargés négativement (nouvelles particules de type fortes découvertes) est produit par l’AGS. Le but de l’expérience est de tester une hypothèse de Murray Gell-Mann (1929-), de CalTech (California Institute of Technology). Gell-Mann parvient à organiser tous les hadrons connus par groupe de 8 (octets) ou de 10 (décuplets) particules. Il surnomme son modèle L’Octuple Sentier en se référant au terme bouddhiste. Dans le cadre d’un de ces décuplets, neuf particules ont été découvertes et ordonnées. La symétrie de la théorie exige l’existence d’une 10ème particule, qu’on surnomme Ω- (oméga moins). Le but de l’expérience est de découvrir cette particule. En décembre 1963, l’expérience prend ses premières données, elles sont défrichées, et le comble, l’Ω- est découvert ! Cette organisation des nouvelles particules nous rappelle celle du tableau périodique. Celui-ci n’acquiert tout son sens que lorsqu’on comprend la sous-structure de l’atome : un noyau composé de protons et de neutrons entouré d’électrons. Existe-t-il donc une physique sous- jacente à cette nouvelle classification? Gell-Mann et George Zwieg (de CalTech) proposent de manière indépendante une structure fondamentale et sous-jacente : un triplet de particules qui composeraient tous les hadrons. Bien que ce triplet explique les octets et décuplets, il a des conséquences plutôt farfelues : les particules du triplet ont des charges fractionnelles de celle de l’électron, et transportent 1/3 des propriétés du neutron ou du proton. Gell-Mann surnomme ces nouvelles particules des quarks, ce qui signifie absurdité en argot allemand.
Il existerait trois saveurs de quarks : up (u), down (d), strange (s) de charges +2/3, -1/3 et –1/3 respectivement. Les baryons (i.e. neutron, proton) sont constitués de trois quarks (i.e. neutron : udd, proton : uud, Ω-=sss). Les mésons, qui ont d’abord été proposés comme des particules d’échange pour tenir les nucléons ensemble, sont constitués d’un quark et d’un anti-quark (i.e. pions π- = anti-u d, π+ = u anti-d, π0 = (u anti-u + d anti-d)/√2, kaons K- = anti-u s, K+ = u anti- s).
11
Il est important de noter que l’hypothèse de l’existence des quarks est motivée par l’existence des baryons et mésons qui s’arrangent parfaitement selon l’octuple sentier. Le fait que les trois saveurs de quarks reproduisent bien tous les baryons et mésons connus est un point très favorable à leur hypothèse, mais il manque l’évidence expérimentale.
La vérification expérimentale des quarks, une longue histoire
On imagine alors des expériences pour sonder le proton, en quelque sorte des versions modernes de l’expérience de Rutherford. En 1953, lors d’expériences de diffusion d’électrons d’environ 100 MeV sur des protons (atomes d’hydrogène), Robert Hofstadter (Nobel 1961) comprend que la charge est distribuée uniformément à l’intérieur du proton.
En 1961, l’accélérateur linéaire de Stanford (SLAC) est construit. Il mesure 3km de long, et accélère des électrons jusqu’à 20 GeV. Dans les années 1960 et 1970, on y reprend des expériences de diffusion d’électrons sur des protons, et les résultats sont époustouflants et apparemment contradictoires avec les résultats de Hofstadter. On ne comprend plus rien ! Kendall et Friedman (Nobel avec Taylor en 1990) mènent une des expériences (1968). Deux théoriciens jouent un rôle déterminant dans l’interprétation des résultats : James Bjorken (de SLAC) et Richard Feynman (de CalTech ; Nobel 1965). Ils suggèrent que le proton est composé d’objets ponctuels qui diffusent les électrons. Feynman appelle ces objets des partons (partie du proton). Pourquoi pas des quarks? Feynman est convaincu que quelque chose d’autre accompagne les quarks dans le proton.
Quarks et gluons
L’intuition de Feynman lui donne raison. De nouvelles expériences au milieu des années 1970 confirment les résultats observés à SLAC et confirment l’idée de l’existence d’autres constituants que l’on nomme les gluons, dont le rôle est de transmettre la force forte. Au bout de quelques années, il devient clair que les partons de Feynman sont effectivement les quarks et gluons.
Les quarks ont une nature ponctuelle et sont apparemment indivisibles. Un nombre infini de quarks peuvent entrer dans un volume limité, tel un trou noir. Cette nature ponctuelle est en fait essentielle pour expliquer les densités incroyablement élevées au début de l’Univers.
De plus, les quarks semblent confinés dans les protons et neutrons. La notion de confinement est inventée par des théoriciens après que les expérimentateurs aient échoué de nombreuses fois à observer des quarks de charge 1/3. Les quarks sont donc confinés en permanence dans les hadrons et il n’est pas plus possible d’isoler un quark que de séparer les pôles nord et sud d’un aimant. Le confinement nous apprend quelque chose de fondamental sur la force entre les quarks.
Charge de couleur
En 1971 à l’anneau de stockage ADONE, dans des collisions d’électrons avec des positrons, le taux de production des pions est trois fois plus élevé que prédit. Un nouveau nombre quantique est proposé, analogue à la charge électrique pour la force électromagnétique, mais dans ce cas ci relié à la force forte. La nouvelle charge doit avoir trois états, et Gell-Mann choisit la couleur pour les définir : rouge, bleu, vert. Chaque couleur de quark peut produire un pion, ce qui multiplie par un facteur trois la probabilité qu’un pion soit produit !
L’idée de la couleur est acceptée assez rapidement, puisqu’elle donne une réponse à plusieurs questions restées en suspens i.e. pourquoi les quarks ne se combinent qu’en mésons (quark et anti-quark) et baryons (trois quarks) ? En fait, ils se combinent en objets incolores, de manière à annuler la charge de couleur: soit couleur-anti-couleur, soit les trois couleurs en un même objet. La force forte entre les quarks est donc liée à la propriété de couleur, d’où l’appellation de la théorie de la Chromo Dynamique Quantique.
Révolution de Novembre 1974
12
Une véritable révolution se trame au collisionneur électron-positron SPEAR (Stanford Positron Electron Asymmetric Ring). Burton Richter joue un rôle important dans la construction de la machine entre 1970 et 1973. Les résultats obtenus à des énergies de centre de masse entre 2.5 et 4 GeV sont intrigants.
Les 9 et 10 novembre, le groupe décide de répéter des mesures pour explorer une anomalie vers 3.1 GeV (2 X 1.55 GeV). L’énergie de SPEAR peut être ajustée très précisément, et un balayage par pas de 0.001 GeV est effectué. Ce qui est observé est impressionnant. Le nombre de collisions augmente d’un facteur 100 entre 3.100 GeV et 3.105 GeV, puis chute très rapidement à 3.120 GeV. On se rend vite compte que plusieurs expériences par le passé ont raté de peu ce pic de masse lourd mais étroit, qui correspondrait à une nouvelle particule.
En mécanique quantique, un pic étroit correspond à une particule dont le temps de vie est long, alors qu’une particule massive possède en général un temps de vie court. Mais la nouvelle particule découverte, qu’on surnomme psi ψ, est massive (trois fois la masse du proton), ce qui semble incompatible avec le fait qu’elle possède un pic étroit. La seule explication plausible est que cette nouvelle particule soit constituée de nouvelle matière, attribuée à un nouveau type de quark, élégamment surnommé le quark charmé.
Une partie de l’excitation vient du fait que la découverte a lieu simultanément et indépendamment à deux endroits : à SLAC (côte ouest des États Unis) par l’équipe de Burt Richter, et à BNL (côte est des États Unis) par Sam Ting et son équipe qui étudient les paires électron-positron sortantes dans les collisions protons sur noyaux. Finalement on surnomme la particule J/ψ (J dans certains dialectes chinois se prononce ting ; les traces laissées dans le détecteur à SLAC ont la forme d’un ψ).
En fait, le quark charmé est prédit par J.D.Bjorken et Sheldon Glashow dès 1964, puis par Glashow, lliopoulos et Maiani en 1970. A ce moment là, un triplet de quarks est connu (u,d,s), mais l’expérience aux deux neutrinos a établi un schéma à quatre leptons: (e,νe) et (μ,νμ). La découverte du quark charmé établit le schéma correspondant pour les quarks : (u,d) et (c,s), et aussi la forme du Modèle Standard. Ainsi, les quarks et leptons viennent par paires : la première, et plus légère, génération constituée de (u,d) et (e,νe), puis la deuxième génération plus lourde
(c,s) et (μ,νμ). La troisième génération ne se fera pas attendre.
Le Modèle Standard à trois générationsOn observe les premiers candidats à la troisième génération peu de temps après. En 1976, à SPEAR, le cinquième lepton, le tau τ, est découvert. Puis en 1978 à Fermilab, dans un accélérateur à protons de 400 GeV, du même type que l’expérience de Ting, un cinquième quark est découvert. Trois pics rapprochés sont observés. C’est l’upsilon Υ à 10 GeV et ses états excités. Ce sont des états liés d’un quark et d’un anti- quark que l’on surnomme beauté. Le sixième quark, le top, n’est observé qu’en 1994, et le sixième lepton, le neutrino associé au τ, en 2000.
Ainsi, à la fin des années 1970, le Modèle Standard des particules à trois générations, avec ses paires de quarks et de leptons, est presque complètement dévoilé, puisque cinq (sur six) des quarks et des leptons ont été observés. Combien de générations y aura-t-il encore ? Il faut attendre les résultats du LEP (Large Electron Positron Collider) et du SLC (Stanford Linear Collider) dans les années 1990 pour avoir la réponse.
Gluons et la force forte
Feynman a vu juste en suggérant la notion de partons qui englobe les quarks et cet autre chose que sont les gluons. L’évidence directe pour les gluons vient en 1978, à l’anneau de stockage d’électrons et de positrons PETRA de 30 GeV, au laboratoire de DESY (Deutsches Elektron Synkrotron) à Hambourg.
Les interactions dues aux forces fondamentales ont lieu via des échanges de particules de spin entier qu’on surnomme les bosons. La particule d’échange de la force électromagnétique est le
13
photon (la lumière) et celle de la force forte est le gluon. Les gluons et les photons sont des bosons de spin 1 et ont une masse nulle. Les gluons diffèrent des photons par le fait qu’ils transportent la charge forte de couleur, alors que le photon a une charge électrique nulle. C’est ce qui explique que la force entre les quarks augmente au fur et à mesure qu’on les sépare : la densité de gluons, et donc de charges fortes, augmente, avec pour conséquence une augmentation de l’intensité de la force forte, ce qui provoque une augmentation de la densité de gluons ! Les gluons viennent en 8 saveurs qui diffèrent par la charge de couleur transportée : chaque gluon est caractérisé par une couleur et une anti-couleur.
L’unification électrofaible
De 1916 (fin de ses travaux sur la Relativité Générale) jusqu’à sa mort en 1955, Einstein fut obsédé par l’idée d’une théorie des champs unifiée, en vain. Il faut attendre la théorie électrofaible de Sheldon Glashow (1961), Abdus Salam (1968) et Steven Weinberg (1967), qui leur valut un prix Nobel en 1979, dans laquelle deux des quatre forces fondamentales sont unifiées : les interactions électromagnétique et nucléaire faible.
La force électromagnétique et la force nucléaire faible semblent à première vue assez dissemblables. La première a une portée infinie alors que la seconde a une portée si courte qu’elle n’agit pas en dehors du noyau atomique. Celle-ci interagit avec tous les fermions (quarks et les leptons) de spin 1⁄2. Elle peut convertir une saveur de quark en une autre, et peut donc transformer des neutrons en protons, ou vice versa. Elle est responsable des désintégrations nucléaires associées à la radioactivité (i.e. désintégration β).
Alors que les photons et les gluons (tous les deux des bosons de spin 1) sont les transmetteurs de la force électromagnétique et de la force nucléaire forte respectivement, qui sont au juste les transmetteurs de la force nucléaire faible ? La réponse vient en 1967 quand Weinberg et Salam reprennent un concept développé plus tôt par Glashow et l’appliquent aux interactions faible et électromagnétique. Les deux forces sont une seule et même interaction, qui diffèrent par le fait que le boson transmetteur de la force électromagnétique (le photon) a une masse nulle alors que celui de la force faible est massif.
La théorie d’unification électrofaible prédit l’existence de bosons transmetteurs chargés et neutre, les W± et le Z0 respectivement, ayant des masses de l’ordre de 100 fois la masse du
proton. Le photon (γ) est le transmetteur neutre associé à l’interaction électromagnétique. Quand une interaction implique un changement de charge, on dit qu’il y a un courant chargé, et quand la charge est conservée, un courant neutre. Les courants associés au boson neutre massif (Z0) tout comme les bosons W± n’ont encore jamais été observés.
Gargamelle et la découverte des courants neutres
En 1972 au CERN, un événement historique est capturé par Gargamelle, une grande chambre à bulles remplie de fréon. Elle détecte le processus suivant : νμ e- → νμ e-, qui ne peut avoir lieu que par l’intermédiaire d’un Z0 (les neutrinos n’interagissent que par la force faible) et est donc la première preuve de l’existence des courants neutres faibles.
Gargamelle est initialement conçue pour la détection des neutrinos. Une chambre à bulles contient un liquide sous pression qui révèle les traces de particules chargées comme des traînées de petites bulles quand la pression est réduite. Les neutrinos n’ont pas de charge et ne laissent pas de traces, mais le but est de les voir en rendant visible toute particule chargée mise en mouvement par l’interaction de neutrinos dans le liquide. Comme les neutrinos interagissent très rarement, la chambre doit être la plus grande possible et fonctionner avec un liquide très dense i.e. le fréon, dans lequel les neutrinos ont le plus de chance d’interagir. Gargamelle mesure
finalement 4.8m de long et 1.85m de large, constitue un volume de 12 m3, et contient 18 tonnes de fréon. Le faisceau de neutrinos provient du PS (Proton Synchrotron) du CERN.
14
Le SPS (Super Proton Synchrotron) du CERN et la découverte du W
À la fin des années 1970, le CERN lance le projet de convertir un synchrotron de 400 GeV en un anneau de stockage pouvant accélérer, stocker et faire entrer en collision des faisceaux de protons et d’anti-protons. Ce projet est motivé par Carlo Rubbia, impressionné par les ISR (Intersecting Storage Rings au CERN ; construit en 1971 ; 31 GeV par faisceau) où des protons entrent en collision avec des protons. Il est aussi stimulé par l’idée de découvrir le boson W prédit par la théorie électrofaible. Un accélérateur suffisamment puissant doit être construit. Un faisceau de protons de 400 GeV sur cible fixe ne suffit pas pour produire le W dont la masse est prédite aux environs de 100 GeV.
Les problèmes techniques sont formidables. Il faut produire des anti-protons (considérés il y a peu comme des particules exotiques !) en nombre sans précédent, les injecter dans le complexe accélérateur, les accélérer soigneusement, et tout cela en même temps que les protons. Les faisceaux ont finalement 260 GeV d’énergie, ce qui est suffisant pour produire une nouvelle particule massive de 100 GeV. Il ne faut que quatre années à Carlo Rubbia, Simon Van der Meer et leur équipe pour construire le nouvel accélérateur !
En 1983, les premiers W± et Z0 sont observés ! Les expériences UA1 et UA2 (Underground Area 1 et 2) mesurent la masse des bosons, respectivement 83 GeV et 92 GeV, en accord avec les prédictions de la théorie électrofaible. Une année plus tard, Rubbia et Van der Meer se partagent le prix Nobel.
Récapitulatif
figure 7
Au fil des découvertes effectuées aux accélérateurs de particules, le Modèle Standard se met en place. Les particules élémentaires qui le composent sont résumées dans les tableaux ci-dessus (figure 7), tout comme les quantités (masse, charge électrique) qui les définissent. Le Modèle n’est toutefois pas encore complet. Il manque même quelque chose de fondamental, qui concerne l’origine de la masse.
15
Le boson de Higgs et l’origine de la masse
Quel mécanisme, dans la théorie électrofaible, génère la masse des bosons W± et Z0 ? Pourquoi le photon n’acquiert pas de masse ? Les masses des fermions sont-elles reliées à ce mécanisme ? Pourquoi les masses des quarks sont elles si différentes les unes des autres ? Pour tenter de répondre à ces questions, on doit introduire la notion de symétrie, et de sa brisure, dans la théorie électrofaible.
|
|
|
|
|
|
|
ONDE |
|
|
|
|
|
ONDE
PLAN
* ONDE
* 1. Les différents types d’ondes
* 1.1. Les ondes mécaniques progressives
* 1.1.1. Les vagues
* 1.1.2. Les cordes
* 1.1.3. Les ondes sonores ou acoustiques
* 1.2. Les ondes mécaniques stationnaires
* 1.3. La lumière et les ondes électromagnétiques
* 1.3.1. La nature ondulatoire de la lumière
* 1.3.2. Les ondes électromagnétiques
* 1.3.3. La dualité onde-corpuscule
* 2. Caractéristiques physico-mathématiques des ondes
* 2.1. Généralités
* 2.2. Grandeurs caractéristiques
* 2.2.1. Période et fréquence
* 2.2.2. Longueur d'onde
* 2.3. Les ondes sinusoïdales
* 2.4. Aspects énergétiques
* 3. Le spectre des ondes électromagnétiques
Voir plus
onde
(latin unda)
Cet article fait partie du dossier consacré à la lumière.
Modification de l'état physique d'un milieu matériel ou immatériel, qui se propage à la suite d'une action locale avec une vitesse finie, déterminée par les caractéristiques des milieux traversés.
Les techniques de télécommunication – radio, télévision, téléphone – nous ont rendu familière la présence des ondes. Avant de donner lieu à des utilisations de cette importance, les phénomènes ondulatoires ont progressivement occupé une place de plus en plus grande en physique. Ils ont révélé leur présence dans les domaines les plus divers, au point d'apparaître comme intimement liés, d'une certaine façon, à la constitution de la nature en ses aspects fondamentaux. Si l'onde sonore s'explique en termes mécanistes par les mouvements des particules dont l'air est constitué, il n'y a rien de tel, par exemple, pour les ondes hertziennes. Leur analyse mathématique n'en revêt que plus d'importance. Avec la mécanique ondulatoire, on est même tenté de dire qu'il ne s'agit plus que de mathématiques.
1. Les différents types d’ondes
1.1. Les ondes mécaniques progressives
1.1.1. Les vagues
Un objet – une simple goutte – qui tombe sur la surface d'une eau calme y produit des ondulations. Ce train d'ondes est constitué de quelques cercles qui, issus de la source du phénomène, vont en s'agrandissant et qui finissent par s'affaiblir. Si un corps flotte immobile, les ondes, en l'atteignant, ne le déplacent pas à la surface de l'eau dans le sens de leur mouvement. Elles l'agitent verticalement, tout comme le feraient les vagues de la mer. « Onde » vient d'ailleurs de unda, qui désigne l'eau de la mer, avec les mouvements qui s'y peuvent voir. Les rides circulaires à la surface de l’eau se propageant dans deux directions sont qualifiées d’ondes mécaniques progressives à deux dimensions.
1.1.2. Les cordes
Une autre manière de produire un phénomène semblable consiste à déployer une corde, sans nécessairement attacher l'une de ses extrémités, et à secouer l'autre assez vigoureusement. Chaque secousse engendre une déformation que l'on voit se propager le long de la corde. En faisant se succéder les secousses, on obtient un train d'ondes. Ces ondes se propageant dans une seule direction sont qualifiées d’ondes mécaniques progressives à une dimension.
1.1.3. Les ondes sonores ou acoustiques
C'est un phénomène analogue qui a servi à expliquer la nature physique du son et à étudier en finesse ses propriétés. La corde de lyre que l'on pince vibre rapidement. Ses vibrations se transmettent à l'air, s'éloignant dans toutes les directions. Les ondes acoustiques se propageant dans trois directions sont qualifiées d’ondes mécaniques progressives à trois dimensions. Une oreille, placée n'importe où autour, reçoit des ondes (→ audition). Les vibrations sont communiquées par l'air au tympan. La source peut être n'importe quelle membrane susceptible de vibrer : la peau d'un tambour, mais aussi les cordes vocales.
En vibrant, la membrane pousse l'air tout proche ; les particules d'air déplacées poussent à leur tour leurs voisines et ainsi de suite. Si l'on pouvait voir un petit corps flotter dans cet air, on observerait toutefois que l'agitation très rapide qu'il subit sur place ne se fait pas comme celle d'un bouchon sur l'eau. Ce dernier oscille verticalement, tandis que les ondes s'éloignent horizontalement de leur source : de telles ondes sont dites transversales. Dans le cas de l'air, l'objet est agité dans la direction même du mouvement des ondes : celles-ci sont dites longitudinales.
1.2. Les ondes mécaniques stationnaires
Les ondes des trois genres mentionnés auparavant peuvent donner lieu à des phénomènes stationnaires. Si un caillou tombe dans l'eau d'un bassin, les ondes se réfléchissent sur le bord. De même, si l'on secoue sans cesse le bout d'une corde qui est fixée à l'autre extrémité et légèrement tendue, les ondes repartent de cette extrémité. Certains points de la corde peuvent ne pas bouger du tout, alors que tout s'agite autour d'eux, parce que le mouvement qui y est créé par les ondes allant dans un sens est constamment contrarié par celui qu'y induisent les ondes allant dans l'autre sens. Les points pour lesquels l'oscillation est maximale sont appelés les ventres ; ceux pour lesquels elle est nulle, les nœuds.
Semblablement, si deux pointes vibrent ensemble à la surface d'un liquide, les deux trains d'ondes ainsi entretenus laissent immobiles des points de cette surface formant des lignes entières, des hyperboles très précisément. C'est le phénomène des interférences, difficile à observer sans un éclairage adapté.
1.3. La lumière et les ondes électromagnétiques
1.3.1. La nature ondulatoire de la lumière
Thomas Young (1773-1829) montra que des interférences peuvent s'observer aussi en optique : une lumière monochromatique passant par deux fentes parallèles donne sur un écran une alternance de franges brillantes et de franges sombres. L'apparition de ces dernières ne s'expliquerait pas si la lumière était constituée de corpuscules en mouvement, comme Isaac Newton (1642-1727) en avait fait admettre l'idée.
Augustin Fresnel (1788-1827) montra que, au contraire, si la lumière est de nature ondulatoire, les interférences s'expliquent jusque dans leurs aspects quantitatifs. Ainsi s'installa l'idée que l'espace est rempli par un milieu imperceptible, l'éther, dont les vibrations constituent la lumière, tout comme les vibrations de l'air et d'autres milieux matériels constituent le son. La découverte du phénomène de polarisation par Étienne Malus (1775-1812) contraria rapidement l'idée qu'il s'agissait, comme dans le cas du son, d'ondes longitudinales.
Un autre phénomène bien connu, la diffraction, s'explique mieux dans une théorie ondulatoire que dans une théorie corpusculaire de la lumière. On l'obtient en faisant passer de la lumière par un trou que l'on rétrécit. Le pinceau de lumière commence par s'affiner mais, à partir d'une certaine petitesse du trou, au lieu de continuer de se rétrécir, le pinceau se disperse.
1.3.2. Les ondes électromagnétiques
Un demi-siècle plus tard, James Maxwell (1831-1879) ayant réduit l'électricité et le magnétisme à quelques formules, il apparut par le calcul que la propagation des actions électromagnétiques devait prendre la forme d'ondes. Heinrich Hertz (1857-1894) les produisit et les étudia expérimentalement. Transversales elles aussi, elles se déplacent à une vitesse qui se trouve être celle de la lumière. Ainsi s'achemina-t-on vers la conclusion que la lumière n'est elle-même qu'une onde électromagnétique, occupant une modeste place dans la gamme des cas possibles. Si l'on préfère, ces ondes constituent une lumière généralement invisible, c'est-à-dire insensible à l'œil, à l'exception d'une petite partie. L'éther que l'on cherchait à mieux connaître n'était plus le siège des seules ondes lumineuses, mais celui des ondes électromagnétiques en général. Les diverses propriétés qu'il se devait de posséder étaient si difficiles à accorder entre elles qu'il constituait une grande énigme. On a fini par renoncer à cette notion.
On accepte l'idée qu'il puisse y avoir de telles ondes sans qu'elles soient les ondulations d'un milieu. On sait seulement que ce sont des charges électriques en mouvement qui les produisent.
Pour en savoir plus, voir l'article ondes électromagnétiques [santé].
1.3.3. La dualité onde-corpuscule
Albert Einstein (1879-1955), l'année même où il proposa la théorie de la relativité restreinte (1905), donna une explication de l'effet photoélectrique. Elle consistait à revenir à la conception corpusculaire de la lumière, sans renoncer pour autant à son aspect ondulatoire. Plus généralement, l'onde électromagnétique s'est vu associer un flux de photons, association purement mathématique et qui rendait encore plus intenable l'hypothèse d'un éther. Louis de Broglie (1892-1987), en l'inversant, étendit l'idée à toutes les particules : à chacune on associe une onde. L'expérience a confirmé la justesse de cette hypothèse : il fut établi qu'un faisceau d'électrons est susceptible de donner lieu au phénomène de diffraction.
La mécanique quantique prend désormais pour objets des quantons, qui se comportent comme des corpuscules dans certains contextes expérimentaux et comme des ondes dans d'autres. La fonction d'onde de la particule, obtenue par la résolution de l'équation de Schrödinger, sert à calculer les caractéristiques de son mouvement, mais en termes de probabilité seulement. On ne peut pas annoncer qu'à tel instant la particule sera en tel point, comme on le fait en mécanique classique. On peut seulement calculer avec quelle probabilité elle se trouvera dans telle portion d'espace.
2. Caractéristiques physico-mathématiques des ondes
2.1. Généralités
Un mécanisme de production et de propagation des ondes peut être détaillé dans le cas de la surface d'un liquide ou dans celui du son, parce que l'on peut analyser le comportement d'un milieu – le liquide, l'air – en termes mécanistes. Il n'en va plus de même pour les ondes électromagnétiques, et encore moins pour celles de la mécanique ondulatoire, puisqu'il n'y a plus de milieu connu dans ces cas-ci. Une étude générale des ondes doit donc se rabattre sur la description mathématique de la propagation.
→ mécanique.
Il convient de remarquer que, lorsqu'une description mécaniste est possible, elle n'explique pas la toute première apparence. Une onde, qu'il s'agisse d'une vague ou de la déformation d'une corde, se présente spontanément comme quelque chose qui se déplace. C'est ce déplacement qui est désigné par le terme « propagation ». Il ne se présente pas comme le déplacement d'un objet (navire avançant sur l'eau ou anneau coulissant sur une corde). Le phénomène offre le spectacle de quelque chose qui se meut et ne se meut pas à la fois.
Le mécanisme de la production de la perturbation à la source, et de sa transmission par le milieu, explique qu'un corps flottant ainsi que l'eau qui l'entoure montent et descendent alternativement. Il n'explique pas complètement l'illusion que constitue le déplacement de la vague. On peut dire néanmoins que c'est le déplacement transversal de l'eau qui se décale dans la direction de propagation.
2.2. Grandeurs caractéristiques
Lorsqu'aucun milieu n'est le siège de la propagation, on peut néanmoins concevoir qu'il y ait, attachée à chaque point de l'espace, une certaine grandeur qui soit l'analogue de l'altitude de la surface de l'eau. En prenant pour niveau de référence celui de la surface liquide au repos par exemple, le phénomène de l'ondulation peut être décrit mathématiquement en donnant, pour chacun des points de la surface, son altitude en fonction du temps. Pour une onde d'une autre nature, le rôle joué précédemment par l'altitude peut l'être par la valeur d'un champ, électrique ou magnétique.
De façon plus générale, en se plaçant en un point P de l'espace, a (t) désignera la valeur, à l'instant t, de la grandeur qui varie.
2.2.1. Période et fréquence
On se place dans l'hypothèse d'une onde entretenue et périodique : en P, la grandeur oscille sans cesse et elle reprend toujours la même valeur au bout d'un même temps T, appelé la période de l'onde. Autrement dit, quel que soit l'instant t,
a (t + T) = a (t)
On appelle alors fréquence de l'onde le nombre d'oscillations complètes que P effectue pendant une unité de temps. La fréquence f (aussi notée N, ou encore ν) est reliée à la période par
f = 1 / T
Si l'on adopte la seconde comme unité de temps, la fréquence s'exprime en hertz, de symbole Hz (ou cycles par seconde).
2.2.2. Longueur d'onde
La longueur d'onde λ est la distance parcourue par l'onde pendant le temps T. Si V est la vitesse de propagation, supposée constante, on a
λ = VT
soit encore
λ = V / f
C'est ainsi que, dans un cas comme celui de la lumière, où la vitesse de propagation est connue (près de 300 000 km.s−1 dans le vide), la détermination expérimentale d'une longueur d'onde permet de trouver la fréquence correspondante.
2.3. Les ondes sinusoïdales
Une situation particulière de grande importance est celle des ondes sinusoïdales, pour lesquelles
a (t) = A (sin ω t + ϕ)
L'importance des ondes sinusoïdales tient à ce qu'elles fournissent un modèle mathématique satisfaisant pour nombre de phénomènes. C'est le cas pour les ondes électromagnétiques en particulier, où se rencontre une complication par rapport aux situations envisagées jusqu'à présent : il n'y a pas, en un point, une grandeur a qui varie sinusoïdalement, mais deux, le champ électrique et le champ magnétique, vecteurs orthogonaux entre eux ainsi qu'à la direction de propagation (le rayon lumineux).
Une autre raison de l'intérêt porté aux ondes sinusoïdales est que l'on sait, depuis les travaux mathématiques de Joseph Fourier (1768-1830), que pour toute fonction périodique, on peut envisager une décomposition sous la forme d'une somme de fonctions sinusoïdales. La connaissance de ces dernières fournit donc la clef de l'analyse d'un phénomène périodique quelconque.
Lorsque t varie, a (t) varie perpétuellement entre − A et A.
• Amplitude. La constante positive A est l'amplitude de l'onde au point P.
• Phase. L'expression ω t + ϕ est appelée la phase ; ϕ est la phase à l'origine, c'est-à-dire la valeur de la phase à l'instant 0.
• Pulsation. Le coefficient ω est la pulsation ; il est lié à la période par T = 2 π / ω et à la fréquence par ω = 2πf ; il s'exprime en radians par seconde (rad / s ou rad.s−1).
La valeur de ϕ est propre au point P où l'on se place. Pour un point P′ autre, la phase à l'origine a une valeur ϕ′, alors que ω et A sont les mêmes partout. Mais si l'on prend pour P′ un point situé à une distance de P égale à la longueur d'onde λ, ϕ′ = ϕ + 2π, de sorte que la grandeur a prend à tout instant la même valeur en P et en P′. On dit que ces points vibrent en phase.
2.4. Aspects énergétiques
Le déplacement d'une onde est en un sens une illusion. Le point de vue énergétique permet au physicien de donner une certaine consistance à ce déplacement. À la source S, on fournit une énergie essentiellement cinétique aux parties de la corde qu'on y agite, celle du mouvement transversal. Cette énergie se transmet de proche en proche. Lorsque l'agitation atteint les parties les plus proches de l'extrémité S′, on peut l'utiliser pour mettre un objet en mouvement, ou pour obtenir d'autres sortes d'effets. Au total, il y a eu transfert progressif d'énergie de la source à l'extrémité. La quantité d'énergie qui se propage est, pourrait-on dire, un pseudo-objet qui s'éloigne de la source. Dans une perspective de communication, on préfère dire qu'un signal est émis en S et propagé jusqu'en S′.
Pour ce qui est de la mécanique quantique, la prise en compte de l'énergie est à la base même de l'association entre l'onde et la particule. Si ν et E sont respectivement la fréquence de la première et l'énergie dont la seconde est porteuse,
E = hν
(relation de Planck-Einstein, où h est la constante de Planck).
De manière analogue, si λ et p sont respectivement la longueur d'onde et la quantité de mouvement,
p = h / λ (relation de de Broglie)
3. Le spectre des ondes électromagnétiques
La première application pratique des ondes électromagnétiques a été la télégraphie sans fil, bientôt rebaptisée radiophonie (→ radiocommunication). La télévision devait suivre. Le radar, quant à lui, n'est rien d'autre que l'utilisation de la propriété qu'ont les ondes électromagnétiques, à l'instar de la lumière, de se réfléchir sur un obstacle. Le fonctionnement s'apparente étroitement à celui de l'écho sonore.
Chacune de ces applications fait appel à un certain domaine des ondes caractérisé par ses longueurs d'onde extrêmes (ou, ce qui revient au même, par ses fréquences-limites). Les cas évoqués ci-dessus sont des exemples d'ondes hertziennes. On désigne ainsi celles dont la longueur d'onde s'étend entre le centimètre et quelques kilomètres. La lumière visible correspond à la bande qui va de 0,4 à 0,8 micromètre. Entre celle-ci et les précédentes se situe le domaine de l'infrarouge. Au-delà, on passe dans l'ultraviolet, puis, entre 3 nanomètres et 0,01 nanomètre, aux rayons X. Enfin viennent les rayons gamma (γ) et le rayonnement cosmique. Les derniers cités, ayant la plus petite longueur d'onde, ont la fréquence la plus élevée. Conformément à la relation E = hν, ce sont leurs photons qui sont porteurs de l'énergie la plus grande. De fait, ultraviolet, rayons X et rayons γ sont connus pour le danger qu'ils représentent pour les organismes vivants, plus grand même pour les derniers que pour les premiers.
→ ondes électromagnétiques [santé].
Mais c'est aussi par l'analyse de la diffraction qu'un cristal impose aux rayons X que l'on a pu y étudier de manière précise, à partir de 1912, l'arrangement des atomes (→ cristallographie).
DOCUMENT larousse.fr LIEN
|
|
|
|
|
|
|
MATIÈRE |
|
|
|
|
|
matière
(latin materia)
Cet article fait partie du dossier consacré à la matière.
Substance constituant les corps, douée de propriétés physiques
PHYSIQUE
1. Qu'est-ce que la matière ?
La nature qui nous entoure, et dont nous faisons partie, offre à l'observation des réalités et des apparences, des substances et des phénomènes. Le magnétisme, cette capacité qu'ont les aimants de s'attirer ou de se repousser, est à ranger dans les phénomènes, mais on a pu se demander si l'aimant lui-même n'était pas une substance. Des interrogations tout aussi légitimes ont porté sur la chaleur, la lumière et l'électricité. La matière, en revanche, est sans hésitation possible le type même de la substance.
Elle est ce dont les corps sont faits, elle a des qualités et des propriétés, elle peut être le siège de divers phénomènes. En un sens, conformément à un usage bien établi, il y a plusieurs matières : un objet peut être en bronze ou en bois, en chêne ou en pin. Chaque variété de bois, chaque métal, a ses qualités propres. Mais ces matières – ces matériaux comme on dit aussi à propos des objets fabriqués, ces substances comme disent les chimistes – ont en commun d'être des variétés d'une seule et même substance, qui est ce que l'on appelle la matière.
Chacun sait qu'il y a des corps lourds, que certains sont chauds, bref que les corps ont des qualités plus ou moins définitives, plus ou moins changeantes. Quand toutes les qualités des corps viendraient à changer, quelque chose n'en subsisterait pas moins. C'est cette substance que la science appelle la matière et dont elle cherche, sinon la nature, du moins la constitution.
Au fil des siècles, la science s'est préoccupée de déterminer le plus possible de propriétés empiriques – ou macroscopiques – de la matière. Elle a eu à en chercher aussi la structure intime, ainsi que les propriétés de ses constituants, afin de pouvoir expliquer les différentes propriétés et les différents phénomènes dont la matière est le siège, telles la dureté et la chaleur. Ses succès remarquables ont, en un sens, déplacé le problème. Car la question est maintenant de savoir de quoi les particules élémentaires sont faites. Les seules réponses que l'on sache donner à cette question sont quasiment d'ordre mathématique.
2.1. Les conceptions anciennes
Les Grecs, dans leurs audacieuses spéculations, avaient proposé différentes conceptions de la matière. Pour certains, tels qu’Épicure (vers 341-270 avant J.-C.), puis Lucrèce (vers 98-55 avant J.-C.), il s'agissait de quelque chose de lacunaire, voire de particulaire ; pour d'autres, notamment Aristote (384-322 avant J.-C.), de quelque chose de continu. Rien n'avait véritablement permis de les départager sinon, au Moyen Âge, l'autorité reconnue par l'Université à Aristote.
La situation changea au début du xviie s. avec René Descartes (1596-1650). Celui-ci formula une doctrine mécaniste que l'on peut dire radicale. Non seulement la matière fut entièrement séparée de l'esprit, mais en outre elle ne devait plus avoir que le minimum le plus strict de qualités fondamentales : être étendue et divisible en parties susceptibles de se mouvoir, le mouvement devant suivre quelques lois extrêmement simples. Il s'agissait de rendre compte sur cette base de tout ce qui se rencontre dans la nature, par des explications données en termes de machineries, en quelque sorte. Le cartésianisme fut un temps de chasse aux qualités. Il ne niait pas que, dans les phénomènes, il puisse se rencontrer par exemple des attractions entre aimants, mais pas question d'y voir l'effet d'une vertu magnétique conçue comme qualité dernière. L'aimantation de la pierre de Magnésie était attribuée aux formes et aux mouvements d'une partie imperceptible de la matière. Quoique ce projet ait échoué, il avait marqué les esprits.
2.2. Du xviiie s. à nos jours
Petit à petit, il fallut admettre d'autres propriétés fondamentales de la matière. Isaac Newton (1643-1727) notamment, démontra que deux corps s'attirent toujours, quoique l'on n'ait jamais réussi à imaginer un mécanisme expliquant ce phénomène et les lois qui le régissent. La notion même de masse, déjà, ne se laisse guère expliquer en termes mécanistes. La masse a dû être acceptée comme qualité première, tandis que le poids devenait un simple phénomène, explicable par les masses et les forces de gravitation. Ces forces à distance, à l'existence bien établie, valurent un embarras certain à leurs premiers défenseurs, parce qu'elles semblaient réintroduire les qualités occultes.
C'est dans le cadre d'un mécanisme relatif, comme à regret, que les physiciens puis les chimistes ont emboîté le pas à Galilée (1564-1642). Reprenant la démarche qui avait réussi à Archimède en statique, celui-ci avait montré comment concentrer l'interrogation de la nature sur les grandeurs que l'on peut définir : longueurs, vitesses, poids, etc. Les physiciens inventèrent ainsi la température, au xviiie s., en la distinguant de la chaleur. Ils firent ensuite de celle-ci l'une des formes de l'énergie, nouvelle grandeur douée comme la masse de la propriété d'invariance : dans un système isolé, elle se conserve en quantité même si elle change de forme.
Un nouveau virage intervint au début du xxe s., où matière et énergie étaient encore considérées comme deux concepts indépendants, à l'origine de tout phénomène physique. En effet, la théorie de la relativité restreinte d’Einstein, formulée en 1905, permit de regrouper ces deux concepts par la célèbre relation d’équivalence entre la masse et l’énergie : E = mc2. Puis se développa la physique quantique, sous l’impulsion notamment de Max Planck, qui accentua le bouleversement de notre conception de la matière : la matière, à son stade ultime de particule élémentaire, peut être considérée comme une perturbation de l’espace-temps.
3. Les états de la matière
De manière générale, la matière peut être solide ou fluide. Les corps solides conservent leur forme, tandis que celle des fluides s'adapte au récipient qui les contient. Parmi les fluides on distingue les liquides et les gaz : ces derniers peuvent être aisément comprimés. La matière se présente donc généralement sous trois états physiques : solide, liquide ou gazeux. De très nombreux genres de corps peuvent passer par ces trois états, selon les conditions. On sait bien que l'eau peut devenir glace comme elle peut devenir vapeur. Il suffit que la température varie. Les changements d'état d'un corps peuvent aussi résulter des variations de la pression.
Par ailleurs, il existe des états particuliers, comme l’état de plasma (gaz partiellement ou totalement ionisé), l’état superfluide (viscosité nulle), l’état supraconducteur (résistance électrique nulle) ou encore l’état de condensat de Bose-Einstein (atomes dans le même état quantique d’énergie minimale), qui nécessitent un formalisme quantique complexe.
La physique a établi, pour chaque substance et dans chacun des états, diverses propriétés quantitatives : masse volumique, densité, température de fusion à la pression atmosphérique, etc. La chimie a poursuivi de son côté l'idée qu'il se produit, lors d'une réaction, des changements qui affectent la matière plus profondément que ne le font les simples changements d'état. En d'autres termes, elle a fait sienne l'enquête sur la nature de chaque matière. Une fois devenue attentive elle aussi aux aspects quantitatifs des choses, elle a pu établir que la masse totale des corps se conserve au cours de toute réaction. La physique, peu après, affirma un principe de conservation de portée encore plus grande pour l'énergie, notion qui en est venue ainsi à concurrencer celle de matière.
→ transition de phase, phase.
4. La structure intime de la matière
La chimie, au début du xixe s., a commencé à donner une forme élaborée à l'une des vieilles conceptions de la matière, l'atomisme. L’histoire attribue généralement à Démocrite l'idée que la matière pouvait être composée de corpuscules insécables , plus ou moins semblables les uns aux autres, et que toutes les propriétés de la matière devaient pouvoir s'expliquer par leurs divers arrangements. Toutefois, il semblerait que Démocrite ne soit pas le matérialiste qu’on a l’habitude de décrire et que l’atomisme soit plutôt porté par Épicure puis par son disciple Lucrèce. Les chimistes, tout un siècle durant, tâtonnèrent à la recherche d'une théorie apte à rendre compte de tous les faits, qualitatifs et quantitatifs. Les physiciens prirent le relais à la fin du xixe s., et révélèrent enfin la structure générale de la matière.
4.1. Les atomes
Les atomes d'un même élément, le néon (Ne) par exemple, peuvent rester isolés les uns des autres. La plupart s'associent, en molécules ou bien en cristaux. Ainsi l'eau est-elle composée de molécules comportant chacune deux atomes d'hydrogène et un d'oxygène (H2O). Un cristal est constitué de nombreux atomes disposés de manière tout à fait régulière. Le chlorure de sodium, par exemple, c'est-à-dire le sel de table, est fait d'atomes de chlore (Cl) et d'atomes de sodium (Na) en nombre égal, rangés selon un ordre répétitif et rigoureux.
Dans une molécule, comme dans un cristal, les atomes restent ensemble sous l'effet des forces qu'ils exercent les uns sur les autres. Il s'agit de forces électriques dues à la présence de charges. Elles sont présentes dans tout atome, quoique celui-ci, au total, soit électriquement neutre.
Ces forces s'exercent aussi entre les molécules, plus ou moins selon les circonstances, ce qui explique les états physiques. Fortement liées entre elles, les molécules ne peuvent pas bouger les unes par rapport aux autres : le corps est solide. Totalement libres au contraire, elles se déplacent à grande vitesse et dans tous les sens : le corps est gazeux. Ces mouvements se produisent au milieu de beaucoup de vide, ce qui explique qu'un gaz puisse voir son volume réduit par compression. Le liquide est la situation intermédiaire où les forces s'exercent suffisamment pour limiter la liberté, mais pas assez pour empêcher un glissement relatif des molécules.
Quant à la température on l'explique, dans les trois états, par le degré d'agitation des atomes et des molécules.
4.2. Les noyaux atomiques
Les atomes sont tous composés d'un noyau autour duquel gravitent des électrons. Les nucléons, c'est-à-dire les constituants du noyau, sont des protons et des neutrons. Tous ont une masse. Protons et électrons portent en outre des charges électriques, égales et de signes opposés. Au sein du noyau, les protons, chargés positivement, devraient se repousser. Or l'attraction universelle est bien trop faible pour compenser la force électrique. C'est une autre force, l'interaction forte, qui retient les nucléons groupés.
Un atome peut s'ioniser, c'est-à-dire perdre ou gagner un ou plusieurs électrons. L'ionisation est un aspect important des atomes pour la chimie : de la capacité des atomes à s'ioniser dépend dans une large mesure l'aptitude des corps à réagir ou pas les uns avec les autres.
→ ion, réaction chimique
Dans des conditions extrêmes, les atomes peuvent même perdre tous leurs électrons. On obtient alors un plasma, considéré comme un quatrième état de la matière. Les étoiles, autrement dit la plus grande partie de la masse de l'Univers, sont à l'état de plasma.
4.3. Les particules
Les nucléons eux-mêmes se sont révélés être des particules composées par d’autres particules plus élémentaires encore : les quarks. La théorie des quarks a été élaborée puis confirmée expérimentalement dans la seconde moitié du xxe s. Elle consiste à expliquer l'existence et les propriétés des protons et des neutrons, et, avec eux, de toutes les particules que l'on place dans la catégorie des hadrons, par les combinaisons de six types de quarks, aussi appelés « saveurs ». Chacun est désigné par une lettre : u (up), d (down), c (charm), s (strange), t (top), b (bottom). Les quarks sont caractérisés par leur masse et leur charge électrique, mais aussi par d'autres paramètres tels que leur couleur. Le proton correspond à la combinaison uud, et le neutron, à udd. L'électron n'est pas concerné car il n'est pas de la famille des hadrons mais de celle des leptons, qui compte six particules (l’électron, le neutrino électronique, le muon, le neutrino muonique, le tau, et le neutrino tauique).
On a ainsi les douze particules élémentaires du modèle standard. Et la masse de ces douze particules fait intervenir une seule particule : le boson de Higgs, très probablement détecté en 2012 dans le grand collisionneur de hadrons (LHC) du Cern, près de Genève..
4.4. Formes et apparences de la matière
La matière était initialement regardée comme ce dont les corps « sensibles » sont faits. Elle était conçue comme une substance, opposée en cela aux phénomènes. De ces derniers, comme pour le magnétisme, on pouvait espérer trouver une explication qui les aurait réduits à un statut d'illusions inévitables. Or la matière n'est pas que formes et mouvements, c'est aussi de la masse ainsi qu'une capacité attractive liée à celle-ci. L'électricité, en revanche, n'apparaissait liée à la matière que de façon accidentelle. Il fallait électriser un corps pour qu'il portât une charge. Tout cela reste vrai lorsque l'on prend les choses au niveau de nos sens. Mais lorsque le regard pénètre plus en profondeur, grâce à tout l'arsenal de la science, expérimental et théorique à la fois, cet ordonnancement doit laisser place à d'autres, plus complexes.
4.5. Matière et ondes
La mécanique rationnelle de Newton, science des mouvements et de leurs rapports avec les forces, avait obtenu de beaux succès à l'échelle macroscopique, tout particulièrement dans l'étude du Système solaire. Pour l'atome isolé et pour ses constituants, il a fallu l'abandonner au profit de la mécanique quantique. Un des aspects majeurs de celle-ci est que toute particule se voit associer une onde, tout comme l'onde électromagnétique s'était vue associer une particule, le photon. L'opposition de la matière et de la lumière en a été sensiblement réduite ; la barrière qui les sépare peut être repérée dans les caractéristiques du photon. Notamment, bien qu'il ait une quantité de mouvement et une énergie, celui-ci n'a pas de masse. La mécanique quantique, en même temps, a limité drastiquement les espoirs de pouvoir acquérir une connaissance expérimentale aussi fine que voulue de l'infiniment petit : ce qui se gagne en précision dans la connaissance d'une grandeur (position, temps) ne peut que se perdre sur une autre (vitesse, énergie).
4.6. Matière et énergie
Une autre mécanique, celle de la relativité restreinte, nécessaire lorsque les particules sont animées de grandes vitesses (proches de celle de la lumière), a annoncé que la matière ne devait pas être opposée à l'énergie de manière trop tranchée. Plus exactement, la masse, qui passait auparavant pour la grandeur la plus caractéristique de la matière, peut se transformer en énergie (selon la célèbre formule d’Einstein : E = mc2). La technique des explosifs nucléaires et thermonucléaires témoigne de la justesse de cette conception, de sorte que la matière n'a pu conserver un statut de véritable substance.
Pis encore, lorsque de l'énergie se transforme en matière, il y a création simultanément d'antimatière. Le phénomène se produit dans le cosmos, ou bien à l'occasion de collisions dans les accélérateurs de particules. Pour chaque particule il existe une antiparticule, de même masse mais de charge électrique opposée : le positon (ou positron), par exemple, pour l'électron. L'antiparticule est détruite par la rencontre de sa particule associée, aussi ne peut-elle exister que pendant un temps extrêmement bref. Ainsi la matière se trouve-t-elle doublée, au moins sur un plan théorique, par quelque chose dont on ne sait trop s'il faut en parler comme d'une autre substance.
Mais le plus grand mystère concernant la matière est le fait que celle-ci représente moins de 5 % du total masse/énergie de l’Univers ! En effet, l’Univers serait également composé d’environ 25 % de matière noire de nature inconnue et de 70 % d’une d’énergie noire tout aussi mystérieuse…
4.7. Matière et interactions
L'analyse de la matière, depuis la découverte de la gravitation universelle jusqu'à nos jours, a constamment donné le beau rôle aux interactions, c'est-à-dire aux forces qui s'exercent entre les corps. La physique tend à réduire le nombre de celles-ci. Déjà l'interaction électromagnétique et l'interaction faible, propre aux particules à faible durée de vie, ont pu être réunies en une seule théorie, celle de l'interaction électrofaible, et les théoriciens espèrent bien parvenir à une théorie qui la réunirait aux deux autres, l'interaction forte et l'attraction universelle.
→ interactions fondamentales, gravitation.
Mais quelle que soit l'unité que l'on puisse mettre dans ce domaine, il faut tenir compte d'une nouvelle réalité, bien établie désormais : le phénomène de l'interaction entre deux particules A et B s'accompagne de l'échange, entre A et B, d'une troisième, à durée de vie limitée, désignée de manière générique sous l'appellation de boson vecteur. Celui de l'attraction universelle, qui n'a pas encore été mis en évidence expérimentalement, serait le graviton. Ainsi la distinction entre particules et interactions est devenue de plus en plus floue.
5. La nature de la matière
5.1. Une définition de plus en plus complexe
Au point où sont parvenues les sciences de la nature, la matière est une notion qui a perdu une partie de son importance au bénéfice de l'énergie, de l'interaction, de l'antimatière, voire du vide. Ce dernier s'est révélé posséder tant de propriétés qu'il est presque permis d'y voir une substance, moins évanescente, en un sens, que la matière.
→ vide.
À la question de savoir ce qu'est la matière, il n'est plus guère possible de donner une réponse unique. Il faut que la question soit précisée par l'indication du niveau visé (macroscopique, atomique ou particulaire). Une réponse simplifiée consiste à dire qu'elle est un assemblage de particules ; la propriété qui assure le mieux leur unité étant la masse.
5.2. Au carrefour de plusieurs sciences
L'étude de la matière est une tâche répartie entre différentes sciences de la nature. Si la physique a été la première héritière de la philosophie naturelle, la chimie l'a suivie et l'on a d'abord eu l'impression qu'elles pouvaient se répartir les rôles. Cette dernière se réservait la question de la nature intime de la matière, de ce qui fait que le bronze n'est pas le fer. Mais la chimie s'est vue en quelque sorte contournée : elle est science des molécules et autres arrangements d'atomes. Elle étudie les transformations au cours desquelles les atomes, ou du moins les noyaux, conservent leur intégrité. Dès qu'il n'en va plus ainsi, on parle de physique nucléaire et, au niveau inférieur, de physique des particules. Même la science de l'atome, indépendamment de toute transformation, est plutôt cataloguée comme physique atomique, malgré tout ce qu'elle doit aux efforts des chimistes du xixe s. D'un point de vue théorique, la chimie n'est qu'une branche spécialisée de la physique. Quant à la biologie prise dans son unité, elle vise elle-même à n'être qu'une branche spécialisée de la physique-chimie, celle qui se consacre à l'étude des phénomènes de la vie. Les chimistes, mais aussi des biochimistes et des astrochimistes, ont mis à mal l'idée d'une nature propre à la matière vivante, en réalisant notamment des synthèses de substances organiques. Si le passage de l’inerte au vivant reste encore une énigme, celle-ci semble de plus en plus à portée de main.
DOCUMENT larousse.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|