ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LES LASERS

  initiation musicale


 

 

 

 

 

LES LASERS

Réalisation : 3 août 2000 - Mise en ligne : 3 août 2000
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3


Descriptif
Depuis l'invention du premier laser en 1960, la diversité des lasers en couleurs, taille ou puissance n'a fait que croître. Les plus petits lasers sont si minuscules qu'on ne peut les voir qu'au microscope, les plus gros consomment autant d'électricité qu'une ville moyenne. Tous les lasers ont la faculté d'émettre des rayons d'une lumière inconnue dans la nature, qui forment de minces pinceaux d'une couleur pure, et que l'on peut concentrer sur un petit foyer. Ils exploitent la possibilité, prévue par Einstein, de multiplier les photons, qui sont les particules formant la lumière, dans un matériau bien choisi. Les caractéristiques des lasers, fort différentes de celles des lampes ordinaires, leur ont ouvert des utilisations très variées. En délivrant sa puissance de façon localisée, l'outil laser est capable de percer, découper et souder avec vitesse et précision. Il est aussi utilisé en médecine où il remplace les bistouris les plus précis et cautérise les coupures. Ce sont des lasers circulant dans des fibres optiques, fins cheveux de verres dont le réseau couvre maintenant le globe terrestre, qui transportent maintenant les conversations téléphoniques et les données sur Internet. Le laser intervient aussi dans les analyses les plus fines, en physique, en chimie ou en biologie, où il permet soit de manipuler les atomes ou les molécules individuellement, soit de véritablement déclencher et photographier des réactions chimiques ou biologiques. Il identifie les molécules qui composent l'air et beaucoup de grandes villes s'équipent de lasers spéciaux pour détecter la pollution à distance. Les sciences et techniques d'aujourd'hui vivent à l'heure du laser. Beaucoup pensent que le XXIe sera celui de l'optique, et ceci, grâce au laser.


Documents pédagogiques

Texte de la 216e conférence de l’Université de tous les savoirs donnée le 3 août 2000.

Les lasers

par Élisabeth Giacobino

Inventé il y a quarante ans, le laser reste un instrument un peu mystérieux, voire mythique, dont la notoriété dans le grand public doit beaucoup à la guerre des étoiles. Le combat au sabre laser ou le laser rayon de la mort sont beaucoup mieux connus que d’autres utilisations, bien réelles celles-là, qui ont changé notre vie. Quand vous décrochez votre téléphone pour appeler au-delà de votre voisinage immédiat, il y a de fortes chances que votre conversation soit transmise par un laser, car les câbles téléphoniques sont maintenant en grande partie remplacés par des fibres optiques où circule la lumière laser. Sans les télécommunications par laser, capables de transmettre de très hauts débits d’information, l’expansion de l’Internet n’aurait pas été possible.
Depuis que le premier laser, un laser rouge à rubis, a fonctionné en 1960, la diversité des lasers en couleur, taille et puissance n’a fait que croître. Les plus petits lasers sont si minuscules qu’on ne peut les voir qu’au microscope, les plus gros consomment autant d’électricité qu’une ville moyenne, et nécessitent de véritables immeubles pour les abriter (Fig. 1). Leurs longueurs d’onde dépassent largement les couleurs du spectre visible pour s’étendre des rayons X à l’infrarouge lointain.
Les lasers ont en commun la faculté d’émettre des rayons très parallèles, d’une couleur pure. D’où vient cette lumière extraordinaire, inconnue dans la nature et si différente de la lumière classique émise par une lampe ?
L’émission stimulée, principe de base du laser
Comme dans une lampe ou dans un tube fluorescent, ce sont des atomes ou des molécules qui produisent la lumière. Quand les atomes sont chauffés, excités par un courant électrique ou quand ils absorbent de la lumière, leurs électrons gagnent de l’énergie. Mais ils ne peuvent stocker l’énergie que de manière très spécifique. Ainsi que l’a montré Niels Bohr en 1913, les atomes sont sur des niveaux d’énergie bien précis, dits quantifiés, entre lesquels ils peuvent transiter. Ce faisant, l’atome absorbe ou émet une particule de lumière ou photon, dont l’existence tout d’abord postulée par Max Planck en 1900, a été affirmée par Einstein en 1905 (Fig. 2). De même que les niveaux d’énergie de l’atome, l’énergie du photon échangé, et donc sa longueur d’onde et sa couleur, sont déterminées par le type d’atome ou de molécule concerné.
Dans les lampes habituelles, on fournit de l’énergie aux atomes avec un courant électrique, c’est à dire qu’on met un certain nombre de leurs électrons dans les états supérieurs ou « excités ». Ils en redescendent rapidement et retombent vers l’état de plus basse énergie en émettant de la lumière de manière spontanée et désordonnée, dans toutes les directions et sur plusieurs longueurs d’onde.
Mais outre cette émission spontanée, il existe un autre processus, découvert par Einstein en 1917, appelé émission stimulée. C’est lui qui est à la base du fonctionnement du laser. Laser est d’ailleurs un acronyme pour « Light Amplification by Stimulated Emission of Radiation » (amplification de lumière par émission stimulée de rayonnement). La lumière peut forcer l’atome à redescendre de son état excité en cédant son énergie : un photon frappe l’atome et deux photons en ressortent. L’intérêt de ce processus est que la lumière émise est exactement identique à la lumière incidente, elle va dans la même direction, et les deux ondes sont exactement en accord de phase. L’émission stimulée produit ainsi une multiplication de photons identiques et une amplification cohérente de l’onde.

L’idée du laser a été proposée en 1958 par deux physiciens américains, C. H. Townes et A. L. Schawlow, et à peu près dans le même temps par les soviétiques V.A. Fabrikant, A.M. Prokhorov et N.G. Basov. Townes, Basov et Prokhorov ont d’ailleurs eu le prix Nobel en 1964 pour cette invention. Schawlow l’a eu beaucoup plus tard, en 1981. Townes avait déjà inventé, quelques années auparavant, le « maser » qui est un laser fonctionnant en micro-ondes sur les mêmes idées. Mais on peut remarquer que tous les principes étaient là dans les années 1920. Est-ce à dire que le laser aurait pu être inventé bien avant ?
Le principal problème à résoudre était que l’émission stimulée est en compétition avec les autres voies d’interaction de la lumière avec les atomes. L’une d’elle est l’émission spontanée, déjà mentionnée plus haut, l’autre est l’absorption, par laquelle un photon arrivant sur un atome placé dans un certain niveau d’énergie disparaît tandis que l’atome passe dans un niveau d’énergie supérieure. Pour que l’absorption, comme d’ailleurs l’émission stimulée, se produise, il faut que l’énergie du photon corresponde exactement à l’énergie dont l’atome a besoin pour effectuer la transition entre les deux niveaux d’énergie. Les deux processus sont aussi probables l’un que l’autre, et celui qui domine dépend de la répartition des atomes entre les deux niveaux d’énergie concerné par la transition. Considérons, comme sur la Figure 1, un ensemble de photons arrivant sur un groupe d’atomes. Si les atomes situés dans le niveau inférieur de la transition sont majoritaires, il se produit plus d’absorptions que d’émissions stimulées et le nombre de photons diminue. Au contraire, si les atomes du niveau supérieur sont majoritaires, c’est l’émission stimulée qui domine, et il ressort plus de photons qu’il n’y en avait au départ (Fig. 3). Quand le nombre de photons est assez grand, l’émission stimulée devient beaucoup plus fréquente que l’émission spontanée.
En général, les atomes se trouvent dans les niveaux d’énergie les plus bas et la population dans les différents niveaux diminue au fur et à mesure que l’on monte. Pour faire fonctionner un laser, il faut mettre les molécules ou les atomes dans des conditions complètement anormales, où cette répartition est renversée. La population d’un certain niveau doit être plus grande que celle d’un des niveaux inférieurs : on parle d’inversion de population. L’émission stimulée peut alors l’emporter sur l’absorption.
Cette situation est difficile à réaliser et les scientifiques se basés sur des études de spectroscopie qui avaient été faites dans de nombreux matériaux, aussi bien gaz, liquides que solides pour déterminer ceux qui présentaient les caractéristiques les plus favorables. Dans certains lasers, on utilise un courant électrique pour porter un majorité d’atomes dans un état excité et les préparer pour l’émission stimulée, dans d’autres, c’est une source auxiliaire de lumière (une lampe, ou un autre laser) qui « pompe » les atomes vers le niveau supérieur. C’est le physicien français Alfred Kastler qui a le premier proposé l’idée du pompage optique, pour lequel il a reçu le prix Nobel de Physique en 1966.
Si l’amplification sur un passage dans le matériau en question n’est pas très forte, on peut la renforcer en refaisant passer l’onde dans le milieu avec un miroir, et même plusieurs fois avec deux miroirs, un à chaque extrémité. A chaque passage l’onde lumineuse accumule un certain gain qui dépend du nombre d’atomes portés dans l’état supérieur par le pompage. On pourrait penser que dans ces conditions l’onde est amplifiée indéfiniment. De fait, il n’en est rien. A chaque passage, l’onde subit aussi des pertes, pertes inévitables dues à l’absorption résiduelle du milieu et des autres éléments qui constituent le laser et surtout pertes à travers les miroirs pour constituer le faisceau laser utilisable à l’extérieur. L’onde grandit jusqu'à ce que le gain équilibre les pertes et le régime laser s’établit de manière stable dans la cavité formée par les deux miroirs. L’intensité du faisceau laser qui sort de cette cavité dépend à la fois du gain disponible dans le milieu matériel et de la transparence des miroirs. Le faisceau est d’autant plus parallèle et directif qu’il aura parcouru un grand trajet entre les deux miroirs de la cavité.

Des lasers de toutes sortes
Après la publication de l’article où Townes et Schawlow exposaient leur idée, une compétition féroce s’engage dans le monde entier pour mettre en évidence expérimentalement cet effet nouveau. Suivant de près le laser à rubis, mis au point par T. Maiman en juillet 1960, deux autres lasers fonctionnent cette année-là également aux Etats-Unis. L’un d’eux est le laser à hélium-néon, dont le faisceau rouge a longtemps été utilisé pour le pointage et l’alignement. Il est maintenant détrôné par le laser à semi-conducteur, qui a fonctionné pour la première fois en 1962. Ce sont des lasers à semi-conducteur qui sont utilisé dans les réseaux de télécommunications optiques. Au début des années 1960, une floraison de nouveaux lasers voit le jour, comme le laser à néodyme, infrarouge, très utilisé à l’heure actuelle pour produire des faisceaux de haute puissance, le laser à argon ionisé vert qui sert aux ophtalmologistes à traite les décollements de la rétine, ou le laser à gaz carbonique, infrarouge, instrument de base dans les découpes et les traitements de surface en métallurgie.

Après les nombreux allers-retours qu’il fait entre ses deux miroirs avant de sortir, le faisceau d’un laser est très parallèle et peut être focalisé sur une surface très petite, ce qui permet de concentrer une très grande puissance lumineuse. Comme elle est due à la multiplication de photons identiques, la lumière laser est une onde pratiquement monochromatique, d’une couleur très pure. Il existe aussi un autre mode de fonctionnement, dans lequel toute l’énergie du laser est condensée sur des séries d’impulsions extrêmement brèves. Le record du monde se situe actuellement à quelques femtosecondes, soit quelques millionièmes de milliardièmes de seconde. Pendant ce temps très court se comprime toute la puissance du laser, qui peut alors atteindre plus de 100 térawatts, ou 100 000 milliards de watts, soit la puissance que fournissent 100 000 centrales électriques. On conçoit que cette impulsion ne peut pas durer longtemps ! De fait si une telle impulsion dure 10 femtosecondes, elle ne contient qu’une énergie modeste, 1 joule, ou 1/4 calorie.
Des applications très variées
Ce sont les qualités extraordinaires de la lumière laser qui sont exploitées dans les diverses applications, aussi bien dans la vie courante que dans les domaines de haute technologie et pour la recherche. Le faisceau très parallèle émis par les lasers est utilisé aussi bien pour la lecture des disques compacts que pour le pointage et les relevés topographiques et pour le guidage des engins ou des missiles. Lorsque de plus le laser émet des impulsions brèves, il est aisé de mesurer la distance qui le sépare d’un objet éloigné : il suffit que ce dernier soit tant soit peu réfléchissant. On mesure le temps d’aller-retour d’une impulsion entre le laser et l’objet, impulsion qui se propage à la vitesse de la lumière, 300 000 kilomètres par seconde. Certaines automobiles seront bientôt porteuses d’un petit laser qui permettra de connaître la distance de la voiture précédente et de la maintenir constante. Un « profilomètre » laser en cours de développement permettra aux aveugles d’explorer les obstacles dans leur environnement bien plus efficacement qu’une canne blanche. Encore plus ambitieuse est la mesure de la distance de la Terre à la Lune : plusieurs observatoires, comme celui de la Côte d’Azur à Grasse possèdent un laser dirigé vers la Lune. Il se réfléchit à la surface de la Lune sur des réflecteurs placés là par les missions Apollo, et revient, certes très affaibli, mais encore détectable sur Terre (Fig. 4). C’est ainsi que l’on sait que la Lune s’éloigne de la Terre de 3,8 centimètres par an ! La recherche des ondes gravitationnelles prédites par Einstein en 1918, mais jamais observées directement, utilise aussi un laser. Une onde gravitationnelle passant sur Terre modifie très légèrement les longueurs. Un laser permet de comparer avec une précision incroyable la longueur de deux bras d’un appareil appelé interféromètre où le laser circule. On espère détecter une variation de longueur bien inférieure au rayon d’un noyau d’atome sur une distance de plusieurs kilomètres.
Les télécommunications optiques bénéficient aussi de cette possibilité qu’ont les lasers de former des faisceaux très fins et modulables en impulsions très brèves. Les câbles en cuivre ont été remplacés en grande partie par des câbles optiques dont le réseau s’étend aussi bien sous les océans que sur les continents. Dans ces câbles, des fibres optiques, fins cheveux de verre, guident les faisceaux lasers de l’émetteur au récepteur. Sur ces lasers sont inscrits en code numérique aussi bien les conversations téléphoniques que les données pour l’Internet. Les câbles transocéaniques les plus récents atteignent des capacités de transmission fabuleuses, équivalentes à plusieurs millions de communications téléphoniques. De nouveaux câbles assortis de lasers et de systèmes optiques de plus en plus performants vont permettre à la « toile » mondiale de continuer à se développer à un rythme toujours plus effréné.
Une fois focalisé, le faisceau laser concentre une grande énergie. C’est ce qu’utilisent les imprimantes lasers avec des puissances relativement modestes. Les capacités de découpe et de perçage des lasers de grandes énergie comme le laser à gaz carbonique, sont largement exploitées en mécanique. Les lasers ont aussi utilisés couramment pour nettoyer les monuments historiques. Le laser permet d’enlever très exactement la couche de pollution qui s’est accumulée sur la pierre sans endommager cette dernière. En chirurgie le laser fait merveille en particulier en ophtalmologie où il remplace les bistouris les plus précis et en dermatologie où il permet des traitements esthétiques ou curatifs de nombreuses affections : verrues, tatouages ou rides disparaissent grâce au laser.

A la frontière extrême des lasers de puissance se situe le projet français de laser « Mégajoule » et son équivalent américain NIF (pour National Ignition Facility), dans lequel 240 faisceaux lasers seront focalisés pendant 16 nanosecondes avec une puissance totale de 500 Térawatts sur une cible de quelques millimètres carrés. La température de la matière située au point focal est portée à plusieurs millions de degrés. L’objectif principal est de produire la fusion thermonucléaire par laser, mais ces lasers sont aussi susceptibles de contribuer à la recherche sur la matière dans les conditions extrêmes qui règnent dans les étoiles.
Le laser est devenu un instrument de choix pour nombre de recherches fondamentales. En physique, la réponse optique des atomes lorsqu’on les éclaire par un laser est souvent une signature irremplaçable de leurs propriétés et permet de détecter et d’identifier des traces infimes de produits divers. En chimie et en biologie, on assiste à la naissance d’un nouvelle discipline : la femtochimie laser. Si les réactions chimiques d’ensemble prennent parfois plusieurs secondes ou minutes, au niveau des atomes, tout se passe à l’échelle de la femtoseconde. Pour sonder ce domaine, on envoie une impulsion laser ultra-brève qui est capable de déclencher à volonté des réactions de décomposition ou de recombinaison de molécules. D’autres impulsions envoyées quelques femtosecondes plus tard permettent de suivre l’évolution du système du système et de faire de véritables photographies en temps réel de la réaction chimique.

Exploitant la connaissance, accumulée par les chercheurs, des longueurs d’onde que peuvent absorber les molécules, la détection de la pollution atmosphérique par laser est appelée à se développer largement. La méthode LIDAR (pour « light detection and ranging », détection et mesure de distance par la lumière) utilise un laser de la couleur adéquate pour révéler la présence dans l’air des molécules indésirables, comme les oxydes d’azote ou l’ozone. Le laser envoie des impulsions vers la zone polluée. Une faible partie de celles-ci est diffusée en sens inverse, et l’analyse de la lumière qui revient permet de déterminer la concentration en polluant. Le temps d’aller retour des impulsions donne quand à lui la distance et la dimension du nuage polluant (Fig. 5). En balayant le laser dans toutes les directions on peut ainsi réaliser une véritable carte à 3 dimensions de la composition atmosphérique. Des LIDAR sont déjà en fonctionnement ou en test dans plusieurs grandes villes françaises.

Le laser est issu de l’imagination de quelques chercheurs, qui voulaient avant tout mettre en évidence de nouveaux concepts scientifiques. Même si ses inventeurs avaient imaginé quelques unes des utilisations du laser, ils étaient loin de soupçonner les succès qu’il devait connaître. A l’époque, certains avaient même qualifié le laser de « solution à la recherche d’un problème ». Il aurait pu rester à ce stade. Si les sciences et les techniques vivent aujourd’hui à l’heure du laser, c’est aussi grâce au développement de techniques parallèles, comme les fibres à très faibles pertes pour les télécommunications. En revanche, des recherches purement orientées vers une application donnée n’auraient jamais donné ce résultat. Aujourd’hui, dans un monde dominé par la rentabilité à court terme, de telles inventions nous rappellent que la recherche de la connaissance peut aussi déboucher sur des développements technologiques extraordinaires.

 

  VIDEO       CANAL  U         LIEN

 
 
 
initiation musicale toulon  

lumire

  initiation musicale

 

 

 

 

 

 

lumière

(latin ecclésiastique luminaria, du latin classique lumen, -inis)

Consulter aussi dans le dictionnaire : lumière
Cet article fait partie du dossier consacré à la
lumière
.
Rayonnement électromagnétique dont la longueur d'onde, comprise entre 400 et 780 nm, correspond à la zone de sensibilité de l'œil humain, entre l'ultraviolet et l'infrarouge.

OPTIQUE
1. Historique de la notion de lumière
1.1. Les conceptions antiques et médiévales de la lumière
La théorie de la lumière a introduit, tout au long de l'histoire des sciences, un questionnement fondamental sur la nature des objets que la physique étudie : ondes ou particules ? Dans les premières descriptions mythiques du monde, la lumière est une sorte de « brume claire », opposée à la « brume sombre » des ténèbres qui, le soir, montent du sol. Puis les Grecs commencent à s'interroger sur la nature physique du monde. Parménide, remarquant que la partie brillante de la Lune est toujours tournée vers le Soleil, en déduit que la lumière vient du Soleil, c'est-à-dire qu'elle se déplace. Les ténèbres, elles, sont une absence de lumière. La propagation de la lumière est expliquée par l'émission de petites particules, conception qui sera largement développée au Moyen Âge. Pour Aristote, les couleurs résultent d'un mélange de lumière et d'obscurité.
1.2. Les premières théories scientifiques de la lumière
1.2.1. La lumière selon Descartes, Huygens et Malebranche
Au début du xviie s., avec R. Descartes, s'amorce vraiment une théorie scientifique de la propagation de la lumière. Si Descartes conçoit la lumière comme un ébranlement d'une matière subtile se transmettant instantanément, donc avec une vitesse infinie et sans transport de matière, on rencontre aussi chez lui une conception corpusculaire. Ces idées seront reprises et améliorées par deux théories longtemps rivales : la théorie ondulatoire et la théorie corpusculaire.
La première ne reçoit un véritable développement scientifique qu'avec C. Huygens. Selon celui-ci, chaque point d'une surface lumineuse émet une onde sphérique qui se propage à une vitesse finie dans un milieu non vraiment matériel, l'éther, d'une manière analogue au son. Huygens explique ainsi les phénomènes de réflexion de la lumière, de réfraction (déviation d'un rayon lumineux lors de son passage d'un milieu à un autre), etc. (→ optique). Toutefois, sa théorie ondulatoire ignore les notions de fréquence et d'amplitude des vibrations lumineuses et donc n'explique ni la diversité des couleurs, ni les phénomènes d'interférence, ni la propagation rectiligne de la lumière.
Au début du xviiie s., N. de Malebranche, partisan lui aussi de la théorie ondulatoire présente une conception plus précise des vibrations lumineuses de l'éther et de leur fréquence qu'il distingue de leur amplitude, ce qui le conduit à la reconnaissance de la diversité continue des couleurs. Mais, pour lui, comme pour Huygens, la vibration est longitudinale.
1.2.2. La lumière selon Newton
La théorie de la lumière d'I. Newton est mixte, bien qu'y domine l'explication corpusculaire, qui sera la source d'une vive polémique avec R. Hooke, défenseur de la pure théorie ondulatoire. Pour Newton, la lumière est constituée par des corpuscules qui se déplacent dans l'éther à une vitesse finie, où ils produisent des vibrations. Comme Malebranche, il introduit la notion de fréquence variant avec les couleurs, mais, à la différence de celui-ci, il ne la distingue pas clairement de l'amplitude des vibrations. Cette fréquence est expliquée par la variation du comportement des corpuscules durant leur parcours, et la diversité des couleurs, par des différences de taille des corpuscules. La théorie corpusculaire de Newton rend bien compte de la propagation rectiligne de la lumière, mais ce n'est que par des raisonnements mécaniques imaginatifs et peu scientifiques qu'il explique la diffraction (phénomène typiquement de nature ondulatoire).
1.3. L'optique moderne
C'est seulement au début du xixe s., avec T. Young, qu'est introduit le principe fondamental d'interférences des ondes lumineuses, au cours de l'expérience dite des « fentes de Young », qui constitue une preuve patente du caractère ondulatoire de la lumière. Cette théorie ne sera vraiment développée que par A. Fresnel, qui substitue, le premier, la vibration transversale à la vibration longitudinale. Toutefois, à la même époque, de nombreux savants demeurent attachés à la théorie corpusculaire, principalement Laplace et J.-B. Biot, qui la défendent sur la base de la mécanique newtonienne. Mais, lorsque les mesures de H. Fizeau (1849) et de L. Foucault (1850) démontrent, ainsi que l'avait prévu Fresnel, que la lumière se propage plus vite dans l'air que dans l'eau, la théorie corpusculaire, qui affirmait le contraire, est abandonnée.
En 1865, J. C. Maxwell établit la nature électromagnétique de la lumière, théorie que H. A. Lorentz développe à la fin du xixe s., démontrant notamment que l'on peut expliquer la réflexion et la réfraction par les théories électromagnétiques de Maxwell.
1.4. La conception quantique de la lumière
Avec la découverte du photon et l'interprétation de l'effet photoélectrique par A. Einstein en 1905, et avec la mécanique ondulatoire de L. de Broglie en 1924, qui associe onde et corpuscule, les deux théories – corpusculaire et ondulatoire – se trouvent « réconciliées », mais sous un mode qui les modifie l'une et l'autre. Comme toute révolution scientifique, celle-ci entraîne un dépassement des théories précédentes. Aujourd'hui, dans le cadre de la physique quantique, le photon n'est plus ni une onde ni une particule mais un quanton, objet d'étude de la théorie quantique. Cependant, lorsque celle-ci peut être approchée par la théorie classique, un quanton manifeste un comportement soit corpusculaire (effet photoélectrique), soit ondulatoire (interférences lumineuses). La théorie quantique relie les aspects corpusculaire et ondulatoire de la lumière par la relation E = hν = hc/λ (l'énergie d'un photon E est proportionnelle à la fréquence ν de l'onde (ou inversement proportionnelle à la longueur d'onde λ) qui lui est associée, h étant la constante de Planck dont la valeur est 6,626 176 × 10−34 J s et c la célérité de la lumière).

2. Sources et récepteurs de lumière
Les grandeurs photométriques (relatives à la lumière) usuelles sont l'intensité lumineuse, le flux lumineux, la luminance et l'éclairement, les unités correspondantes étant la candela, le lumen, la candela par mètre carré et le lux.
2.1. Les sources primaires de lumière
Les sources primaires produisent de la lumière par elles-mêmes en convertissant de l’énergie (chimique pour les bougies, électrique pour les lampes, nucléaire pour les étoiles) en énergie lumineuse.
2.2. Les sources secondaires et la diffusion de la lumière
Les sources secondaires sont des objets éclairés qui renvoient dans toutes les directions une partie de la lumière qu’ils reçoivent (la Lune, les planètes, les objets qui nous entourent) : on dit que la lumière est diffusée par l’objet. Seuls les objets totalement noirs ne réfléchissent pas de lumière.
2.3. Les récepteurs de lumière
L’œil humain est un récepteur de lumière particulièrement sophistiqué : il s’adapte aux conditions de luminosité, permet de voir de près comme de loin et distingue les couleurs. Mais il en existe de plus simples comme la pellicule d’un appareil photo (photographie) qui convertit la lumière en énergie chimique, ou une cellule photoélectrique qui convertit la lumière en signal électrique (→ capteur, CCD).
Pour en savoir plus, voir les articles œil [zoologie], vision [zoologie], vision [médecine].

3. Propagation de la lumière
Le trajet de la lumière dans un milieu peut être représenté par un segment de droite appelé rayon lumineux. La lumière se propage en ligne droite dans les milieux homogènes (les milieux qui ont la même composition en tout point) ; si le milieu est également transparent (comme l’eau, l’air, le verre, etc.), la lumière se propage en ligne droite sans être atténuée, ou très peu. Néanmoins, l'intensité lumineuse par unité de surface diminue avec le carré de la distance à la source. Lorsque la lumière rencontre un corps, elle est absorbée, réfléchie ou transmise (l'un des cas n'excluant pas les autres).
3.1. Diffusion et réflexion de la lumière
Lorsqu’elle rencontre un objet, la lumière est partiellement diffusée par cet objet (qui devient une source secondaire de lumière) : c’est la réflexion de la lumière. La lumière réfléchie par une surface irrégulière est renvoyée dans toutes les directions. Certaines fréquences sont réfléchies plus fortement que d'autres, donnant ainsi aux objets leur couleur caractéristique. Les surfaces blanches réfléchissent la lumière de façon égale pour toutes les longueurs d'onde ; les surfaces noires absorbent pratiquement toute la lumière.
3.2. Absorption et réfraction de la lumière
L’autre partie du rayon lumineux est absorbée par l’objet. Si l’objet est opaque, la lumière absorbée ne peut traverser l’objet. Si l’objet est translucide ou transparent, une partie de la lumière absorbée traverse l’objet en changeant généralement de direction : c’est la réfraction de la lumière. C’est la raison pour laquelle il est difficile de déterminer l’emplacement exact d’un objet plongé dans l’eau : il semble plus proche de la surface qu’il ne l’est vraiment, du fait de la réfraction des rayons lumineux.

4. Interaction lumière-matière
4.1. Niveaux d’énergie des atomes
Au début du xxe siècle, la physique quantique transforme radicalement la vision que l'on a jusque-ici de l'énergie ainsi que de la matière. En effet, dans un atome, les électrons gravitent autour du noyau. Chaque électron possède une énergie qui est d’autant plus faible qu’il se trouve proche du noyau. Par définition, l’énergie de l’atome est égale à la somme des énergies de tous ses électrons. Ainsi, l’énergie qui était jusque-ici considérée comme une grandeur continue, devient discontinue à l’échelle atomique : Niels Bohr parle de quantification de l’énergie des atomes dès 1913.
Pour représenter les différents niveaux d’énergie associés à un atome, on utilise un diagramme avec un axe vertical où sont spécifiés les niveaux d’énergie associés à l’atome : l’état de plus basse énergie est appelé état fondamental ; les états d’énergie supérieurs sont des états excités. À chaque état est associé une énergie (notée E) : l’atome ne peut prendre que des niveaux d’énergie bien déterminés (E1, E2, E3, E4…).

4.2. Émission ou absorption d’une radiation par un atome
Pour passer d'un niveau d'énergie à un autre, un atome doit absorber un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité et l’énergie de l’état fondamental. Si l’énergie du photon est supérieure ou inférieure à la différence d’énergie, l’atome ne peut pas absorber le photon et reste dans son état d’énergie fondamental :

Prenons l’exemple de la transition entre le niveau 1 (fondamental) et le niveau 2. Pour être absorbé, le photon doit avoir une énergie E strictement égale à la différence entre E2 et E1 :
E = E2 – E1 = hν, soit E = ΔE = hν.
Tous les photons qui ne possèdent pas cette énergie ne pourront pas être absorbés par l’atome et la transition de niveaux d’énergie ne se fera pas.
Inversement, un atome (ou une molécule) excité(e) retourne à son état fondamental (ou à un état d’énergie inférieur) en émettant un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité de départ et l’énergie de l’état fondamental (ou d’un état d’énergie inférieur).

5. Spectres lumineux
Produite par incandescence ou par luminescence, la lumière est généralement composée d'une infinité de radiations de longueurs d'onde (ou de fréquences) différentes, dont l'ensemble constitue le spectre lumineux. Le spectre d’une lumière peut être obtenu en décomposant cette lumière à l’aide d’un prisme. Lors de la traversée du prisme, la lumière est déviée par réfraction. Chaque radiation lumineuse constituant la lumière est déviée différemment selon sa longueur d’onde, formant ainsi le spectre de cette lumière.
5.1. Les spectres d’émission
En fonction de la source lumineuse, le spectre d’émission sera continu pour des solides et des liquides chauffés (le filament d’une lampe par exemple) ou discret (spectre de raies) pour des gaz portés à haute température (une lampe à vapeur de mercure par exemple). Les raies d’émission sont caractéristiques des éléments chimiques présents dans le gaz.
Si le spectre obtenu est constitué de plusieurs radiations lumineuses, il s’agit d’une lumière polychromatique (lumière émise par une lampe à incandescence par exemple). En revanche, si la lumière n’est constituée que d’une seule radiation lumineuse, il s’agit alors d’une lumière monochromatique (lumière émise par un laser par exemple).

5.2. Les spectres d’absorption
L'étude d'un spectre (spectrométrie) renseigne ainsi non seulement sur la nature chimique de la source, mais aussi sur la nature du milieu traversé par la lumière, qui absorbe certaines radiations. Le spectre de la lumière ayant traversé ce milieu est appelé spectre d’absorption : les raies noires représentent les radiations absorbées. Elles sont caractéristiques des éléments chimiques présents dans le gaz. Le spectre d’absorption et le spectre d’émission d’un même élément chimique sont complémentaires (voir les spectres d’absorption et d’émission du mercure). En effet, les raies d’absorption et d’émission d’une même espèce chimique ont la même longueur d’onde : un élément chimique absorbe les radiations qu’il est capable d’émettre.
Par exemple, l’analyse du spectre de la lumière provenant du Soleil a permis d’identifier les éléments chimiques présents dans l’atmosphère solaire : toutes les raies noires observées correspondent aux radiations absorbées par les atomes présents. Cette analyse, réalisée dès 1814 par J. von Fraunhofer, puis complétée successivement par R. Bunsen et G. Kirchhoff (en 1851) a permis de trouver les éléments chimiques responsables des raies noires du spectre solaire (476 raies au total). En particulier, ces travaux ont mené à la découverte en 1868 d’un élément chimique encore inconnu à cette époque sur Terre : l’hélium. Cette méthode d’analyse spectroscopique est encore utilisée pour étudier l’atmosphère des étoiles.

6. La vitesse de la lumière
La lumière se déplace à une vitesse finie. Par exemple, la lumière émise à la surface du Soleil met environ 8 minutes pour parvenir jusqu'à nous, autrement dit elle se déplace à une vitesse d'environ 300 000 kilomètres par seconde dans le vide. À l’échelle humaine, cette vitesse est vertigineuse – les sondes spatiales envoyées dans l’espace ne se déplacent qu’à environ 20 km/s ; mais à l’échelle de l’Univers, elle devient « manipulable » : il faut par exemple 4 ans à la lumière de l'étoile la plus proche du Soleil (Proxima Centauri) pour nous parvenir et plus de 2 millions d'années pour celle émanant de la galaxie d'Andromède…
La vitesse (ou célérité) de la lumière dans le vide est une constante fondamentale de la physique : c = 299 792 458 m/s. Le premier à montrer expérimentalement que la lumière se déplace à une vitesse finie fut l'astronome O. Römer, en 1676, à partir d'observations des éclipses de certains satellites de Jupiter réalisées à l'Observatoire de Paris. Les premières déterminations précises de la vitesse de la lumière ont été effectuées au xixe s. par H. Fizeau (1849) et L. Foucault (1850). En 1887, les physiciens américains A. Michelson et E. Morley réalisèrent une expérience qui fit date dans l’histoire des sciences : leur objectif était de comparer par interférométrie la vitesse de la lumière se propageant dans le sens de révolution de la Terre et perpendiculairement à ce mouvement, de manière à mettre en évidence l’existence de l’éther dans lequel était censée se déplacer la lumière (comme le son dans l’air). Les résultats de l’expérience de Michelson-Morley permirent d’affirmer que la vitesse de la lumière était la même dans toutes les directions. Cette invariance de la vitesse de la lumière fut interprétée par certains physiciens comme une preuve de l’inexistence du fameux éther. En 1905, A. Einstein interpréta cette expérience dans le cadre de sa théorie de la relativité restreinte : la vitesse de la lumière est indépendante du référentiel, c’est une constante universelle de la physique.
Ainsi, quand une source de lumière s'approche ou s'éloigne, la lumière qui parvient à l'observateur a toujours la même vitesse, mais sa fréquence augmente ou diminue : c’est l’effet Doppler-Fizeau. Cet effet permet notamment de mesurer la vitesse d'éloignement des galaxies dans l'Univers (mesure de décalage vers le rouge ou redshift en anglais).
→ expansion de l'Univers.
Par ailleurs, si la vitesse de la lumière c est invariante dans le vide, elle décroît dans les milieux matériels, ce qui se manifeste par un changement de l'indice de réfraction (noté n) en fonction du milieu (n = c/v, où v est la vitesse de la lumière dans le milieu considéré). Par exemple, la vitesse de la lumière est d’environ 225 000 km/s dans l’eau, de 200 000  km/s dans le verre, le diamant à 125 000 km/s, etc. De plus, l’indice de réfraction (et donc la vitesse) dépend également de la longueur d'onde de la lumière : le bleu est plus dévié que le rouge… Ceci explique la dispersion de la lumière blanche dans un prisme ou dans les gouttes d'eau d'un arc-en-ciel.
Enfin, la vitesse de lumière (et l’indice de réfraction) dépend également de la température du milieu traversé : par exemple, dans l’expérience réalisée en 2000 par Lene Hau (université de Harvard, États-Unis), la vitesse de la lumière traversant un condensat de Bose-Einstein (milieu particulier dans lequel les atomes sont refroidis à une température très proche du zéro absolu, environ –273 °C) a été ralentie à 1,5 km/h.

7. Applications de la lumière
L'énergie du rayonnement lumineux peut être convertie en énergie thermique (fours solaires, effet de serre, etc.), en énergie chimique (photosynthèse, réactions photochimiques utilisées en photographie argentique) et surtout en énergie électrique (cellules photoélectriques, photopiles). L’énergie solaire constitue d’ailleurs une source d’énergie renouvelable intéressante pour répondre au défi énergétique de cette fin de siècle, en raison de l’épuisement rapide des énergies fossiles.
Par ailleurs, la lumière peut être amplifiée et rassemblée en un étroit faisceau dit cohérent, formant la lumière laser, utilisée dans l’ensemble des domaines de la recherche fondamentale (médecine, astrophysique, métrologie, etc.) ainsi que dans l’industrie (lecture de DVD ou de code-barres, découpe de matériaux, armement, etc.).

BOTANIQUE
Comme source d'énergie, la lumière est absorbée principalement au niveau des feuilles (photosynthèse). La lumière verte seule n'est pas absorbée, mais réfléchie, d'où l'aspect vert des feuilles. Comme stimulus efficace, la lumière favorise la germination de certaines espèces et gêne celle d'autres espèces, ralentit la croissance des tiges, faisant s'incliner l'axe vers le côté le plus éclairé (phototropisme), règle l'ouverture des stomates foliaires et gouverne par sa durée la date de la floraison (photopériodisme).

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

Nanomatriaux

  initiation musicale

 

 

 

 

 

 

Nanomatériaux


© A. Gonin/CEA


Construire des nanomatériaux aux propriétés nouvelles pour l’énergie, les transports et d’autres applications de la vie quotidienne est un enjeu stratégique.

Publié le 1 juillet 2012

L’observation des matériaux au microscope fait apparaître leur composition, leur structure, granulaire ou fibreuse, et leurs défauts. Elle révèle, par exemple, que les alliages métalliques sont constitués d’agrégats de grains de taille micrométrique.

INFLUENCE DE LA STRUCTURE
La structure détermine les propriétés optiques, mécaniques, électriques, magnétiques, thermiques… des matériaux. En faisant coïncider l’échelle d’homogénéité des matériaux avec l’échelle d’action de phénomènes physiques, on peut modifier certaines de leurs caractéristiques. Ainsi, un verre millistructuré est transparent mais pas superhydrophobe, tandis qu’un verre microstructuré est opaque mais toujours pas superhydrophobe. Seul un verre nanostructuré est transparent et superhydrophobe.
Les nanomatériaux sont donc volontairement façonnés à cette échelle : ils sont constitués d’éléments nanométriques qui vont leur conférer la propriété recherchée. Ils peuvent se présenter sous forme de nanopoudre ou comprennent des nanoparticules intégrées dans une matrice ordinaire (on parle alors de matériaux composites).
En diminuant la taille des grains, on obtient des matériaux plus légers et ayant de meilleures propriétés mécaniques, par exemple plus résistants. Les matériaux obtenus sont plus malléables car les grains glissent plus facilement les uns par rapport aux autres.

Les polymères sont transparents : ce sont les nanocristaux dispersés dans le polymère qui sont fluorescents sous lampe UV. © Artechnique/CEA

Plus un objet est petit, plus sa surface externe est importante par rapport à son volume. Les objets nanométriques sont caractérisés par un nombre d’atomes en surface identique au nombre d’atomes en volume. Les phénomènes de surface jouent donc un rôle désormais prédominant. Le monde naturel l’illustre bien : ainsi, un insecte peut marcher sur l’eau mais, grossi 500 fois jusqu’à la taille d’un éléphant, il n’en serait plus capable.
De plus, ce qui se passe à l’interface entre chaque élément constitutif est aussi très important. Plus il y a d’éléments, plus la surface d’échange augmente. Celle des objets nanométriques est par conséquent immense. Il est ainsi possible de modifier les propriétés d’un matériau en le façonnant à cette échelle. Par exemple, le cuivre formé de nanocristaux est trois fois plus résistant mécaniquement qu’en microcristaux. Une poussière de nanotubes « en vrac » a une immense surface d’échange avec son environnement : plusieurs centaines de mètres carrés par gramme. Cela permet notamment d’augmenter l’efficacité des catalyseurs de l’industrie chimique ou des pots d’échappements pour le même volume de matière.
Certains matériaux réémettent de la lumière visible quand ils sont éclairés : c’est le phénomène de photoluminescence. Sous des rayons ultraviolets, la couleur émise par des nanocristaux de séléniure de cadmium change en fonction de leur dimension, passant du bleu pour des grains de 2 nm au vert pour 3 nm, puis au rouge pour 5 nm. Dotés de cette propriété, les nanocristaux de semi-conducteurs, souvent appelés quantum dots, peuvent être utilisés dans le marquage moléculaire ou encore comme marqueurs d’objets précieux et de produits commerciaux.
On peut ainsi utiliser la réactivité ou les propriétés de certaines nanoparticules pour obtenir des surfaces fonctionnalisées : vitres autonettoyantes, miroirs antibuée, revêtements antibactériens et/ou fongicides… Pour cela, il faut déposer une couche de ces nanoparticules à la surface d’un objet en matériau ordinaire avec des procédés comme le sol-gel ou le dépôt en phase vapeur.

La nature inspiratrice
Le gecko, petit animal qui ressemble à un lézard, a la propriété étonnante de courir au plafond ! En examinant de très près la surface de ses pattes, on a découvert qu’elle est constituée d’un tapis de fibres très serrées qui lui donne cette superadhérence. Des chercheurs sont en train d’en copier la structure pour reproduire cet effet de nano-velcro…
La feuille de lotus, quant à elle, présente une propriété étonnante : elle est superhydrophobe. L’étude nanométrique de sa surface met en évidence une nanostructure qui fait glisser les gouttes, et permet de comprendre comment et pourquoi, même plongée dans l’eau, elle paraît toujours sèche. L’intérêt de cette recherche est de pouvoir fabriquer des verres hydrophobes qui pourraient équiper les véhicules et la lunetterie.
Les objets nanométriques « naturels » sont depuis toujours présents dans notre environnement. Les grains d’argent des émulsions photographiques, la poudre à base d’encre de Chine, les colorants des verres (de certaines cathédrales par exemple) contiennent des nanoparticules. Mais les objets dérivant des nanotechnologies ne sont fabriqués que depuis quelques années. Aujourd’hui, plus de 350 produits grand public sont commercialisés pour lesquels le constructeur mentionne au moins un élément dérivé des nanotechnologies. Parmi eux, on compte des cosmétiques, des systèmes électroniques et des produits ménagers et sportifs.
Pour beaucoup d’applications, des nanoparticules aux propriétés déterminées sont incluses dans une matrice, créant ainsi un matériau composite fonctionnel. Tout, ou presque, est envisageable : béton ultraléger, résistant et auto-cicatrisant, film de polyéthylène antibactérien (en incluant des nanoparticules d’argent) et imperméable aux rayons UV (grâce à des nanoparticules de dioxyde de titane), crèmes solaires incorporant, elles aussi, des nanograins de dioxyde de titane pour l’absorption des UV dangereux pour la peau, céramiques nanorenforcées rendues bio­compatibles, matières plastiques à base de polymères rendues conductrices, ininflammables ou plus résistantes…

DES NANOS AU SERVICE DE L'ÉNERGIE
L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur, en particulier dans les projets liés aux réacteurs de « Génération IV ».

En effet, qu'il s'agisse des nouveaux alliages métalliques renforcés par une dispersion très fine d’oxyde (aciers ODS) ou de composites à matrices céramiques (CMC), les performances de ces matériaux reposent sur leur nanostructuration. Elles permettent par exemple aux premiers de renforcer leur résistance lors de leur utilisation en environnement sévère ; aux seconds de présenter une conductivité thermique élevée. Le développement pour le nucléaire de ces matériaux nanostructurés permettra la diffusion de connaissances, de savoir-faire technologique et d’innovation dans d’autres secteurs industriels.
Les nouvelles technologies de l’énergie intègrent aussi ces recherches.
Premier exemple : les cellules photovoltaïques. Les dispositifs actuels en silicium cristallin convertissent au maximum 16 à 18 % de la puissance du Soleil en énergie électrique, mais la fabrication des cellules est coûteuse, complexe, et exige de grandes précautions. Les nanotechnologistes élaborent des structures photosensibles flexibles, à partir de plastiques conducteurs, actuellement en phase de test.

L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur.

Pour les piles à combustible, le polymère des membranes a été rendu plus résistant mécaniquement, chimiquement et thermiquement. Les particules de platine, qui jouent le rôle de catalyseur, ont été remplacées par des nanoparticules, permettant ainsi d’économiser du métal précieux.
Le champ des possibles est immense. À l’évidence, des secteurs comme l’aéronautique et l’aérospatial, toujours à la recherche de matériaux légers et ultra-performants, seront de gros utilisateurs. Les moyens de transport terrestres, maritimes et aériens seront plus légers, emporteront plus de charge utile tout en consommant moins d’énergie et donc en polluant moins. L’industrie textile connaîtra aussi sans doute des bouleversements : de nombreux scientifiques travaillent déjà sur des tissus « intelligents ».

 

  DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

Les 4 interactions fondamentales

  initiation musicale


 

 

 

 

 

Les 4 interactions fondamentales

Publié le 28 juillet 2022

Quatre interactions fondamentales régissent l’Univers : l’interaction électromagnétique, l’interaction faible, l’interaction nucléaire forte et l’interaction gravitationnelle. Les interactions électromagnétiques forte et faible sont décrites par le modèle standard de la physique des particules, qui est en cohérence avec la physique quantique, tandis que l’interaction gravitationnelle est actuellement décrite par la théorie de la relativité générale. Quelles sont les propriétés de chacune de ces interactions ? Quel est leur impact sur notre quotidien ? Quels sont les enjeux de la recherche sur les interactions fondamentales ?

L’INTERACTION ÉLECTROMAGNÉTIQUE (FORCE ÉLECTROMAGNÉTIQUE)
L’interaction électromagnétique régit tous les phénomènes électriques et magnétiques. Elle peut être attractive ou répulsive : par exemple, deux pôles d’aimants de même signe (« nord » ou « sud ») vont se repousser alors que deux pôles d’aimants de signe opposé vont s’attirer.
Cette interaction est liée à l’existence de charges électriques et est notamment responsable de la cohésion des atomes en liant les électrons (charge électrique négative) attirés par le noyau de l’atome (charge électrique positive).
Le photon est la particule élémentaire associée à l’interaction électromagnétique. Il est de charge électrique nulle et sans masse, ce qui fait que cette interaction a une portée infinie.
J.C. Maxwell écrit, vers 1864, la théorie de l’électromagnétisme qui explique l’existence d’ondes électromagnétiques (ondes radio, infra-rouge, lumière, ultra-violet, rayons X et gamma). Leur importance n’est plus à démontrer. Dans la seconde moitié du XXe siècle, cette théorie a été reformulée grâce notamment aux travaux du physicien Feynman sous la forme de l’électrodynamique quantique pour y introduire les concepts quantiques de façon cohérente et qui décrit l’interaction comme un échange de photons.

L’INTERACTION FAIBLE (FORCE FAIBLE)
L’interaction faible est la seule qui agit sur toutes les particules, excepté sur les bosons. Responsable de la radioactivité Bêta, elle est donc à l’origine de la désintégration de certains noyaux radioactifs.
Le rayonnement Bêta est un rayonnement émis par certains noyaux radioactifs qui se désintègrent par l'interaction faible. Le rayonnement β+ (β-) est constitué de positons (électrons) et se manifeste lorsqu’un proton (neutron) se transforme en neutron (proton). Un neutrino (antineutrino) électronique est également émis. Ce rayonnement est peu pénétrant : un écran de quelques mètres d'air ou une simple feuille d'aluminium suffisent pour l’arrêter.
Les particules élémentaires associées à l’interaction faible sont le boson neutre (le Z0) et les deux bosons chargés (les W+ et W−). Ils ont tous une masse non nulle (plus de 80 fois plus massifs qu’un proton), ce qui fait que l’interaction faible agit à courte portée (portée subatomique de l’ordre de 10-17 m).

La datation au carbone 14 est possible grâce à l’interaction faible. Le carbone 14 est un isotope radioactif du carbone qui se transforme en azote 14 par désintégration Bêta moins. Sa période radioactive, temps au bout duquel la moitié de ses atomes s’est désintégrée, est de 5 730 ans. La technique du carbone 14 permet de dater des objets de quelques centaines d’années à 50 000 ans environ.

Le neutrino
Le neutrino, particule élémentaire du modèle standard, n’est sensible qu’à l’interaction faible. Le neutrino est un lepton du modèle standard de la physique pouvant prendre trois formes (ou saveurs) : le neutrino électronique, muonique et tauique. Les neutrinos n'ont pas de charge électrique et ont une masse très faible dont on connaît seulement une borne supérieure. Ils se transforment périodiquement les uns en les autres selon un processus appelé "oscillation des neutrinos". N'étant sensibles qu'à l'interaction faible, les neutrinos n'interagissent que très peu avec la matière si bien que pour absorber 50 % d'un flux de neutrinos, il faudrait lui opposer un mur de plomb d'une année-lumière d'épaisseur. >> En savoir plus sur les neutrinos

L’INTERACTION NUCLÉAIRE FORTE OU INTERACTION FORTE (FORCE FORTE)
L’interaction forte permet la cohésion du noyau de l’atome. Elle agit à courte portée au sein du proton et du neutron. Elle confine les quarks, particules élémentaires qui composent les protons et neutrons, en couples "quark−antiquark" (mésons), ou dans des triplets de quarks (un ou deux autres (anti) quarks) (baryons). Cette interaction se fait par l'échange de bosons appelés "gluons".
Le gluonest la particule élémentaire liée à l’interaction forte. La charge associée à cette interaction est la "charge de couleur". Lors de l'échange d'un gluon entre deux quarks, ils intervertissent leurs couleurs. L’interaction entre deux quarks est attractive et d’autant plus intense que ceux-ci sont distants l’un de l’autre, et est quasi nulle à très courte distance.
La réaction primordiale de fusion de deux protons en deutéron (un isotope naturel de l’hydrogène dont le noyau contient un proton et un neutron) est un processus dû à l’interaction faible dont le taux gouverne la lente combustion des étoiles. C’est ensuite l’interaction forte qui est à l’œuvre dans les chaînes de réactions nucléaires qui suivent et qui produisent d’autres noyaux.
Cette interaction est notamment responsable des réactions nucléaires qui ont lieu au sein du Soleil.

La réaction de fusion nucléaire

Les quarks portent une charge de couleur qui est à l’interaction forte ce que la charge électrique est pour la force électromagnétique. Un quark peut avoir trois couleurs, appelées par convention rouge, bleu et vert. Un antiquark a l’une des « anticouleurs » correspondantes : antirouge, antibleu et antivert.
Les quarks forment des particules composites « blanches », c’est-à-dire sans charge de couleur. Il y a deux manières de former ces hadrons : soit en combinant un quark et un antiquark dont la couleur et l’anticouleur s’annulent (par exemple rouge et antirouge) ; on parle alors de « méson ». Soit en associant trois quarks porteurs chacun d’une couleur différente ; de telles particules sont appelées « baryons » – par exemple le proton et le neutron.

L'INTERACTION GRAVITATIONNELLE (FORCE GRAVITATIONNELLE)
Dans la vision de la loi de la gravitation universelle de Newton, l’interaction gravitationnelle est celle qui agit entre des corps massifs. La force est attractive. La pesanteur et les mouvements des astres sont dus à la gravitation.

Dans le cadre de la relativité générale, la gravitation n’est pas une force mais une manifestation de la courbure de l’espace-temps. La gravitation ne fait pas partie du modèle standard, elle est décrite par la relativité générale. Elle se définit par la déformation de l’espace-temps.

La gravitation est la plus faible des quatre interactions fondamentales. Elle s'exerce à distance et de façon attractive entre les différentes masses. Sa portée est infinie.


La première théorie la décrivant efficacement est celle de Newton en 1687. Pesanteur, mouvements planétaires, structure des galaxies sont expliqués par la gravitation. En 1915, elle est remplacée par la théorie de la relativité générale d’Einstein qui sert de cadre à la description de l’Univers entier et où les masses déforment l’espace-temps au lieu d’y exercer des forces à distance.

A ce jour, on ne sait pas décrire l’interaction gravitationnelle par la mécanique quantique, et on ne lui connaît aucun boson médiateur. Au niveau théorique, la gravitation pose problème car on ne sait pas la décrire à l’aide du formalisme de la «  théorie quantique des champs  », utilisé avec succès pour les trois autres interactions. L’hypothétique graviton serait la particule médiatrice de la gravitation dans une description quantique de cette interaction.

PORTÉE DE L'INTERACTION ENTRE DEUX CORPS
La masse du boson vecteur (ou médiateur) va définir la portée de l’interaction. Imaginez deux particules en interaction comme deux personnes se lançant une balle, représentant le boson vecteur : plus la balle est légère, plus ils peuvent la lancer loin. Par analogie, plus le boson vecteur est léger, plus la portée de l’interaction est grande.
*         Force forte - Particules médiatrices (boson vecteurs) : gluons ; Domine dans :  noyau atomique
*         Force électromagnétique - Particules médiatrices (boson vecteurs) : photons - Domine dans : électrons entourant le noyau
*         Force faible - Particules médiatrices (bosons vecteurs) : Boson Z0, W+, W- - Domine dans : Désintégration radioactive bêta
*         Gravitation - Particules médiatrices (bosons vecteurs) : Graviton ? (pas encore observé) - Domine dans : Astres .

LA THEORIE DU TOUT : VERS L’UNIFICATION DES INTERACTIONS FONDAMENTALES ?
L’objectif des recherches est de trouver une théorie qui expliquerait simultanément les quatre interactions fondamentales.
L’unification des quatre interactions fondamentales fait partie des axes de recherche principaux de la physique des particules. Une première étape a été franchie il y a une trentaine d’années avec l’unification de l’interaction faible et de la force électromagnétique dans un même cadre : l’interaction électrofaible. Celle-ci se manifeste à haute énergie – environ 100 GeV. La suite logique de ce processus est d’y ajouter l’interaction forte. Mais, si convergence il y a, elle ne devrait se manifester qu’à des échelles d’énergie encore bien plus élevées (1015 ou 1016 GeV), totalement hors de portée des expériences actuelles. L’étape ultime, l’ajout de la gravité à ce formalisme, est encore plus éloignée et se heurte à des problèmes mathématiques non résolus pour le moment.
La théorie des cordes et la théorie de la gravitation quantique à boucles sont les deux cadres théoriques les plus étudiés aujourd’hui.
Les théories de dimensions supplémentaires, dont la théorie des cordes, ont été initialement proposées pour résoudre le problème de l’extrême faiblesse de la gravité. L’une des réponses serait que seule une petite fraction de la force gravitationnelle n’est perceptible, le reste agissant dans une ou plusieurs autres dimensions. Ces dimensions, imperceptibles, seraient courbées et non plates comme les quatre connues de l’espace et du temps.
Les cordes seraient des petits brins d’énergie en vibration qui seraient reliées dans plusieurs « branes » (des cordes qui se seraient étirées et transformées en grandes surfaces).  Les branes seraient comme des barrières entre plusieurs dimensions, jusqu’à 10, mais ces dimensions supplémentaires nous sont invisibles.
Toute la physique fondamentale serait unifiée, c’est-à-dire la mécanique quantique avec la relativité générale.
La gravité quantique à boucles a pour but de quantifier la gravitation. Elle a notamment pour conséquences que le temps et l’espace ne sont plus continus, mais deviennent eux-mêmes quantifiés (il existe des intervalles de temps et d’espace indivisibles). La gravité quantique à boucles cherche à combiner la relativité générale et la mécanique quantique directement, sans rien y ajouter.
Cependant, à ce jour, aucune théorie unique ne peut expliquer de façon cohérente toutes les interactions.

Notions clés
*         Interactions fondamentales et particules élémentaires : chacune des trois interactions fondamentales décrites par le modèle standard, à savoir l’interaction électromagnétique, l’interaction faible et l’interaction nucléaire forte - est associée à une ou plusieurs particule(s) élémentaire(s), les bosons. Ainsi, l’interaction forte est véhiculée par les gluons ; le photon transmet l’interaction électromagnétique tandis que les trois autres bosons sont responsables de l’interaction faible.
*         Spectre électromagnétique : le spectre du rayonnement électromagnétique s’étend des ondes radio aux rayons gamma en passant par les micro-ondes, l’infrarouge, la lumière visible, l’ultraviolet et les rayons X. Ce sont tous des rayonnements électromagnétiques qui ne différent que par la fréquence de l’onde. Pour en savoir plus, consulter L'essentiel sur les ondes électromagnétiques.
*         Le graviton est une particule hypothétique de la famille des bosons, médiateur de l'interaction gravitationnelle. Il s'agirait d'une particule de masse nulle, de charge électrique nulle et de spin égal à 2.

 

 DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] - Suivante
 
 
 
Google