ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

La supraconductivit, ce sont des matriaux capables de conduire le courant lectrique sans aucune rsistance.

  initiation musicale

 

 

 

 

 

 

La supraconductivité, ce sont des matériaux capables de conduire le courant électrique sans aucune résistance. Ce phénomène quantique encore mystérieux et jusqu'ici cantonné aux très basses températures a captivé nos lecteurs cette année.

Imaginez un monde dans lequel le courant circulerait sans perte dans les lignes à haute tension, où nos appareils électriques et électroniques ne consommeraient que très peu d’énergie et où nous voyagerions à très grande vitesse dans des trains lévitant au-dessus des rails, à l’abri des frottements. Cette alléchante perspective pourrait bien un jour devenir réalité grâce à la supraconductivité.
Ce phénomène physique découvert il y a plus d’un siècle se manifeste dans certains matériaux par la disparition de toute résistance électrique – et donc de toute perte d’énergie. Cette propriété unique a déjà permis le développement d’applications majeures, comme l’imagerie par résonance magnétique (IRM) dans les hôpitaux ou encore les accélérateurs de particules pour la recherche en physique. Malheureusement, pour acquérir cette propriété extraordinaire, la plupart des matériaux supra-conducteurs mis au point jusqu’ici doivent être refroidis à des températures extrêmes, proches du zéro absolu (- 273,15 °C), en faisant appel à des systèmes de réfrigération chers et encombrants. Cela a limité jusqu’à aujourd’hui leur utilisation à quelques applications de niche.


Train à grande vitesse à lévitation magnétique mis en service dans la ville de Qingdao (Chine) en 2021. L’effet Meissner (expulsion de tout champ magnétique), au cœur même du fonctionnement de ce train, lui permet des pointes à 600 km/h.



Mais les chercheurs n’ont pas dit leur dernier mot : dans les laboratoires du monde entier, ils tentent d’élucider les mécanismes à l’origine de la supraconductivité, et conçoivent et étudient de près de nouveaux matériaux prometteurs. Avec en ligne de mire la découverte de supraconducteurs à température ambiante, qui ne nécessiteraient donc plus aucune réfrigération. La supraconductivité pourrait alors enfin révolutionner notre quotidien.
Du phénomène étrange observé…
C’est en 1911 que cet état de la matière est mis en évidence. En refroidissant du mercure à - 269 °C grâce à de l’hélium liquide, le physicien néerlandais Heike Kamerlingh Onnes découvre alors que la résistance électrique du métal devient nulle. Une caractéristique surprenante puisque dans les conditions normales, même les fils électriques les plus conducteurs qui soient perdent une partie de leur énergie sous forme de chaleur. Par la suite, de nombreux autres métaux (plomb, étain ou aluminium) et alliages métalliques supraconducteurs sont découverts – toujours à des températures frôlant le zéro absolu.

AIP Emilio Segré Visual Archives
Partager

Il faudra attendre la fin des années 1950, plus précisément 1957, pour que le phénomène soit enfin expliqué par trois physiciens américains qui proposèrent la théorie BCS, initiales de leur nom respectif : John Bardeen, Leon Neil Cooper et John Robert Schrieffer.
La supraconductivité est l'une des rares manifestations à l’échelle macroscopique d’un effet de physique quantique.
La supraconductivité trouve en fait son origine dans le comportement des électrons qui composent les atomes et, pour la comprendre, il faut avoir recours à la physique quantique qui décrit la matière à cette échelle. « Il s’agit même d’une des rares manifestations à l’échelle macroscopique d’un effet de physique quantique », souligne Cyril Proust1, du Laboratoire national des champs magnétiques intenses du CNRS.
Explication : à mesure que la température baisse dans le matériau, les mouvements des atomes se réduisent jusqu’à générer des vibrations particulières de la structure cristalline qui poussent les électrons à s’associer d’abord par paires, puis tous ensemble pour former une onde collective qui occupe tout le matériau.
… aux premiers succès
Plus rien ne perturbe alors le mouvement des électrons, d’où la disparition de la résistance électrique. Mais le phénomène s’évanouit à nouveau au-dessus d’une certaine température qualifiée de « critique », l’agitation thermique détruisant ce fragile équilibre. En plus de la disparition de la résistance électrique, les recherches révèlent au fil des ans une autre propriété étonnante : un supraconducteur expulse tout champ magnétique qu’on veut lui imposer. C’est l’effet Meissner, du nom de son découvreur.  Grâce à ses deux propriétés remarquables, la supraconductivité ne tarde pas à trouver des applications. Il suffit en effet d’injecter du courant de forte intensité dans une bobine de fil supraconducteur pour qu’il génère un champ magnétique tout aussi important, sans risque de surchauffe. Ou encore qu’un aimant soit placé au-dessus d’un supraconducteur pour littéralement léviter.

Ces champs magnétiques intenses sont, entre autres, indispensables au fonctionnement des appareils d’IRM qui analysent les tissus des patients, de la spectroscopie par résonance magnétique utilisée par les scientifiques pour dévoiler la structure moléculaire d’un échantillon, des réacteurs expérimentaux de fusion nucléaire, comme Iter, actuellement en construction en France, et des accélérateurs de particules dans lesquels d’immenses aimants supraconducteurs dévient et focalisent les faisceaux de particules.

Si le LHC du Cern utilisait des aimants conventionnels en cuivre, il ne mesurerait pas 27 kilomètres de circonférence mais 100, et il consommerait près de 25 fois plus d’énergie !
À ce titre, si le LHC du Cern, à Genève, utilisait des aimants conventionnels en cuivre, il ne mesurerait pas 27 kilomètres de circonférence mais 100, et il consommerait près de 25 fois plus d’énergie ! Autrement dit, il n’aurait pas pu voir le jour. Malgré ces premiers beaux succès, les scientifiques gardent les pieds sur terre. D’après la théorie BCS qui identifie clairement le mécanisme en jeu, ils savent en effet que pour devenir supraconducteur, un métal doit forcément être refroidi à très basse température. Très peu imaginent donc pouvoir mettre au jour une supraconductivité à une température plus élevée. Et encore moins à température ambiante !

Une découverte inopinée
Jusqu’à ce qu’une découverte vienne complètement changer la donne. En 1986, on identifie en effet de manière inattendue les premiers supraconducteurs dits à « haute température critique » – comprenez à des températures plus élevées que celles observées jusque-là. Ces matériaux de synthèse sont des cuprates, des composés à base d’oxyde de cuivre. Et le record de température de passage à la phase supraconductrice détenu par un cuprate (à base de mercure) est aujourd’hui de - 135 °C. Une température certes encore froide mais beaucoup plus facilement accessible grâce à l’azote liquide cette fois. Avec cette découverte, la communauté scientifique reprend espoir. Et si finalement la supraconductivité pouvait exister à température ambiante ?
Les chercheurs se mettent alors en quête de décrypter ce nouveau type de supraconductivité exhibée par les cuprates, l’idée étant ensuite de pouvoir l’améliorer et, pourquoi pas, de trouver des supra-conducteurs à température ambiante. « Les expériences ont montré assez vite qu’on avait affaire à une supraconductivité non conventionnelle : comme dans les métaux, c’est l’appariement des électrons qui conduit à l’apparition du phénomène mais contrairement à ce qui est décrit dans la théorie BCS, ce ne sont pas les vibrations des atomes qui constituent la colle entre les électrons », explique Cyril Proust.

Le mystère des cuprates
Percer la nature de cette mystérieuse colle devient alors l’objectif numéro un, la question constituant même l’un des principaux sujets de recherche en physique de la matière condensée. Et pour avancer, théoriciens et expérimentateurs travaillent main dans la main, améliorant considérablement les techniques de mesure des matériaux et inventant de nouveaux concepts théoriques et de nouvelles approches numériques pour les décrire. En trente ans, cette recherche a permis bon nombre d’avancées dans le domaine de la supraconductivité, et plus largement en physique.

Dorothée COLSON/P BONNAILLIE/CEA/CNRS Images
Partager

« Mais force est de reconnaître que le mystère de la supraconductivité à haute température critique n’a toujours pas été résolu. Plusieurs explications sur son origine ont bien été avancées mais aucune ne fait aujourd’hui consensus », admet Alain Pautrat, du laboratoire de Cristallographie et sciences des matériaux2. Si cette question reste encore ouverte, c’est parce que les cuprates sont des matériaux déroutants, à la physique complexe, même lorsqu’ils ne sont pas supraconducteurs. Initialement, un cuprate est un matériau totalement isolant. C’est en lui ajoutant ou en lui retirant des électrons par une modification chimique appelée « dopage » qu’il se transforme en un conducteur d’électricité puis en supraconducteur à plus basse température.

Effet de groupe
Contrairement à un métal où les électrons peuvent être considérés comme indépendants, dans un cuprate les électrons sont dits « fortement corrélés » : ils se gênent, se bloquent et ne se déplacent que collectivement, une situation qui rend leur description extrêmement difficile et qui fait que leur comportement nous échappe. Et pour venir compliquer encore plus les choses, les chercheurs savent aussi qu’à l’état isolant, un cuprate est un matériau magnétique. Si bien qu’aujourd’hui, deux scénarios dominent pour expliquer la supraconductivité de ces oxydes de cuivre.

Plusieurs explications de l'origine de la supraconductivité à haute température ont bien été avancées, mais aucune ne fait aujourd’hui consensus.

Pour certains, ce serait ce même magnétisme – ou plutôt de petites fluctuations magnétiques qui resteraient à l’état de trace près de la température critique – qui fournirait la « colle » aux paires d’électrons. « De nombreuses observations le suggèrent fortement, même si aucune preuve directe n’a encore été apportée », confie Cyril Proust, partisan de cette théorie. D’autres mettent en avant le fait que, sous l’effet de ces fortes corrélations, les électrons s’organisent sous différentes configurations ou ordres tous plus exotiques les uns que les autres.
Ces différentes configurations pourraient entrer en compétition, avec pour conséquence l’apparition de la supraconductivité. « Les expériences ont permis de bien caractériser ces ordres électroniques, mais leur diversité fait qu’il est encore difficile d’établir un lien de cause à effet avec la supraconductivité », reconnaît Alain Pautrat.

Un défi expérimental
Les chercheurs sont donc toujours dans l’attente de l’expérience ultime qui viendra trancher le débat. De son côté, Cyril Proust compte bien apporter sa pierre à l’édifice, lui qui a déjà permis de faire progresser le domaine. Depuis 2003, il soumet des échantillons de cuprates à des impulsions magnétiques très intenses, capables de supprimer leur supra-conductivité. « Ce faisant, nous dévoilons les propriétés que le matériau aurait sans l’établissement d’une phase supraconductrice. Ainsi, nous avons pu mettre en évidence tous ces ordres électroniques en compétition », explique le chercheur.


Pénétration d’un champ magnétique dans une couche mince du cuprate supraconducteur (yttrium, baryum, cuivre, oxygène).

Cornelis VAN DER BEEK/CNRS Images
Partager

Et pour aller plus loin encore, Cyril Proust et son équipe préparent leur prochaine expérience : il s’agira cette fois d’exposer des cuprates à des champs magnétiques encore jamais atteints, de 200 teslas (soit 2 000 fois plus puissant que l’aimant collé sur votre frigo), seule manière de détruire la supraconductivité là où la température critique est à son maximum et où le phénomène est le plus intense. « Le défi expérimental est de taille mais il constitue une des clés pour résoudre ce mystère », poursuit-il.

De nouvelles classes de matériaux
L’étude d’autres matériaux supraconducteurs à haute température critique pourrait elle aussi apporter son lot de découvertes. Car même si les cuprates font figure de stars en détenant les records de température, ils ne sont pas les seuls représentants de cette nouvelle classe de supraconducteurs. En 2008, on met ainsi en évidence la supraconductivité des pnictures, des composés à base de fer dont la température de transition vers la phase supraconductrice est de - 217 °C. Moins complexes à décrire que leurs cousins à base d’oxyde de cuivre, les pnictures ont révélé que, dans leur cas, c’est probablement le seul magnétisme qui permet aux charges électriques de former des paires. Plus récemment encore, en 2018, ce sont les nickelates, à base d’oxyde de nickel, qui sont venus s’ajouter à la liste, affichant une température critique de l’ordre de - 258 °C.


Structure cristallographique du pnicture BaFe2As2, un matériau supraconducteur à base de fer. Les atomes de fer sont en rouge, les atomes d'arsenic en bleu et les atomes de baryum en jaune.

Pour ces composés structurellement très proches des cuprates, et dont on soupçonnait qu’ils puissent être supraconducteurs depuis une vingtaine d’années, il semblerait cette fois que le magnétisme ne joue pas de rôle dans l’apparition de la supraconductivité. De quoi donner du grain à moudre aux théoriciens. « Si l’on veut un jour comprendre la supraconductivité à haute température critique, il est primordial de comparer les différentes familles de matériaux. De cette manière seulement, on pourra acquérir une vision globale du phénomène et identifier les mécanismes les plus importants », insiste Marie-Aude Méasson, de l’Institut Néel du CNRS.
Hydrures : les nouveaux enfants prodiges
La maîtrise de la supraconductivité à haute température critique annonce une petite révolution pour les réseaux électriques et l’électronique. Mais il ne faut pas s’attendre à un bouleversement majeur tant qu’on ne saura pas se passer de dispositifs de refroidissement. La véritable révolution ne pourra se faire qu’à température ambiante. Heureusement, la supraconductivité n’est pas avare en rebondissement et si les cuprates n’ont toujours pas révélé leurs mystères, c’est désormais vers d’autres matériaux que tous les regards se tournent : les hydrures.
L’intérêt pour ces composés riches en hydrogène a été lancé en 2015 lorsqu’une équipe de chercheurs allemands montre que le sulfure d’hydrogène devient supraconducteur à - 70 °C, une température bien plus élevée que celle des cuprates. Néanmoins, le revers de la médaille, c’est que ce record s’établit à des pressions infernales : pour obtenir l’état supraconducteur, il faut en effet soumettre l’échantillon à une pression gigantesque de l’ordre de 2 millions de bars, soit 2 millions de fois celle de notre atmosphère ! Pour cela, les physiciens utilisent des cellules à enclumes de diamant – le matériau le plus dur qui soit.


En 2015, des chercheurs allemands ont montré que le sulfure d’hydrogène devenait supraconducteur à - 70 °C en soumettant le matériaux à d'énormes pressions grâce à des cellules à enclumes de diamants.

Thomas Hartmann
Partager

La réalisation n’en est pas moins importante : elle vient confirmer pour la première fois une prédiction faite en 1969 à partir de la théorie BCS, qui identifiait l’hydrogène métallique – à très haute pression – comme candidat à une supraconductivité à une température critique très élevée. Et encourage du même coup d’autres groupes à suivre cette voie. Si bien que ces dernières années une dizaine d’hydrures ont été synthétisés.

Buzz médiatiques et rétractations
Jusqu’à cette annonce exceptionnelle en mars dernier dans la revue Nature par une équipe américaine d’un composé fait d’hydrogène, de lutécium et d’azote, supraconducteur à 20,5 °C et à une pression de « seulement » 10 000 bars. Avant d'être finalement rétracté en novembre 2023 par Nature à la demande de ses auteurs principaux
(link is external)
, ce résultat a ébranlé la communauté scientifique : non seulement la température ambiante était atteinte mais la pression à appliquer aurait été largement plus accessible – ces gammes de pressions étant couramment mises en œuvre dans certains procédés industriels. « Ces travaux paraissaient les plus spectaculaires de ces vingt dernières années. En montrant que la température ambiante est un objectif atteignable, ils  avaient le potentiel de relancer totalement le domaine. Mais il faut toujours rester prudent tant qu'un résultat n’a pas été reproduit ni vérifié », commente Alain Pautrat.

Ainsi, soucieuses de ne pas crier victoire trop tôt, de nombreuses équipes de par le monde se sont immédiatement penchées sur ce nouveau matériau pour tenter de le synthétiser à leur tour et de confirmer le résultat. « À ce jour, aucun des groupes qui ont reproduit l’expérience n’a observé de phase supraconductrice. C’est d’autant plus troublant que les conditions de pression sont relativement simples à mettre en œuvre », note Marie-Aude Méasson. Ce qui met en doute la découverte. D’autant que des critiques se sont élevées dans la communauté scientifique pour pointer du doigt des erreurs et des manques dans la publication. En particulier, la structure cristallographique du composé qui définit la proportion et l’organisation tridimensionnelle des atomes n’est toujours pas clairement identifiée. À cela s’ajoute le fait que cette même équipe s’était déjà vu retirer par Nature un autre article publié en 2020, lui aussi controversé, qui annonçait la découverte d’un premier hydrure supraconducteur à 15 °C.
Devant tous ces éléments, certains scientifiques n’hésitent pas à parler de fraude. Le même buzz médiatique et finalement le même genre de critiques ont entaché l’annonce tonitruante cet été de la découverte des propriétés supraconductrices à température et pression ambiante du matériau LK99 (voir encadré).

Des défauts prometteurs
Pour trancher définitivement le débat, certains chercheurs proposent une mesure bien précise. C’est le cas de Jean-François Roch et de son équipe du laboratoire Lumière-matière aux interfaces3. Le physicien exploite les propriétés quantiques des centres NV du diamant, des défauts ponctuels au sein du cristal qui se comportent comme des atomes artificiels et qui sont extrêmement sensibles aux champs magnétiques environnants. « L’idée est d’implanter ces centres NV sur la pointe des diamants qui composent les enclumes pour pouvoir mesurer l’effet Meissner dans le matériau, preuve directe de sa supraconductivité. Car jusqu’à présent, la mesure des propriétés magnétiques par des capteurs traditionnels s’est révélée extrêmement difficile dans de telles conditions de pression. Seuls les centres NV peuvent fournir une preuve de cet effet sans ambiguïté », explique Jean-François Roch. Avec son dispositif, il serait ainsi possible de vérifier la supraconductivité du dernier hydrure en date, au centre de toutes les polémiques. Et des autres hydrures également qui font actuellement l’objet d’âpres débats au sein de la communauté scientifique.


Cellule à enclumes de diamant. Une des enclumes intègre des défauts cristallins (rouge) sur la surface au voisinage de l’échantillon (bleu). Le champ magnétique appliqué à la cellule (flèches) est expulsé de l’échantillon lorsqu’il devient supraconducteur.

Margarita Lesik, LAC (CNRS/Univ. Paris Saclay)
Partager

Mais au-delà des controverses, ces nouveaux composés représentent aujourd’hui un des meilleurs espoirs pour pouvoir atteindre la supraconductivité à température ambiante. Certes, les pressions dantesques nécessaires à l’apparition de la supraconductivité constituent encore un véritable obstacle à leur utilisation dans la vie de tous les jours. Mais pour certains, cet obstacle n’est pas insurmontable : de la même façon que le diamant qui, formé dans le manteau terrestre, conserve ses propriétés dans les conditions qui règnent en surface, il faudrait trouver des formes métastables d’hydrures, qui resteraient supraconducteurs quand on relâcherait la pression.
Les physiciens et les chimistes l’ont bien compris, eux qui travaillent main dans la main pour découvrir de nouveaux matériaux supraconducteurs par un savant mélange de théorie, de simulations numériques et en testant sans relâche de nouvelles combinaisons d’éléments. « En parallèle des efforts théoriques, la recherche en supraconductivité est souvent une affaire d’intuition, d’empirisme scientifique et de chance parfois. Tout comme la découverte des cuprates était inattendue, une surprise est toujours possible dans la quête du supraconducteur ultime », confie Alain Pautrat. La révolution est en marche. ♦    
-----------------------------------------------------------
LK99, un candidat éconduit
Après une première annonce en mars dernier dans la revue Nature par une équipe américaine d'un matériau à base d'hydrogène, supraconducteur à température ambiante et à une pression de 10 000 bars, c'est au tour d'une équipe coréenne d'annoncer en juillet la mise au point d'un matériau supraconducteur, à température et pression ambiantes cette fois. Ce composé baptisé LK-99 fait de groupements phosphates, de cuivre et de plomb, qui bat tous les records en matière de température et de pression, est donc potentiellement révolutionnaire. Mais tout comme les travaux des chercheurs américains, ce résultat doit être pris avec une extrême prudence. Non seulement il n'a toujours pas été publié dans une revue scientifique mais aucune des tentatives d'autres groupes pour le reproduire n'a confirmé une quelconque supraconductivité.
« Les courbes de caractérisations physiques sont peu convaincantes et ne ressemblent pas à celles caractéristiques d'un matériau supraconducteur. Pour moi, ce n'est pas prometteur », juge ainsi Alain Pautrat, du laboratoire Cristallographie et sciences des matériaux4. Il ne faut donc pas crier victoire trop vite et il y a même fort à parier que ce résultat ne soit jamais confirmé. En effet, dans ce domaine où les enjeux économiques sont énormes, des annonces de supraconducteurs à température ambiante surviennent régulièrement, avant d'être démenties peu après. Sur la route vers le supraconducteur parfait, bien plus que le buzz, la patience et la véracité scientifique sont de mise. ♦
 
Notes
*         1.
Actuellement détaché au laboratoire international Frontières Quantiques (CNRS/Université de Sherbrooke).
*         2.
Unité CNRS/École nationale supérieure d’ingénieurs de Caen/Univ. de Caen Normandie.
*         3.
Unité CNRS/Univ. Paris-Saclay/ENS Paris-Saclay/ CentraleSupélec.
*         4.
Unité CNRS/École nationale supérieure d’ingénieurs de Caen/Univ. de Caen Normandie.

 

  DOCUMENT         CNRS         LIEN 
 

 
 
 
initiation musicale toulon  

Les noyaux des atomes

  initiation musicale


 

 

 

 

 

Les noyaux des atomes


Publié le 11 mai 2022


La conception que se font les physiciens des noyaux des atomes et de la physique qui les gouverne a fortement évolué depuis le début du XXème siècle. On les classe sur un diagramme en fonction de leur nombre de protons et de neutrons appelé charte des noyaux. Dans ce diagramme, la « vallée de la stabilité » délimite la zone des noyaux existants.
A L’INTÉRIEUR DE L’ATOME
L’atome est le constituant de base de la matière. Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés), tandis que les électrons (chargés négativement) sont localisés autour du noyau.
Son nombre de protons ou numéro atomique est noté Z. L’atome étant neutre, il comporte autant d’électrons que de protons. Ainsi le numéro atomique détermine les propriétés chimiques de l’atome. A chaque valeur de Z correspond un nom d’atome, un élément chimique. Ainsi l’hydrogène possède 1 proton, tandis que le carbone en possède 6.

Le nombre de neutrons au sein du noyau est désigné N. Le nombre de masse A est la somme de Z+N. Pour un atome de Z donné, on peut compter plusieurs isotopes, en fonction du nombre de neutrons.

DES NOYAUX DANS TOUS LEURS ÉTATS
Un noyau d’atome est dit :
*         lié lorsque la cohésion des protons et des neutrons est assurée. Plus leur énergie de cohésion est élevée, plus il faudra fournir d’énergie pour séparer les constituants du noyau. Les noyaux liés peuvent être stables ou instables.
*         stable lorsqu’il ne se désintègre pas spontanément en un autre noyau. La majorité des noyaux que l’on trouve sur Terre sont stables.
*         instable ou radioactif lorsqu’il tend à se transformer spontanément en un autre noyau. On appelle cette transformation « désintégration radioactive ». La probabilité que cet événement survienne dépend de sa période radioactive, qui correspond au temps au bout duquel la moitié d’un ensemble de noyaux de même nature s’est désintégrée.
*         excité lorsque, stable ou instable, il a acquis un surplus d’énergie. Le noyau peut vibrer ou tourner sur lui même et /ou dissiper cette énergie excédentaire par émission d’une particule ou d’un photon.       

DES NOYAUX EN FORME
Dès les origines de la physique nucléaire, devant la complexité d'un système composé de N particules en interaction, les physiciens imaginent des modèles visant à donner une description simple mais suffisamment réaliste du noyau. Depuis les années 60, les physiciens constatent que le noyau des atomes peut prendre les formes les plus inattendues. La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires peuvent se trouver. Ces constituants élémentaires sont les protons et les neutrons, qu’on nomme ensemble les nucléons, liés par l’interaction forte, l’une des quatre forces fondamentales à l’œuvre dans l’Univers. Ils sont eux-mêmes composés de quarks et de gluons (également soumis à l’interaction forte).

Les principales phases de la transformation de notre vision du noyau
Jusqu’au 19e siècle, l’atome est considéré comme la brique de base de la matière, indivisible. A partir du 20e siècle, la physique permet aux scientifiques de rentrer dans l’intimité de l’atome.

*         1911-1919 : On voit l’atome comme un noyau composé de protons chargés positivement autour duquel gravitent les électrons ;
*         1932 : Le noyau compte aussi des neutrons ;
*         1934 : Synthèse d’un atome artificiel. C’est le premier noyau exotique. Casse tête des physiciens tant leurs propriétés sont variées (forme, mode de désintégration radioactive, composition, durée de vie tellement courte que la notion même d’existence semble dépassée…), les noyaux exotiques continuent d’être étudiés aujourd’hui : il en resterait, selon les modèles théoriques, 3 000 à 5 000 à découvrir.
*         Années 40 : Certaines combinaisons particulières de protons et de neutrons entraînent des noyaux ayant une énergie de liaison très élevée. Les physiciens les appellent les noyaux magiques. C’est le cas pour les noyaux qui comptent 2, 8, 20, 28, 50, 82 ou 126 protons et/ou neutrons. A la même époque, le noyau peut être décrit macroscopiquement comme une goutte de matière. C’est le modèle de la goutte liquide qui permet de calculer l’énergie de liaison du noyau grâce à une seule équation simple.
*         Années 50 : On pense que les nucléons sont organisés en niveaux d’énergie qu’on appelle couches nucléaires, similaires à celles des électrons autour du noyau. C’est le modèle en couches : chaque couche a un nombre fini d’emplacements, lorsqu’une couche est totalement remplie et qu’aucune n’est remplie partiellement, l’édifice est particulièrement robuste.
*         Années 70 : La théorie du champ moyen considère que chaque nucléon se déplace dans un puits de potentiel, généré par l’ensemble des autres nucléons, qui le confine dans le noyau.
*         Années 80 : les noyaux ne sont plus vus comme un mélange homogène et plus ou moins sphérique. Ils sont imaginés comme des structures très variées : ainsi le carbone 12, atome stable, porté à haute énergie, est vu comme un tripode de trois noyaux d’hélium ; Le lithium 11 fait partie d’une nouvelle famille de noyaux dits noyaux à halo : son extension spatiale est similaire à celle du plomb 208, qui comporte pourtant vingt fois plus de nucléons.
*         Années 90 : A quelques encablures de la vallée de la stabilité, la théorie prévoit l’existence d’une série de noyaux comportant plus de 110 protons dont la durée de vie serait relativement élevée. Les scientifiques parlent de l’îlot de stabilité des noyaux super-lourds. Cette relative stabilité des noyaux super-lourds va à l’encontre de la force de répulsion coulombienne qui tend à faire se disloquer un édifice composé d’un trop grand nombre de charges de même signe.
*         Années 2000 : Avec la montée en puissance des grands accélérateurs de faisceaux radioactifs (Spiral au Ganil, RIBF à Riken…) de nombreux nouveaux isotopes radioactifs sont découverts et étudiés.
*         Aujourd’hui, tous les éléments jusqu’à 118 protons ont été synthétisés. Les quatre derniers découverts (113, 115, 117 et 118 protons) ont été officiellement nommés en 2016. De nouveaux instruments sont en développement pour aller encore plus loin. Les noyaux exotiques très riches en neutrons produits lors des explosions de supernovae sont encore hors de notre portée. On est encore très loin d’avoir découvert tous les noyaux existants et les phénomènes surprenants qu’ils pourraient faire apparaître !

Dans cette carte des noyaux, on prend pour "altitude", l'énergie de masse moyenne (Mc2/A), qui représente l'énergie de masse moyenne d'un nucléon dans le noyau. Plus cette énergie est faible, plus le noyau est stable. Les noyaux stables se retrouvent sur une ligne définissant le fond de la vallée, entourée de noyaux excédentaires en neutrons (en rose), en protons (en bleu) et de noyaux trop lourds (orange). Un excès de protons ou de neutrons se traduit par une transformation des noyaux selon différents modes de désintégration radioactive, alpha ou beta notamment. © CEA/Animea

LA VALLÉE DE LA STABILITÉ
Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons (Z, éléments) et de neutrons  (N, isotopes), on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions qui présente une surprenante vallée au fond de laquelle se  trouvent les 250 à 300 atomes stables. Plus on s’éloigne de ces noyaux, plus l’énergie de liaison de nucléons dans le noyau est faible. Les atomes radioactifs subissent une série de transformations qui les ramène toujours vers le fond de ladite vallée. Les chercheurs désignent cette figure par le terme imagé de «  vallée de la stabilité ».

D’OU VIENNENT LES NOYAUX : LA NUCLÉOSYNTHÈSE DANS LES ÉTOILES
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’univers. Les atomes les plus légers sont les plus anciens : hydrogène, hélium, lithium et béryllium ont été formés par assemblage de protons et de neutrons dans les trois minutes suivant le Big Bang. Il y a entre douze et quinze milliards d’années. Les autres éléments, plus lourds, sont plus récents et ont été produits dans les étoiles. Les premiers atomes compris entre le carbone et le fer ont été synthétisés lors de la fin de vie d’étoiles près de dix fois plus massives que notre Soleil. Au delà du cobalt, les noyaux sont synthétisés lors de réactions explosives telles que les supernovas. On ne connaît pas encore précisément tous les processus responsables de la création des atomes dans l’Univers.


Notions clés
*         Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés).
*         La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires (protons et neutrons) peuvent se trouver.
*         Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons et de neutrons, on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions, appelé "vallée de la stabilité".

 

 DOCUMENT     cea         LIEN
 

 
 
 
initiation musicale toulon  

LES LASERS

  initiation musicale


 

 

 

 

 

LES LASERS

Réalisation : 3 août 2000 - Mise en ligne : 3 août 2000
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3


Descriptif
Depuis l'invention du premier laser en 1960, la diversité des lasers en couleurs, taille ou puissance n'a fait que croître. Les plus petits lasers sont si minuscules qu'on ne peut les voir qu'au microscope, les plus gros consomment autant d'électricité qu'une ville moyenne. Tous les lasers ont la faculté d'émettre des rayons d'une lumière inconnue dans la nature, qui forment de minces pinceaux d'une couleur pure, et que l'on peut concentrer sur un petit foyer. Ils exploitent la possibilité, prévue par Einstein, de multiplier les photons, qui sont les particules formant la lumière, dans un matériau bien choisi. Les caractéristiques des lasers, fort différentes de celles des lampes ordinaires, leur ont ouvert des utilisations très variées. En délivrant sa puissance de façon localisée, l'outil laser est capable de percer, découper et souder avec vitesse et précision. Il est aussi utilisé en médecine où il remplace les bistouris les plus précis et cautérise les coupures. Ce sont des lasers circulant dans des fibres optiques, fins cheveux de verres dont le réseau couvre maintenant le globe terrestre, qui transportent maintenant les conversations téléphoniques et les données sur Internet. Le laser intervient aussi dans les analyses les plus fines, en physique, en chimie ou en biologie, où il permet soit de manipuler les atomes ou les molécules individuellement, soit de véritablement déclencher et photographier des réactions chimiques ou biologiques. Il identifie les molécules qui composent l'air et beaucoup de grandes villes s'équipent de lasers spéciaux pour détecter la pollution à distance. Les sciences et techniques d'aujourd'hui vivent à l'heure du laser. Beaucoup pensent que le XXIe sera celui de l'optique, et ceci, grâce au laser.


Documents pédagogiques

Texte de la 216e conférence de l’Université de tous les savoirs donnée le 3 août 2000.

Les lasers

par Élisabeth Giacobino

Inventé il y a quarante ans, le laser reste un instrument un peu mystérieux, voire mythique, dont la notoriété dans le grand public doit beaucoup à la guerre des étoiles. Le combat au sabre laser ou le laser rayon de la mort sont beaucoup mieux connus que d’autres utilisations, bien réelles celles-là, qui ont changé notre vie. Quand vous décrochez votre téléphone pour appeler au-delà de votre voisinage immédiat, il y a de fortes chances que votre conversation soit transmise par un laser, car les câbles téléphoniques sont maintenant en grande partie remplacés par des fibres optiques où circule la lumière laser. Sans les télécommunications par laser, capables de transmettre de très hauts débits d’information, l’expansion de l’Internet n’aurait pas été possible.
Depuis que le premier laser, un laser rouge à rubis, a fonctionné en 1960, la diversité des lasers en couleur, taille et puissance n’a fait que croître. Les plus petits lasers sont si minuscules qu’on ne peut les voir qu’au microscope, les plus gros consomment autant d’électricité qu’une ville moyenne, et nécessitent de véritables immeubles pour les abriter (Fig. 1). Leurs longueurs d’onde dépassent largement les couleurs du spectre visible pour s’étendre des rayons X à l’infrarouge lointain.
Les lasers ont en commun la faculté d’émettre des rayons très parallèles, d’une couleur pure. D’où vient cette lumière extraordinaire, inconnue dans la nature et si différente de la lumière classique émise par une lampe ?
L’émission stimulée, principe de base du laser
Comme dans une lampe ou dans un tube fluorescent, ce sont des atomes ou des molécules qui produisent la lumière. Quand les atomes sont chauffés, excités par un courant électrique ou quand ils absorbent de la lumière, leurs électrons gagnent de l’énergie. Mais ils ne peuvent stocker l’énergie que de manière très spécifique. Ainsi que l’a montré Niels Bohr en 1913, les atomes sont sur des niveaux d’énergie bien précis, dits quantifiés, entre lesquels ils peuvent transiter. Ce faisant, l’atome absorbe ou émet une particule de lumière ou photon, dont l’existence tout d’abord postulée par Max Planck en 1900, a été affirmée par Einstein en 1905 (Fig. 2). De même que les niveaux d’énergie de l’atome, l’énergie du photon échangé, et donc sa longueur d’onde et sa couleur, sont déterminées par le type d’atome ou de molécule concerné.
Dans les lampes habituelles, on fournit de l’énergie aux atomes avec un courant électrique, c’est à dire qu’on met un certain nombre de leurs électrons dans les états supérieurs ou « excités ». Ils en redescendent rapidement et retombent vers l’état de plus basse énergie en émettant de la lumière de manière spontanée et désordonnée, dans toutes les directions et sur plusieurs longueurs d’onde.
Mais outre cette émission spontanée, il existe un autre processus, découvert par Einstein en 1917, appelé émission stimulée. C’est lui qui est à la base du fonctionnement du laser. Laser est d’ailleurs un acronyme pour « Light Amplification by Stimulated Emission of Radiation » (amplification de lumière par émission stimulée de rayonnement). La lumière peut forcer l’atome à redescendre de son état excité en cédant son énergie : un photon frappe l’atome et deux photons en ressortent. L’intérêt de ce processus est que la lumière émise est exactement identique à la lumière incidente, elle va dans la même direction, et les deux ondes sont exactement en accord de phase. L’émission stimulée produit ainsi une multiplication de photons identiques et une amplification cohérente de l’onde.

L’idée du laser a été proposée en 1958 par deux physiciens américains, C. H. Townes et A. L. Schawlow, et à peu près dans le même temps par les soviétiques V.A. Fabrikant, A.M. Prokhorov et N.G. Basov. Townes, Basov et Prokhorov ont d’ailleurs eu le prix Nobel en 1964 pour cette invention. Schawlow l’a eu beaucoup plus tard, en 1981. Townes avait déjà inventé, quelques années auparavant, le « maser » qui est un laser fonctionnant en micro-ondes sur les mêmes idées. Mais on peut remarquer que tous les principes étaient là dans les années 1920. Est-ce à dire que le laser aurait pu être inventé bien avant ?
Le principal problème à résoudre était que l’émission stimulée est en compétition avec les autres voies d’interaction de la lumière avec les atomes. L’une d’elle est l’émission spontanée, déjà mentionnée plus haut, l’autre est l’absorption, par laquelle un photon arrivant sur un atome placé dans un certain niveau d’énergie disparaît tandis que l’atome passe dans un niveau d’énergie supérieure. Pour que l’absorption, comme d’ailleurs l’émission stimulée, se produise, il faut que l’énergie du photon corresponde exactement à l’énergie dont l’atome a besoin pour effectuer la transition entre les deux niveaux d’énergie. Les deux processus sont aussi probables l’un que l’autre, et celui qui domine dépend de la répartition des atomes entre les deux niveaux d’énergie concerné par la transition. Considérons, comme sur la Figure 1, un ensemble de photons arrivant sur un groupe d’atomes. Si les atomes situés dans le niveau inférieur de la transition sont majoritaires, il se produit plus d’absorptions que d’émissions stimulées et le nombre de photons diminue. Au contraire, si les atomes du niveau supérieur sont majoritaires, c’est l’émission stimulée qui domine, et il ressort plus de photons qu’il n’y en avait au départ (Fig. 3). Quand le nombre de photons est assez grand, l’émission stimulée devient beaucoup plus fréquente que l’émission spontanée.
En général, les atomes se trouvent dans les niveaux d’énergie les plus bas et la population dans les différents niveaux diminue au fur et à mesure que l’on monte. Pour faire fonctionner un laser, il faut mettre les molécules ou les atomes dans des conditions complètement anormales, où cette répartition est renversée. La population d’un certain niveau doit être plus grande que celle d’un des niveaux inférieurs : on parle d’inversion de population. L’émission stimulée peut alors l’emporter sur l’absorption.
Cette situation est difficile à réaliser et les scientifiques se basés sur des études de spectroscopie qui avaient été faites dans de nombreux matériaux, aussi bien gaz, liquides que solides pour déterminer ceux qui présentaient les caractéristiques les plus favorables. Dans certains lasers, on utilise un courant électrique pour porter un majorité d’atomes dans un état excité et les préparer pour l’émission stimulée, dans d’autres, c’est une source auxiliaire de lumière (une lampe, ou un autre laser) qui « pompe » les atomes vers le niveau supérieur. C’est le physicien français Alfred Kastler qui a le premier proposé l’idée du pompage optique, pour lequel il a reçu le prix Nobel de Physique en 1966.
Si l’amplification sur un passage dans le matériau en question n’est pas très forte, on peut la renforcer en refaisant passer l’onde dans le milieu avec un miroir, et même plusieurs fois avec deux miroirs, un à chaque extrémité. A chaque passage l’onde lumineuse accumule un certain gain qui dépend du nombre d’atomes portés dans l’état supérieur par le pompage. On pourrait penser que dans ces conditions l’onde est amplifiée indéfiniment. De fait, il n’en est rien. A chaque passage, l’onde subit aussi des pertes, pertes inévitables dues à l’absorption résiduelle du milieu et des autres éléments qui constituent le laser et surtout pertes à travers les miroirs pour constituer le faisceau laser utilisable à l’extérieur. L’onde grandit jusqu'à ce que le gain équilibre les pertes et le régime laser s’établit de manière stable dans la cavité formée par les deux miroirs. L’intensité du faisceau laser qui sort de cette cavité dépend à la fois du gain disponible dans le milieu matériel et de la transparence des miroirs. Le faisceau est d’autant plus parallèle et directif qu’il aura parcouru un grand trajet entre les deux miroirs de la cavité.

Des lasers de toutes sortes
Après la publication de l’article où Townes et Schawlow exposaient leur idée, une compétition féroce s’engage dans le monde entier pour mettre en évidence expérimentalement cet effet nouveau. Suivant de près le laser à rubis, mis au point par T. Maiman en juillet 1960, deux autres lasers fonctionnent cette année-là également aux Etats-Unis. L’un d’eux est le laser à hélium-néon, dont le faisceau rouge a longtemps été utilisé pour le pointage et l’alignement. Il est maintenant détrôné par le laser à semi-conducteur, qui a fonctionné pour la première fois en 1962. Ce sont des lasers à semi-conducteur qui sont utilisé dans les réseaux de télécommunications optiques. Au début des années 1960, une floraison de nouveaux lasers voit le jour, comme le laser à néodyme, infrarouge, très utilisé à l’heure actuelle pour produire des faisceaux de haute puissance, le laser à argon ionisé vert qui sert aux ophtalmologistes à traite les décollements de la rétine, ou le laser à gaz carbonique, infrarouge, instrument de base dans les découpes et les traitements de surface en métallurgie.

Après les nombreux allers-retours qu’il fait entre ses deux miroirs avant de sortir, le faisceau d’un laser est très parallèle et peut être focalisé sur une surface très petite, ce qui permet de concentrer une très grande puissance lumineuse. Comme elle est due à la multiplication de photons identiques, la lumière laser est une onde pratiquement monochromatique, d’une couleur très pure. Il existe aussi un autre mode de fonctionnement, dans lequel toute l’énergie du laser est condensée sur des séries d’impulsions extrêmement brèves. Le record du monde se situe actuellement à quelques femtosecondes, soit quelques millionièmes de milliardièmes de seconde. Pendant ce temps très court se comprime toute la puissance du laser, qui peut alors atteindre plus de 100 térawatts, ou 100 000 milliards de watts, soit la puissance que fournissent 100 000 centrales électriques. On conçoit que cette impulsion ne peut pas durer longtemps ! De fait si une telle impulsion dure 10 femtosecondes, elle ne contient qu’une énergie modeste, 1 joule, ou 1/4 calorie.
Des applications très variées
Ce sont les qualités extraordinaires de la lumière laser qui sont exploitées dans les diverses applications, aussi bien dans la vie courante que dans les domaines de haute technologie et pour la recherche. Le faisceau très parallèle émis par les lasers est utilisé aussi bien pour la lecture des disques compacts que pour le pointage et les relevés topographiques et pour le guidage des engins ou des missiles. Lorsque de plus le laser émet des impulsions brèves, il est aisé de mesurer la distance qui le sépare d’un objet éloigné : il suffit que ce dernier soit tant soit peu réfléchissant. On mesure le temps d’aller-retour d’une impulsion entre le laser et l’objet, impulsion qui se propage à la vitesse de la lumière, 300 000 kilomètres par seconde. Certaines automobiles seront bientôt porteuses d’un petit laser qui permettra de connaître la distance de la voiture précédente et de la maintenir constante. Un « profilomètre » laser en cours de développement permettra aux aveugles d’explorer les obstacles dans leur environnement bien plus efficacement qu’une canne blanche. Encore plus ambitieuse est la mesure de la distance de la Terre à la Lune : plusieurs observatoires, comme celui de la Côte d’Azur à Grasse possèdent un laser dirigé vers la Lune. Il se réfléchit à la surface de la Lune sur des réflecteurs placés là par les missions Apollo, et revient, certes très affaibli, mais encore détectable sur Terre (Fig. 4). C’est ainsi que l’on sait que la Lune s’éloigne de la Terre de 3,8 centimètres par an ! La recherche des ondes gravitationnelles prédites par Einstein en 1918, mais jamais observées directement, utilise aussi un laser. Une onde gravitationnelle passant sur Terre modifie très légèrement les longueurs. Un laser permet de comparer avec une précision incroyable la longueur de deux bras d’un appareil appelé interféromètre où le laser circule. On espère détecter une variation de longueur bien inférieure au rayon d’un noyau d’atome sur une distance de plusieurs kilomètres.
Les télécommunications optiques bénéficient aussi de cette possibilité qu’ont les lasers de former des faisceaux très fins et modulables en impulsions très brèves. Les câbles en cuivre ont été remplacés en grande partie par des câbles optiques dont le réseau s’étend aussi bien sous les océans que sur les continents. Dans ces câbles, des fibres optiques, fins cheveux de verre, guident les faisceaux lasers de l’émetteur au récepteur. Sur ces lasers sont inscrits en code numérique aussi bien les conversations téléphoniques que les données pour l’Internet. Les câbles transocéaniques les plus récents atteignent des capacités de transmission fabuleuses, équivalentes à plusieurs millions de communications téléphoniques. De nouveaux câbles assortis de lasers et de systèmes optiques de plus en plus performants vont permettre à la « toile » mondiale de continuer à se développer à un rythme toujours plus effréné.
Une fois focalisé, le faisceau laser concentre une grande énergie. C’est ce qu’utilisent les imprimantes lasers avec des puissances relativement modestes. Les capacités de découpe et de perçage des lasers de grandes énergie comme le laser à gaz carbonique, sont largement exploitées en mécanique. Les lasers ont aussi utilisés couramment pour nettoyer les monuments historiques. Le laser permet d’enlever très exactement la couche de pollution qui s’est accumulée sur la pierre sans endommager cette dernière. En chirurgie le laser fait merveille en particulier en ophtalmologie où il remplace les bistouris les plus précis et en dermatologie où il permet des traitements esthétiques ou curatifs de nombreuses affections : verrues, tatouages ou rides disparaissent grâce au laser.

A la frontière extrême des lasers de puissance se situe le projet français de laser « Mégajoule » et son équivalent américain NIF (pour National Ignition Facility), dans lequel 240 faisceaux lasers seront focalisés pendant 16 nanosecondes avec une puissance totale de 500 Térawatts sur une cible de quelques millimètres carrés. La température de la matière située au point focal est portée à plusieurs millions de degrés. L’objectif principal est de produire la fusion thermonucléaire par laser, mais ces lasers sont aussi susceptibles de contribuer à la recherche sur la matière dans les conditions extrêmes qui règnent dans les étoiles.
Le laser est devenu un instrument de choix pour nombre de recherches fondamentales. En physique, la réponse optique des atomes lorsqu’on les éclaire par un laser est souvent une signature irremplaçable de leurs propriétés et permet de détecter et d’identifier des traces infimes de produits divers. En chimie et en biologie, on assiste à la naissance d’un nouvelle discipline : la femtochimie laser. Si les réactions chimiques d’ensemble prennent parfois plusieurs secondes ou minutes, au niveau des atomes, tout se passe à l’échelle de la femtoseconde. Pour sonder ce domaine, on envoie une impulsion laser ultra-brève qui est capable de déclencher à volonté des réactions de décomposition ou de recombinaison de molécules. D’autres impulsions envoyées quelques femtosecondes plus tard permettent de suivre l’évolution du système du système et de faire de véritables photographies en temps réel de la réaction chimique.

Exploitant la connaissance, accumulée par les chercheurs, des longueurs d’onde que peuvent absorber les molécules, la détection de la pollution atmosphérique par laser est appelée à se développer largement. La méthode LIDAR (pour « light detection and ranging », détection et mesure de distance par la lumière) utilise un laser de la couleur adéquate pour révéler la présence dans l’air des molécules indésirables, comme les oxydes d’azote ou l’ozone. Le laser envoie des impulsions vers la zone polluée. Une faible partie de celles-ci est diffusée en sens inverse, et l’analyse de la lumière qui revient permet de déterminer la concentration en polluant. Le temps d’aller retour des impulsions donne quand à lui la distance et la dimension du nuage polluant (Fig. 5). En balayant le laser dans toutes les directions on peut ainsi réaliser une véritable carte à 3 dimensions de la composition atmosphérique. Des LIDAR sont déjà en fonctionnement ou en test dans plusieurs grandes villes françaises.

Le laser est issu de l’imagination de quelques chercheurs, qui voulaient avant tout mettre en évidence de nouveaux concepts scientifiques. Même si ses inventeurs avaient imaginé quelques unes des utilisations du laser, ils étaient loin de soupçonner les succès qu’il devait connaître. A l’époque, certains avaient même qualifié le laser de « solution à la recherche d’un problème ». Il aurait pu rester à ce stade. Si les sciences et les techniques vivent aujourd’hui à l’heure du laser, c’est aussi grâce au développement de techniques parallèles, comme les fibres à très faibles pertes pour les télécommunications. En revanche, des recherches purement orientées vers une application donnée n’auraient jamais donné ce résultat. Aujourd’hui, dans un monde dominé par la rentabilité à court terme, de telles inventions nous rappellent que la recherche de la connaissance peut aussi déboucher sur des développements technologiques extraordinaires.

 

  VIDEO       CANAL  U         LIEN

 
 
 
initiation musicale toulon  

lumire

  initiation musicale

 

 

 

 

 

 

lumière

(latin ecclésiastique luminaria, du latin classique lumen, -inis)

Consulter aussi dans le dictionnaire : lumière
Cet article fait partie du dossier consacré à la
lumière
.
Rayonnement électromagnétique dont la longueur d'onde, comprise entre 400 et 780 nm, correspond à la zone de sensibilité de l'œil humain, entre l'ultraviolet et l'infrarouge.

OPTIQUE
1. Historique de la notion de lumière
1.1. Les conceptions antiques et médiévales de la lumière
La théorie de la lumière a introduit, tout au long de l'histoire des sciences, un questionnement fondamental sur la nature des objets que la physique étudie : ondes ou particules ? Dans les premières descriptions mythiques du monde, la lumière est une sorte de « brume claire », opposée à la « brume sombre » des ténèbres qui, le soir, montent du sol. Puis les Grecs commencent à s'interroger sur la nature physique du monde. Parménide, remarquant que la partie brillante de la Lune est toujours tournée vers le Soleil, en déduit que la lumière vient du Soleil, c'est-à-dire qu'elle se déplace. Les ténèbres, elles, sont une absence de lumière. La propagation de la lumière est expliquée par l'émission de petites particules, conception qui sera largement développée au Moyen Âge. Pour Aristote, les couleurs résultent d'un mélange de lumière et d'obscurité.
1.2. Les premières théories scientifiques de la lumière
1.2.1. La lumière selon Descartes, Huygens et Malebranche
Au début du xviie s., avec R. Descartes, s'amorce vraiment une théorie scientifique de la propagation de la lumière. Si Descartes conçoit la lumière comme un ébranlement d'une matière subtile se transmettant instantanément, donc avec une vitesse infinie et sans transport de matière, on rencontre aussi chez lui une conception corpusculaire. Ces idées seront reprises et améliorées par deux théories longtemps rivales : la théorie ondulatoire et la théorie corpusculaire.
La première ne reçoit un véritable développement scientifique qu'avec C. Huygens. Selon celui-ci, chaque point d'une surface lumineuse émet une onde sphérique qui se propage à une vitesse finie dans un milieu non vraiment matériel, l'éther, d'une manière analogue au son. Huygens explique ainsi les phénomènes de réflexion de la lumière, de réfraction (déviation d'un rayon lumineux lors de son passage d'un milieu à un autre), etc. (→ optique). Toutefois, sa théorie ondulatoire ignore les notions de fréquence et d'amplitude des vibrations lumineuses et donc n'explique ni la diversité des couleurs, ni les phénomènes d'interférence, ni la propagation rectiligne de la lumière.
Au début du xviiie s., N. de Malebranche, partisan lui aussi de la théorie ondulatoire présente une conception plus précise des vibrations lumineuses de l'éther et de leur fréquence qu'il distingue de leur amplitude, ce qui le conduit à la reconnaissance de la diversité continue des couleurs. Mais, pour lui, comme pour Huygens, la vibration est longitudinale.
1.2.2. La lumière selon Newton
La théorie de la lumière d'I. Newton est mixte, bien qu'y domine l'explication corpusculaire, qui sera la source d'une vive polémique avec R. Hooke, défenseur de la pure théorie ondulatoire. Pour Newton, la lumière est constituée par des corpuscules qui se déplacent dans l'éther à une vitesse finie, où ils produisent des vibrations. Comme Malebranche, il introduit la notion de fréquence variant avec les couleurs, mais, à la différence de celui-ci, il ne la distingue pas clairement de l'amplitude des vibrations. Cette fréquence est expliquée par la variation du comportement des corpuscules durant leur parcours, et la diversité des couleurs, par des différences de taille des corpuscules. La théorie corpusculaire de Newton rend bien compte de la propagation rectiligne de la lumière, mais ce n'est que par des raisonnements mécaniques imaginatifs et peu scientifiques qu'il explique la diffraction (phénomène typiquement de nature ondulatoire).
1.3. L'optique moderne
C'est seulement au début du xixe s., avec T. Young, qu'est introduit le principe fondamental d'interférences des ondes lumineuses, au cours de l'expérience dite des « fentes de Young », qui constitue une preuve patente du caractère ondulatoire de la lumière. Cette théorie ne sera vraiment développée que par A. Fresnel, qui substitue, le premier, la vibration transversale à la vibration longitudinale. Toutefois, à la même époque, de nombreux savants demeurent attachés à la théorie corpusculaire, principalement Laplace et J.-B. Biot, qui la défendent sur la base de la mécanique newtonienne. Mais, lorsque les mesures de H. Fizeau (1849) et de L. Foucault (1850) démontrent, ainsi que l'avait prévu Fresnel, que la lumière se propage plus vite dans l'air que dans l'eau, la théorie corpusculaire, qui affirmait le contraire, est abandonnée.
En 1865, J. C. Maxwell établit la nature électromagnétique de la lumière, théorie que H. A. Lorentz développe à la fin du xixe s., démontrant notamment que l'on peut expliquer la réflexion et la réfraction par les théories électromagnétiques de Maxwell.
1.4. La conception quantique de la lumière
Avec la découverte du photon et l'interprétation de l'effet photoélectrique par A. Einstein en 1905, et avec la mécanique ondulatoire de L. de Broglie en 1924, qui associe onde et corpuscule, les deux théories – corpusculaire et ondulatoire – se trouvent « réconciliées », mais sous un mode qui les modifie l'une et l'autre. Comme toute révolution scientifique, celle-ci entraîne un dépassement des théories précédentes. Aujourd'hui, dans le cadre de la physique quantique, le photon n'est plus ni une onde ni une particule mais un quanton, objet d'étude de la théorie quantique. Cependant, lorsque celle-ci peut être approchée par la théorie classique, un quanton manifeste un comportement soit corpusculaire (effet photoélectrique), soit ondulatoire (interférences lumineuses). La théorie quantique relie les aspects corpusculaire et ondulatoire de la lumière par la relation E = hν = hc/λ (l'énergie d'un photon E est proportionnelle à la fréquence ν de l'onde (ou inversement proportionnelle à la longueur d'onde λ) qui lui est associée, h étant la constante de Planck dont la valeur est 6,626 176 × 10−34 J s et c la célérité de la lumière).

2. Sources et récepteurs de lumière
Les grandeurs photométriques (relatives à la lumière) usuelles sont l'intensité lumineuse, le flux lumineux, la luminance et l'éclairement, les unités correspondantes étant la candela, le lumen, la candela par mètre carré et le lux.
2.1. Les sources primaires de lumière
Les sources primaires produisent de la lumière par elles-mêmes en convertissant de l’énergie (chimique pour les bougies, électrique pour les lampes, nucléaire pour les étoiles) en énergie lumineuse.
2.2. Les sources secondaires et la diffusion de la lumière
Les sources secondaires sont des objets éclairés qui renvoient dans toutes les directions une partie de la lumière qu’ils reçoivent (la Lune, les planètes, les objets qui nous entourent) : on dit que la lumière est diffusée par l’objet. Seuls les objets totalement noirs ne réfléchissent pas de lumière.
2.3. Les récepteurs de lumière
L’œil humain est un récepteur de lumière particulièrement sophistiqué : il s’adapte aux conditions de luminosité, permet de voir de près comme de loin et distingue les couleurs. Mais il en existe de plus simples comme la pellicule d’un appareil photo (photographie) qui convertit la lumière en énergie chimique, ou une cellule photoélectrique qui convertit la lumière en signal électrique (→ capteur, CCD).
Pour en savoir plus, voir les articles œil [zoologie], vision [zoologie], vision [médecine].

3. Propagation de la lumière
Le trajet de la lumière dans un milieu peut être représenté par un segment de droite appelé rayon lumineux. La lumière se propage en ligne droite dans les milieux homogènes (les milieux qui ont la même composition en tout point) ; si le milieu est également transparent (comme l’eau, l’air, le verre, etc.), la lumière se propage en ligne droite sans être atténuée, ou très peu. Néanmoins, l'intensité lumineuse par unité de surface diminue avec le carré de la distance à la source. Lorsque la lumière rencontre un corps, elle est absorbée, réfléchie ou transmise (l'un des cas n'excluant pas les autres).
3.1. Diffusion et réflexion de la lumière
Lorsqu’elle rencontre un objet, la lumière est partiellement diffusée par cet objet (qui devient une source secondaire de lumière) : c’est la réflexion de la lumière. La lumière réfléchie par une surface irrégulière est renvoyée dans toutes les directions. Certaines fréquences sont réfléchies plus fortement que d'autres, donnant ainsi aux objets leur couleur caractéristique. Les surfaces blanches réfléchissent la lumière de façon égale pour toutes les longueurs d'onde ; les surfaces noires absorbent pratiquement toute la lumière.
3.2. Absorption et réfraction de la lumière
L’autre partie du rayon lumineux est absorbée par l’objet. Si l’objet est opaque, la lumière absorbée ne peut traverser l’objet. Si l’objet est translucide ou transparent, une partie de la lumière absorbée traverse l’objet en changeant généralement de direction : c’est la réfraction de la lumière. C’est la raison pour laquelle il est difficile de déterminer l’emplacement exact d’un objet plongé dans l’eau : il semble plus proche de la surface qu’il ne l’est vraiment, du fait de la réfraction des rayons lumineux.

4. Interaction lumière-matière
4.1. Niveaux d’énergie des atomes
Au début du xxe siècle, la physique quantique transforme radicalement la vision que l'on a jusque-ici de l'énergie ainsi que de la matière. En effet, dans un atome, les électrons gravitent autour du noyau. Chaque électron possède une énergie qui est d’autant plus faible qu’il se trouve proche du noyau. Par définition, l’énergie de l’atome est égale à la somme des énergies de tous ses électrons. Ainsi, l’énergie qui était jusque-ici considérée comme une grandeur continue, devient discontinue à l’échelle atomique : Niels Bohr parle de quantification de l’énergie des atomes dès 1913.
Pour représenter les différents niveaux d’énergie associés à un atome, on utilise un diagramme avec un axe vertical où sont spécifiés les niveaux d’énergie associés à l’atome : l’état de plus basse énergie est appelé état fondamental ; les états d’énergie supérieurs sont des états excités. À chaque état est associé une énergie (notée E) : l’atome ne peut prendre que des niveaux d’énergie bien déterminés (E1, E2, E3, E4…).

4.2. Émission ou absorption d’une radiation par un atome
Pour passer d'un niveau d'énergie à un autre, un atome doit absorber un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité et l’énergie de l’état fondamental. Si l’énergie du photon est supérieure ou inférieure à la différence d’énergie, l’atome ne peut pas absorber le photon et reste dans son état d’énergie fondamental :

Prenons l’exemple de la transition entre le niveau 1 (fondamental) et le niveau 2. Pour être absorbé, le photon doit avoir une énergie E strictement égale à la différence entre E2 et E1 :
E = E2 – E1 = hν, soit E = ΔE = hν.
Tous les photons qui ne possèdent pas cette énergie ne pourront pas être absorbés par l’atome et la transition de niveaux d’énergie ne se fera pas.
Inversement, un atome (ou une molécule) excité(e) retourne à son état fondamental (ou à un état d’énergie inférieur) en émettant un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité de départ et l’énergie de l’état fondamental (ou d’un état d’énergie inférieur).

5. Spectres lumineux
Produite par incandescence ou par luminescence, la lumière est généralement composée d'une infinité de radiations de longueurs d'onde (ou de fréquences) différentes, dont l'ensemble constitue le spectre lumineux. Le spectre d’une lumière peut être obtenu en décomposant cette lumière à l’aide d’un prisme. Lors de la traversée du prisme, la lumière est déviée par réfraction. Chaque radiation lumineuse constituant la lumière est déviée différemment selon sa longueur d’onde, formant ainsi le spectre de cette lumière.
5.1. Les spectres d’émission
En fonction de la source lumineuse, le spectre d’émission sera continu pour des solides et des liquides chauffés (le filament d’une lampe par exemple) ou discret (spectre de raies) pour des gaz portés à haute température (une lampe à vapeur de mercure par exemple). Les raies d’émission sont caractéristiques des éléments chimiques présents dans le gaz.
Si le spectre obtenu est constitué de plusieurs radiations lumineuses, il s’agit d’une lumière polychromatique (lumière émise par une lampe à incandescence par exemple). En revanche, si la lumière n’est constituée que d’une seule radiation lumineuse, il s’agit alors d’une lumière monochromatique (lumière émise par un laser par exemple).

5.2. Les spectres d’absorption
L'étude d'un spectre (spectrométrie) renseigne ainsi non seulement sur la nature chimique de la source, mais aussi sur la nature du milieu traversé par la lumière, qui absorbe certaines radiations. Le spectre de la lumière ayant traversé ce milieu est appelé spectre d’absorption : les raies noires représentent les radiations absorbées. Elles sont caractéristiques des éléments chimiques présents dans le gaz. Le spectre d’absorption et le spectre d’émission d’un même élément chimique sont complémentaires (voir les spectres d’absorption et d’émission du mercure). En effet, les raies d’absorption et d’émission d’une même espèce chimique ont la même longueur d’onde : un élément chimique absorbe les radiations qu’il est capable d’émettre.
Par exemple, l’analyse du spectre de la lumière provenant du Soleil a permis d’identifier les éléments chimiques présents dans l’atmosphère solaire : toutes les raies noires observées correspondent aux radiations absorbées par les atomes présents. Cette analyse, réalisée dès 1814 par J. von Fraunhofer, puis complétée successivement par R. Bunsen et G. Kirchhoff (en 1851) a permis de trouver les éléments chimiques responsables des raies noires du spectre solaire (476 raies au total). En particulier, ces travaux ont mené à la découverte en 1868 d’un élément chimique encore inconnu à cette époque sur Terre : l’hélium. Cette méthode d’analyse spectroscopique est encore utilisée pour étudier l’atmosphère des étoiles.

6. La vitesse de la lumière
La lumière se déplace à une vitesse finie. Par exemple, la lumière émise à la surface du Soleil met environ 8 minutes pour parvenir jusqu'à nous, autrement dit elle se déplace à une vitesse d'environ 300 000 kilomètres par seconde dans le vide. À l’échelle humaine, cette vitesse est vertigineuse – les sondes spatiales envoyées dans l’espace ne se déplacent qu’à environ 20 km/s ; mais à l’échelle de l’Univers, elle devient « manipulable » : il faut par exemple 4 ans à la lumière de l'étoile la plus proche du Soleil (Proxima Centauri) pour nous parvenir et plus de 2 millions d'années pour celle émanant de la galaxie d'Andromède…
La vitesse (ou célérité) de la lumière dans le vide est une constante fondamentale de la physique : c = 299 792 458 m/s. Le premier à montrer expérimentalement que la lumière se déplace à une vitesse finie fut l'astronome O. Römer, en 1676, à partir d'observations des éclipses de certains satellites de Jupiter réalisées à l'Observatoire de Paris. Les premières déterminations précises de la vitesse de la lumière ont été effectuées au xixe s. par H. Fizeau (1849) et L. Foucault (1850). En 1887, les physiciens américains A. Michelson et E. Morley réalisèrent une expérience qui fit date dans l’histoire des sciences : leur objectif était de comparer par interférométrie la vitesse de la lumière se propageant dans le sens de révolution de la Terre et perpendiculairement à ce mouvement, de manière à mettre en évidence l’existence de l’éther dans lequel était censée se déplacer la lumière (comme le son dans l’air). Les résultats de l’expérience de Michelson-Morley permirent d’affirmer que la vitesse de la lumière était la même dans toutes les directions. Cette invariance de la vitesse de la lumière fut interprétée par certains physiciens comme une preuve de l’inexistence du fameux éther. En 1905, A. Einstein interpréta cette expérience dans le cadre de sa théorie de la relativité restreinte : la vitesse de la lumière est indépendante du référentiel, c’est une constante universelle de la physique.
Ainsi, quand une source de lumière s'approche ou s'éloigne, la lumière qui parvient à l'observateur a toujours la même vitesse, mais sa fréquence augmente ou diminue : c’est l’effet Doppler-Fizeau. Cet effet permet notamment de mesurer la vitesse d'éloignement des galaxies dans l'Univers (mesure de décalage vers le rouge ou redshift en anglais).
→ expansion de l'Univers.
Par ailleurs, si la vitesse de la lumière c est invariante dans le vide, elle décroît dans les milieux matériels, ce qui se manifeste par un changement de l'indice de réfraction (noté n) en fonction du milieu (n = c/v, où v est la vitesse de la lumière dans le milieu considéré). Par exemple, la vitesse de la lumière est d’environ 225 000 km/s dans l’eau, de 200 000  km/s dans le verre, le diamant à 125 000 km/s, etc. De plus, l’indice de réfraction (et donc la vitesse) dépend également de la longueur d'onde de la lumière : le bleu est plus dévié que le rouge… Ceci explique la dispersion de la lumière blanche dans un prisme ou dans les gouttes d'eau d'un arc-en-ciel.
Enfin, la vitesse de lumière (et l’indice de réfraction) dépend également de la température du milieu traversé : par exemple, dans l’expérience réalisée en 2000 par Lene Hau (université de Harvard, États-Unis), la vitesse de la lumière traversant un condensat de Bose-Einstein (milieu particulier dans lequel les atomes sont refroidis à une température très proche du zéro absolu, environ –273 °C) a été ralentie à 1,5 km/h.

7. Applications de la lumière
L'énergie du rayonnement lumineux peut être convertie en énergie thermique (fours solaires, effet de serre, etc.), en énergie chimique (photosynthèse, réactions photochimiques utilisées en photographie argentique) et surtout en énergie électrique (cellules photoélectriques, photopiles). L’énergie solaire constitue d’ailleurs une source d’énergie renouvelable intéressante pour répondre au défi énergétique de cette fin de siècle, en raison de l’épuisement rapide des énergies fossiles.
Par ailleurs, la lumière peut être amplifiée et rassemblée en un étroit faisceau dit cohérent, formant la lumière laser, utilisée dans l’ensemble des domaines de la recherche fondamentale (médecine, astrophysique, métrologie, etc.) ainsi que dans l’industrie (lecture de DVD ou de code-barres, découpe de matériaux, armement, etc.).

BOTANIQUE
Comme source d'énergie, la lumière est absorbée principalement au niveau des feuilles (photosynthèse). La lumière verte seule n'est pas absorbée, mais réfléchie, d'où l'aspect vert des feuilles. Comme stimulus efficace, la lumière favorise la germination de certaines espèces et gêne celle d'autres espèces, ralentit la croissance des tiges, faisant s'incliner l'axe vers le côté le plus éclairé (phototropisme), règle l'ouverture des stomates foliaires et gouverne par sa durée la date de la floraison (photopériodisme).

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] - Suivante
 
 
 
Google