ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Traitement et recyclage du combustible usé

  initiation musicale

 

 

 

 

 

 

Traitement et recyclage du combustible usé


Le traitement des combustibles usés et le recyclage des matières extraites est un élément majeur de la stratégie française. Il permet d’économiser des ressources naturelles et de réduire les quantités de déchets à stocker, tout en les conditionnant de manière sûre. Il s’appuie aujourd’hui sur l’utilisation opérationnelle de combustible MOX, qui permet un premier recyclage en réacteur à eau sous pression (REP) des matières issues du traitement des combustibles usés.

PUBLIÉ LE 28 JUILLET 2021
       

Le traitement des combustibles usés couvre l’ensemble des opérations qui permet de séparer les matières valorisables (uranium, plutonium) contenues dans les combustibles irradiés des déchets (produits de fission et actinides mineurs). Le CEA, qui a été à l’origine des procédés et technologies mis en œuvre dans les ateliers de l’usine Orano de La Hague, dispose d’une connaissance approfondie des processus en jeu et accompagne les industriels de la filière nucléaire.

Le traitement des combustibles usés, comment ça marche ?
Après quatre années d’utilisation, le combustible, dit « usé », est retiré du réacteur. Il se compose alors de 96 % de matières valorisables (réutilisables) et de seulement 4 % de déchets (éléments non réutilisables, issus de la fission de l’uranium et pour la plupart très radioactifs).
Après une période d’entreposage en piscine de refroidissement (pour faire décroître la radioactivité et la chaleur émise), le combustible usé est traité dans l’usine Orano de La Hague. Il est notamment dissous et mis en présence de molécules extractantes, conçues pour isoler des éléments spécifiques. Ce traitement permet de séparer les matières valorisables des déchets.

La fabrication du MOX pour un mono-recyclage
Une fois les combustibles usés traités, les matières valorisables qu’ils contenaient peuvent être recyclées. Tel qu’il est actuellement pratiqué, le recyclage du combustible consiste à mélanger le plutonium extrait des combustibles usés avec de l’uranium appauvri issu des opérations d’enrichissement pour fabriquer un nouveau combustible appelé MOX (Mixed OXides), lequel va de nouveau alimenter des réacteurs. Depuis 1987, EDF alimente une vingtaine de ses réacteurs avec du MOX, à raison d’un tiers d’assemblages de combustible MOX et de deux tiers d’UOx. Le plutonium issu du recyclage des combustibles UOx usés fournit ainsi, en France, environ 10 % de l’électricité nucléaire.

COMMENT EST FABRIQUÉ LE MOX ?
En fin de traitement du combustible usé, à l’issue des opérations de séparation et de purification, le plutonium et l’uranium sont convertis en poudre d’oxyde. De manière assez similaire à l’uranium naturel issu des mines, l’uranium de retraitement peut être utilisé, après ré-enrichissement, comme matière première dans la fabrication de combustibles UOx. Le plutonium est, quant à lui, valorisé industriellement dans les combustibles MOX. Pour cela, la poudre de dioxyde de plutonium (PuO2) est transformée en pastilles qui sont insérées dans des gaines étanches pour constituer des crayons. Ces derniers sont enfin chargés, sous forme d’assemblages MOX, dans les réacteurs nucléaires.

Boite à gant microscope optique qui permet de caractériser la microstructure des différents matériaux base Pu élaborés, et de contrôler la qualité des fabrications. La microscopie optique nécessite une préparation des échantillons avant observation (enrobage dans une résine, tronçonnage des pastilles, polissage). Elle permet ensuite de mettre en évidence des défauts (fissures, pores), de caractériser l'homogénéité de répartition de l'U et du Pu dans les MOX (après attaques sélectives), de caractériser la taille de grains d'une microstructure. © G.Lesénéchal / CEA

AUJOURD’HUI, UNE SEULE UTILISATION DU PLUTONIUM
Aujourd’hui, le MOX ne peut être utilisé qu’une seule fois en réacteur à eau sous pression. En effet, une fois usé, le MOX contient du plutonium difficilement utilisable dans le parc actuel des REP de par sa composition isotopique dégradée. Ce mono-recyclage permet toutefois une économie des ressources minières en uranium d’environ 10 % et une diminution de la radiotoxicité et du volume des déchets de haute activité et à vie longue. Le mono-recyclage sous forme de MOX dans les REP doit ainsi être considéré comme une première étape visant à la fois à améliorer l’utilisation des ressources naturelles dans les réacteurs actuels et à minimiser le volume des déchets.
Des études sont en cours pour évaluer la possibilité du multi-recyclage en REP, en travaillant sur de nouvelles formes de MOX.

Les activités CEA pour optimiser les procédés de traitement et de fabrication

La R&D du CEA relative au traitement des combustibles usés et à la fabrication de nouveaux combustibles s’articule autour de quatre axes :

LE SOUTIEN AU FONCTIONNENT ACTUEL DES USINES ORANO DE LA HAGUE (MANCHE) ET MÉLOX (GARD)
Le CEA assure, en soutien à Orano, une R&D pour remédier aux problèmes qui apparaissent sur les lignes de production, améliorer les performances des ateliers et adapter les procédés afin de suivre l’évolution du marché des combustibles à traiter.
L’EXTENSION DU DOMAINE DES COMBUSTIBLES POUVANT ÊTRE TRAITÉS DANS L’USINE DE LA HAGUE
Le CEA mène également des recherches et développements pour élargir le domaine des combustibles usés pouvant être traités dans l’usine de La Hague. Le CEA travaille notamment sur les mécanismes de dissolution d’oxydes de plutonium et d’uranium et sur la gestion des fortes insolubilités liées aux concentrations relativement élevées en plutonium des combustibles MOX.

LE DÉVELOPPEMENT DE PROCÉDÉS AVANCÉS EN VUE DU MULTI-RECYCLAGE DU PLUTONIUM
En cas de multi-recyclage du plutonium, les quantités de plutonium présent dans les combustibles usés à traiter et à fabriquer augmenteraient. Le CEA travaille sur des procédés de récupération quantitative de cette matière plus sélectifs, simples et sûrs. De plus, il développe des briques technologiques de fabrication des combustibles MOX afin d’identifier de nouveaux procédés qui pourraient être mis en œuvre, dans un premier temps, pour le multi-recyclage en REP et, dans un deuxième temps, pour la fermeture du cycle dans des Réacteurs à Neutrons Rapides (RNR).

LA VALORISATION DES PRODUITS DE FISSION ET DES ACTINIDES MINEURS
Des actions de R&D sont également réalisées en partenariat avec Orano sur la récupération, lors des opérations de traitement, de certains platinoïdes produits au sein des combustibles nucléaires lors de leur utilisation en réacteur. En effet, certains d’entre eux ont un coût très élevé sur le marché des métaux et sont largement utilisés, en particulier pour fabriquer des catalyseurs. Cette valorisation implique des performances très élevées de décontamination vis-à-vis des autres produits de fission pour assurer une utilisation de ces éléments avec des contraintes radiologiques parfaitement maîtrisées.

 

  DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

La supraconductivité, ce sont des matériaux capables de conduire le courant électrique sans aucune résistance.

  initiation musicale

 

 

 

 

 

 

La supraconductivité, ce sont des matériaux capables de conduire le courant électrique sans aucune résistance. Ce phénomène quantique encore mystérieux et jusqu'ici cantonné aux très basses températures a captivé nos lecteurs cette année.

Imaginez un monde dans lequel le courant circulerait sans perte dans les lignes à haute tension, où nos appareils électriques et électroniques ne consommeraient que très peu d’énergie et où nous voyagerions à très grande vitesse dans des trains lévitant au-dessus des rails, à l’abri des frottements. Cette alléchante perspective pourrait bien un jour devenir réalité grâce à la supraconductivité.
Ce phénomène physique découvert il y a plus d’un siècle se manifeste dans certains matériaux par la disparition de toute résistance électrique – et donc de toute perte d’énergie. Cette propriété unique a déjà permis le développement d’applications majeures, comme l’imagerie par résonance magnétique (IRM) dans les hôpitaux ou encore les accélérateurs de particules pour la recherche en physique. Malheureusement, pour acquérir cette propriété extraordinaire, la plupart des matériaux supra-conducteurs mis au point jusqu’ici doivent être refroidis à des températures extrêmes, proches du zéro absolu (- 273,15 °C), en faisant appel à des systèmes de réfrigération chers et encombrants. Cela a limité jusqu’à aujourd’hui leur utilisation à quelques applications de niche.


Train à grande vitesse à lévitation magnétique mis en service dans la ville de Qingdao (Chine) en 2021. L’effet Meissner (expulsion de tout champ magnétique), au cœur même du fonctionnement de ce train, lui permet des pointes à 600 km/h.



Mais les chercheurs n’ont pas dit leur dernier mot : dans les laboratoires du monde entier, ils tentent d’élucider les mécanismes à l’origine de la supraconductivité, et conçoivent et étudient de près de nouveaux matériaux prometteurs. Avec en ligne de mire la découverte de supraconducteurs à température ambiante, qui ne nécessiteraient donc plus aucune réfrigération. La supraconductivité pourrait alors enfin révolutionner notre quotidien.
Du phénomène étrange observé…
C’est en 1911 que cet état de la matière est mis en évidence. En refroidissant du mercure à - 269 °C grâce à de l’hélium liquide, le physicien néerlandais Heike Kamerlingh Onnes découvre alors que la résistance électrique du métal devient nulle. Une caractéristique surprenante puisque dans les conditions normales, même les fils électriques les plus conducteurs qui soient perdent une partie de leur énergie sous forme de chaleur. Par la suite, de nombreux autres métaux (plomb, étain ou aluminium) et alliages métalliques supraconducteurs sont découverts – toujours à des températures frôlant le zéro absolu.

AIP Emilio Segré Visual Archives
Partager

Il faudra attendre la fin des années 1950, plus précisément 1957, pour que le phénomène soit enfin expliqué par trois physiciens américains qui proposèrent la théorie BCS, initiales de leur nom respectif : John Bardeen, Leon Neil Cooper et John Robert Schrieffer.
La supraconductivité est l'une des rares manifestations à l’échelle macroscopique d’un effet de physique quantique.
La supraconductivité trouve en fait son origine dans le comportement des électrons qui composent les atomes et, pour la comprendre, il faut avoir recours à la physique quantique qui décrit la matière à cette échelle. « Il s’agit même d’une des rares manifestations à l’échelle macroscopique d’un effet de physique quantique », souligne Cyril Proust1, du Laboratoire national des champs magnétiques intenses du CNRS.
Explication : à mesure que la température baisse dans le matériau, les mouvements des atomes se réduisent jusqu’à générer des vibrations particulières de la structure cristalline qui poussent les électrons à s’associer d’abord par paires, puis tous ensemble pour former une onde collective qui occupe tout le matériau.
… aux premiers succès
Plus rien ne perturbe alors le mouvement des électrons, d’où la disparition de la résistance électrique. Mais le phénomène s’évanouit à nouveau au-dessus d’une certaine température qualifiée de « critique », l’agitation thermique détruisant ce fragile équilibre. En plus de la disparition de la résistance électrique, les recherches révèlent au fil des ans une autre propriété étonnante : un supraconducteur expulse tout champ magnétique qu’on veut lui imposer. C’est l’effet Meissner, du nom de son découvreur.  Grâce à ses deux propriétés remarquables, la supraconductivité ne tarde pas à trouver des applications. Il suffit en effet d’injecter du courant de forte intensité dans une bobine de fil supraconducteur pour qu’il génère un champ magnétique tout aussi important, sans risque de surchauffe. Ou encore qu’un aimant soit placé au-dessus d’un supraconducteur pour littéralement léviter.

Ces champs magnétiques intenses sont, entre autres, indispensables au fonctionnement des appareils d’IRM qui analysent les tissus des patients, de la spectroscopie par résonance magnétique utilisée par les scientifiques pour dévoiler la structure moléculaire d’un échantillon, des réacteurs expérimentaux de fusion nucléaire, comme Iter, actuellement en construction en France, et des accélérateurs de particules dans lesquels d’immenses aimants supraconducteurs dévient et focalisent les faisceaux de particules.

Si le LHC du Cern utilisait des aimants conventionnels en cuivre, il ne mesurerait pas 27 kilomètres de circonférence mais 100, et il consommerait près de 25 fois plus d’énergie !
À ce titre, si le LHC du Cern, à Genève, utilisait des aimants conventionnels en cuivre, il ne mesurerait pas 27 kilomètres de circonférence mais 100, et il consommerait près de 25 fois plus d’énergie ! Autrement dit, il n’aurait pas pu voir le jour. Malgré ces premiers beaux succès, les scientifiques gardent les pieds sur terre. D’après la théorie BCS qui identifie clairement le mécanisme en jeu, ils savent en effet que pour devenir supraconducteur, un métal doit forcément être refroidi à très basse température. Très peu imaginent donc pouvoir mettre au jour une supraconductivité à une température plus élevée. Et encore moins à température ambiante !

Une découverte inopinée
Jusqu’à ce qu’une découverte vienne complètement changer la donne. En 1986, on identifie en effet de manière inattendue les premiers supraconducteurs dits à « haute température critique » – comprenez à des températures plus élevées que celles observées jusque-là. Ces matériaux de synthèse sont des cuprates, des composés à base d’oxyde de cuivre. Et le record de température de passage à la phase supraconductrice détenu par un cuprate (à base de mercure) est aujourd’hui de - 135 °C. Une température certes encore froide mais beaucoup plus facilement accessible grâce à l’azote liquide cette fois. Avec cette découverte, la communauté scientifique reprend espoir. Et si finalement la supraconductivité pouvait exister à température ambiante ?
Les chercheurs se mettent alors en quête de décrypter ce nouveau type de supraconductivité exhibée par les cuprates, l’idée étant ensuite de pouvoir l’améliorer et, pourquoi pas, de trouver des supra-conducteurs à température ambiante. « Les expériences ont montré assez vite qu’on avait affaire à une supraconductivité non conventionnelle : comme dans les métaux, c’est l’appariement des électrons qui conduit à l’apparition du phénomène mais contrairement à ce qui est décrit dans la théorie BCS, ce ne sont pas les vibrations des atomes qui constituent la colle entre les électrons », explique Cyril Proust.

Le mystère des cuprates
Percer la nature de cette mystérieuse colle devient alors l’objectif numéro un, la question constituant même l’un des principaux sujets de recherche en physique de la matière condensée. Et pour avancer, théoriciens et expérimentateurs travaillent main dans la main, améliorant considérablement les techniques de mesure des matériaux et inventant de nouveaux concepts théoriques et de nouvelles approches numériques pour les décrire. En trente ans, cette recherche a permis bon nombre d’avancées dans le domaine de la supraconductivité, et plus largement en physique.

Dorothée COLSON/P BONNAILLIE/CEA/CNRS Images
Partager

« Mais force est de reconnaître que le mystère de la supraconductivité à haute température critique n’a toujours pas été résolu. Plusieurs explications sur son origine ont bien été avancées mais aucune ne fait aujourd’hui consensus », admet Alain Pautrat, du laboratoire de Cristallographie et sciences des matériaux2. Si cette question reste encore ouverte, c’est parce que les cuprates sont des matériaux déroutants, à la physique complexe, même lorsqu’ils ne sont pas supraconducteurs. Initialement, un cuprate est un matériau totalement isolant. C’est en lui ajoutant ou en lui retirant des électrons par une modification chimique appelée « dopage » qu’il se transforme en un conducteur d’électricité puis en supraconducteur à plus basse température.

Effet de groupe
Contrairement à un métal où les électrons peuvent être considérés comme indépendants, dans un cuprate les électrons sont dits « fortement corrélés » : ils se gênent, se bloquent et ne se déplacent que collectivement, une situation qui rend leur description extrêmement difficile et qui fait que leur comportement nous échappe. Et pour venir compliquer encore plus les choses, les chercheurs savent aussi qu’à l’état isolant, un cuprate est un matériau magnétique. Si bien qu’aujourd’hui, deux scénarios dominent pour expliquer la supraconductivité de ces oxydes de cuivre.

Plusieurs explications de l'origine de la supraconductivité à haute température ont bien été avancées, mais aucune ne fait aujourd’hui consensus.

Pour certains, ce serait ce même magnétisme – ou plutôt de petites fluctuations magnétiques qui resteraient à l’état de trace près de la température critique – qui fournirait la « colle » aux paires d’électrons. « De nombreuses observations le suggèrent fortement, même si aucune preuve directe n’a encore été apportée », confie Cyril Proust, partisan de cette théorie. D’autres mettent en avant le fait que, sous l’effet de ces fortes corrélations, les électrons s’organisent sous différentes configurations ou ordres tous plus exotiques les uns que les autres.
Ces différentes configurations pourraient entrer en compétition, avec pour conséquence l’apparition de la supraconductivité. « Les expériences ont permis de bien caractériser ces ordres électroniques, mais leur diversité fait qu’il est encore difficile d’établir un lien de cause à effet avec la supraconductivité », reconnaît Alain Pautrat.

Un défi expérimental
Les chercheurs sont donc toujours dans l’attente de l’expérience ultime qui viendra trancher le débat. De son côté, Cyril Proust compte bien apporter sa pierre à l’édifice, lui qui a déjà permis de faire progresser le domaine. Depuis 2003, il soumet des échantillons de cuprates à des impulsions magnétiques très intenses, capables de supprimer leur supra-conductivité. « Ce faisant, nous dévoilons les propriétés que le matériau aurait sans l’établissement d’une phase supraconductrice. Ainsi, nous avons pu mettre en évidence tous ces ordres électroniques en compétition », explique le chercheur.


Pénétration d’un champ magnétique dans une couche mince du cuprate supraconducteur (yttrium, baryum, cuivre, oxygène).

Cornelis VAN DER BEEK/CNRS Images
Partager

Et pour aller plus loin encore, Cyril Proust et son équipe préparent leur prochaine expérience : il s’agira cette fois d’exposer des cuprates à des champs magnétiques encore jamais atteints, de 200 teslas (soit 2 000 fois plus puissant que l’aimant collé sur votre frigo), seule manière de détruire la supraconductivité là où la température critique est à son maximum et où le phénomène est le plus intense. « Le défi expérimental est de taille mais il constitue une des clés pour résoudre ce mystère », poursuit-il.

De nouvelles classes de matériaux
L’étude d’autres matériaux supraconducteurs à haute température critique pourrait elle aussi apporter son lot de découvertes. Car même si les cuprates font figure de stars en détenant les records de température, ils ne sont pas les seuls représentants de cette nouvelle classe de supraconducteurs. En 2008, on met ainsi en évidence la supraconductivité des pnictures, des composés à base de fer dont la température de transition vers la phase supraconductrice est de - 217 °C. Moins complexes à décrire que leurs cousins à base d’oxyde de cuivre, les pnictures ont révélé que, dans leur cas, c’est probablement le seul magnétisme qui permet aux charges électriques de former des paires. Plus récemment encore, en 2018, ce sont les nickelates, à base d’oxyde de nickel, qui sont venus s’ajouter à la liste, affichant une température critique de l’ordre de - 258 °C.


Structure cristallographique du pnicture BaFe2As2, un matériau supraconducteur à base de fer. Les atomes de fer sont en rouge, les atomes d'arsenic en bleu et les atomes de baryum en jaune.

Pour ces composés structurellement très proches des cuprates, et dont on soupçonnait qu’ils puissent être supraconducteurs depuis une vingtaine d’années, il semblerait cette fois que le magnétisme ne joue pas de rôle dans l’apparition de la supraconductivité. De quoi donner du grain à moudre aux théoriciens. « Si l’on veut un jour comprendre la supraconductivité à haute température critique, il est primordial de comparer les différentes familles de matériaux. De cette manière seulement, on pourra acquérir une vision globale du phénomène et identifier les mécanismes les plus importants », insiste Marie-Aude Méasson, de l’Institut Néel du CNRS.
Hydrures : les nouveaux enfants prodiges
La maîtrise de la supraconductivité à haute température critique annonce une petite révolution pour les réseaux électriques et l’électronique. Mais il ne faut pas s’attendre à un bouleversement majeur tant qu’on ne saura pas se passer de dispositifs de refroidissement. La véritable révolution ne pourra se faire qu’à température ambiante. Heureusement, la supraconductivité n’est pas avare en rebondissement et si les cuprates n’ont toujours pas révélé leurs mystères, c’est désormais vers d’autres matériaux que tous les regards se tournent : les hydrures.
L’intérêt pour ces composés riches en hydrogène a été lancé en 2015 lorsqu’une équipe de chercheurs allemands montre que le sulfure d’hydrogène devient supraconducteur à - 70 °C, une température bien plus élevée que celle des cuprates. Néanmoins, le revers de la médaille, c’est que ce record s’établit à des pressions infernales : pour obtenir l’état supraconducteur, il faut en effet soumettre l’échantillon à une pression gigantesque de l’ordre de 2 millions de bars, soit 2 millions de fois celle de notre atmosphère ! Pour cela, les physiciens utilisent des cellules à enclumes de diamant – le matériau le plus dur qui soit.


En 2015, des chercheurs allemands ont montré que le sulfure d’hydrogène devenait supraconducteur à - 70 °C en soumettant le matériaux à d'énormes pressions grâce à des cellules à enclumes de diamants.

Thomas Hartmann
Partager

La réalisation n’en est pas moins importante : elle vient confirmer pour la première fois une prédiction faite en 1969 à partir de la théorie BCS, qui identifiait l’hydrogène métallique – à très haute pression – comme candidat à une supraconductivité à une température critique très élevée. Et encourage du même coup d’autres groupes à suivre cette voie. Si bien que ces dernières années une dizaine d’hydrures ont été synthétisés.

Buzz médiatiques et rétractations
Jusqu’à cette annonce exceptionnelle en mars dernier dans la revue Nature par une équipe américaine d’un composé fait d’hydrogène, de lutécium et d’azote, supraconducteur à 20,5 °C et à une pression de « seulement » 10 000 bars. Avant d'être finalement rétracté en novembre 2023 par Nature à la demande de ses auteurs principaux
(link is external)
, ce résultat a ébranlé la communauté scientifique : non seulement la température ambiante était atteinte mais la pression à appliquer aurait été largement plus accessible – ces gammes de pressions étant couramment mises en œuvre dans certains procédés industriels. « Ces travaux paraissaient les plus spectaculaires de ces vingt dernières années. En montrant que la température ambiante est un objectif atteignable, ils  avaient le potentiel de relancer totalement le domaine. Mais il faut toujours rester prudent tant qu'un résultat n’a pas été reproduit ni vérifié », commente Alain Pautrat.

Ainsi, soucieuses de ne pas crier victoire trop tôt, de nombreuses équipes de par le monde se sont immédiatement penchées sur ce nouveau matériau pour tenter de le synthétiser à leur tour et de confirmer le résultat. « À ce jour, aucun des groupes qui ont reproduit l’expérience n’a observé de phase supraconductrice. C’est d’autant plus troublant que les conditions de pression sont relativement simples à mettre en œuvre », note Marie-Aude Méasson. Ce qui met en doute la découverte. D’autant que des critiques se sont élevées dans la communauté scientifique pour pointer du doigt des erreurs et des manques dans la publication. En particulier, la structure cristallographique du composé qui définit la proportion et l’organisation tridimensionnelle des atomes n’est toujours pas clairement identifiée. À cela s’ajoute le fait que cette même équipe s’était déjà vu retirer par Nature un autre article publié en 2020, lui aussi controversé, qui annonçait la découverte d’un premier hydrure supraconducteur à 15 °C.
Devant tous ces éléments, certains scientifiques n’hésitent pas à parler de fraude. Le même buzz médiatique et finalement le même genre de critiques ont entaché l’annonce tonitruante cet été de la découverte des propriétés supraconductrices à température et pression ambiante du matériau LK99 (voir encadré).

Des défauts prometteurs
Pour trancher définitivement le débat, certains chercheurs proposent une mesure bien précise. C’est le cas de Jean-François Roch et de son équipe du laboratoire Lumière-matière aux interfaces3. Le physicien exploite les propriétés quantiques des centres NV du diamant, des défauts ponctuels au sein du cristal qui se comportent comme des atomes artificiels et qui sont extrêmement sensibles aux champs magnétiques environnants. « L’idée est d’implanter ces centres NV sur la pointe des diamants qui composent les enclumes pour pouvoir mesurer l’effet Meissner dans le matériau, preuve directe de sa supraconductivité. Car jusqu’à présent, la mesure des propriétés magnétiques par des capteurs traditionnels s’est révélée extrêmement difficile dans de telles conditions de pression. Seuls les centres NV peuvent fournir une preuve de cet effet sans ambiguïté », explique Jean-François Roch. Avec son dispositif, il serait ainsi possible de vérifier la supraconductivité du dernier hydrure en date, au centre de toutes les polémiques. Et des autres hydrures également qui font actuellement l’objet d’âpres débats au sein de la communauté scientifique.


Cellule à enclumes de diamant. Une des enclumes intègre des défauts cristallins (rouge) sur la surface au voisinage de l’échantillon (bleu). Le champ magnétique appliqué à la cellule (flèches) est expulsé de l’échantillon lorsqu’il devient supraconducteur.

Margarita Lesik, LAC (CNRS/Univ. Paris Saclay)
Partager

Mais au-delà des controverses, ces nouveaux composés représentent aujourd’hui un des meilleurs espoirs pour pouvoir atteindre la supraconductivité à température ambiante. Certes, les pressions dantesques nécessaires à l’apparition de la supraconductivité constituent encore un véritable obstacle à leur utilisation dans la vie de tous les jours. Mais pour certains, cet obstacle n’est pas insurmontable : de la même façon que le diamant qui, formé dans le manteau terrestre, conserve ses propriétés dans les conditions qui règnent en surface, il faudrait trouver des formes métastables d’hydrures, qui resteraient supraconducteurs quand on relâcherait la pression.
Les physiciens et les chimistes l’ont bien compris, eux qui travaillent main dans la main pour découvrir de nouveaux matériaux supraconducteurs par un savant mélange de théorie, de simulations numériques et en testant sans relâche de nouvelles combinaisons d’éléments. « En parallèle des efforts théoriques, la recherche en supraconductivité est souvent une affaire d’intuition, d’empirisme scientifique et de chance parfois. Tout comme la découverte des cuprates était inattendue, une surprise est toujours possible dans la quête du supraconducteur ultime », confie Alain Pautrat. La révolution est en marche. ♦    
-----------------------------------------------------------
LK99, un candidat éconduit
Après une première annonce en mars dernier dans la revue Nature par une équipe américaine d'un matériau à base d'hydrogène, supraconducteur à température ambiante et à une pression de 10 000 bars, c'est au tour d'une équipe coréenne d'annoncer en juillet la mise au point d'un matériau supraconducteur, à température et pression ambiantes cette fois. Ce composé baptisé LK-99 fait de groupements phosphates, de cuivre et de plomb, qui bat tous les records en matière de température et de pression, est donc potentiellement révolutionnaire. Mais tout comme les travaux des chercheurs américains, ce résultat doit être pris avec une extrême prudence. Non seulement il n'a toujours pas été publié dans une revue scientifique mais aucune des tentatives d'autres groupes pour le reproduire n'a confirmé une quelconque supraconductivité.
« Les courbes de caractérisations physiques sont peu convaincantes et ne ressemblent pas à celles caractéristiques d'un matériau supraconducteur. Pour moi, ce n'est pas prometteur », juge ainsi Alain Pautrat, du laboratoire Cristallographie et sciences des matériaux4. Il ne faut donc pas crier victoire trop vite et il y a même fort à parier que ce résultat ne soit jamais confirmé. En effet, dans ce domaine où les enjeux économiques sont énormes, des annonces de supraconducteurs à température ambiante surviennent régulièrement, avant d'être démenties peu après. Sur la route vers le supraconducteur parfait, bien plus que le buzz, la patience et la véracité scientifique sont de mise. ♦
 
Notes
*         1.
Actuellement détaché au laboratoire international Frontières Quantiques (CNRS/Université de Sherbrooke).
*         2.
Unité CNRS/École nationale supérieure d’ingénieurs de Caen/Univ. de Caen Normandie.
*         3.
Unité CNRS/Univ. Paris-Saclay/ENS Paris-Saclay/ CentraleSupélec.
*         4.
Unité CNRS/École nationale supérieure d’ingénieurs de Caen/Univ. de Caen Normandie.

 

  DOCUMENT         CNRS         LIEN 
 

 
 
 
initiation musicale toulon  

Les noyaux des atomes

  initiation musicale


 

 

 

 

 

Les noyaux des atomes


Publié le 11 mai 2022


La conception que se font les physiciens des noyaux des atomes et de la physique qui les gouverne a fortement évolué depuis le début du XXème siècle. On les classe sur un diagramme en fonction de leur nombre de protons et de neutrons appelé charte des noyaux. Dans ce diagramme, la « vallée de la stabilité » délimite la zone des noyaux existants.
A L’INTÉRIEUR DE L’ATOME
L’atome est le constituant de base de la matière. Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés), tandis que les électrons (chargés négativement) sont localisés autour du noyau.
Son nombre de protons ou numéro atomique est noté Z. L’atome étant neutre, il comporte autant d’électrons que de protons. Ainsi le numéro atomique détermine les propriétés chimiques de l’atome. A chaque valeur de Z correspond un nom d’atome, un élément chimique. Ainsi l’hydrogène possède 1 proton, tandis que le carbone en possède 6.

Le nombre de neutrons au sein du noyau est désigné N. Le nombre de masse A est la somme de Z+N. Pour un atome de Z donné, on peut compter plusieurs isotopes, en fonction du nombre de neutrons.

DES NOYAUX DANS TOUS LEURS ÉTATS
Un noyau d’atome est dit :
*         lié lorsque la cohésion des protons et des neutrons est assurée. Plus leur énergie de cohésion est élevée, plus il faudra fournir d’énergie pour séparer les constituants du noyau. Les noyaux liés peuvent être stables ou instables.
*         stable lorsqu’il ne se désintègre pas spontanément en un autre noyau. La majorité des noyaux que l’on trouve sur Terre sont stables.
*         instable ou radioactif lorsqu’il tend à se transformer spontanément en un autre noyau. On appelle cette transformation « désintégration radioactive ». La probabilité que cet événement survienne dépend de sa période radioactive, qui correspond au temps au bout duquel la moitié d’un ensemble de noyaux de même nature s’est désintégrée.
*         excité lorsque, stable ou instable, il a acquis un surplus d’énergie. Le noyau peut vibrer ou tourner sur lui même et /ou dissiper cette énergie excédentaire par émission d’une particule ou d’un photon.       

DES NOYAUX EN FORME
Dès les origines de la physique nucléaire, devant la complexité d'un système composé de N particules en interaction, les physiciens imaginent des modèles visant à donner une description simple mais suffisamment réaliste du noyau. Depuis les années 60, les physiciens constatent que le noyau des atomes peut prendre les formes les plus inattendues. La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires peuvent se trouver. Ces constituants élémentaires sont les protons et les neutrons, qu’on nomme ensemble les nucléons, liés par l’interaction forte, l’une des quatre forces fondamentales à l’œuvre dans l’Univers. Ils sont eux-mêmes composés de quarks et de gluons (également soumis à l’interaction forte).

Les principales phases de la transformation de notre vision du noyau
Jusqu’au 19e siècle, l’atome est considéré comme la brique de base de la matière, indivisible. A partir du 20e siècle, la physique permet aux scientifiques de rentrer dans l’intimité de l’atome.

*         1911-1919 : On voit l’atome comme un noyau composé de protons chargés positivement autour duquel gravitent les électrons ;
*         1932 : Le noyau compte aussi des neutrons ;
*         1934 : Synthèse d’un atome artificiel. C’est le premier noyau exotique. Casse tête des physiciens tant leurs propriétés sont variées (forme, mode de désintégration radioactive, composition, durée de vie tellement courte que la notion même d’existence semble dépassée…), les noyaux exotiques continuent d’être étudiés aujourd’hui : il en resterait, selon les modèles théoriques, 3 000 à 5 000 à découvrir.
*         Années 40 : Certaines combinaisons particulières de protons et de neutrons entraînent des noyaux ayant une énergie de liaison très élevée. Les physiciens les appellent les noyaux magiques. C’est le cas pour les noyaux qui comptent 2, 8, 20, 28, 50, 82 ou 126 protons et/ou neutrons. A la même époque, le noyau peut être décrit macroscopiquement comme une goutte de matière. C’est le modèle de la goutte liquide qui permet de calculer l’énergie de liaison du noyau grâce à une seule équation simple.
*         Années 50 : On pense que les nucléons sont organisés en niveaux d’énergie qu’on appelle couches nucléaires, similaires à celles des électrons autour du noyau. C’est le modèle en couches : chaque couche a un nombre fini d’emplacements, lorsqu’une couche est totalement remplie et qu’aucune n’est remplie partiellement, l’édifice est particulièrement robuste.
*         Années 70 : La théorie du champ moyen considère que chaque nucléon se déplace dans un puits de potentiel, généré par l’ensemble des autres nucléons, qui le confine dans le noyau.
*         Années 80 : les noyaux ne sont plus vus comme un mélange homogène et plus ou moins sphérique. Ils sont imaginés comme des structures très variées : ainsi le carbone 12, atome stable, porté à haute énergie, est vu comme un tripode de trois noyaux d’hélium ; Le lithium 11 fait partie d’une nouvelle famille de noyaux dits noyaux à halo : son extension spatiale est similaire à celle du plomb 208, qui comporte pourtant vingt fois plus de nucléons.
*         Années 90 : A quelques encablures de la vallée de la stabilité, la théorie prévoit l’existence d’une série de noyaux comportant plus de 110 protons dont la durée de vie serait relativement élevée. Les scientifiques parlent de l’îlot de stabilité des noyaux super-lourds. Cette relative stabilité des noyaux super-lourds va à l’encontre de la force de répulsion coulombienne qui tend à faire se disloquer un édifice composé d’un trop grand nombre de charges de même signe.
*         Années 2000 : Avec la montée en puissance des grands accélérateurs de faisceaux radioactifs (Spiral au Ganil, RIBF à Riken…) de nombreux nouveaux isotopes radioactifs sont découverts et étudiés.
*         Aujourd’hui, tous les éléments jusqu’à 118 protons ont été synthétisés. Les quatre derniers découverts (113, 115, 117 et 118 protons) ont été officiellement nommés en 2016. De nouveaux instruments sont en développement pour aller encore plus loin. Les noyaux exotiques très riches en neutrons produits lors des explosions de supernovae sont encore hors de notre portée. On est encore très loin d’avoir découvert tous les noyaux existants et les phénomènes surprenants qu’ils pourraient faire apparaître !

Dans cette carte des noyaux, on prend pour "altitude", l'énergie de masse moyenne (Mc2/A), qui représente l'énergie de masse moyenne d'un nucléon dans le noyau. Plus cette énergie est faible, plus le noyau est stable. Les noyaux stables se retrouvent sur une ligne définissant le fond de la vallée, entourée de noyaux excédentaires en neutrons (en rose), en protons (en bleu) et de noyaux trop lourds (orange). Un excès de protons ou de neutrons se traduit par une transformation des noyaux selon différents modes de désintégration radioactive, alpha ou beta notamment. © CEA/Animea

LA VALLÉE DE LA STABILITÉ
Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons (Z, éléments) et de neutrons  (N, isotopes), on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions qui présente une surprenante vallée au fond de laquelle se  trouvent les 250 à 300 atomes stables. Plus on s’éloigne de ces noyaux, plus l’énergie de liaison de nucléons dans le noyau est faible. Les atomes radioactifs subissent une série de transformations qui les ramène toujours vers le fond de ladite vallée. Les chercheurs désignent cette figure par le terme imagé de «  vallée de la stabilité ».

D’OU VIENNENT LES NOYAUX : LA NUCLÉOSYNTHÈSE DANS LES ÉTOILES
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’univers. Les atomes les plus légers sont les plus anciens : hydrogène, hélium, lithium et béryllium ont été formés par assemblage de protons et de neutrons dans les trois minutes suivant le Big Bang. Il y a entre douze et quinze milliards d’années. Les autres éléments, plus lourds, sont plus récents et ont été produits dans les étoiles. Les premiers atomes compris entre le carbone et le fer ont été synthétisés lors de la fin de vie d’étoiles près de dix fois plus massives que notre Soleil. Au delà du cobalt, les noyaux sont synthétisés lors de réactions explosives telles que les supernovas. On ne connaît pas encore précisément tous les processus responsables de la création des atomes dans l’Univers.


Notions clés
*         Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés).
*         La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires (protons et neutrons) peuvent se trouver.
*         Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons et de neutrons, on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions, appelé "vallée de la stabilité".

 

 DOCUMENT     cea         LIEN
 

 
 
 
initiation musicale toulon  

LES LASERS

  initiation musicale


 

 

 

 

 

LES LASERS

Réalisation : 3 août 2000 - Mise en ligne : 3 août 2000
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3


Descriptif
Depuis l'invention du premier laser en 1960, la diversité des lasers en couleurs, taille ou puissance n'a fait que croître. Les plus petits lasers sont si minuscules qu'on ne peut les voir qu'au microscope, les plus gros consomment autant d'électricité qu'une ville moyenne. Tous les lasers ont la faculté d'émettre des rayons d'une lumière inconnue dans la nature, qui forment de minces pinceaux d'une couleur pure, et que l'on peut concentrer sur un petit foyer. Ils exploitent la possibilité, prévue par Einstein, de multiplier les photons, qui sont les particules formant la lumière, dans un matériau bien choisi. Les caractéristiques des lasers, fort différentes de celles des lampes ordinaires, leur ont ouvert des utilisations très variées. En délivrant sa puissance de façon localisée, l'outil laser est capable de percer, découper et souder avec vitesse et précision. Il est aussi utilisé en médecine où il remplace les bistouris les plus précis et cautérise les coupures. Ce sont des lasers circulant dans des fibres optiques, fins cheveux de verres dont le réseau couvre maintenant le globe terrestre, qui transportent maintenant les conversations téléphoniques et les données sur Internet. Le laser intervient aussi dans les analyses les plus fines, en physique, en chimie ou en biologie, où il permet soit de manipuler les atomes ou les molécules individuellement, soit de véritablement déclencher et photographier des réactions chimiques ou biologiques. Il identifie les molécules qui composent l'air et beaucoup de grandes villes s'équipent de lasers spéciaux pour détecter la pollution à distance. Les sciences et techniques d'aujourd'hui vivent à l'heure du laser. Beaucoup pensent que le XXIe sera celui de l'optique, et ceci, grâce au laser.


Documents pédagogiques

Texte de la 216e conférence de l’Université de tous les savoirs donnée le 3 août 2000.

Les lasers

par Élisabeth Giacobino

Inventé il y a quarante ans, le laser reste un instrument un peu mystérieux, voire mythique, dont la notoriété dans le grand public doit beaucoup à la guerre des étoiles. Le combat au sabre laser ou le laser rayon de la mort sont beaucoup mieux connus que d’autres utilisations, bien réelles celles-là, qui ont changé notre vie. Quand vous décrochez votre téléphone pour appeler au-delà de votre voisinage immédiat, il y a de fortes chances que votre conversation soit transmise par un laser, car les câbles téléphoniques sont maintenant en grande partie remplacés par des fibres optiques où circule la lumière laser. Sans les télécommunications par laser, capables de transmettre de très hauts débits d’information, l’expansion de l’Internet n’aurait pas été possible.
Depuis que le premier laser, un laser rouge à rubis, a fonctionné en 1960, la diversité des lasers en couleur, taille et puissance n’a fait que croître. Les plus petits lasers sont si minuscules qu’on ne peut les voir qu’au microscope, les plus gros consomment autant d’électricité qu’une ville moyenne, et nécessitent de véritables immeubles pour les abriter (Fig. 1). Leurs longueurs d’onde dépassent largement les couleurs du spectre visible pour s’étendre des rayons X à l’infrarouge lointain.
Les lasers ont en commun la faculté d’émettre des rayons très parallèles, d’une couleur pure. D’où vient cette lumière extraordinaire, inconnue dans la nature et si différente de la lumière classique émise par une lampe ?
L’émission stimulée, principe de base du laser
Comme dans une lampe ou dans un tube fluorescent, ce sont des atomes ou des molécules qui produisent la lumière. Quand les atomes sont chauffés, excités par un courant électrique ou quand ils absorbent de la lumière, leurs électrons gagnent de l’énergie. Mais ils ne peuvent stocker l’énergie que de manière très spécifique. Ainsi que l’a montré Niels Bohr en 1913, les atomes sont sur des niveaux d’énergie bien précis, dits quantifiés, entre lesquels ils peuvent transiter. Ce faisant, l’atome absorbe ou émet une particule de lumière ou photon, dont l’existence tout d’abord postulée par Max Planck en 1900, a été affirmée par Einstein en 1905 (Fig. 2). De même que les niveaux d’énergie de l’atome, l’énergie du photon échangé, et donc sa longueur d’onde et sa couleur, sont déterminées par le type d’atome ou de molécule concerné.
Dans les lampes habituelles, on fournit de l’énergie aux atomes avec un courant électrique, c’est à dire qu’on met un certain nombre de leurs électrons dans les états supérieurs ou « excités ». Ils en redescendent rapidement et retombent vers l’état de plus basse énergie en émettant de la lumière de manière spontanée et désordonnée, dans toutes les directions et sur plusieurs longueurs d’onde.
Mais outre cette émission spontanée, il existe un autre processus, découvert par Einstein en 1917, appelé émission stimulée. C’est lui qui est à la base du fonctionnement du laser. Laser est d’ailleurs un acronyme pour « Light Amplification by Stimulated Emission of Radiation » (amplification de lumière par émission stimulée de rayonnement). La lumière peut forcer l’atome à redescendre de son état excité en cédant son énergie : un photon frappe l’atome et deux photons en ressortent. L’intérêt de ce processus est que la lumière émise est exactement identique à la lumière incidente, elle va dans la même direction, et les deux ondes sont exactement en accord de phase. L’émission stimulée produit ainsi une multiplication de photons identiques et une amplification cohérente de l’onde.

L’idée du laser a été proposée en 1958 par deux physiciens américains, C. H. Townes et A. L. Schawlow, et à peu près dans le même temps par les soviétiques V.A. Fabrikant, A.M. Prokhorov et N.G. Basov. Townes, Basov et Prokhorov ont d’ailleurs eu le prix Nobel en 1964 pour cette invention. Schawlow l’a eu beaucoup plus tard, en 1981. Townes avait déjà inventé, quelques années auparavant, le « maser » qui est un laser fonctionnant en micro-ondes sur les mêmes idées. Mais on peut remarquer que tous les principes étaient là dans les années 1920. Est-ce à dire que le laser aurait pu être inventé bien avant ?
Le principal problème à résoudre était que l’émission stimulée est en compétition avec les autres voies d’interaction de la lumière avec les atomes. L’une d’elle est l’émission spontanée, déjà mentionnée plus haut, l’autre est l’absorption, par laquelle un photon arrivant sur un atome placé dans un certain niveau d’énergie disparaît tandis que l’atome passe dans un niveau d’énergie supérieure. Pour que l’absorption, comme d’ailleurs l’émission stimulée, se produise, il faut que l’énergie du photon corresponde exactement à l’énergie dont l’atome a besoin pour effectuer la transition entre les deux niveaux d’énergie. Les deux processus sont aussi probables l’un que l’autre, et celui qui domine dépend de la répartition des atomes entre les deux niveaux d’énergie concerné par la transition. Considérons, comme sur la Figure 1, un ensemble de photons arrivant sur un groupe d’atomes. Si les atomes situés dans le niveau inférieur de la transition sont majoritaires, il se produit plus d’absorptions que d’émissions stimulées et le nombre de photons diminue. Au contraire, si les atomes du niveau supérieur sont majoritaires, c’est l’émission stimulée qui domine, et il ressort plus de photons qu’il n’y en avait au départ (Fig. 3). Quand le nombre de photons est assez grand, l’émission stimulée devient beaucoup plus fréquente que l’émission spontanée.
En général, les atomes se trouvent dans les niveaux d’énergie les plus bas et la population dans les différents niveaux diminue au fur et à mesure que l’on monte. Pour faire fonctionner un laser, il faut mettre les molécules ou les atomes dans des conditions complètement anormales, où cette répartition est renversée. La population d’un certain niveau doit être plus grande que celle d’un des niveaux inférieurs : on parle d’inversion de population. L’émission stimulée peut alors l’emporter sur l’absorption.
Cette situation est difficile à réaliser et les scientifiques se basés sur des études de spectroscopie qui avaient été faites dans de nombreux matériaux, aussi bien gaz, liquides que solides pour déterminer ceux qui présentaient les caractéristiques les plus favorables. Dans certains lasers, on utilise un courant électrique pour porter un majorité d’atomes dans un état excité et les préparer pour l’émission stimulée, dans d’autres, c’est une source auxiliaire de lumière (une lampe, ou un autre laser) qui « pompe » les atomes vers le niveau supérieur. C’est le physicien français Alfred Kastler qui a le premier proposé l’idée du pompage optique, pour lequel il a reçu le prix Nobel de Physique en 1966.
Si l’amplification sur un passage dans le matériau en question n’est pas très forte, on peut la renforcer en refaisant passer l’onde dans le milieu avec un miroir, et même plusieurs fois avec deux miroirs, un à chaque extrémité. A chaque passage l’onde lumineuse accumule un certain gain qui dépend du nombre d’atomes portés dans l’état supérieur par le pompage. On pourrait penser que dans ces conditions l’onde est amplifiée indéfiniment. De fait, il n’en est rien. A chaque passage, l’onde subit aussi des pertes, pertes inévitables dues à l’absorption résiduelle du milieu et des autres éléments qui constituent le laser et surtout pertes à travers les miroirs pour constituer le faisceau laser utilisable à l’extérieur. L’onde grandit jusqu'à ce que le gain équilibre les pertes et le régime laser s’établit de manière stable dans la cavité formée par les deux miroirs. L’intensité du faisceau laser qui sort de cette cavité dépend à la fois du gain disponible dans le milieu matériel et de la transparence des miroirs. Le faisceau est d’autant plus parallèle et directif qu’il aura parcouru un grand trajet entre les deux miroirs de la cavité.

Des lasers de toutes sortes
Après la publication de l’article où Townes et Schawlow exposaient leur idée, une compétition féroce s’engage dans le monde entier pour mettre en évidence expérimentalement cet effet nouveau. Suivant de près le laser à rubis, mis au point par T. Maiman en juillet 1960, deux autres lasers fonctionnent cette année-là également aux Etats-Unis. L’un d’eux est le laser à hélium-néon, dont le faisceau rouge a longtemps été utilisé pour le pointage et l’alignement. Il est maintenant détrôné par le laser à semi-conducteur, qui a fonctionné pour la première fois en 1962. Ce sont des lasers à semi-conducteur qui sont utilisé dans les réseaux de télécommunications optiques. Au début des années 1960, une floraison de nouveaux lasers voit le jour, comme le laser à néodyme, infrarouge, très utilisé à l’heure actuelle pour produire des faisceaux de haute puissance, le laser à argon ionisé vert qui sert aux ophtalmologistes à traite les décollements de la rétine, ou le laser à gaz carbonique, infrarouge, instrument de base dans les découpes et les traitements de surface en métallurgie.

Après les nombreux allers-retours qu’il fait entre ses deux miroirs avant de sortir, le faisceau d’un laser est très parallèle et peut être focalisé sur une surface très petite, ce qui permet de concentrer une très grande puissance lumineuse. Comme elle est due à la multiplication de photons identiques, la lumière laser est une onde pratiquement monochromatique, d’une couleur très pure. Il existe aussi un autre mode de fonctionnement, dans lequel toute l’énergie du laser est condensée sur des séries d’impulsions extrêmement brèves. Le record du monde se situe actuellement à quelques femtosecondes, soit quelques millionièmes de milliardièmes de seconde. Pendant ce temps très court se comprime toute la puissance du laser, qui peut alors atteindre plus de 100 térawatts, ou 100 000 milliards de watts, soit la puissance que fournissent 100 000 centrales électriques. On conçoit que cette impulsion ne peut pas durer longtemps ! De fait si une telle impulsion dure 10 femtosecondes, elle ne contient qu’une énergie modeste, 1 joule, ou 1/4 calorie.
Des applications très variées
Ce sont les qualités extraordinaires de la lumière laser qui sont exploitées dans les diverses applications, aussi bien dans la vie courante que dans les domaines de haute technologie et pour la recherche. Le faisceau très parallèle émis par les lasers est utilisé aussi bien pour la lecture des disques compacts que pour le pointage et les relevés topographiques et pour le guidage des engins ou des missiles. Lorsque de plus le laser émet des impulsions brèves, il est aisé de mesurer la distance qui le sépare d’un objet éloigné : il suffit que ce dernier soit tant soit peu réfléchissant. On mesure le temps d’aller-retour d’une impulsion entre le laser et l’objet, impulsion qui se propage à la vitesse de la lumière, 300 000 kilomètres par seconde. Certaines automobiles seront bientôt porteuses d’un petit laser qui permettra de connaître la distance de la voiture précédente et de la maintenir constante. Un « profilomètre » laser en cours de développement permettra aux aveugles d’explorer les obstacles dans leur environnement bien plus efficacement qu’une canne blanche. Encore plus ambitieuse est la mesure de la distance de la Terre à la Lune : plusieurs observatoires, comme celui de la Côte d’Azur à Grasse possèdent un laser dirigé vers la Lune. Il se réfléchit à la surface de la Lune sur des réflecteurs placés là par les missions Apollo, et revient, certes très affaibli, mais encore détectable sur Terre (Fig. 4). C’est ainsi que l’on sait que la Lune s’éloigne de la Terre de 3,8 centimètres par an ! La recherche des ondes gravitationnelles prédites par Einstein en 1918, mais jamais observées directement, utilise aussi un laser. Une onde gravitationnelle passant sur Terre modifie très légèrement les longueurs. Un laser permet de comparer avec une précision incroyable la longueur de deux bras d’un appareil appelé interféromètre où le laser circule. On espère détecter une variation de longueur bien inférieure au rayon d’un noyau d’atome sur une distance de plusieurs kilomètres.
Les télécommunications optiques bénéficient aussi de cette possibilité qu’ont les lasers de former des faisceaux très fins et modulables en impulsions très brèves. Les câbles en cuivre ont été remplacés en grande partie par des câbles optiques dont le réseau s’étend aussi bien sous les océans que sur les continents. Dans ces câbles, des fibres optiques, fins cheveux de verre, guident les faisceaux lasers de l’émetteur au récepteur. Sur ces lasers sont inscrits en code numérique aussi bien les conversations téléphoniques que les données pour l’Internet. Les câbles transocéaniques les plus récents atteignent des capacités de transmission fabuleuses, équivalentes à plusieurs millions de communications téléphoniques. De nouveaux câbles assortis de lasers et de systèmes optiques de plus en plus performants vont permettre à la « toile » mondiale de continuer à se développer à un rythme toujours plus effréné.
Une fois focalisé, le faisceau laser concentre une grande énergie. C’est ce qu’utilisent les imprimantes lasers avec des puissances relativement modestes. Les capacités de découpe et de perçage des lasers de grandes énergie comme le laser à gaz carbonique, sont largement exploitées en mécanique. Les lasers ont aussi utilisés couramment pour nettoyer les monuments historiques. Le laser permet d’enlever très exactement la couche de pollution qui s’est accumulée sur la pierre sans endommager cette dernière. En chirurgie le laser fait merveille en particulier en ophtalmologie où il remplace les bistouris les plus précis et en dermatologie où il permet des traitements esthétiques ou curatifs de nombreuses affections : verrues, tatouages ou rides disparaissent grâce au laser.

A la frontière extrême des lasers de puissance se situe le projet français de laser « Mégajoule » et son équivalent américain NIF (pour National Ignition Facility), dans lequel 240 faisceaux lasers seront focalisés pendant 16 nanosecondes avec une puissance totale de 500 Térawatts sur une cible de quelques millimètres carrés. La température de la matière située au point focal est portée à plusieurs millions de degrés. L’objectif principal est de produire la fusion thermonucléaire par laser, mais ces lasers sont aussi susceptibles de contribuer à la recherche sur la matière dans les conditions extrêmes qui règnent dans les étoiles.
Le laser est devenu un instrument de choix pour nombre de recherches fondamentales. En physique, la réponse optique des atomes lorsqu’on les éclaire par un laser est souvent une signature irremplaçable de leurs propriétés et permet de détecter et d’identifier des traces infimes de produits divers. En chimie et en biologie, on assiste à la naissance d’un nouvelle discipline : la femtochimie laser. Si les réactions chimiques d’ensemble prennent parfois plusieurs secondes ou minutes, au niveau des atomes, tout se passe à l’échelle de la femtoseconde. Pour sonder ce domaine, on envoie une impulsion laser ultra-brève qui est capable de déclencher à volonté des réactions de décomposition ou de recombinaison de molécules. D’autres impulsions envoyées quelques femtosecondes plus tard permettent de suivre l’évolution du système du système et de faire de véritables photographies en temps réel de la réaction chimique.

Exploitant la connaissance, accumulée par les chercheurs, des longueurs d’onde que peuvent absorber les molécules, la détection de la pollution atmosphérique par laser est appelée à se développer largement. La méthode LIDAR (pour « light detection and ranging », détection et mesure de distance par la lumière) utilise un laser de la couleur adéquate pour révéler la présence dans l’air des molécules indésirables, comme les oxydes d’azote ou l’ozone. Le laser envoie des impulsions vers la zone polluée. Une faible partie de celles-ci est diffusée en sens inverse, et l’analyse de la lumière qui revient permet de déterminer la concentration en polluant. Le temps d’aller retour des impulsions donne quand à lui la distance et la dimension du nuage polluant (Fig. 5). En balayant le laser dans toutes les directions on peut ainsi réaliser une véritable carte à 3 dimensions de la composition atmosphérique. Des LIDAR sont déjà en fonctionnement ou en test dans plusieurs grandes villes françaises.

Le laser est issu de l’imagination de quelques chercheurs, qui voulaient avant tout mettre en évidence de nouveaux concepts scientifiques. Même si ses inventeurs avaient imaginé quelques unes des utilisations du laser, ils étaient loin de soupçonner les succès qu’il devait connaître. A l’époque, certains avaient même qualifié le laser de « solution à la recherche d’un problème ». Il aurait pu rester à ce stade. Si les sciences et les techniques vivent aujourd’hui à l’heure du laser, c’est aussi grâce au développement de techniques parallèles, comme les fibres à très faibles pertes pour les télécommunications. En revanche, des recherches purement orientées vers une application donnée n’auraient jamais donné ce résultat. Aujourd’hui, dans un monde dominé par la rentabilité à court terme, de telles inventions nous rappellent que la recherche de la connaissance peut aussi déboucher sur des développements technologiques extraordinaires.

 

  VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] - Suivante
 
 
 
Google