ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Les noyaux des atomes

  initiation musicale


 

 

 

 

 

Les noyaux des atomes


Publié le 11 mai 2022


La conception que se font les physiciens des noyaux des atomes et de la physique qui les gouverne a fortement évolué depuis le début du XXème siècle. On les classe sur un diagramme en fonction de leur nombre de protons et de neutrons appelé charte des noyaux. Dans ce diagramme, la « vallée de la stabilité » délimite la zone des noyaux existants.
A L’INTÉRIEUR DE L’ATOME
L’atome est le constituant de base de la matière. Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés), tandis que les électrons (chargés négativement) sont localisés autour du noyau.
Son nombre de protons ou numéro atomique est noté Z. L’atome étant neutre, il comporte autant d’électrons que de protons. Ainsi le numéro atomique détermine les propriétés chimiques de l’atome. A chaque valeur de Z correspond un nom d’atome, un élément chimique. Ainsi l’hydrogène possède 1 proton, tandis que le carbone en possède 6.

Le nombre de neutrons au sein du noyau est désigné N. Le nombre de masse A est la somme de Z+N. Pour un atome de Z donné, on peut compter plusieurs isotopes, en fonction du nombre de neutrons.

DES NOYAUX DANS TOUS LEURS ÉTATS
Un noyau d’atome est dit :
*         lié lorsque la cohésion des protons et des neutrons est assurée. Plus leur énergie de cohésion est élevée, plus il faudra fournir d’énergie pour séparer les constituants du noyau. Les noyaux liés peuvent être stables ou instables.
*         stable lorsqu’il ne se désintègre pas spontanément en un autre noyau. La majorité des noyaux que l’on trouve sur Terre sont stables.
*         instable ou radioactif lorsqu’il tend à se transformer spontanément en un autre noyau. On appelle cette transformation « désintégration radioactive ». La probabilité que cet événement survienne dépend de sa période radioactive, qui correspond au temps au bout duquel la moitié d’un ensemble de noyaux de même nature s’est désintégrée.
*         excité lorsque, stable ou instable, il a acquis un surplus d’énergie. Le noyau peut vibrer ou tourner sur lui même et /ou dissiper cette énergie excédentaire par émission d’une particule ou d’un photon.       

DES NOYAUX EN FORME
Dès les origines de la physique nucléaire, devant la complexité d'un système composé de N particules en interaction, les physiciens imaginent des modèles visant à donner une description simple mais suffisamment réaliste du noyau. Depuis les années 60, les physiciens constatent que le noyau des atomes peut prendre les formes les plus inattendues. La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires peuvent se trouver. Ces constituants élémentaires sont les protons et les neutrons, qu’on nomme ensemble les nucléons, liés par l’interaction forte, l’une des quatre forces fondamentales à l’œuvre dans l’Univers. Ils sont eux-mêmes composés de quarks et de gluons (également soumis à l’interaction forte).

Les principales phases de la transformation de notre vision du noyau
Jusqu’au 19e siècle, l’atome est considéré comme la brique de base de la matière, indivisible. A partir du 20e siècle, la physique permet aux scientifiques de rentrer dans l’intimité de l’atome.

*         1911-1919 : On voit l’atome comme un noyau composé de protons chargés positivement autour duquel gravitent les électrons ;
*         1932 : Le noyau compte aussi des neutrons ;
*         1934 : Synthèse d’un atome artificiel. C’est le premier noyau exotique. Casse tête des physiciens tant leurs propriétés sont variées (forme, mode de désintégration radioactive, composition, durée de vie tellement courte que la notion même d’existence semble dépassée…), les noyaux exotiques continuent d’être étudiés aujourd’hui : il en resterait, selon les modèles théoriques, 3 000 à 5 000 à découvrir.
*         Années 40 : Certaines combinaisons particulières de protons et de neutrons entraînent des noyaux ayant une énergie de liaison très élevée. Les physiciens les appellent les noyaux magiques. C’est le cas pour les noyaux qui comptent 2, 8, 20, 28, 50, 82 ou 126 protons et/ou neutrons. A la même époque, le noyau peut être décrit macroscopiquement comme une goutte de matière. C’est le modèle de la goutte liquide qui permet de calculer l’énergie de liaison du noyau grâce à une seule équation simple.
*         Années 50 : On pense que les nucléons sont organisés en niveaux d’énergie qu’on appelle couches nucléaires, similaires à celles des électrons autour du noyau. C’est le modèle en couches : chaque couche a un nombre fini d’emplacements, lorsqu’une couche est totalement remplie et qu’aucune n’est remplie partiellement, l’édifice est particulièrement robuste.
*         Années 70 : La théorie du champ moyen considère que chaque nucléon se déplace dans un puits de potentiel, généré par l’ensemble des autres nucléons, qui le confine dans le noyau.
*         Années 80 : les noyaux ne sont plus vus comme un mélange homogène et plus ou moins sphérique. Ils sont imaginés comme des structures très variées : ainsi le carbone 12, atome stable, porté à haute énergie, est vu comme un tripode de trois noyaux d’hélium ; Le lithium 11 fait partie d’une nouvelle famille de noyaux dits noyaux à halo : son extension spatiale est similaire à celle du plomb 208, qui comporte pourtant vingt fois plus de nucléons.
*         Années 90 : A quelques encablures de la vallée de la stabilité, la théorie prévoit l’existence d’une série de noyaux comportant plus de 110 protons dont la durée de vie serait relativement élevée. Les scientifiques parlent de l’îlot de stabilité des noyaux super-lourds. Cette relative stabilité des noyaux super-lourds va à l’encontre de la force de répulsion coulombienne qui tend à faire se disloquer un édifice composé d’un trop grand nombre de charges de même signe.
*         Années 2000 : Avec la montée en puissance des grands accélérateurs de faisceaux radioactifs (Spiral au Ganil, RIBF à Riken…) de nombreux nouveaux isotopes radioactifs sont découverts et étudiés.
*         Aujourd’hui, tous les éléments jusqu’à 118 protons ont été synthétisés. Les quatre derniers découverts (113, 115, 117 et 118 protons) ont été officiellement nommés en 2016. De nouveaux instruments sont en développement pour aller encore plus loin. Les noyaux exotiques très riches en neutrons produits lors des explosions de supernovae sont encore hors de notre portée. On est encore très loin d’avoir découvert tous les noyaux existants et les phénomènes surprenants qu’ils pourraient faire apparaître !

Dans cette carte des noyaux, on prend pour "altitude", l'énergie de masse moyenne (Mc2/A), qui représente l'énergie de masse moyenne d'un nucléon dans le noyau. Plus cette énergie est faible, plus le noyau est stable. Les noyaux stables se retrouvent sur une ligne définissant le fond de la vallée, entourée de noyaux excédentaires en neutrons (en rose), en protons (en bleu) et de noyaux trop lourds (orange). Un excès de protons ou de neutrons se traduit par une transformation des noyaux selon différents modes de désintégration radioactive, alpha ou beta notamment. © CEA/Animea

LA VALLÉE DE LA STABILITÉ
Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons (Z, éléments) et de neutrons  (N, isotopes), on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions qui présente une surprenante vallée au fond de laquelle se  trouvent les 250 à 300 atomes stables. Plus on s’éloigne de ces noyaux, plus l’énergie de liaison de nucléons dans le noyau est faible. Les atomes radioactifs subissent une série de transformations qui les ramène toujours vers le fond de ladite vallée. Les chercheurs désignent cette figure par le terme imagé de «  vallée de la stabilité ».

D’OU VIENNENT LES NOYAUX : LA NUCLÉOSYNTHÈSE DANS LES ÉTOILES
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’univers. Les atomes les plus légers sont les plus anciens : hydrogène, hélium, lithium et béryllium ont été formés par assemblage de protons et de neutrons dans les trois minutes suivant le Big Bang. Il y a entre douze et quinze milliards d’années. Les autres éléments, plus lourds, sont plus récents et ont été produits dans les étoiles. Les premiers atomes compris entre le carbone et le fer ont été synthétisés lors de la fin de vie d’étoiles près de dix fois plus massives que notre Soleil. Au delà du cobalt, les noyaux sont synthétisés lors de réactions explosives telles que les supernovas. On ne connaît pas encore précisément tous les processus responsables de la création des atomes dans l’Univers.


Notions clés
*         Dans le noyau de l’atome se trouvent les protons (chargés positivement) et les neutrons (non chargés).
*         La forme d’un noyau correspond à la zone dans laquelle ses constituants élémentaires (protons et neutrons) peuvent se trouver.
*         Lorsqu’on classe les noyaux connus des atomes en fonction de leur nombre de protons et de neutrons, on obtient un ensemble de données en forme de faisceau. Si on ajoute la valeur de l’énergie de liaison de chaque noyau sous la forme d’un histogramme, on obtient un graphe en trois dimensions, appelé "vallée de la stabilité".

 

 DOCUMENT     cea         LIEN
 

 
 
 
initiation musicale toulon  

LES LASERS

  initiation musicale


 

 

 

 

 

LES LASERS

Réalisation : 3 août 2000 - Mise en ligne : 3 août 2000
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3


Descriptif
Depuis l'invention du premier laser en 1960, la diversité des lasers en couleurs, taille ou puissance n'a fait que croître. Les plus petits lasers sont si minuscules qu'on ne peut les voir qu'au microscope, les plus gros consomment autant d'électricité qu'une ville moyenne. Tous les lasers ont la faculté d'émettre des rayons d'une lumière inconnue dans la nature, qui forment de minces pinceaux d'une couleur pure, et que l'on peut concentrer sur un petit foyer. Ils exploitent la possibilité, prévue par Einstein, de multiplier les photons, qui sont les particules formant la lumière, dans un matériau bien choisi. Les caractéristiques des lasers, fort différentes de celles des lampes ordinaires, leur ont ouvert des utilisations très variées. En délivrant sa puissance de façon localisée, l'outil laser est capable de percer, découper et souder avec vitesse et précision. Il est aussi utilisé en médecine où il remplace les bistouris les plus précis et cautérise les coupures. Ce sont des lasers circulant dans des fibres optiques, fins cheveux de verres dont le réseau couvre maintenant le globe terrestre, qui transportent maintenant les conversations téléphoniques et les données sur Internet. Le laser intervient aussi dans les analyses les plus fines, en physique, en chimie ou en biologie, où il permet soit de manipuler les atomes ou les molécules individuellement, soit de véritablement déclencher et photographier des réactions chimiques ou biologiques. Il identifie les molécules qui composent l'air et beaucoup de grandes villes s'équipent de lasers spéciaux pour détecter la pollution à distance. Les sciences et techniques d'aujourd'hui vivent à l'heure du laser. Beaucoup pensent que le XXIe sera celui de l'optique, et ceci, grâce au laser.


Documents pédagogiques

Texte de la 216e conférence de l’Université de tous les savoirs donnée le 3 août 2000.

Les lasers

par Élisabeth Giacobino

Inventé il y a quarante ans, le laser reste un instrument un peu mystérieux, voire mythique, dont la notoriété dans le grand public doit beaucoup à la guerre des étoiles. Le combat au sabre laser ou le laser rayon de la mort sont beaucoup mieux connus que d’autres utilisations, bien réelles celles-là, qui ont changé notre vie. Quand vous décrochez votre téléphone pour appeler au-delà de votre voisinage immédiat, il y a de fortes chances que votre conversation soit transmise par un laser, car les câbles téléphoniques sont maintenant en grande partie remplacés par des fibres optiques où circule la lumière laser. Sans les télécommunications par laser, capables de transmettre de très hauts débits d’information, l’expansion de l’Internet n’aurait pas été possible.
Depuis que le premier laser, un laser rouge à rubis, a fonctionné en 1960, la diversité des lasers en couleur, taille et puissance n’a fait que croître. Les plus petits lasers sont si minuscules qu’on ne peut les voir qu’au microscope, les plus gros consomment autant d’électricité qu’une ville moyenne, et nécessitent de véritables immeubles pour les abriter (Fig. 1). Leurs longueurs d’onde dépassent largement les couleurs du spectre visible pour s’étendre des rayons X à l’infrarouge lointain.
Les lasers ont en commun la faculté d’émettre des rayons très parallèles, d’une couleur pure. D’où vient cette lumière extraordinaire, inconnue dans la nature et si différente de la lumière classique émise par une lampe ?
L’émission stimulée, principe de base du laser
Comme dans une lampe ou dans un tube fluorescent, ce sont des atomes ou des molécules qui produisent la lumière. Quand les atomes sont chauffés, excités par un courant électrique ou quand ils absorbent de la lumière, leurs électrons gagnent de l’énergie. Mais ils ne peuvent stocker l’énergie que de manière très spécifique. Ainsi que l’a montré Niels Bohr en 1913, les atomes sont sur des niveaux d’énergie bien précis, dits quantifiés, entre lesquels ils peuvent transiter. Ce faisant, l’atome absorbe ou émet une particule de lumière ou photon, dont l’existence tout d’abord postulée par Max Planck en 1900, a été affirmée par Einstein en 1905 (Fig. 2). De même que les niveaux d’énergie de l’atome, l’énergie du photon échangé, et donc sa longueur d’onde et sa couleur, sont déterminées par le type d’atome ou de molécule concerné.
Dans les lampes habituelles, on fournit de l’énergie aux atomes avec un courant électrique, c’est à dire qu’on met un certain nombre de leurs électrons dans les états supérieurs ou « excités ». Ils en redescendent rapidement et retombent vers l’état de plus basse énergie en émettant de la lumière de manière spontanée et désordonnée, dans toutes les directions et sur plusieurs longueurs d’onde.
Mais outre cette émission spontanée, il existe un autre processus, découvert par Einstein en 1917, appelé émission stimulée. C’est lui qui est à la base du fonctionnement du laser. Laser est d’ailleurs un acronyme pour « Light Amplification by Stimulated Emission of Radiation » (amplification de lumière par émission stimulée de rayonnement). La lumière peut forcer l’atome à redescendre de son état excité en cédant son énergie : un photon frappe l’atome et deux photons en ressortent. L’intérêt de ce processus est que la lumière émise est exactement identique à la lumière incidente, elle va dans la même direction, et les deux ondes sont exactement en accord de phase. L’émission stimulée produit ainsi une multiplication de photons identiques et une amplification cohérente de l’onde.

L’idée du laser a été proposée en 1958 par deux physiciens américains, C. H. Townes et A. L. Schawlow, et à peu près dans le même temps par les soviétiques V.A. Fabrikant, A.M. Prokhorov et N.G. Basov. Townes, Basov et Prokhorov ont d’ailleurs eu le prix Nobel en 1964 pour cette invention. Schawlow l’a eu beaucoup plus tard, en 1981. Townes avait déjà inventé, quelques années auparavant, le « maser » qui est un laser fonctionnant en micro-ondes sur les mêmes idées. Mais on peut remarquer que tous les principes étaient là dans les années 1920. Est-ce à dire que le laser aurait pu être inventé bien avant ?
Le principal problème à résoudre était que l’émission stimulée est en compétition avec les autres voies d’interaction de la lumière avec les atomes. L’une d’elle est l’émission spontanée, déjà mentionnée plus haut, l’autre est l’absorption, par laquelle un photon arrivant sur un atome placé dans un certain niveau d’énergie disparaît tandis que l’atome passe dans un niveau d’énergie supérieure. Pour que l’absorption, comme d’ailleurs l’émission stimulée, se produise, il faut que l’énergie du photon corresponde exactement à l’énergie dont l’atome a besoin pour effectuer la transition entre les deux niveaux d’énergie. Les deux processus sont aussi probables l’un que l’autre, et celui qui domine dépend de la répartition des atomes entre les deux niveaux d’énergie concerné par la transition. Considérons, comme sur la Figure 1, un ensemble de photons arrivant sur un groupe d’atomes. Si les atomes situés dans le niveau inférieur de la transition sont majoritaires, il se produit plus d’absorptions que d’émissions stimulées et le nombre de photons diminue. Au contraire, si les atomes du niveau supérieur sont majoritaires, c’est l’émission stimulée qui domine, et il ressort plus de photons qu’il n’y en avait au départ (Fig. 3). Quand le nombre de photons est assez grand, l’émission stimulée devient beaucoup plus fréquente que l’émission spontanée.
En général, les atomes se trouvent dans les niveaux d’énergie les plus bas et la population dans les différents niveaux diminue au fur et à mesure que l’on monte. Pour faire fonctionner un laser, il faut mettre les molécules ou les atomes dans des conditions complètement anormales, où cette répartition est renversée. La population d’un certain niveau doit être plus grande que celle d’un des niveaux inférieurs : on parle d’inversion de population. L’émission stimulée peut alors l’emporter sur l’absorption.
Cette situation est difficile à réaliser et les scientifiques se basés sur des études de spectroscopie qui avaient été faites dans de nombreux matériaux, aussi bien gaz, liquides que solides pour déterminer ceux qui présentaient les caractéristiques les plus favorables. Dans certains lasers, on utilise un courant électrique pour porter un majorité d’atomes dans un état excité et les préparer pour l’émission stimulée, dans d’autres, c’est une source auxiliaire de lumière (une lampe, ou un autre laser) qui « pompe » les atomes vers le niveau supérieur. C’est le physicien français Alfred Kastler qui a le premier proposé l’idée du pompage optique, pour lequel il a reçu le prix Nobel de Physique en 1966.
Si l’amplification sur un passage dans le matériau en question n’est pas très forte, on peut la renforcer en refaisant passer l’onde dans le milieu avec un miroir, et même plusieurs fois avec deux miroirs, un à chaque extrémité. A chaque passage l’onde lumineuse accumule un certain gain qui dépend du nombre d’atomes portés dans l’état supérieur par le pompage. On pourrait penser que dans ces conditions l’onde est amplifiée indéfiniment. De fait, il n’en est rien. A chaque passage, l’onde subit aussi des pertes, pertes inévitables dues à l’absorption résiduelle du milieu et des autres éléments qui constituent le laser et surtout pertes à travers les miroirs pour constituer le faisceau laser utilisable à l’extérieur. L’onde grandit jusqu'à ce que le gain équilibre les pertes et le régime laser s’établit de manière stable dans la cavité formée par les deux miroirs. L’intensité du faisceau laser qui sort de cette cavité dépend à la fois du gain disponible dans le milieu matériel et de la transparence des miroirs. Le faisceau est d’autant plus parallèle et directif qu’il aura parcouru un grand trajet entre les deux miroirs de la cavité.

Des lasers de toutes sortes
Après la publication de l’article où Townes et Schawlow exposaient leur idée, une compétition féroce s’engage dans le monde entier pour mettre en évidence expérimentalement cet effet nouveau. Suivant de près le laser à rubis, mis au point par T. Maiman en juillet 1960, deux autres lasers fonctionnent cette année-là également aux Etats-Unis. L’un d’eux est le laser à hélium-néon, dont le faisceau rouge a longtemps été utilisé pour le pointage et l’alignement. Il est maintenant détrôné par le laser à semi-conducteur, qui a fonctionné pour la première fois en 1962. Ce sont des lasers à semi-conducteur qui sont utilisé dans les réseaux de télécommunications optiques. Au début des années 1960, une floraison de nouveaux lasers voit le jour, comme le laser à néodyme, infrarouge, très utilisé à l’heure actuelle pour produire des faisceaux de haute puissance, le laser à argon ionisé vert qui sert aux ophtalmologistes à traite les décollements de la rétine, ou le laser à gaz carbonique, infrarouge, instrument de base dans les découpes et les traitements de surface en métallurgie.

Après les nombreux allers-retours qu’il fait entre ses deux miroirs avant de sortir, le faisceau d’un laser est très parallèle et peut être focalisé sur une surface très petite, ce qui permet de concentrer une très grande puissance lumineuse. Comme elle est due à la multiplication de photons identiques, la lumière laser est une onde pratiquement monochromatique, d’une couleur très pure. Il existe aussi un autre mode de fonctionnement, dans lequel toute l’énergie du laser est condensée sur des séries d’impulsions extrêmement brèves. Le record du monde se situe actuellement à quelques femtosecondes, soit quelques millionièmes de milliardièmes de seconde. Pendant ce temps très court se comprime toute la puissance du laser, qui peut alors atteindre plus de 100 térawatts, ou 100 000 milliards de watts, soit la puissance que fournissent 100 000 centrales électriques. On conçoit que cette impulsion ne peut pas durer longtemps ! De fait si une telle impulsion dure 10 femtosecondes, elle ne contient qu’une énergie modeste, 1 joule, ou 1/4 calorie.
Des applications très variées
Ce sont les qualités extraordinaires de la lumière laser qui sont exploitées dans les diverses applications, aussi bien dans la vie courante que dans les domaines de haute technologie et pour la recherche. Le faisceau très parallèle émis par les lasers est utilisé aussi bien pour la lecture des disques compacts que pour le pointage et les relevés topographiques et pour le guidage des engins ou des missiles. Lorsque de plus le laser émet des impulsions brèves, il est aisé de mesurer la distance qui le sépare d’un objet éloigné : il suffit que ce dernier soit tant soit peu réfléchissant. On mesure le temps d’aller-retour d’une impulsion entre le laser et l’objet, impulsion qui se propage à la vitesse de la lumière, 300 000 kilomètres par seconde. Certaines automobiles seront bientôt porteuses d’un petit laser qui permettra de connaître la distance de la voiture précédente et de la maintenir constante. Un « profilomètre » laser en cours de développement permettra aux aveugles d’explorer les obstacles dans leur environnement bien plus efficacement qu’une canne blanche. Encore plus ambitieuse est la mesure de la distance de la Terre à la Lune : plusieurs observatoires, comme celui de la Côte d’Azur à Grasse possèdent un laser dirigé vers la Lune. Il se réfléchit à la surface de la Lune sur des réflecteurs placés là par les missions Apollo, et revient, certes très affaibli, mais encore détectable sur Terre (Fig. 4). C’est ainsi que l’on sait que la Lune s’éloigne de la Terre de 3,8 centimètres par an ! La recherche des ondes gravitationnelles prédites par Einstein en 1918, mais jamais observées directement, utilise aussi un laser. Une onde gravitationnelle passant sur Terre modifie très légèrement les longueurs. Un laser permet de comparer avec une précision incroyable la longueur de deux bras d’un appareil appelé interféromètre où le laser circule. On espère détecter une variation de longueur bien inférieure au rayon d’un noyau d’atome sur une distance de plusieurs kilomètres.
Les télécommunications optiques bénéficient aussi de cette possibilité qu’ont les lasers de former des faisceaux très fins et modulables en impulsions très brèves. Les câbles en cuivre ont été remplacés en grande partie par des câbles optiques dont le réseau s’étend aussi bien sous les océans que sur les continents. Dans ces câbles, des fibres optiques, fins cheveux de verre, guident les faisceaux lasers de l’émetteur au récepteur. Sur ces lasers sont inscrits en code numérique aussi bien les conversations téléphoniques que les données pour l’Internet. Les câbles transocéaniques les plus récents atteignent des capacités de transmission fabuleuses, équivalentes à plusieurs millions de communications téléphoniques. De nouveaux câbles assortis de lasers et de systèmes optiques de plus en plus performants vont permettre à la « toile » mondiale de continuer à se développer à un rythme toujours plus effréné.
Une fois focalisé, le faisceau laser concentre une grande énergie. C’est ce qu’utilisent les imprimantes lasers avec des puissances relativement modestes. Les capacités de découpe et de perçage des lasers de grandes énergie comme le laser à gaz carbonique, sont largement exploitées en mécanique. Les lasers ont aussi utilisés couramment pour nettoyer les monuments historiques. Le laser permet d’enlever très exactement la couche de pollution qui s’est accumulée sur la pierre sans endommager cette dernière. En chirurgie le laser fait merveille en particulier en ophtalmologie où il remplace les bistouris les plus précis et en dermatologie où il permet des traitements esthétiques ou curatifs de nombreuses affections : verrues, tatouages ou rides disparaissent grâce au laser.

A la frontière extrême des lasers de puissance se situe le projet français de laser « Mégajoule » et son équivalent américain NIF (pour National Ignition Facility), dans lequel 240 faisceaux lasers seront focalisés pendant 16 nanosecondes avec une puissance totale de 500 Térawatts sur une cible de quelques millimètres carrés. La température de la matière située au point focal est portée à plusieurs millions de degrés. L’objectif principal est de produire la fusion thermonucléaire par laser, mais ces lasers sont aussi susceptibles de contribuer à la recherche sur la matière dans les conditions extrêmes qui règnent dans les étoiles.
Le laser est devenu un instrument de choix pour nombre de recherches fondamentales. En physique, la réponse optique des atomes lorsqu’on les éclaire par un laser est souvent une signature irremplaçable de leurs propriétés et permet de détecter et d’identifier des traces infimes de produits divers. En chimie et en biologie, on assiste à la naissance d’un nouvelle discipline : la femtochimie laser. Si les réactions chimiques d’ensemble prennent parfois plusieurs secondes ou minutes, au niveau des atomes, tout se passe à l’échelle de la femtoseconde. Pour sonder ce domaine, on envoie une impulsion laser ultra-brève qui est capable de déclencher à volonté des réactions de décomposition ou de recombinaison de molécules. D’autres impulsions envoyées quelques femtosecondes plus tard permettent de suivre l’évolution du système du système et de faire de véritables photographies en temps réel de la réaction chimique.

Exploitant la connaissance, accumulée par les chercheurs, des longueurs d’onde que peuvent absorber les molécules, la détection de la pollution atmosphérique par laser est appelée à se développer largement. La méthode LIDAR (pour « light detection and ranging », détection et mesure de distance par la lumière) utilise un laser de la couleur adéquate pour révéler la présence dans l’air des molécules indésirables, comme les oxydes d’azote ou l’ozone. Le laser envoie des impulsions vers la zone polluée. Une faible partie de celles-ci est diffusée en sens inverse, et l’analyse de la lumière qui revient permet de déterminer la concentration en polluant. Le temps d’aller retour des impulsions donne quand à lui la distance et la dimension du nuage polluant (Fig. 5). En balayant le laser dans toutes les directions on peut ainsi réaliser une véritable carte à 3 dimensions de la composition atmosphérique. Des LIDAR sont déjà en fonctionnement ou en test dans plusieurs grandes villes françaises.

Le laser est issu de l’imagination de quelques chercheurs, qui voulaient avant tout mettre en évidence de nouveaux concepts scientifiques. Même si ses inventeurs avaient imaginé quelques unes des utilisations du laser, ils étaient loin de soupçonner les succès qu’il devait connaître. A l’époque, certains avaient même qualifié le laser de « solution à la recherche d’un problème ». Il aurait pu rester à ce stade. Si les sciences et les techniques vivent aujourd’hui à l’heure du laser, c’est aussi grâce au développement de techniques parallèles, comme les fibres à très faibles pertes pour les télécommunications. En revanche, des recherches purement orientées vers une application donnée n’auraient jamais donné ce résultat. Aujourd’hui, dans un monde dominé par la rentabilité à court terme, de telles inventions nous rappellent que la recherche de la connaissance peut aussi déboucher sur des développements technologiques extraordinaires.

 

  VIDEO       CANAL  U         LIEN

 
 
 
initiation musicale toulon  

lumière

  initiation musicale

 

 

 

 

 

 

lumière

(latin ecclésiastique luminaria, du latin classique lumen, -inis)

Consulter aussi dans le dictionnaire : lumière
Cet article fait partie du dossier consacré à la
lumière
.
Rayonnement électromagnétique dont la longueur d'onde, comprise entre 400 et 780 nm, correspond à la zone de sensibilité de l'œil humain, entre l'ultraviolet et l'infrarouge.

OPTIQUE
1. Historique de la notion de lumière
1.1. Les conceptions antiques et médiévales de la lumière
La théorie de la lumière a introduit, tout au long de l'histoire des sciences, un questionnement fondamental sur la nature des objets que la physique étudie : ondes ou particules ? Dans les premières descriptions mythiques du monde, la lumière est une sorte de « brume claire », opposée à la « brume sombre » des ténèbres qui, le soir, montent du sol. Puis les Grecs commencent à s'interroger sur la nature physique du monde. Parménide, remarquant que la partie brillante de la Lune est toujours tournée vers le Soleil, en déduit que la lumière vient du Soleil, c'est-à-dire qu'elle se déplace. Les ténèbres, elles, sont une absence de lumière. La propagation de la lumière est expliquée par l'émission de petites particules, conception qui sera largement développée au Moyen Âge. Pour Aristote, les couleurs résultent d'un mélange de lumière et d'obscurité.
1.2. Les premières théories scientifiques de la lumière
1.2.1. La lumière selon Descartes, Huygens et Malebranche
Au début du xviie s., avec R. Descartes, s'amorce vraiment une théorie scientifique de la propagation de la lumière. Si Descartes conçoit la lumière comme un ébranlement d'une matière subtile se transmettant instantanément, donc avec une vitesse infinie et sans transport de matière, on rencontre aussi chez lui une conception corpusculaire. Ces idées seront reprises et améliorées par deux théories longtemps rivales : la théorie ondulatoire et la théorie corpusculaire.
La première ne reçoit un véritable développement scientifique qu'avec C. Huygens. Selon celui-ci, chaque point d'une surface lumineuse émet une onde sphérique qui se propage à une vitesse finie dans un milieu non vraiment matériel, l'éther, d'une manière analogue au son. Huygens explique ainsi les phénomènes de réflexion de la lumière, de réfraction (déviation d'un rayon lumineux lors de son passage d'un milieu à un autre), etc. (→ optique). Toutefois, sa théorie ondulatoire ignore les notions de fréquence et d'amplitude des vibrations lumineuses et donc n'explique ni la diversité des couleurs, ni les phénomènes d'interférence, ni la propagation rectiligne de la lumière.
Au début du xviiie s., N. de Malebranche, partisan lui aussi de la théorie ondulatoire présente une conception plus précise des vibrations lumineuses de l'éther et de leur fréquence qu'il distingue de leur amplitude, ce qui le conduit à la reconnaissance de la diversité continue des couleurs. Mais, pour lui, comme pour Huygens, la vibration est longitudinale.
1.2.2. La lumière selon Newton
La théorie de la lumière d'I. Newton est mixte, bien qu'y domine l'explication corpusculaire, qui sera la source d'une vive polémique avec R. Hooke, défenseur de la pure théorie ondulatoire. Pour Newton, la lumière est constituée par des corpuscules qui se déplacent dans l'éther à une vitesse finie, où ils produisent des vibrations. Comme Malebranche, il introduit la notion de fréquence variant avec les couleurs, mais, à la différence de celui-ci, il ne la distingue pas clairement de l'amplitude des vibrations. Cette fréquence est expliquée par la variation du comportement des corpuscules durant leur parcours, et la diversité des couleurs, par des différences de taille des corpuscules. La théorie corpusculaire de Newton rend bien compte de la propagation rectiligne de la lumière, mais ce n'est que par des raisonnements mécaniques imaginatifs et peu scientifiques qu'il explique la diffraction (phénomène typiquement de nature ondulatoire).
1.3. L'optique moderne
C'est seulement au début du xixe s., avec T. Young, qu'est introduit le principe fondamental d'interférences des ondes lumineuses, au cours de l'expérience dite des « fentes de Young », qui constitue une preuve patente du caractère ondulatoire de la lumière. Cette théorie ne sera vraiment développée que par A. Fresnel, qui substitue, le premier, la vibration transversale à la vibration longitudinale. Toutefois, à la même époque, de nombreux savants demeurent attachés à la théorie corpusculaire, principalement Laplace et J.-B. Biot, qui la défendent sur la base de la mécanique newtonienne. Mais, lorsque les mesures de H. Fizeau (1849) et de L. Foucault (1850) démontrent, ainsi que l'avait prévu Fresnel, que la lumière se propage plus vite dans l'air que dans l'eau, la théorie corpusculaire, qui affirmait le contraire, est abandonnée.
En 1865, J. C. Maxwell établit la nature électromagnétique de la lumière, théorie que H. A. Lorentz développe à la fin du xixe s., démontrant notamment que l'on peut expliquer la réflexion et la réfraction par les théories électromagnétiques de Maxwell.
1.4. La conception quantique de la lumière
Avec la découverte du photon et l'interprétation de l'effet photoélectrique par A. Einstein en 1905, et avec la mécanique ondulatoire de L. de Broglie en 1924, qui associe onde et corpuscule, les deux théories – corpusculaire et ondulatoire – se trouvent « réconciliées », mais sous un mode qui les modifie l'une et l'autre. Comme toute révolution scientifique, celle-ci entraîne un dépassement des théories précédentes. Aujourd'hui, dans le cadre de la physique quantique, le photon n'est plus ni une onde ni une particule mais un quanton, objet d'étude de la théorie quantique. Cependant, lorsque celle-ci peut être approchée par la théorie classique, un quanton manifeste un comportement soit corpusculaire (effet photoélectrique), soit ondulatoire (interférences lumineuses). La théorie quantique relie les aspects corpusculaire et ondulatoire de la lumière par la relation E = hν = hc/λ (l'énergie d'un photon E est proportionnelle à la fréquence ν de l'onde (ou inversement proportionnelle à la longueur d'onde λ) qui lui est associée, h étant la constante de Planck dont la valeur est 6,626 176 × 10−34 J s et c la célérité de la lumière).

2. Sources et récepteurs de lumière
Les grandeurs photométriques (relatives à la lumière) usuelles sont l'intensité lumineuse, le flux lumineux, la luminance et l'éclairement, les unités correspondantes étant la candela, le lumen, la candela par mètre carré et le lux.
2.1. Les sources primaires de lumière
Les sources primaires produisent de la lumière par elles-mêmes en convertissant de l’énergie (chimique pour les bougies, électrique pour les lampes, nucléaire pour les étoiles) en énergie lumineuse.
2.2. Les sources secondaires et la diffusion de la lumière
Les sources secondaires sont des objets éclairés qui renvoient dans toutes les directions une partie de la lumière qu’ils reçoivent (la Lune, les planètes, les objets qui nous entourent) : on dit que la lumière est diffusée par l’objet. Seuls les objets totalement noirs ne réfléchissent pas de lumière.
2.3. Les récepteurs de lumière
L’œil humain est un récepteur de lumière particulièrement sophistiqué : il s’adapte aux conditions de luminosité, permet de voir de près comme de loin et distingue les couleurs. Mais il en existe de plus simples comme la pellicule d’un appareil photo (photographie) qui convertit la lumière en énergie chimique, ou une cellule photoélectrique qui convertit la lumière en signal électrique (→ capteur, CCD).
Pour en savoir plus, voir les articles œil [zoologie], vision [zoologie], vision [médecine].

3. Propagation de la lumière
Le trajet de la lumière dans un milieu peut être représenté par un segment de droite appelé rayon lumineux. La lumière se propage en ligne droite dans les milieux homogènes (les milieux qui ont la même composition en tout point) ; si le milieu est également transparent (comme l’eau, l’air, le verre, etc.), la lumière se propage en ligne droite sans être atténuée, ou très peu. Néanmoins, l'intensité lumineuse par unité de surface diminue avec le carré de la distance à la source. Lorsque la lumière rencontre un corps, elle est absorbée, réfléchie ou transmise (l'un des cas n'excluant pas les autres).
3.1. Diffusion et réflexion de la lumière
Lorsqu’elle rencontre un objet, la lumière est partiellement diffusée par cet objet (qui devient une source secondaire de lumière) : c’est la réflexion de la lumière. La lumière réfléchie par une surface irrégulière est renvoyée dans toutes les directions. Certaines fréquences sont réfléchies plus fortement que d'autres, donnant ainsi aux objets leur couleur caractéristique. Les surfaces blanches réfléchissent la lumière de façon égale pour toutes les longueurs d'onde ; les surfaces noires absorbent pratiquement toute la lumière.
3.2. Absorption et réfraction de la lumière
L’autre partie du rayon lumineux est absorbée par l’objet. Si l’objet est opaque, la lumière absorbée ne peut traverser l’objet. Si l’objet est translucide ou transparent, une partie de la lumière absorbée traverse l’objet en changeant généralement de direction : c’est la réfraction de la lumière. C’est la raison pour laquelle il est difficile de déterminer l’emplacement exact d’un objet plongé dans l’eau : il semble plus proche de la surface qu’il ne l’est vraiment, du fait de la réfraction des rayons lumineux.

4. Interaction lumière-matière
4.1. Niveaux d’énergie des atomes
Au début du xxe siècle, la physique quantique transforme radicalement la vision que l'on a jusque-ici de l'énergie ainsi que de la matière. En effet, dans un atome, les électrons gravitent autour du noyau. Chaque électron possède une énergie qui est d’autant plus faible qu’il se trouve proche du noyau. Par définition, l’énergie de l’atome est égale à la somme des énergies de tous ses électrons. Ainsi, l’énergie qui était jusque-ici considérée comme une grandeur continue, devient discontinue à l’échelle atomique : Niels Bohr parle de quantification de l’énergie des atomes dès 1913.
Pour représenter les différents niveaux d’énergie associés à un atome, on utilise un diagramme avec un axe vertical où sont spécifiés les niveaux d’énergie associés à l’atome : l’état de plus basse énergie est appelé état fondamental ; les états d’énergie supérieurs sont des états excités. À chaque état est associé une énergie (notée E) : l’atome ne peut prendre que des niveaux d’énergie bien déterminés (E1, E2, E3, E4…).

4.2. Émission ou absorption d’une radiation par un atome
Pour passer d'un niveau d'énergie à un autre, un atome doit absorber un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité et l’énergie de l’état fondamental. Si l’énergie du photon est supérieure ou inférieure à la différence d’énergie, l’atome ne peut pas absorber le photon et reste dans son état d’énergie fondamental :

Prenons l’exemple de la transition entre le niveau 1 (fondamental) et le niveau 2. Pour être absorbé, le photon doit avoir une énergie E strictement égale à la différence entre E2 et E1 :
E = E2 – E1 = hν, soit E = ΔE = hν.
Tous les photons qui ne possèdent pas cette énergie ne pourront pas être absorbés par l’atome et la transition de niveaux d’énergie ne se fera pas.
Inversement, un atome (ou une molécule) excité(e) retourne à son état fondamental (ou à un état d’énergie inférieur) en émettant un photon dont l’énergie est exactement égale à la différence d’énergie ΔE entre l’énergie de l’état excité de départ et l’énergie de l’état fondamental (ou d’un état d’énergie inférieur).

5. Spectres lumineux
Produite par incandescence ou par luminescence, la lumière est généralement composée d'une infinité de radiations de longueurs d'onde (ou de fréquences) différentes, dont l'ensemble constitue le spectre lumineux. Le spectre d’une lumière peut être obtenu en décomposant cette lumière à l’aide d’un prisme. Lors de la traversée du prisme, la lumière est déviée par réfraction. Chaque radiation lumineuse constituant la lumière est déviée différemment selon sa longueur d’onde, formant ainsi le spectre de cette lumière.
5.1. Les spectres d’émission
En fonction de la source lumineuse, le spectre d’émission sera continu pour des solides et des liquides chauffés (le filament d’une lampe par exemple) ou discret (spectre de raies) pour des gaz portés à haute température (une lampe à vapeur de mercure par exemple). Les raies d’émission sont caractéristiques des éléments chimiques présents dans le gaz.
Si le spectre obtenu est constitué de plusieurs radiations lumineuses, il s’agit d’une lumière polychromatique (lumière émise par une lampe à incandescence par exemple). En revanche, si la lumière n’est constituée que d’une seule radiation lumineuse, il s’agit alors d’une lumière monochromatique (lumière émise par un laser par exemple).

5.2. Les spectres d’absorption
L'étude d'un spectre (spectrométrie) renseigne ainsi non seulement sur la nature chimique de la source, mais aussi sur la nature du milieu traversé par la lumière, qui absorbe certaines radiations. Le spectre de la lumière ayant traversé ce milieu est appelé spectre d’absorption : les raies noires représentent les radiations absorbées. Elles sont caractéristiques des éléments chimiques présents dans le gaz. Le spectre d’absorption et le spectre d’émission d’un même élément chimique sont complémentaires (voir les spectres d’absorption et d’émission du mercure). En effet, les raies d’absorption et d’émission d’une même espèce chimique ont la même longueur d’onde : un élément chimique absorbe les radiations qu’il est capable d’émettre.
Par exemple, l’analyse du spectre de la lumière provenant du Soleil a permis d’identifier les éléments chimiques présents dans l’atmosphère solaire : toutes les raies noires observées correspondent aux radiations absorbées par les atomes présents. Cette analyse, réalisée dès 1814 par J. von Fraunhofer, puis complétée successivement par R. Bunsen et G. Kirchhoff (en 1851) a permis de trouver les éléments chimiques responsables des raies noires du spectre solaire (476 raies au total). En particulier, ces travaux ont mené à la découverte en 1868 d’un élément chimique encore inconnu à cette époque sur Terre : l’hélium. Cette méthode d’analyse spectroscopique est encore utilisée pour étudier l’atmosphère des étoiles.

6. La vitesse de la lumière
La lumière se déplace à une vitesse finie. Par exemple, la lumière émise à la surface du Soleil met environ 8 minutes pour parvenir jusqu'à nous, autrement dit elle se déplace à une vitesse d'environ 300 000 kilomètres par seconde dans le vide. À l’échelle humaine, cette vitesse est vertigineuse – les sondes spatiales envoyées dans l’espace ne se déplacent qu’à environ 20 km/s ; mais à l’échelle de l’Univers, elle devient « manipulable » : il faut par exemple 4 ans à la lumière de l'étoile la plus proche du Soleil (Proxima Centauri) pour nous parvenir et plus de 2 millions d'années pour celle émanant de la galaxie d'Andromède…
La vitesse (ou célérité) de la lumière dans le vide est une constante fondamentale de la physique : c = 299 792 458 m/s. Le premier à montrer expérimentalement que la lumière se déplace à une vitesse finie fut l'astronome O. Römer, en 1676, à partir d'observations des éclipses de certains satellites de Jupiter réalisées à l'Observatoire de Paris. Les premières déterminations précises de la vitesse de la lumière ont été effectuées au xixe s. par H. Fizeau (1849) et L. Foucault (1850). En 1887, les physiciens américains A. Michelson et E. Morley réalisèrent une expérience qui fit date dans l’histoire des sciences : leur objectif était de comparer par interférométrie la vitesse de la lumière se propageant dans le sens de révolution de la Terre et perpendiculairement à ce mouvement, de manière à mettre en évidence l’existence de l’éther dans lequel était censée se déplacer la lumière (comme le son dans l’air). Les résultats de l’expérience de Michelson-Morley permirent d’affirmer que la vitesse de la lumière était la même dans toutes les directions. Cette invariance de la vitesse de la lumière fut interprétée par certains physiciens comme une preuve de l’inexistence du fameux éther. En 1905, A. Einstein interpréta cette expérience dans le cadre de sa théorie de la relativité restreinte : la vitesse de la lumière est indépendante du référentiel, c’est une constante universelle de la physique.
Ainsi, quand une source de lumière s'approche ou s'éloigne, la lumière qui parvient à l'observateur a toujours la même vitesse, mais sa fréquence augmente ou diminue : c’est l’effet Doppler-Fizeau. Cet effet permet notamment de mesurer la vitesse d'éloignement des galaxies dans l'Univers (mesure de décalage vers le rouge ou redshift en anglais).
→ expansion de l'Univers.
Par ailleurs, si la vitesse de la lumière c est invariante dans le vide, elle décroît dans les milieux matériels, ce qui se manifeste par un changement de l'indice de réfraction (noté n) en fonction du milieu (n = c/v, où v est la vitesse de la lumière dans le milieu considéré). Par exemple, la vitesse de la lumière est d’environ 225 000 km/s dans l’eau, de 200 000  km/s dans le verre, le diamant à 125 000 km/s, etc. De plus, l’indice de réfraction (et donc la vitesse) dépend également de la longueur d'onde de la lumière : le bleu est plus dévié que le rouge… Ceci explique la dispersion de la lumière blanche dans un prisme ou dans les gouttes d'eau d'un arc-en-ciel.
Enfin, la vitesse de lumière (et l’indice de réfraction) dépend également de la température du milieu traversé : par exemple, dans l’expérience réalisée en 2000 par Lene Hau (université de Harvard, États-Unis), la vitesse de la lumière traversant un condensat de Bose-Einstein (milieu particulier dans lequel les atomes sont refroidis à une température très proche du zéro absolu, environ –273 °C) a été ralentie à 1,5 km/h.

7. Applications de la lumière
L'énergie du rayonnement lumineux peut être convertie en énergie thermique (fours solaires, effet de serre, etc.), en énergie chimique (photosynthèse, réactions photochimiques utilisées en photographie argentique) et surtout en énergie électrique (cellules photoélectriques, photopiles). L’énergie solaire constitue d’ailleurs une source d’énergie renouvelable intéressante pour répondre au défi énergétique de cette fin de siècle, en raison de l’épuisement rapide des énergies fossiles.
Par ailleurs, la lumière peut être amplifiée et rassemblée en un étroit faisceau dit cohérent, formant la lumière laser, utilisée dans l’ensemble des domaines de la recherche fondamentale (médecine, astrophysique, métrologie, etc.) ainsi que dans l’industrie (lecture de DVD ou de code-barres, découpe de matériaux, armement, etc.).

BOTANIQUE
Comme source d'énergie, la lumière est absorbée principalement au niveau des feuilles (photosynthèse). La lumière verte seule n'est pas absorbée, mais réfléchie, d'où l'aspect vert des feuilles. Comme stimulus efficace, la lumière favorise la germination de certaines espèces et gêne celle d'autres espèces, ralentit la croissance des tiges, faisant s'incliner l'axe vers le côté le plus éclairé (phototropisme), règle l'ouverture des stomates foliaires et gouverne par sa durée la date de la floraison (photopériodisme).

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

Nanomatériaux

  initiation musicale

 

 

 

 

 

 

Nanomatériaux


© A. Gonin/CEA


Construire des nanomatériaux aux propriétés nouvelles pour l’énergie, les transports et d’autres applications de la vie quotidienne est un enjeu stratégique.

Publié le 1 juillet 2012

L’observation des matériaux au microscope fait apparaître leur composition, leur structure, granulaire ou fibreuse, et leurs défauts. Elle révèle, par exemple, que les alliages métalliques sont constitués d’agrégats de grains de taille micrométrique.

INFLUENCE DE LA STRUCTURE
La structure détermine les propriétés optiques, mécaniques, électriques, magnétiques, thermiques… des matériaux. En faisant coïncider l’échelle d’homogénéité des matériaux avec l’échelle d’action de phénomènes physiques, on peut modifier certaines de leurs caractéristiques. Ainsi, un verre millistructuré est transparent mais pas superhydrophobe, tandis qu’un verre microstructuré est opaque mais toujours pas superhydrophobe. Seul un verre nanostructuré est transparent et superhydrophobe.
Les nanomatériaux sont donc volontairement façonnés à cette échelle : ils sont constitués d’éléments nanométriques qui vont leur conférer la propriété recherchée. Ils peuvent se présenter sous forme de nanopoudre ou comprennent des nanoparticules intégrées dans une matrice ordinaire (on parle alors de matériaux composites).
En diminuant la taille des grains, on obtient des matériaux plus légers et ayant de meilleures propriétés mécaniques, par exemple plus résistants. Les matériaux obtenus sont plus malléables car les grains glissent plus facilement les uns par rapport aux autres.

Les polymères sont transparents : ce sont les nanocristaux dispersés dans le polymère qui sont fluorescents sous lampe UV. © Artechnique/CEA

Plus un objet est petit, plus sa surface externe est importante par rapport à son volume. Les objets nanométriques sont caractérisés par un nombre d’atomes en surface identique au nombre d’atomes en volume. Les phénomènes de surface jouent donc un rôle désormais prédominant. Le monde naturel l’illustre bien : ainsi, un insecte peut marcher sur l’eau mais, grossi 500 fois jusqu’à la taille d’un éléphant, il n’en serait plus capable.
De plus, ce qui se passe à l’interface entre chaque élément constitutif est aussi très important. Plus il y a d’éléments, plus la surface d’échange augmente. Celle des objets nanométriques est par conséquent immense. Il est ainsi possible de modifier les propriétés d’un matériau en le façonnant à cette échelle. Par exemple, le cuivre formé de nanocristaux est trois fois plus résistant mécaniquement qu’en microcristaux. Une poussière de nanotubes « en vrac » a une immense surface d’échange avec son environnement : plusieurs centaines de mètres carrés par gramme. Cela permet notamment d’augmenter l’efficacité des catalyseurs de l’industrie chimique ou des pots d’échappements pour le même volume de matière.
Certains matériaux réémettent de la lumière visible quand ils sont éclairés : c’est le phénomène de photoluminescence. Sous des rayons ultraviolets, la couleur émise par des nanocristaux de séléniure de cadmium change en fonction de leur dimension, passant du bleu pour des grains de 2 nm au vert pour 3 nm, puis au rouge pour 5 nm. Dotés de cette propriété, les nanocristaux de semi-conducteurs, souvent appelés quantum dots, peuvent être utilisés dans le marquage moléculaire ou encore comme marqueurs d’objets précieux et de produits commerciaux.
On peut ainsi utiliser la réactivité ou les propriétés de certaines nanoparticules pour obtenir des surfaces fonctionnalisées : vitres autonettoyantes, miroirs antibuée, revêtements antibactériens et/ou fongicides… Pour cela, il faut déposer une couche de ces nanoparticules à la surface d’un objet en matériau ordinaire avec des procédés comme le sol-gel ou le dépôt en phase vapeur.

La nature inspiratrice
Le gecko, petit animal qui ressemble à un lézard, a la propriété étonnante de courir au plafond ! En examinant de très près la surface de ses pattes, on a découvert qu’elle est constituée d’un tapis de fibres très serrées qui lui donne cette superadhérence. Des chercheurs sont en train d’en copier la structure pour reproduire cet effet de nano-velcro…
La feuille de lotus, quant à elle, présente une propriété étonnante : elle est superhydrophobe. L’étude nanométrique de sa surface met en évidence une nanostructure qui fait glisser les gouttes, et permet de comprendre comment et pourquoi, même plongée dans l’eau, elle paraît toujours sèche. L’intérêt de cette recherche est de pouvoir fabriquer des verres hydrophobes qui pourraient équiper les véhicules et la lunetterie.
Les objets nanométriques « naturels » sont depuis toujours présents dans notre environnement. Les grains d’argent des émulsions photographiques, la poudre à base d’encre de Chine, les colorants des verres (de certaines cathédrales par exemple) contiennent des nanoparticules. Mais les objets dérivant des nanotechnologies ne sont fabriqués que depuis quelques années. Aujourd’hui, plus de 350 produits grand public sont commercialisés pour lesquels le constructeur mentionne au moins un élément dérivé des nanotechnologies. Parmi eux, on compte des cosmétiques, des systèmes électroniques et des produits ménagers et sportifs.
Pour beaucoup d’applications, des nanoparticules aux propriétés déterminées sont incluses dans une matrice, créant ainsi un matériau composite fonctionnel. Tout, ou presque, est envisageable : béton ultraléger, résistant et auto-cicatrisant, film de polyéthylène antibactérien (en incluant des nanoparticules d’argent) et imperméable aux rayons UV (grâce à des nanoparticules de dioxyde de titane), crèmes solaires incorporant, elles aussi, des nanograins de dioxyde de titane pour l’absorption des UV dangereux pour la peau, céramiques nanorenforcées rendues bio­compatibles, matières plastiques à base de polymères rendues conductrices, ininflammables ou plus résistantes…

DES NANOS AU SERVICE DE L'ÉNERGIE
L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur, en particulier dans les projets liés aux réacteurs de « Génération IV ».

En effet, qu'il s'agisse des nouveaux alliages métalliques renforcés par une dispersion très fine d’oxyde (aciers ODS) ou de composites à matrices céramiques (CMC), les performances de ces matériaux reposent sur leur nanostructuration. Elles permettent par exemple aux premiers de renforcer leur résistance lors de leur utilisation en environnement sévère ; aux seconds de présenter une conductivité thermique élevée. Le développement pour le nucléaire de ces matériaux nanostructurés permettra la diffusion de connaissances, de savoir-faire technologique et d’innovation dans d’autres secteurs industriels.
Les nouvelles technologies de l’énergie intègrent aussi ces recherches.
Premier exemple : les cellules photovoltaïques. Les dispositifs actuels en silicium cristallin convertissent au maximum 16 à 18 % de la puissance du Soleil en énergie électrique, mais la fabrication des cellules est coûteuse, complexe, et exige de grandes précautions. Les nanotechnologistes élaborent des structures photosensibles flexibles, à partir de plastiques conducteurs, actuellement en phase de test.

L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur.

Pour les piles à combustible, le polymère des membranes a été rendu plus résistant mécaniquement, chimiquement et thermiquement. Les particules de platine, qui jouent le rôle de catalyseur, ont été remplacées par des nanoparticules, permettant ainsi d’économiser du métal précieux.
Le champ des possibles est immense. À l’évidence, des secteurs comme l’aéronautique et l’aérospatial, toujours à la recherche de matériaux légers et ultra-performants, seront de gros utilisateurs. Les moyens de transport terrestres, maritimes et aériens seront plus légers, emporteront plus de charge utile tout en consommant moins d’énergie et donc en polluant moins. L’industrie textile connaîtra aussi sans doute des bouleversements : de nombreux scientifiques travaillent déjà sur des tissus « intelligents ».

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] - Suivante
 
 
 
Google