|
|
|
|
 |
|
Généalogie de la matière |
|
|
|
|
|
Généalogie de la matière
En 1610, pointant sa lunette vers la Lune, Galilée vit des montagnes et en déduisit que la Lune était « terreuse ». Aujourd’hui, la Terre pourrait être qualifiée de céleste, car les éléments qui la composent ont été fabriqués dans les étoiles. L’étude systématique de la structure des noyaux, de leurs comportements et des réactions qui les mettent en jeu a eu un rôle central dans le développement de la théorie de l’origine des éléments.
Publié le 10 décembre 2015
UN PEU DE PHYSIQUE NUCLÉAIRE
Le noyau d’un atome est formé de particules appelées « nucléons » (protons et neutrons), liées entre elles. Le nombre de protons, Z, et le nombre de neutrons, N, varient d’un noyau à l’autre, et toutes les combinaisons (Z, N) ne sont pas possibles.
Neutrons et protons sont liés entre eux par la force nucléaire forte, dont le rayon d’action, très faible, est de l’ordre du millionième de milliardième de mètre (10–15 m). Elle est donc maximale lorsque les nucléons sont au contact ou très proches. Cependant, les nucléons situés près de la surface extérieure du noyau sont moins entourés et donc moins liés que ceux de l’intérieur ; ce déficit d’interaction diminue leur énergie de liaison.
Les protons, dotés d’une charge électrique positive, se repoussent entre eux sous l’effet de la force électrostatique. Cela occasionne une nouvelle diminution de l’énergie de liaison du noyau. Pour limiter cet effet, les noyaux les plus lourds présentent un excès de neutrons, dont la charge électrique est nulle. Par exemple, le noyau du plomb possède 82 protons et 126 neutrons. En revanche, les noyaux plus légers que le calcium (Z = 20) contiennent à peu près autant de protons que de neutrons. La plupart des noyaux ont la propriété d’avoir un nombre pair de protons et deneutrons. Il faut égrainer la liste des noyaux jusqu’au magnésium pour en rencontrer un ayant un nombre impair de nucléons.
Il existe un lien étroit entre microcosme nucléaire et macrocosme astronomique.
INVENTAIRE NUCLÉAIRE
Quels sont les noyaux que l’on trouve dans l’Univers et en quelles quantités ?
Il est possible de se faire une idée raisonnable en analysant la lumière émise par les étoiles grâce à la spectroscopie. Inventée à la fin du XIXe siècle, cette technique permet d’accéder à leurs caractéristiques intrinsèques (comme leur température, leur luminosité ou leur composition), marquant la naissance de l’astrophysique moderne.
Vallée de la stabilité
Les 256 noyaux stables que dénombre la physique nucléaire occupent une région bien définie appelée « vallée de stabilité ». Dans le prolongement de cette vallée, la répulsion électrostatique entre protons devient si forte qu’aucun noyau n’est stable au-delà du plomb (Z = 82). Là se trouvent des noyaux radioactifs naturels, dont certains comme le bismuth, le thorium ou l’uranium ont des durées de vie dépassant le milliard d’années.
UN EXEMPLE, LE SOLEIL
Le Soleil est l’étoile de la Terre. Bien que distant de 150 000 000 km environ, il est facile à étudier.
Les proportions relatives des divers atomes qui le composent sont mesurées par l’analyse du spectre de sa photosphère (sa couche externe, lumineuse). Cela ne donne que la composition de cette région externe, mais les chercheurs considèrent qu’elle est quasi identique à celle du nuage à partir duquel cette étoile s’est formée, il y a 4,56 milliards d’années.
La composition de la photosphère solaire peut être comparée à celle des météorites, seconde source d’information sur la composition du nuage protosolaire, à condition de prendre en compte les éléments les plus volatils (hydrogène, hélium, azote, oxygène et néon par exemple), qui s’en sont en partie échappés depuis leur formation. De plus, l’analyse des météorites en laboratoire permet de déterminer la composition isotopique de la matière du système solaire.
Ces analyses complémentaires fournissent la répartition des éléments et des isotopes caractérisant notre environnement local, véritable pierre de Rosette de l’astrophysique nucléaire.
La table de Mendeleïev
La table périodique des éléments de Mendeleïev permet de classer les différents éléments chimiques découverts à ce jour par nombre de protons dans le noyau, allant de 1 pour l’hydrogène à 92 pour l’uranium, et même plus pour des noyaux n’existant pas à l’état naturel et créés en laboratoire.
Elle spécifie les propriétés chimiques des éléments qui dépendent de leur nombre d’électrons. Dans l’Univers, les plus abondants sont, dans l’ordre décroissant, l’hydrogène et l’hélium, puis l’oxygène, le carbone, le néon, le fer, l’azote, le silicium, le magnésium et le soufre.
ASTRONOMIE ET
ASTROPHYSIQUE
L’astronomie traite de l’observation et du mouvement des objets célestes : Soleil, Lune, planètes, comètes, astéroïdes, étoiles. C’est, avec les mathématiques, la plus ancienne des sciences.
L’astrophysique étudie les propriétés physiques de ces objets, leur évolution et leur formation. Elle émerge à lafin du XIXe siècle.
Le diagramme d'abondance
Le diagramme d'abondance indique, pour chaque élément de la table périodique, la quantité trouvée dans le système solaire. Il est élaboré à partir de mesures et d’observations et est très précieux pour les astrophysiciens.
Sur cette échelle, le silicium, pris comme référence arbitraire, vaut un million.
Pour un million de noyaux de silicium, il y a dix milliards de noyaux d’hydrogène et les noyaux les plus simples, hydrogène et hélium, représentent à eux seuls 98 % de la masse du Soleil.
À partir du carbone, de l’azote et de l’oxygène, les noyaux sont de plus en plus rares, à l’exception notable du fer, dont le noyau est le plus robuste de la nature. S’il y a peu de lithium, béryllium et bore (Z = 3, 4 et 5) c’est que ces noyaux sont fragiles.
Ils ne sont pas produits par fusion thermonucléaire, mais par brisure des noyaux de carbone, d’azote et d’oxygène interstellaires sous l’impact de collisions avec les particules rapides du rayonnement cosmique galactique.
ALCHIMIE STELLAIRE
Une étoile s’accommode de sa perte d’énergie lumineuse en puisant dans ses ressources d’énergie nucléaire.
Il faut attendre le début du XXe siècle et le développement de la physique nucléaire pour que les astrophysiciens, qui cherchaient surtout à comprendre le mécanisme qui permettait à une étoile de briller durablement, répondent à la question : où se produisent les réactions nucléaires qui engendrent les noyaux ?
Une étoile est une sphère de gaz chaud dont la cohésion résulte de l’attraction gravitationnelle, qui tend à rapprocher le plus possible ses particules les unes des autres. L’étoile ne s’effondre pas sur elle-même, car la pression du gaz joue contre l’action de la gravité. Pour que cet équilibre soit stable, il faut que la pression augmente régulièrement avec la profondeur, de sorte que chaque couche pesante soit en équilibre entre une plus comprimée et une autre qui l’est moins. Comme un gaz comprimé s’échauffe, la matière stellaire est d’autant plus chaude qu’elle est profonde, et donc que sa pression est grande. Partant de quelques milliers de degrés en surface, la température peut atteindre, selon la masse de l’étoile, quelques dizaines à quelques centaines de millions de degrés dans les régions centrales.
Ce déséquilibre des températures entre le cœur et la surface engendre un transfert d’énergie qui prélève l’excès d’énergie thermique de la région chaude interne pour le céder à la région froide externe. En surface, ce flux d’énergie s’échappe, puis se dilue sous forme de rayonnement : l’étoile brille ; et ne peut briller durablement que si une source interne d’énergie vient compenser le rayonnement émis par la surface.
LES ÉTOILES,
DES RÉACTEURS NUCLÉAIRES
A la fin du XIXe siècle, aucune source d’énergie connue (gravitationnelle ou chimique) n’était capable d’expliquer que le Soleil ait pu briller plus d’un milliard d’années – âge que les géologues donnaient à la Terre – au rythme qui était observé. La solution fut apportée en 1921 par le physicien français Jean Perrin, suivi par l’Anglais Arthur Eddington, qui proposa les réactions nucléaires entre noyaux atomiques comme source de production d’énergie. Il estima que cette réserve d’énergie nucléaire était suffisante pour faire briller le Soleil pendant plusieurs milliards d’années, durée compatible avec l’âge de la Terre alors déterminé par les géologues. Cette idée fut développée quelques années plus tard par le physicien américain Hans Bethe, qui décrivit explicitement les réactions nucléaires qui devaient se produire au cœur du Soleil, travaux qui lui valurent le prix Nobel de physique en 1967.
La réaction de fusion nucléaire
La fusion est l’opération élémentaire d’un jeu de construction nucléaire qui permet de fabriquer tous les éléments. Si deux noyaux légers, comme ceux de l’hydrogène ou de l’hélium, fusionnent pour en former un autre plus lourd, cela dégage de l’énergie. Cette réaction est inhibée par la répulsion électrostatique entre noyaux, qui est d’autant plus forte que leur charge électrique est grande. Alliées à l'effet tunnel, les hautes températures se trouvant au cœur des étoiles peuvent vaincre cette répulsion.
Le centre du Soleil est la seule région où la température et la pression sont suffisamment élevées pour que ces réactions soient possibles. Elles transforment quatre noyaux d’hydrogène en un noyau d’hélium en libérant de l’énergie. Ce sont 619 Mt (millions de tonnes) d’hydrogène qui, chaque seconde, réagissent pour former 614,7 Mt d’hélium, la différence (environ 0,7 % de la masse initiale) étant transformée en énergie, qui compense celle qui s’échappe par la surface.
Finalement, durant la plus grande partie de sa vie, une étoile s’accommode de sa perte d’énergie lumineuse en puisant dans ses ressources d’énergie nucléaire.
LA PREUVE PAR LES NEUTRINOS
Depuis les années 1960, des instruments sont capables de détecter directement certaines des particules élémentaires produites lors des réactions nucléaires se déroulant au cœur des étoiles. Ces neutrinos, particules de la même famille que l’électron, transportant de l’énergie et dont la masse est très faible, sont détectés sur Terre par les expériences souterraines Gallex en Europe, Superkamiokande au Japon, SNO au Canada et Borexino en Italie. La mesure du flux des neutrinos solaires a apporté la confirmation directe de l’existence des réactions de fusion nucléaire.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
Pourquoi ne peut-on pas dépasser la vitesse de la lumière ? |
|
|
|
|
|
PHYSIQUE
Pourquoi ne peut-on pas dépasser la vitesse de la lumière ?
Par Sylvie Rouat le 15.08.2022 à 16h00
Lecture 6 min.
Selon la théorie de la relativité d'Einstein, la vitesse de la lumière constitue un mur infranchissable, établi à environ 299.792 kilomètres par seconde. Mais dans certaines circonstances, des particules parviennent à le dépasser.
Dans cette piscine de réacteur nucléaire, les particules se déplacent plus vite que la lumière, émettant une lumière bleue appelée effet Tcherenkov.
OAK RIDGE NATIONAL LABORATORY
Cet article est extrait du mensuel Sciences et Avenir - La Recherche n°905-906, daté juillet-août 2022.
"C'est une conséquence de la relativité restreinte, explique Roland Lehoucq, astrophysicien au Commissariat à l'énergie atomique (Saclay). Dans son article initial de 1905, Albert Einstein fait en effet le postulat que la vitesse de la lumière est invariante quel que soit le référentiel, ce qui équivaut à dire qu'on ne peut la dépasser. À l'aune de la physique de Galilée qui prévalait à l'époque, c'est un postulat simplement scandaleux, puisque les vitesses étaient censées s'additionner les unes aux autres."
Pour comprendre, il faut remonter dans le passé. Jusqu'au 17e siècle, philosophes et scientifiques pensaient que la vitesse de la lumière était infinie, ce qui d'emblée excluait toute possibilité de la dépasser. Au début du 17e siècle, Galilée émet l'hypothèse d'une vitesse finie de la lumière. Il faudra ensuite des siècles de tentatives de mesure pour qu'à la fin du 20e siècle, un accord international la fixe à 299.792.458 m/s dans le vide. Et cette vitesse ne varie jamais, comme l'ont démontré sans le vouloir les Américains Albert Abraham Michelson et Edward Morley. Depuis Platon, les scientifiques pensaient que l'espace était occupé par un fluide aux diverses propriétés, nommé éther. Lorsqu'en 1801, la nature ondulatoire de la lumière est démontrée par le physicien anglais Thomas Young, en toute logique, l'éther apparaît comme étant le milieu dans lequel les ondes lumineuses se propagent, à l'instar de la houle dans l'eau. En 1881, Albert Abraham Michelson, bientôt rejoint par Edward Morley, veut mettre en évidence le mouvement de la Terre par rapport à cet éther.
Selon la pensée galiléenne, si la lumière d'une étoile nous provient du sens opposé à celui du déplacement de la Terre, on devrait voir arriver cette lumière plus vite - nous allons à sa rencontre -que si la lumière doit rattraper la Terre dans sa course sur son orbite. La vitesse orbitale de la Terre étant d'environ 30 km/s et celle de la lumière d'environ 300.000 km/s, la vitesse de la lumière devrait varier approximativement de 0,01 % selon sa provenance. Pour le prouver, Albert Abraham Michelson et Edward Morley mettent au point un interféromètre - qui vaudra au premier le prix Nobel de physique en 1907. Pendant six ans, les deux hommes mèneront une série d'expériences avec cet instrument, en vain. D'où qu'elle vienne, la lumière semblait avoir une vitesse invariable.
C'est ce constat qu'Albert Einstein inscrit en 1905 dans sa théorie de la relativité restreinte. Notée c pour célérité, la vitesse de la lumière est indépendante du mouvement de la source et de l'observateur, et ce quel que soit le système de référence. Le concept de "système de référence" peut s'expliquer ainsi : Vous êtes sur l'autoroute et une voiture vous double à une vitesse supérieure à la vôtre. Piqué au vif, vous accélérez et bientôt les deux véhicules roulent côte à côte à la même vitesse. Dans ce nouveau système de référence, les deux voitures semblent immobiles l'une par rapport à l'autre. Rien de tel pour la lumière, explique Albert Einstein, dont la vitesse demeure la même quels que soient les référentiels ! "En fait, il n'y avait pas nécessité de faire cette hypothèse sur la lumière, souligne Roland Lehoucq. En reformulant la relativité d'Einstein pour rendre ses fondements plus généraux, on constate qu'il existe une vitesse maximum invariante quel que soit le changement de référentiel, vitesse que l'on pourrait appeler la constante d'Einstein. Et il se trouve que les expériences de Michelson et Morley ont montré que c'est celle de la lumière. "
Un phénomène curieux qui fait exception
Jamais atteinte, la limite c est régulièrement approchée au sein du LHC (Large Hadron Collider), l'accélérateur de particules du Cern, à Genève, qui forme un anneau de 27 km sous la frontière franco-suisse. Des protons y sont accélérés à 99,9999991 % de la vitesse de la lumière dans le vide. Il existe toutefois un phénomène curieux qui permet de dépasser la lumière… du moins lorsque celle-ci est ralentie par le milieu qu'elle traverse. C'est le cas notamment dans l'eau, où elle circule à 75 % de sa vitesse dans le vide. Des particules peuvent alors se propager plus vite que les photons et il se produit un phénomène analogue à celui du mur du son. Lorsqu'un avion, par exemple, dépasse la vitesse du son dans l'air (1224 km/h), il déclenche une onde de choc perceptible sous forme de "bang" sonore. Le dépassement du mur de la lumière produit, lui, un flash lumineux. C'est ce phénomène que l'on observe dans les piscines des réacteurs nucléaires d'où émane une lumière bleutée (ou ultraviolette), nommé effet Tcherenkov, ou Vavilov-Tcherenkov du nom de ses découvreurs.
Ce sont d'abord les travaux de Marie Curie qui, dès 1910, ont mis en évidence ce rayonnement de l'eau soumise à une source radioactive. Mais il faudra attendre 1934 pour que les physiciens russes Sergueï Vavilov et Pavel Tcherenkov en donnent l'explication. Laquelle vaudra un prix Nobel au second en 1958. Cet effet Tcherenkov est également à l'origine d'étranges mirages lumineux dans le champ visuel (des phosphènes) rapportés par les astronautes des missions Apollo : cela se produisait lorsque des particules de vents solaires traversaient le liquide de leurs globes oculaires. "En astrophysique, certains objets sont toutefois dits supraluminiques, indique Roland Lehoucq. En 1981, on a ainsi observé un jet émis par le quasar 3C273, le quasar le plus brillant du ciel. Et surprise, ce jet de matière allait plus vite que la lumière ! On a compris ensuite que cela résultait d'une mauvaise interprétation des mesures, une sorte d'illusion d'optique. "
La relativité générale établit par ailleurs une relation entre la masse et l'énergie d'une particule et démontre que l'énergie d'une particule de masse non nulle augmente avec sa vitesse. Le concept de masse inerte l'illustre bien : plus le corps est massif, plus sa mise en mouvement et son accélération nécessitent de l'énergie. Il faudrait ainsi une énergie infinie pour qu'un vaisseau spatial atteigne la vitesse de la lumière dans le vide.
En 1964, le physicien américain Gerald Feinberg a néanmoins imaginé l'existence de particules qui évolueraient en permanence au-dessus de la vitesse de la lumière, les tachyons (du grec tachus signifiant rapide). Il y aurait ainsi, selon lui, trois classes de particules : celles qui vont moins vite que la lumière (soit la quasi-totalité des particules connues), celles qui vont aussi vite que les photons, et, enfin, celles qui se propagent à une vitesse exclusivement supraluminique.
"C'est une expérience de pensée, un jeu de physiciens qui n'a aucune réalité à ce jour, précise Roland Lehoucq. Cela permet de tester la cohérence des théories " Si les tachyons existaient, cela donnerait lieu à quelques bizarreries. Selon Gerald Feinberg, les tachyons peuvent aller vers le passé ou le futur - tels que définis par la mécanique newtonienne. Dans certaines œuvres de science-fiction, ils sont ainsi utilisés pour envoyer des messages dans le futur ou le passé pour modifier le présent. "Cela viole le principe de causalité selon lequel la cause précède l'effet, remarque Roland Lehoucq. Or il n'y a pas de physique sans causalité ! "
DOCUMENT sciences et avenir.fr LIEN |
|
|
|
|
 |
|
ÉNERGIE |
|
|
|
|
|
énergie
(bas latin energia, du grec energia, force en action)
Consulter aussi dans le dictionnaire : énergie
Cet article fait partie du dossier consacré à l'électricité.
Grandeur caractérisant un système physique, gardant la même valeur au cours de toutes les transformations internes du système (loi de conservation) et exprimant sa capacité à modifier l'état d'autres systèmes avec lesquels il entre en interaction. (Unité SI le joule.)
PHYSIQUE
L'énergie est l'un des concepts de base de la physique grâce à une propriété fondamentale : un système isolé a une énergie totale constante. Il ne peut donc y avoir création ou disparition d'énergie, mais simplement transformation d'une forme d'énergie en une autre ou transfert d'énergie d'un système à un autre.
ÉNERGIE CINÉTIQUE. TRAVAIL
En mécanique classique, une particule ponctuelle de masse m et de vitesse

a, par définition, une énergie cinétique

. L'énergie cinétique totale d'un ensemble de particules est la somme des énergies de chacune des particules. Pour modifier l'énergie cinétique d'un objet de masse M, il faut modifier la vitesse de celui-ci et donc faire agir sur lui une force

. La variation d'énergie cinétique entre deux instants t1 et t2 est égale au travail de la force

au cours du déplacement M1M2 de l'objet entre t1 et t2 :

.
Le travail est moteur si l'énergie cinétique augmente et résistant en cas contraire.
Pour en savoir plus, voir l'article énergie cinétique
ÉNERGIE POTENTIELLE
Le travail dépend en général du chemin suivi pour aller de M1 à M2. Lorsqu'il ne dépend pas du chemin suivi, mais seulement des positions initiale et finale M1 et M2, on peut associer à

une fonction U(M), appelée énergie potentielle, dépendant de la position du point M et telle que le travail entre M1 et M2 soit égal à la variation de U :
W(M1 → M2) = U(M1) − U(M2).
À chaque type d'interaction correspond une énergie potentielle particulière : électrostatique, de gravitation, élastique, etc.
Pour en savoir plus, voir l'article énergie potentielle
ÉNERGIE MÉCANIQUE, CONSERVATION DE L'ÉNERGIE

Conservation de l'énergie mécanique
L'énergie mécanique est la somme de l'énergie cinétique et de l'énergie potentielle. Pour un système isolé, sans interaction avec d'autres systèmes, elle est constante au cours du temps. Au cours du mouvement, l'énergie cinétique peut se transformer en énergie potentielle et vice versa sans que leur somme ne change (exemple : pendule oscillant).
Toutefois, du fait de la résistance de l'air et des frottements du fil du pendule avec son axe, le mouvement du pendule oscillant (système non isolé) finit par s'amortir. Mais la perte d’énergie due aux frottements est aussi une énergie : elle se manifeste sous la forme de chaleur.
LA CHALEUR, FORME D'ÉNERGIE
La chaleur apparaît donc comme une limitation de l'énergie mécanique. Ce concept, qui va bien au-delà de la sensation physique (brûlure, par exemple), est très difficile à appréhender simplement – c'est l'un des sujets principaux de la thermodynamique. Ludwig Boltzmann, au xixe s., a donné une interprétation microscopique de la chaleur qui aide à comprendre le phénomène du frottement. Dans le modèle atomique d'un gaz contenu dans un récipient, les molécules sont animées d'un mouvement chaotique et aléatoire : elles s'entrechoquent et rebondissent sur les parois. Chacune d'elles a une vitesse et produit donc une énergie cinétique. À l'échelle macroscopique, ce gaz est constitué d'un nombre très grand de molécules, si bien que l'on observe et mesure des phénomènes qui ne sont que des moyennes statistiques de grandeurs corpusculaires. Par hypothèse, Boltzmann a identifié l'énergie cinétique moyenne des molécules avec la température ; celle-ci peut alors s'interpréter comme une mesure de l'agitation moléculaire, dite agitation thermique. La chaleur est produite par l'augmentation de la température, donc par l'augmentation d'agitation des molécules, ce qui se traduit par un accroissement de l'énergie cinétique de celles-ci. Ainsi, la chaleur est une des formes de l'énergie mécanique, mais, du fait qu'elle concerne une énergie mécanique microscopique et non macroscopique, c'est une énergie « dégradée », non directement utilisable sous forme de mouvement à l'échelle humaine.
ÉNERGIE ET RELATIVITÉ
En relativité, la loi de conservation de l'énergie demeure exacte, mais l'expression de l'énergie cinétique est modifiée : un objet de masse M se déplaçant à une vitesse v a une énergie

; où c est la vitesse de la lumière. Pour v = 0, l'énergie n'est pas nulle et vaut E0 = M c2, appelée énergie au repos ou énergie de masse. Cette relation, inconnue en mécanique classique, implique une équivalence entre masse et énergie, qui peuvent se transformer l'une dans l'autre : ce type de transformation est courant en physique nucléaire et en physique des particules. Une autre conséquence de la relation vitesse-énergie est l'impossibilité pour une particule de masse non nulle d'atteindre la vitesse de la lumière c, puisqu'il faudrait lui communiquer pour cela une quantité d'énergie infinie.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
Les effets biologiques des rayonnements |
|
|
|
|
|
Les effets biologiques des rayonnements
A forte dose, les rayonnements ionisants sont dangereux pour la santé. Les effets sont variables selon les individus, les doses et les sources d’exposition.
Publié le 1 juillet 2014
L'ÉTUDE DES EFFETS DES RAYONNEMENTS
Les effets des rayonnements ultraviolets du Soleil sont bien connus du grand public. Si, à faibles doses, ils paraissent assez inoffensifs, à forte dose, certains peuvent présenter des dangers. Par exemple, des expositions prolongées au Soleil provoquent des coups de soleil, des brûlures dues à la présence des rayonnements ultraviolets.
À long terme, elles peuvent même être la cause de cancers. Les rayonnements ionisants contribuent à une ionisation des molécules présentes dans les organismes vivants. Selon la dose reçue et le type de rayonnements, leurs effets peuvent être plus ou moins néfastes pour la santé. Deux approches sont utilisées pour étudier leurs différents effets biologiques : l’épidémiologie et l’expérimentation sur des molécules ou cellules d’organismes vivants. L’épidémiologie consiste à observer les effets sur des populations qui ont subi des irradiations d’origine naturelle ou artificielle (populations d’Hiroshima et Nagasaki, premiers radiologues et travailleurs dans les mines d’uranium…).
Les effets sont variables selon les individus, les doses et les sources d’exposition (interne ou externe).
MESURES DE LA RADIOACTIVITÉ
Mesure de la radioactivité
Le becquerel
Un échantillon radioactif se caractérise par son activité qui est le nombre de désintégrations de noyaux radioactifs par seconde se produisant en son sein. L’unité d’activité est le becquerel, de symbole Bq.
1 Bq = 1 désintégration par seconde.
Le Becquerel
Le gray
L’unité qui permet de mesurer la quantité de rayonnements absorbés – ou dose absorbée – par un organisme ou un objet exposé aux rayonnements est le gray (Gy).
1 gray = 1 joule par kilo de matière irradiée.
Le sievert
Unité de la dose équivalente et de la dose efficace, le symbole est Sv. Le sievert permet d’évaluer le risque d’effets biologiques au niveau d’un organe (dose équivalente) ou de l’organisme entier en fonction de la radiosensibilité de chaque tissu (dose efficace).
L’unité la plus couramment usitée est le millisievert, ou millième de sievert (voir le dossier pédagogique sur la radioactivité).
Par ailleurs, grâce à l’expérimentation, les chercheurs observent les dégâts et les perturbations engendrés par les rayonnements ionisants sur l’ADN (très longue molécule présente dans les cellules vivantes, support de l’information génétique). Ils analysent aussi les mécanismes de réparation qu’une cellule est capable de mettre en jeu lorsque son ADN a été détérioré. L’épidémiologie et l’expérimentation permettent de mieux connaître les effets des rayonnements ionisants afin de définir des règles et des normes de radioprotection et de soigner les personnes ayant subi des irradiations accidentelles.
LES EFFETS IMMÉDIATS
Une forte irradiation par des rayonnements ionisants provoque des effets immédiats sur les organismes vivants comme, par exemple, des brûlures plus ou moins importantes. La dose absorbée (en grays) est utilisée pour caractériser ces effets immédiats, consécutifs à de fortes irradiations (accidentelles ou thérapeutiques pour soigner un cancer). Par exemple, les radiothérapeutes utilisent la dose absorbée pour quantifier l’énergie délivrée dans les tumeurs qu’ils traitent par irradiation
(cf. le tableau des effets liés à une irradiation homogène). Pourtant lors d’une radiothérapie, les médecins peuvent délivrer localement des doses allant jusqu’à 40 grays sur la tumeur à traiter.
LES EFFETS À LONG TERME
Les expositions à des doses plus ou moins élevées de rayonnements ionisants peuvent avoir des effets à long terme sous la forme de cancers et de leucémies. Ces effets se manifestent de façon aléatoire (que l’on ne peut pas prédire pour une personne donnée). Les rayonnements alpha, qui sont de grosses particules (noyaux d’hélium), sont rapidement freinés lorsqu’ils pénètrent à l’intérieur d’un matériau ou d’un tissu vivant et déposent leur énergie localement. Ils sont donc, à dose absorbée égale, plus perturbateurs que des rayonnements gamma ou X, lesquels pénètrent plus profondément la matière et étalent ainsi leur dépôt d’énergie.
Pour rendre compte de la nocivité plus ou moins grande des rayonnements à dose absorbée égale, il a fallu introduire pour chacun d’eux un “facteur de qualité”. En multipliant la dose absorbée (en grays) par ce facteur, on obtient une mesure de l’effet biologique d’un rayonnement reçu que l’on appelle la dose équivalente.
L’unité de dose équivalente, utilisée pour mesurer l’effet des rayonnements sur les tissus vivants, est le sievert (Sv).
Cependant, le risque biologique n’est pas uniforme pour l’ensemble de l’organisme. Il dépend de la radiosensibilité de l’organe irradié et les spécialistes définissent une nouvelle dose, la dose efficace (aussi exprimée en sieverts) qui tient compte de ces différences de sensibilité des organes et définit le risque d’apparition à long terme d’un cancer dans l’organisme entier.
LES MODES D'EXPOSITION AUX RAYONNEMENTS
Selon la manière dont les rayonnements atteignent l’organisme, on distingue deux modes d’exposition : externe ou interne.
* L’exposition externe de l’homme aux rayonnements provoque une irradiation externe. Elle a lieu lorsque celui-ci se trouve exposé à des sources de rayonnements qui lui sont extérieures (substances radioactives sous forme de nuage ou de dépôt sur le sol, sources à usage industriel ou médical…). L’exposition externe peut concerner tout l’organisme ou une partie seulement de celui-ci. Elle cesse dès que l’on n’est plus sur la trajectoire des rayonnements (cas par exemple d’une radiographie du thorax).
* L’exposition interne est possible lorsque des substances radioactives ont pu pénétrer à l’intérieur de l’organisme par inhalation, ingestion, blessure de la peau et se distribuent dans l'organisme. Celles-ci provoquent une irradiation interne et on parle alors de contamination interne. Cette dernière ne cesse que lorsque les substances radioactives ont disparu de l’organisme, après un temps plus ou moins long par élimination naturelle et décroissance radioactive (voir le dossier pédagogique sur la radioactivité) ou grâce à un traitement.
Les rayonnements peuvent affecter le corps humain par irradiation externe ou interne. © Yuvanoe/CEA
La décroissance radioactive est la suivante :
* pour l’iode 131 (131I) : 8 jours ;
* pour le carbone 14 (14C) : 5 700 ans ;
* pour le potassium 40 (40K) : 1,3 milliard d’années.
Tous les radioéléments ne sont pas éliminés naturellement (urines…) à la même vitesse. Certains peuvent s’accumuler dans des organes spécifiques (os, foie…) avant d’être évacués du corps. Pour chacun des éléments radioactifs, on définit, en plus de sa période radioactive, une période biologique, temps au bout duquel la moitié de la masse d’une substance a été éliminée de l’organisme par des processus physiologiques.
On définit également une période effective pour un radionucléide donné. Celle-ci est fonction de la période physique et de la période biologique : c’est le temps nécessaire pour que l’activité du radionucléide considéré ait diminué de moitié, dans le corps, après correction de la décroissance radioactive du radionucléide.
L'EXPOSITION DE L'HOMME AUX RAYONNEMENTS
Pour en savoir plus
* Tableau des sources d'exposition et leur effet
Pour apprécier à leur juste valeur les risques liés aux rayonnements ionisants, il est nécessaire de regarder l’exposition naturelle à laquelle l'Homme a été soumis. Tous les organismes vivants y sont adaptés et semblent capables de corriger, jusqu’à un certain degré, les dégâts dus à l’irradiation.
Qu’ils soient d’origine naturelle ou artificielle, les rayonnements ionisants produisent les mêmes effets sur la matière vivante.
En France, l’exposition annuelle de l’homme aux rayonnements ionisants est d’environ deux millisieverts. En plus de cette radioactivité naturelle, nous sommes exposés à des rayonnements provenant de sources artificielles. Ces rayonnements sont du même type que ceux émis par des sources naturelles et leurs effets sur la matière vivante sont, à dose égale, identiques. Ce sont essentiellement les radiographies médicales ou dentaires. Moins de 1 % provient d’autres sources comme les retombées des essais aériens des armes nucléaires et les retombées de l’accident de Tchernobyl.
L'EXPOSITION NATURELLE
De l'atome à la radioactivité
Les rayonnements ionisants émanant de sources naturelles ont des origines diverses et se répartissent en trois principaux types :
* les rayonnements cosmiques
Ils proviennent de l’espace extra-terrestre et en particulier du Soleil. En Europe, ils se traduisent, pour tous ceux qui vivent à une altitude voisine du niveau de la mer, par une irradiation moyenne d’environ 0,30 millisievert par an. Lorsqu’on s’élève en altitude, l’exposition aux rayonnements augmente ;
* les éléments radioactifs contenus dans le sol
Il s’agit principalement de l’uranium, du thorium ou du potassium. Pour chacun de nous en France, ces éléments provoquent une irradiation moyenne d’environ 0,35 millisievert par an. Il faut noter que dans certaines régions de France et du monde, dont le sol contient des roches comme le granit, ces irradiations sont plus fortes ;
* les éléments radioactifs naturels que nous absorbons en respirant ou en nous nourrissant
Des émanations gazeuses de certains produits issus de la désintégration de l’uranium contenu dans le sol tels que le radon, ou le potassium des aliments dont nous fixons une partie dans notre organisme provoquent chez chacun d’entre nous, en moyenne, une irradiation de 1,55 millisievert par an. La principale source d’irradiation naturelle est le radon 222, gaz naturel radioactif. Elle représente environ un tiers de l’irradiation reçue et augmente dans les régions granitiques.
L'EXPOSITION ARTIFICIELLE
Pour chaque habitant, l’exposition annuelle moyenne aux sources artificielles d’irradiation est d’environ 1 millisievert. Celles-ci sont en moyenne principalement :
* les irradiations médicales
La dose efficace moyenne du fait des examens radiologiques à visée diagnostique (comme les radiographies médicales, dentaires et les scanners…) dépasse 1 mSv par an et par habitant ;
* les activités industrielles non nucléaires
La combustion du charbon, l’utilisation d’engrais phosphatés, les montres à cadrans lumineux de nos grands-pères entraînent une irradiation de 0,01 millisievert par an ;
* les activités industrielles nucléaires
Les centrales nucléaires, les usines de retraitement, les retombées des anciens essais nucléaires atmosphériques et de Tchernobyl, etc., exposent chaque homme à 0,002 millisievert par an.
DOCUMENT cea LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|