|
|
|
|
|
|
Les effets biologiques des rayonnements |
|
|
|
|
|
L'HOMME ET LES RAYONNEMENTS
Les effets biologiques des rayonnements
A forte dose, les rayonnements ionisants sont dangereux pour la santé. Les effets sont variables selon les individus, les doses et les sources d’exposition.
Publié le 1 juillet 2014
L'ÉTUDE DES EFFETS DES RAYONNEMENTS
Les effets des rayonnements ultraviolets du Soleil sont bien connus du grand public. Si, à faibles doses, ils paraissent assez inoffensifs, à forte dose, certains peuvent présenter des dangers. Par exemple, des expositions prolongées au Soleil provoquent des coups de soleil, des brûlures dues à la présence des rayonnements ultraviolets.
À long terme, elles peuvent même être la cause de cancers. Les rayonnements ionisants contribuent à une ionisation des molécules présentes dans les organismes vivants. Selon la dose reçue et le type de rayonnements, leurs effets peuvent être plus ou moins néfastes pour la santé. Deux approches sont utilisées pour étudier leurs différents effets biologiques : l’épidémiologie et l’expérimentation sur des molécules ou cellules d’organismes vivants. L’épidémiologie consiste à observer les effets sur des populations qui ont subi des irradiations d’origine naturelle ou artificielle (populations d’Hiroshima et Nagasaki, premiers radiologues et travailleurs dans les mines d’uranium…).
Les effets sont variables selon les individus, les doses et les sources d’exposition (interne ou externe).
MESURES DE LA RADIOACTIVITÉ
Vidéo
Le becquerel
Un échantillon radioactif se caractérise par son activité qui est le nombre de désintégrations de noyaux radioactifs par seconde se produisant en son sein. L’unité d’activité est le becquerel, de symbole Bq.
1 Bq = 1 désintégration par seconde.
Le Becquerel
Le gray
L’unité qui permet de mesurer la quantité de rayonnements absorbés – ou dose absorbée – par un organisme ou un objet exposé aux rayonnements est le gray (Gy).
1 gray = 1 joule par kilo de matière irradiée.
Le sievert
Unité de la dose équivalente et de la dose efficace, le symbole est Sv. Le sievert permet d’évaluer le risque d’effets biologiques au niveau d’un organe (dose équivalente) ou de l’organisme entier en fonction de la radiosensibilité de chaque tissu (dose efficace).
L’unité la plus couramment usitée est le millisievert, ou millième de sievert (voir le dossier pédagogique sur la radioactivité).
Par ailleurs, grâce à l’expérimentation, les chercheurs observent les dégâts et les perturbations engendrés par les rayonnements ionisants sur l’ADN (très longue molécule présente dans les cellules vivantes, support de l’information génétique). Ils analysent aussi les mécanismes de réparation qu’une cellule est capable de mettre en jeu lorsque son ADN a été détérioré. L’épidémiologie et l’expérimentation permettent de mieux connaître les effets des rayonnements ionisants afin de définir des règles et des normes de radioprotection et de soigner les personnes ayant subi des irradiations accidentelles.
LES EFFETS IMMÉDIATS
Une forte irradiation par des rayonnements ionisants provoque des effets immédiats sur les organismes vivants comme, par exemple, des brûlures plus ou moins importantes. La dose absorbée (en grays) est utilisée pour caractériser ces effets immédiats, consécutifs à de fortes irradiations (accidentelles ou thérapeutiques pour soigner un cancer). Par exemple, les radiothérapeutes utilisent la dose absorbée pour quantifier l’énergie délivrée dans les tumeurs qu’ils traitent par irradiation
(cf. le tableau des effets liés à une irradiation homogène). Pourtant lors d’une radiothérapie, les médecins peuvent délivrer localement des doses allant jusqu’à 40 grays sur la tumeur à traiter.
LES EFFETS À LONG TERME
Les expositions à des doses plus ou moins élevées de rayonnements ionisants peuvent avoir des effets à long terme sous la forme de cancers et de leucémies. Ces effets se manifestent de façon aléatoire (que l’on ne peut pas prédire pour une personne donnée). Les rayonnements alpha, qui sont de grosses particules (noyaux d’hélium), sont rapidement freinés lorsqu’ils pénètrent à l’intérieur d’un matériau ou d’un tissu vivant et déposent leur énergie localement. Ils sont donc, à dose absorbée égale, plus perturbateurs que des rayonnements gamma ou X, lesquels pénètrent plus profondément la matière et étalent ainsi leur dépôt d’énergie.
Pour rendre compte de la nocivité plus ou moins grande des rayonnements à dose absorbée égale, il a fallu introduire pour chacun d’eux un “facteur de qualité”. En multipliant la dose absorbée (en grays) par ce facteur, on obtient une mesure de l’effet biologique d’un rayonnement reçu que l’on appelle la dose équivalente.
L’unité de dose équivalente, utilisée pour mesurer l’effet des rayonnements sur les tissus vivants, est le sievert (Sv).
Cependant, le risque biologique n’est pas uniforme pour l’ensemble de l’organisme. Il dépend de la radiosensibilité de l’organe irradié et les spécialistes définissent une nouvelle dose, la dose efficace (aussi exprimée en sieverts) qui tient compte de ces différences de sensibilité des organes et définit le risque d’apparition à long terme d’un cancer dans l’organisme entier.
LES MODES D'EXPOSITION AUX RAYONNEMENTS
Selon la manière dont les rayonnements atteignent l’organisme, on distingue deux modes d’exposition : externe ou interne.
* L’exposition externe de l’homme aux rayonnements provoque une irradiation externe. Elle a lieu lorsque celui-ci se trouve exposé à des sources de rayonnements qui lui sont extérieures (substances radioactives sous forme de nuage ou de dépôt sur le sol, sources à usage industriel ou médical…). L’exposition externe peut concerner tout l’organisme ou une partie seulement de celui-ci. Elle cesse dès que l’on n’est plus sur la trajectoire des rayonnements (cas par exemple d’une radiographie du thorax).
* L’exposition interne est possible lorsque des substances radioactives ont pu pénétrer à l’intérieur de l’organisme par inhalation, ingestion, blessure de la peau et se distribuent dans l'organisme. Celles-ci provoquent une irradiation interne et on parle alors de contamination interne. Cette dernière ne cesse que lorsque les substances radioactives ont disparu de l’organisme, après un temps plus ou moins long par élimination naturelle et décroissance radioactive (voir le dossier pédagogique sur la radioactivité) ou grâce à un traitement.
Les rayonnements peuvent affecter le corps humain par irradiation externe ou interne. © Yuvanoe/CEA
La décroissance radioactive est la suivante :
* pour l’iode 131 (131I) : 8 jours ;
* pour le carbone 14 (14C) : 5 700 ans ;
* pour le potassium 40 (40K) : 1,3 milliard d’années.
Tous les radioéléments ne sont pas éliminés naturellement (urines…) à la même vitesse. Certains peuvent s’accumuler dans des organes spécifiques (os, foie…) avant d’être évacués du corps. Pour chacun des éléments radioactifs, on définit, en plus de sa période radioactive, une période biologique, temps au bout duquel la moitié de la masse d’une substance a été éliminée de l’organisme par des processus physiologiques.
On définit également une période effective pour un radionucléide donné. Celle-ci est fonction de la période physique et de la période biologique : c’est le temps nécessaire pour que l’activité du radionucléide considéré ait diminué de moitié, dans le corps, après correction de la décroissance radioactive du radionucléide.
L'EXPOSITION DE L'HOMME AUX RAYONNEMENTS
Pour en savoir plus
* Tableau des sources d'exposition et leur effet
Pour apprécier à leur juste valeur les risques liés aux rayonnements ionisants, il est nécessaire de regarder l’exposition naturelle à laquelle l'Homme a été soumis. Tous les organismes vivants y sont adaptés et semblent capables de corriger, jusqu’à un certain degré, les dégâts dus à l’irradiation.
Qu’ils soient d’origine naturelle ou artificielle, les rayonnements ionisants produisent les mêmes effets sur la matière vivante.
En France, l’exposition annuelle de l’homme aux rayonnements ionisants est d’environ deux millisieverts. En plus de cette radioactivité naturelle, nous sommes exposés à des rayonnements provenant de sources artificielles. Ces rayonnements sont du même type que ceux émis par des sources naturelles et leurs effets sur la matière vivante sont, à dose égale, identiques. Ce sont essentiellement les radiographies médicales ou dentaires. Moins de 1 % provient d’autres sources comme les retombées des essais aériens des armes nucléaires et les retombées de l’accident de Tchernobyl.
L'EXPOSITION NATURELLE
De l'atome à la radioactivité
Les rayonnements ionisants émanant de sources naturelles ont des origines diverses et se répartissent en trois principaux types :
* les rayonnements cosmiques
Ils proviennent de l’espace extra-terrestre et en particulier du Soleil. En Europe, ils se traduisent, pour tous ceux qui vivent à une altitude voisine du niveau de la mer, par une irradiation moyenne d’environ 0,30 millisievert par an. Lorsqu’on s’élève en altitude, l’exposition aux rayonnements augmente ;
* les éléments radioactifs contenus dans le sol
Il s’agit principalement de l’uranium, du thorium ou du potassium. Pour chacun de nous en France, ces éléments provoquent une irradiation moyenne d’environ 0,35 millisievert par an. Il faut noter que dans certaines régions de France et du monde, dont le sol contient des roches comme le granit, ces irradiations sont plus fortes ;
* les éléments radioactifs naturels que nous absorbons en respirant ou en nous nourrissant
Des émanations gazeuses de certains produits issus de la désintégration de l’uranium contenu dans le sol tels que le radon, ou le potassium des aliments dont nous fixons une partie dans notre organisme provoquent chez chacun d’entre nous, en moyenne, une irradiation de 1,55 millisievert par an. La principale source d’irradiation naturelle est le radon 222, gaz naturel radioactif. Elle représente environ un tiers de l’irradiation reçue et augmente dans les régions granitiques.
L'EXPOSITION ARTIFICIELLE
Pour chaque habitant, l’exposition annuelle moyenne aux sources artificielles d’irradiation est d’environ 1 millisievert. Celles-ci sont en moyenne principalement :
* les irradiations médicales
La dose efficace moyenne du fait des examens radiologiques à visée diagnostique (comme les radiographies médicales, dentaires et les scanners…) dépasse 1 mSv par an et par habitant ;
* les activités industrielles non nucléaires
La combustion du charbon, l’utilisation d’engrais phosphatés, les montres à cadrans lumineux de nos grands-pères entraînent une irradiation de 0,01 millisievert par an ;
* les activités industrielles nucléaires
Les centrales nucléaires, les usines de retraitement, les retombées des anciens essais nucléaires atmosphériques et de Tchernobyl, etc., exposent chaque homme à 0,002 millisievert par an.
DOCUMENT cea LIEN |
|
|
|
|
|
|
Une filière nucléaire au thorium |
|
|
|
|
|
Une filière nucléaire au thorium
L’utilisation du thorium dans un réacteur nucléaire est régulièrement présentée comme une alternative à la filière fonctionnant à l’uranium. L’analyse détaillée des avantages et des inconvénients technico-économiques de cette option est complexe mais elle permet de mieux comprendre les choix de la France et d’autres pays.
Certains pays s’intéressent au thorium en tant que combustible nucléaire. Bien que cet élément soit très abondant sur Terre, il n’est pas fissile et ne peut donc pas être utilisé directement comme combustible nucléaire ; son utilisation en réacteur ne peut s’envisager qu’en association avec des éléments fissiles capables d’entretenir une réaction en chaîne. De ce fait, le développement de réacteurs utilisant le thorium ne présente pas d’intérêt technico-économique sur le court ou le moyen terme.
C’est particulièrement le cas en France, qui dispose d’un parc de réacteurs fonctionnant à l’uranium et/ou à l’uranium et au plutonium et d’un cycle du combustible associé, ayant atteint une pleine maturité industrielle. L’intérêt pour une utilisation industrielle à court ou moyen terme du thorium se limite donc aux quelques pays, comme l’Inde, ayant des ressources importantes en thorium et limitées en uranium.
LE THORIUM
EST ENVIRON QUATRE FOIS PLUS ABONDANT QUE L’URANIUM
La proportion de thorium dans la croûte terrestre est de l'ordre de un cent-millième, c'est-à-dire qu'il est plus abondant que l'étain, l'arsenic et les métaux précieux. Il y en a deux fois moins que le plomb, quatre fois moins que le zinc, dix fois moins que le cuivre, mais il est de trois à quatre fois plus abondant que l'uranium. (Source Encyclopedia Universalis) Mais cet avantage doit être pondéré par le fait que les sites où il se trouve assez concentré pour une exploitation économique sont limités.
L’intérêt à utiliser le thorium est surtout manifesté par des pays comme l’Inde qui en possède des gisements importants sur son sol national et a peu de ressources en uranium. Pour les autres pays nucléaires, le thorium est une ressource de combustible fertile utilisable de manière similaire à l’uranium 238. Mais sa mise en œuvre requiert des investissements lourds dans le développement de procédés spécifiques, depuis le laboratoire jusqu’à l’usine, alors que pour l’uranium 238, les procédés existent au stade industriel.
POUR AMORCER UN RÉACTEUR
AU THORIUM, IL FAUT DE L’URANIUM
Dès les années 50, l’idée d’une filière de réacteurs au thorium a suscité l’intérêt des scientifiques parce que le thorium est relativement abondant dans la nature et parce qu’il génère un élément fissile lorsqu’il est irradié par des neutrons. Mais l’uranium est le seul élément naturel à comporter un isotope fissile (uranium 235).
Le thorium n’est pas un élément fissile , mais seulement fertile comme l’uranium 238. Son utilisation en réacteur ne peut s’envisager qu’en association avec des éléments fissiles capables d’entretenir une réaction en chaîne. Son utilisation qui nécessite l’ajout d’un isotope fissile (uranium enrichi ou plutonium) était donc impossible au tout début de l’exploitation de l’énergie nucléaire et ne peut venir qu’en aval d’un cycle U-Pu déjà maîtrisé.
Le démarrage d’un réacteur fonctionnant avec un cycle thorium-uranium 233 requiert :
* soit une charge d’uranium 233 constituée par irradiation de thorium dans les réacteurs à eau,
*
* soit un combustible à l’uranium enrichi (en uranium 235) ou au plutonium, auquel est substitué progressivement le combustible à l’uranium 233 extrait des combustibles thorium passés en réacteur à eau.
L’UTILISATION DU THORIUM
REQUERRAIT DEUX FILIÈRES DISTINCTES
Le système nucléaire devrait alors compter non pas une filière industrielle complète de la mine au déchet, mais deux, très distinctes :
* Un parc de réacteurs à eau de la filière uranium -comprenant des éléments combustibles au thorium- associé à un procédé de retraitement pour extraire l’uranium 233 ou du plutonium ;
*
* Un second parc de réacteurs, amorcé avec les éléments fissiles produits dans les réacteurs à eau, associé à un second procédé de traitement des combustibles au thorium pour recycler l’uranium 233.
Le retraitement des combustibles usés au thorium, indispensable pour les deux options, nécessite le développement, au niveau industriel, d’un procédé spécifique (procédé thorex), distinct de celui utilisé pour l’uranium, qui n’a été expérimenté aux États-Unis qu’à l’échelle du laboratoire, et qu’au niveau pré-industriel en Inde.
Cette représentation des réactions nucléaires successives possibles à partir de thorium et d'uranium souligne les similitudes et les différences entre les deux voies. Dans le cas de l'uranium, elle est amorcée par de l'uranium 235 présent dans le minerai naturel puis dans le combustible préparé à partir de ce minerai. Dans le cas du thorium, il faut ajouter artificiellement un élément fissile (ici de l'uranium 235) dans le combustible préparé à partir de minerai naturel de thorium qui est non fissile. Sans cet ajout, la chaîne de réactions ne peut pas être initiée. Les atomes dont le nom est inscrit en noir sont présents dans le combustible dès le départ ; les atomes dont le nom est inscrit en bleu sont fabriqués au cours des réactions en chaîne.
L’IMPACT RADIOLOGIQUE DU THORIUM EST IMPORTANT
Le thorium naturel, compte parmi ses produits de filiation radioactive deux éléments très irradiants qui induisent des doses significatives pour les travailleurs. Certaines étapes de préparation de transport et de manipulation des combustibles et de retraitement du combustible usé pourraient nécessiter des dispositifs de télémanipulation et de radioprotection plus importants qu’avec le cycle uranium.
LA R&D SUR LES COMBUSTIBLES CONTENANT DU THORIUM RESTE À FAIRE
Le traitement des combustibles au thorium est théoriquement possible mais requiert un effort de R&D important dans la mesure où les procédés de traitement sont radicalement différents de ceux aujourd’hui maitrisés et mis en œuvre à l’échelle industrielle pour des combustibles uranium/plutonium. Certaines études mettent en avant un avantage pour le thorium par rapport à l’uranium en terme de radiotoxicité des combustibles usés à traiter, mais ce paramètre peut varier beaucoup en fonction de la composition du combustible en éléments fissiles et fertiles.
LE THORIUM N’ÉVITE PAS
UN STOCKAGE LONG TERME DES DÉCHETS
Dans l’une ou l’autre des deux filières, la réduction de la radiotoxicité des déchets requiert un traitement poussé et un recyclage des actinides. Dans la filière thorium, le dégagement de chaleur des actinides produits est beaucoup plus faible que dans les réacteurs à uranium. Il pourrait être possible de réaliser un stockage de déchets plus compact qu’avec la filière uranium, mais en aucun cas de s’affranchir d’une solution de gestion des déchets à long terme.
UN INTÉRÊT POTENTIEL
À TRÈS LONG TERME
Le thorium présente peu d’intérêt industriel à court et moyen terme. Notre pays maîtrise complètement le cycle du combustible à l’uranium et ne rencontre pas de problème d’approvisionnement en combustible..
Sur le long terme, l’intérêt pour le thorium de la communauté de R&D internationale (Génération IV) est plus largement partagé et porte sur des systèmes nucléaires du futur et les cycles du combustible les mieux à même de valoriser cette ressource fertile tout autant que celle que constitue l’uranium 238 de la filière à l’uranium. Le développement de réacteurs à sel fondu utilisant du thorium est étudié par le CNRS.
DOCUMENT cea LIEN |
|
|
|
|
|
|
La cryptographie et la communication quantiques |
|
|
|
|
|
La cryptographie et la communication quantiques
Publié le 12 février 2021
La sécurisation des données intervient à chaque instant dans de très nombreux domaines de la vie privée ou publique et représente un enjeu stratégique pour les entreprises, les grands groupes industriels, les banques ou encore l’État. Les protocoles utilisés aujourd’hui pour le chiffrement et le déchiffrement des messages utilisent des codes mathématiques de plus en plus complexes avec des clefs publiques de plus en plus longues, à mesure qu’augmente la puissance des ordinateurs (classiques) capables de les casser. L’avènement possible de l’ordinateur quantique impose de recourir à d’autres méthodes. Des algorithmes quantiques, implémentés sur un tel ordinateur, mettraient en effet aisément à mal les protocoles classiques.
LA PROMESSE DE L’INVIOLABILITÉ DES COMMUNICATIONS
La cryptographie quantique, qui repose sur la transmission de qubits générés aléatoirement, assure l’inviolabilité des échanges en toutes circonstances. Ces qubits constituent des clefs, qui sont ensuite utilisées dans des protocoles de chiffrement classiques. Dans la mesure où il est impossible de cloner une information quantique sans qu’elle soit détruite, ou de mesurer un état quantique sans le modifier, la lecture de l’information par un intrus serait immédiatement détectée par les destinataires du message.
Pour envoyer des qubits sur de grandes distances, le support privilégié est le photon, qui autorise l’encodage de l’information sur des variables observables telles que la polarisation de la lumière.

© Renaud Sirdey/CEA
La rencontre, à la fin des années 1980, de l'optique quantique et de l'optique non-linéaire a permis le développement de nouvelles sources de photons uniques et intriqués, compactes, efficaces et simples d'utilisation. D’autres techniques ont également vu le jour, autorisant la fabrication et l’exploitation d’émetteurs artificiels, tels que les boîtes quantiques semi-conductrices ou les centres colorés dans les cristaux de diamant.
ZOOM SUR LA BOITE QUANTIQUE
Une boîte quantique est constituée d'une inclusion nanométrique d'un matériau semi-conducteur dans un autre semi-conducteur. Maintenue à des températures cryogéniques (1-50 K), elle se comporte comme un atome artificiel, à la différence qu'elle est beaucoup plus facilement maîtrisable, en permettant l'émission très pure de photons uniques.
VERS DES RÉSEAUX QUANTIQUES À FORT DÉBIT ET À GRANDE ÉCHELLE
Ces technologies, déjà relativement mûres, donnent lieu à des systèmes développés et commercialisés par quelques petites entreprises, comme la compagnie suisse ID-Quantique. Leurs solutions permettent déjà de transmettre des messages, mais pas d’encoder des communications à grande échelle, car le débit de transmission de qubits sécurisés reste encore faible. Par ailleurs, en l’absence de relais et de répéteurs sécurisés, leur système ne peut aujourd’hui fonctionner que sur des distances limitées à quelques centaines de kilomètres.
Dans les laboratoires, l’heure est donc à la construction de véritables réseaux quantiques, permettant de générer, véhiculer, stocker et synchroniser l'information quantique entre sites distants, au même titre que ce qui se fait quotidiennement dans nos réseaux classiques. C’est à ce prix que la communication quantique pourra prendre véritablement son essor.
QUELLES RECHERCHES SUR LA COMMUNICATION QUANTIQUE ?
Afin d’augmenter les débits, la portée et la sécurité des liens de communication quantique, les recherches actuelles se tournent également vers les dernières innovations technologiques en photonique et en micro-électronique.
Des équipes travaillent ainsi à concevoir les relais et répéteurs qui manquent aux systèmes actuels, afin de téléporter ou stocker des états intriqués photoniques en deux endroits distants, puis de synchroniser la réémission des photons.
En parallèle, une nouvelle voie pour une communication quantique intercontinentale s’est ouverte en 2017, lorsqu’une source embarquée sur un satellite chinois a permis de distribuer des photons intriqués entre deux stations sol, séparées par une distance record de 1 200 km. L’augmentation drastique de la portée des réseaux quantiques pourrait en effet passer par l’interconnexion entre les technologies qui relèvent des liens satellitaires et des liens fibre optique.
De nouvelles idées d’hybridation émergent sans cesse : certaines visent à introduire la cryptographie quantique dans les systèmes télécoms existants, d’autres envisagent des solutions post-quantiques à base de cryptographie classique actuellement non attaquables par l’ordinateur quantique.
VERS LA CRYPTOGRAPHIE POST-QUANTIQUE
La cryptographie quantique a néanmoins une limite : puisqu’elle nécessite une liaison optique et ne peut s’opérer via des liaisons radio. C’est pourquoi les chercheurs travaillent déjà sur un autre type de cryptographie, la cryptographie post-quantique dont l’objectif est de développer des systèmes sans liaison physique, capables de résister aux algorithmes quantiques tels que l’algorithme de Shor et de protéger les communications des ordinateurs dits classiques.
Cette cryptographie s’appuie sur des outils classiques qui tournent sur des machines classiques. Seulement, pour résister à un attaquant doté d’un ordinateur quantique, ces cryptosystèmes post-quantiques doivent reposer sur des problèmes mathématiques qui échappent aux ordinateurs quantiques et notamment à l'algorithme de Shor.
ZOOM SUR L'ALGORITHME DE SHOR
L’algorithme de Shor, qui doit son nom à son concepteur Peter Shor, est un algorithme quantique probabiliste. Il ouvre la voie à la factorisation de très grands nombres en un temps record. Or, la plupart des protocoles de cryptographie classique, comme ceux utilisés pour assurer la confidentialité d'une carte bancaire, reposent sur la complexité de cette factorisation. Beaucoup de systèmes cryptographiques deviendraient vulnérables si l'algorithme de Shor était un jour implémenté dans un calculateur quantique.
Ces techniques, connues depuis les années 1990, sont principalement à base de réseaux euclidiens (fondés sur des objets géométriques) ou de codes correcteurs d’erreurs (technique de codage basée sur la redondance). Elles donnent néanmoins lieu à des cryptosystèmes dont le paramétrage est plus délicat, car mettant en jeu plusieurs paramètres interdépendants (comme la dimension du réseau ou la taille des coefficients). C’est ce qui fait toute la complexité de la cryptographie post-quantique, qui pourrait prochainement devenir le standard de la cryptographie des ordinateurs classiques.
Pour assurer la transition entre la cryptographie actuelle et post-quantique, une cryptographie hybride devrait se développer, composée de deux couches de chiffrement, l’une classique et l’autre post-quantique.
La cryptographie post-quantique fait actuellement l’objet de nombreuses recherches. Ces dernières portent entre autres sur :
* le chiffrement homomorphe, une technique de cryptographie fondée sur les réseaux euclidiens et permettant de calculer dans le domaine chiffré,
* l’implémentation de ces techniques dans des objets à faible puissance de calcul et des systèmes embarqués,
* mais aussi sur la résistance aux attaques physiques pendant les phases de manipulation de la clé privée.
DOCUMENT cea LIEN
|
|
|
|
|
|
|
LE BOSON DE HIGGS : RÉVÉLER LES SECRETS DE LA NATURE |
|
|
|
|
|
« Pour moi, c’est formidable que la découverte ait été réalisée de mon vivant ! », déclare un Peter Higgs très ému.
Les collaborations CMS et ATLAS viennent juste d’annoncer la découverte au Grand collisionneur de hadrons (LHC) d’une nouvelle particule élémentaire semblable au boson de Higgs.
4 juillet 2012 : François Englert (à gauche) écoute l’intervention de Peter Higgs après l’annonce de la découverte par ATLAS et CMS (Image : Maximilien Brice/CERN)
Quarante-huit ans plus tôt, Peter Higgs publiait un article qui postulait, pour la première fois, l’existence de la particule qui porte son nom, peu après que Robert Brout et François Englert aient proposé un nouveau mécanisme supposé donner leur masse à des particules élémentaires, les bosons. Plus de 30 ans s’étaient écoulés depuis la conception du LHC et une vingtaine d’années depuis la création des collaborations ATLAS et CMS. Des années d’attente, mais à peine plus d’un an pour que l’Académie des sciences de Suède décerne le prix Nobel de physique 2013 à François Englert et Peter Higgs.
Pour Peter Higgs, la découverte du boson de Higgs marquait la fin d’un voyage extraordinaire. Pour la physique des particules, c’était le début d’une nouvelle aventure.
« Le » boson de Higgs ou « un » boson de type Higgs ?
« Quand on trouve quelque chose de nouveau, il faut comprendre exactement ce que c’est », observe Giacinto Piacquadio, l’un des coordinateurs du groupe Higgs de la collaboration ATLAS.
Cette compréhension s’acquiert progressivement, au fil du temps. Revenons à ce mois de juillet 2012. Les scientifiques, ne voulant pas trop s’avancer, ne donnèrent pas tout de suite à la nouvelle particule le nom de « boson de Higgs », et osèrent encore moins la décrire comme étant le boson de Higgs prédit par le Modèle standard de la physique des particules. En effet, alors que, pour les théories les plus simples, un unique boson de Higgs suffisait, certaines théories au-delà du Modèle standard prédisaient qu’il pouvait y avoir jusqu’à cinq types de boson impliqués dans le mécanisme d’acquisition de la masse. C’est pourquoi durant les premiers mois qui suivirent la découverte, on parla d’une particule « de type » Higgs, une manière raccourcie de dire « particule qui semble se comporter comme le boson de Higgs prédit par le Modèle standard, mais il nous faut plus de données pour pouvoir en être certains ».
L’identification de deux propriétés quantiques de la particule – le spin et la parité – vinrent conforter l’interprétation du Modèle standard. Le spin est l’orientation spatiale intrinsèque d’une particule, alors que la parité se réfère au fait que les propriétés de la particule restent ou non identiques lorsque que certaines de ses coordonnées spatiales sont inversées – comme si l’on comparait une particule avec son image miroir. Selon le Modèle standard, le boson de Higgs a un spin nul et une parité paire. Au moment de la découverte, le fait que le boson de Higgs se soit transformé en photons signifiait que, contrairement aux autres bosons élémentaires connus, son spin ne pouvait être égal à 1. Les photons ayant eux-mêmes un spin égal à 1, une particule se transformant en deux photons aurait un spin nul (les deux spins du photon s’annulant) ou égal à 2 (si les deux spins s’ajoutent).
Différences entre les scénarios théoriques de parité positive et négative (lignes continue et en pointillé respectivement) pour une particule de spin nul. Les données ne montrent aucun indice en faveur du scénario à parité négative (Image : ATLAS/CERN)
En science, on ne peut jamais affirmer que quelque chose est sûr à 100 %, mais on peut exclure ce qui est improbable. Parce que des particules ayant un spin égal à 2 ou des particules de spin nul et de parité impaire laisseraient dans les détecteurs ATLAS et CMS des signatures légèrement différentes de celle des particules de spin nul et de parité paire qu’ils recherchaient, les scientifiques ont pu exclure cette possibilité en étudiant un très grand nombre de collisions supplémentaires, dans lesquelles ils n’ont trouvé aucun indice en ce sens. « Nous avons dû analyser deux fois et demie plus de données avant de pouvoir arrêter de dire « de type Higgs » », ajoute Giacinto Piacquadio. À partir de mars 2013, les scientifiques ont donc pu sans état d’âme appeler la particule « boson de Higgs », tout simplement.
Le bon créneau
Le boson de Higgs était la dernière pièce manquante du Modèle standard. C’est la valeur de sa masse qui allait déterminer comment il pourrait être observé. Il s’avéra que 125 gigaélectronvolts (GeV) étaient pile le niveau d’énergie qui rendait possible l’étude de la particule au Grand collisionneur de hadrons.
Il n’est pas possible d’observer directement un boson de Higgs. Comme la plupart des particules, il est instable et, juste après avoir été produit, il se transforme en des particules plus légères par un processus appelé « désintégration ». Les détecteurs ATLAS et CMS ne peuvent donc observer que les restes de ces transformations, des « signatures » indiquant qu’un boson de Higgs pourrait bien avoir été produit dans les collisions au LHC. Par ailleurs, les particules observées en aval de la production d’un Higgs donnent des indices sur la manière dont celui-ci a été produit.
La masse du boson de Higgs n’avait pas été prédite de manière précise par le Modèle standard, mais les théoriciens savaient que les processus à l’œuvre et le type de particules produites en aval dépendraient de la valeur de cette masse. Ils avaient ainsi réalisé, après de savants calculs, des graphiques montrant les différentes probabilités qu’un boson de Higgs d’une masse donnée se transforme en des paires de particules spécifiques. Selon ces chiffres, dits « rapports d’embranchement », un boson de Higgs léger, d’environ 125 GeV, aurait la plus grande palette de transformations possibles observables par ATLAS et CMS : paires de bosons W, bosons Z, photons, quarks bottom, leptons tau et bien d’autres encore. Plus le boson de Higgs peut se transformer en particules observables différentes, plus les scientifiques peuvent étudier ses interactions avec ces particules.
Le taux auquel un boson de Higgs peut subir certaines transformations (axe vertical) dépend de sa masse (axe horizontal) (Image : CERN)
Bien que le champ de Higgs ait été théorisé pour expliquer la masse des bosons W et Z, l’idée surgit qu’il pouvait aussi jouer un rôle dans la masse des fermions, c’est-à-dire les particules de matière. Si, du fait de sa masse, on ne pouvait observer que les interactions entre le boson de Higgs, d’une part, et, les bosons W et Z, d’autre part, l’énigme de la masse des fermions allait rester irrésolue. La découverte de la particule à une masse « accessible » fut un cadeau inattendu de la nature. Si le boson de Higgs avait été plus massif, au-delà de 180 GeV, il aurait été plus difficile de l’étudier à l’époque où il a été découvert.
La variété de produits de transformation disponibles signifie que les données sur les différents canaux de désintégration peuvent être combinées par des techniques sophistiquées pour mieux comprendre la particule. « C’est compliqué, explique Giovanni Petrucciani, l’un des coordinateurs du groupe d’analyse du Higgs à CMS. Il faut traiter les incertitudes de la même manière pour chaque analyse et procéder à un travail minutieux d’interprétation des résultats, après un traitement statistique complexe. » C’est en combinant les données de la transformation du boson de Higgs en paires de bosons Z et en paires de photons qu’ATLAS et CMS ont pu découvrir le boson de Higgs en 2012.
D’une génération à une autre
Le LHC a commencé à fonctionner à une énergie de collision de 7 téraélectronvolts (TeV), portée ensuite à 8 TeV durant la première période d’exploitation (2010-2013). Les données recueillies pendant cette période ont non seulement conduit à la découverte du boson de Higgs, mais ont aussi montré la relation (« couplage ») entre le boson de Higgs et les bosons élémentaires : on a pu observer qu’il se transformait en paires de W, de Z et de photons. De plus, même s’il n’est pas possible d’observer les transformations en gluons, les scientifiques ont pu étudier ce couplage par la production de Higgs proprement dite : lors des collisions proton-proton, le canal de production de Higgs le plus productif est celui de la fusion de deux gluons (un par proton). C’est ainsi que près de 90 % des bosons de Higgs sont produits au LHC.
Le défi suivant allait être l’observation des couplages aux fermions, qui allait montrer le rôle du champ de Higgs dans l’origine de la masse de toutes les particules élémentaires massives. Ces couplages ont été étudiés de manière indirecte : d’après le Modèle standard, le mécanisme de production par fusion de gluons et la transformation du boson de Higgs en paire de photons suppose la création et l’annihilation de paires « virtuelles » top-antitop. On n’avait toutefois encore jamais observé directement un couplage Higgs-fermion.
Chose curieuse, les deux types de fermions – les quarks, qui se combinent pour former des particules composées comme les protons, et les leptons, dont l’exemple le plus connu est l’électron – sont classés en trois familles, ou générations de particules, chacune plus lourde que la précédente. Et, à la différence des bosons, dont la force de couplage au Higgs est proportionnelle à leur masse, la force du couplage au Higgs des fermions est proportionnelle au carré de leur masse.
Les fermions de troisième génération, les plus lourds, sont donc les particules les plus susceptibles de se manifester dans les processus mettant en jeu le boson de Higgs. « Étudier le lien entre le Higgs et le quark top notamment est très intéressant », observe María Cepeda, coordonnatrice, avec Giovanni Petrucciani, du groupe d’analyse du Higgs à CMS. Malgré leur relative abondance dans ces processus, ces particules sont difficiles à identifier. Les quarks ne pouvant exister seuls, deux quarks bottom (un quark et un antiquark) issus de la transformation d’un Higgs se combinent rapidement avec d’autres quarks extraits du vide quantique et forment des jets de particules. Les expérimentateurs doivent alors mettre une étiquette aux jets de particules portant la signature d’un quark bottom, afin d’isoler le signal. Par contre, le quark top est plus lourd que le Higgs, de sorte qu’il n’est pas possible d’observer la transformation d’un Higgs en deux quarks top. Les scientifiques doivent donc mesurer son couplage au Higgs en recherchant des collisions dans lesquelles un boson de Higgs est produit en même temps que deux quarks top. La deuxième période d’exploitation du LHC (2015-2018) s’est déroulée à une énergie 13 TeV et la grande quantité de données recueillies a permis à ATLAS et CMS d’observer les interactions entre le boson de Higgs et le quark bottom, le quark top et le lepton tau.
Les couplages aux fermions de deuxième génération sont bien plus faibles, et ni ATLAS ni CMS n’ont, à ce jour, observé de transformations du Higgs en quarks c, en quarks s ou en muons. La prochaine période d’exploitation (à partir de 2021) devrait fournir suffisamment de données pour commencer à lever le voile sur ces interactions. « La luminosité instantanée du LHC – le nombre de collisions de protons à un moment donné – a augmenté de manière notable durant les deux premières périodes d’exploitation, note avec enthousiasme Giacinto Piacquadio. Cela signifie que le nombre de bosons de Higgs produits par le LHC continue d’augmenter, tout comme les chances d’observer des transformations plus rares de ces bosons. »
Mais, s’agissant des fermions de deuxième génération, les volumes de données du LHC au cours de toute sa durée d’exploitation ne seront peut-être pas suffisants pour franchir le seuil statistique de 5σ, indispensable pour que l’on puisse revendiquer l’observation de la désintégration du Higgs dans ces différentes particules. Alors même que la luminosité du HL-LHC, qui prendra le relais du LHC à partir de 2026, devrait permettre à ATLAS et CMS d’observer la transformation du Higgs en paires de muons, les transformations en quarks de deuxième génération resteront probablement hors de portée.
Plus de données pour plus de précision
Le boson de Higgs est la clef pour comprendre la nature au-delà de ce qui est décrit par le Modèle standard.
ATLAS et CMS, par exemple, étudient les désintégrations dites « invisibles » du boson de Higgs, dans lesquelles le Higgs se transforme en des particules que les détecteurs ne peuvent pas observer. Ces particules invisibles pourraient être la manifestation de la matière noire. De plus, les mesures de couplages s’écartant de ce que prédit la théorie pourraient apporter une autre explication à la masse des différentes générations de fermions, expliquer pourquoi il existe différentes générations de fermions et apporter des indices de l’existence d’autres bosons de Higgs.
Le mécanisme de Brout-Englert-Higgs reste toutefois l’un des phénomènes les moins bien compris du Modèle standard. En effet, même si les scientifiques ont cessé de dire « boson de type Higgs », et même s’ils ont amélioré de façon remarquable leur compréhension du boson de Higgs depuis sa découverte, ils ne savent toujours pas si ce qui a été observé est le boson de Higgs prédit par le Modèle standard. Les couplages aux fermions de deuxième génération restent insaisissables, et ceux qui ont été observés sont connus avec une incertitude de 10 à 20 %, qui devrait être ramenée aux environs de 2 à 4 % avec le LHC à haute luminosité (HL-LHC). L’observation de phénomènes jusqu’à présent insaisissables, et les mesures de précision portant sur les phénomènes déjà observés peuvent nécessiter des volumes de données allant largement au-delà de ce que le LHC pourra fournir durant toute sa durée de vie.
La communauté mondiale de la physique des particules est donc favorable à la construction d’une « usine à Higgs », un accélérateur destiné essentiellement à produire des bosons de Higgs dans des quantités énormes, afin de poursuivre l’étude de cette étrange particule. Une usine à Higgs de haute énergie permettrait également de produire deux bosons de Higgs à la fois pour traiter la question de l’interaction du Higgs avec lui-même, processus par lequel le boson de Higgs acquiert lui aussi une masse.
Depuis la découverte du boson de Higgs il y a près de huit ans, ATLAS et CMS ont publié des centaines d’articles sur le sujet et notre compréhension de cette particule s’est améliorée doucement, mais sûrement. Aujourd’hui, nous savons avec une grande précision quelle est sa masse, quels sont les canaux de transformation les plus fréquents et comment elle est produite. Mais de nombreux mystères subsistent, sur le boson de Higgs et sur le monde quantique en général.
DOCUMENT cern LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|