ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LE RADIUM ...

 

Le radium, pour le meilleur et pour le pire


autre - dans mensuel n°315 daté décembre 1998 à la page 76 (3038 mots)
Il y a un siècle, Pierre et Marie Curie annonçaient à l'Académie des sciences la découverte d'un nouveau radioélément. Le radium... un mot magique qui connaîtra son heure de gloire dans l'après-guerre. On en trouve alors presque partout, dans les comprimés de pharmacie, les crèmes antirides, les savons, les dentifrices, les eaux minérales... Le produit séduit, attire et fait vendre. Ce succès commercial semble ne pas avoir de limite, jusqu'au jour où les soupçons commencent à émerger.

Vingt-six décembre 1898 : l'annonce de la découverte du radium à l'Académie des sciences ne passe pas inaperçue. Une année plus tôt, Marie Curie avait commencé son travail de thèse sur les étranges rayons uraniques, rayons découverts par Henri Becquerel une année auparavant1I. Utilisant un électromètre à quadrants, un quartz piézo-électrique et une chambre d'ionisation, elle cherche à savoir si l'uranium est le seul élément qui émet spontanément ce type de rayonnements. Très vite elle remarque qu'un minerai d'uranium, la pechblende, est beaucoup plus actif que l'uranium. En juillet 1898, dans un hangar de l'Ecole municipale de physique et chimie de Paris, elle découvre avec Pierre Curie le polonium2. Et en décembre, le couple isole le radium3. Celui-ci n'étant présent qu'en quantité infinitésimale, l'extraction qui permettra de définir son poids atomique doit se faire à l'échelle industrielle. Une lourde tâche à laquelle Pierre et Marie Curie s'attelleront pendant quatre ans4. En 1902, Marie Curie a réuni suffisamment de chlorure de radium pour déterminer ce poids atomique5...

La découverte du radium ouvre un nouveau champ de recherche en physique et en chimie. Les travaux scientifiques se multiplient en France, en Allemagne, en Grande-Bretagne, en Autriche, au Canada et l'industrie naissante a bien du mal à répondre à la demande croissante en radium. En France, le laboratoire des époux Curie impulse et développe cette industrie en fournissant les conseils techniques, les procédures de traitement chimique des minerais, en formant des techniciensII. Mais les effets du radium n'intéressent pas que les spécialistes de la physique fondamentale. Ce radioélément semble avoir des propriétés thérapeutiques importantes. Les premières observations annoncées par deux Allemands, Otto Walkhoff et Friedrich Giesel en 1900 concernent le traitement de la peau. En juin 1901, Pierre Curie et Henri Becquerel publient ensemble une note sur « les effets physiologiques des rayons du radium »6. En novembre 1901, Henri Danlos, médecin de l'hôpital Saint-Louis, publie ses premiers résultats sur le traitement des lupus par du radium prêté par Pierre Curie7. Les résultats sur les maladies dermatologiques ainsi que sur les cancers de la peau sont encourageants. La thérapie utilisant les rayonnements du radium est essayée sur de nombreuses maladies réfractaires aux traitements connus : outre les infections dermatologiques, les cancers et la tuberculose8. Après l'attribution du prix Nobel de physique de 1903 à Henri Becquerel et aux Curie, la presse popularise le radium, mettant en avant les caractéristiques magiques de cette extraordinaire source d'énergie.

Le Français Armet de Lisle, qui possède déjà une usine de production de quinine à destination du monde médical, s'intéresse lui aussi de près aux applications thérapeutiques du radio-élément. A Nogent-sur-Marne, dans sa nouvelle usine entièrement consacrée à l'extraction du radium, il se lance dans la fabrication d'applicateurs qu'il tente d'améliorer afin d'économiser la précieuse substance radioactive. Sa succursale commerciale, « Banque du radium », propose bientôt une large gamme d'appareils. Mais son intérêt pour le radioélément dépasse le cadre strictement commercial : il finance la création et le fonctionnement du « laboratoire biologique du Radium », premier du genre spécialement dédié à l'étude des effets biologiques et médicaux du radium. C'est d'ailleurs dans ce même laboratoire que le docteur Henri Dominici met au point un tube qui connaîtra par la suite un énorme succès commercial, sorte d'étui cylindrique d'argent, d'or ou de platine contenant des sels de radium utilisé dans le traitement des maladies dermatologiques et cancéreuses.

Pendant plusieurs années, Armet de Lisle s'efforcera de convertir une communauté médicale réticente. La « Banque du radium » mettra à « la disposition de plusieurs membres du corps médical des hôpitaux des appareils à base de radium, utilisés pour le traitement de certaines affections » . Dans une circulaire de 1909, l'administration hospitalière « autorise les dames préposées de la Banque du radium à séjourner dans les hôpitaux, auprès des malades auxquels seraient faites des applications d'appareils » 9 .

A la veille de la guerre de 1914, la radiothérapie n'est encore pratiquée que dans peu de services hospitaliers. Sa pratique paraît écartelée entre deux situations extrêmes. En dermatologie, elle est considérée comme un traitement curatif à part entière. Ailleurs, elle n'est reconnue que comme méthode palliative, à utiliser seulement quand tous les autres traitements ont échoué. La position des chirurgiens français explique en partie cet état : ils ignorent la radiothérapie. La situation est bien différente à l'étranger, notamment en Allemagne où les chirurgiens jouent au contraire un rôle moteur dans le développement des thérapies radiantes10.

C'est la guerre qui contribuera à modifier grandement la situation de la radiothérapie en France. Le radium est utilisé par le Service de santé des armées qui, pendant la guerre, met en place trois centres de radiumthérapie à Paris, Bordeaux et Lyon. A partir de 1916, Marie Curie organise également dans son laboratoire de l'institut du Radium créé conjointement par l'université de Paris et l'Institut Pasteur, le « Service d'émanation », destiné à produire des ampoules d'émanation appelée radon par la suite pour les blessures de guerre. L'armée est ainsi le plus important acquéreur de radium pour des besoins thérapeutiques, mais également pour les peintures lumineuses. Le radium incorporé aux peintures prolonge en effet la phosphorescence du sulfure de zinc, ce qui permet de rendre lumineux même dans l'obscurité les cadrans, les aiguilles de montres et de pendules, les boussoles et divers appareils électriques11. La France compte alors quatre usines d'extraction : celle d'Armet de Lisle à Nogent-sur-Marne, celle d'Henri de Rothschild à l'Ile-Saint-Denis, celle de Jacques Danne, ancien chercheur du laboratoire Curie, à Gif-sur-Yvette, enfin une dernière usine à Courbevoie, elle aussi fondée par des anciens du laboratoire Curie. Bientôt, cette production nationale ne suffit plus à couvrir les besoins de l'armée. Le problème est accentué par le fait qu'aucun gisement riche en uranium n'est découvert en France. On achemine donc le minerai de l'étranger, ce qui bien sûr augmente les coûts de production... De plus, le radium reste un élément difficile et long à produire. Dans l'usine d'Armet de Lisle, pour une tonne de résidu de pechblende, cinq tonnes de produits chimiques et cinquante tonnes d'eau de lavage sont nécessaires. Après plusieurs mois de traitement, de cristallisations fractionnées en laboratoire, seulement 1 à 2 mg de bromure de radium très actif sont extraits.

Alors que l'industrie française de radium entame un déclin irréversible, la production américaine augmente grâce à la découverte de minerais dans le Colorado et l'Utah. A la fin de 1922, les Etats-Unis assurent les 4/5 de la production mondiale de radium. En 1923, l'arrivée sur le marché du radium belge marque véritablement le glas de l'industrie française. Son origine est africaine : un minerai particulièrement riche en uranium avait été découvert dix ans plus tôt dans les concessions de cuivre du Haut-Katanga dans l'ex-Congo belge. L'Union minière du Haut-Katanga devient donc dans les années 1920 le plus gros producteur de radium au monde.

La production mondiale de radium augmentant, les prix baissent sur le marché international, entraînant le ralentissement, voire l'arrêt de la production dans la majorité des pays. Pour fixer les idées, dans les années 1930, l'Union minière produit une soixantaine de grammes par an, alors que la production française d'avant-guerre se situait autour de trois grammes12.

L'Union minière produit tous les types d'applicateurs de radium : 1 300 à 1 400 appareils sont fabriqués par mois en Belgique et commercialisés un peu partout grâce aux revendeurs installés dans de nombreux pays13. D'autres industriels proposent également cette même gamme de tubes et d'aiguilles. Ces appareils seront utilisés selon des procédés divers et variés à la base de la « radiumpuncture ». Les tubes, aux formes et dimensions variables, sont largement inspirés des tubes Dominici, mais sont en général plus petits. Les aiguilles sont des tubes minces contenant du radium dont une extrémité est aiguisée pointe de l'aiguille et l'autre munie d'un chas par lequel on fait passer un fil de soie ou de bronze. Celui-ci sert à fixer les aiguilles dans les tissus et à les en retirer. Les procédés d'implantation étudiés à l'institut du Radium consistent à introduire le radium au sein même des tissus cancéreux. Ces applicateurs servent également pour les irradiations externes des téguments. Dans ce cas, ils sont maintenus grâce à des moulages en cire ou en plâtre adaptés à la surface à traiter14.

Dans les années 1920, une innovation importante apparaît en curiethérapie nouveau nom donné en France à la radiumthérapie : la télécuriethérapie. Cette technique représente, dans une certaine mesure, une imitation de celle utilisée en röntgenthérapie* : on éloigne la source radioactive des parties à irradier dans le but d'augmenter l'efficacité du traitement en profondeur15. Immobilisant des quantités importantes de radium, elle n'est accessible qu'aux centres qui ont des moyens importants. En France, la technique a été introduite par l'équipe de Claudius Regaud, grâce aux 4 grammes de radium mis à la disposition de la Fondation Curie en 1926 par l'Union minière du Haut-Katanga. Ces « bombes au radium » dénomination plus tardive annoncent les débuts d'une médecine lourde nécessitant des appareillages de plus en plus chers et volumineux.

Mais le radium n'intéresse pas seulement le monde médical. Dans les années 1920-1930, l'usage du radioélément s'étend dans des domaines des plus variés qui vont de l'alimentation pour animaux aux produits de beauté. A cette époque, on imaginait bien que les irradiations à forte dose pouvaient être nocives - elles détruisent sans distinction cellules saines et cellules malades - mais on pensait qu'en petites quantités, elles pouvaient être stimulantes et bénéfiques.

En France, on trouve en pharmacie la crème Tho-Radia vendue selon la formule du Dr Alfred Curie un médecin qui n'a bien sûr jamais existé !. Cette préparation qui contient de très petites quantités de thorium et de radium, est censée effacer les rides du visage. Qui pourrait résister à son slogan publicitaire : « La science a créé Tho-Radia pour embellir les femmes. A elles d'en profiter. Reste laide qui veut ! ». Mais Tho-Radia a de la concurrence. La marque Radiumelys propose également des crèmes, des poudres de riz, des dentifrices et des sels de bains. Un autre cosmétique qui porte le joli nom de Radiocrèmeline est censé avoir un pouvoir sédatif et provoquer la multiplication rapide des couches cutanées. Avec la crème Activa, « on ne vieillit plus, mieux on rajeunit ! ». La poudre et la crème Alpha-Radium « porphyrisées par un procédé nouveau procure au visage le velouté mat si apprécié par la femme élégante ». D'autres techniques ont recours au radium comme la caoutchouthérapie, créée par le Dr Monteil. Ses mentonnières en caoutchouc radioactif ont des effets merveilleux si on les porte une demi-heure par jour. « Vous serez belle éternellement et toujours jeune, Madame » promet la notice. Mais tous ces produits ne contiennent pas forcément du radium comme en témoignent les nombreux procès avec expertise intentés par des consommateurs insatisfaits.

A côté des produits de beauté, on trouve à cette époque en pharmacie des pommades et des comprimés à base de radium : Tubéradine pour soigner la bronchite, Digéraldine pour favoriser la digestion ou Vigoradine pour lutter contre la fatigue. Les compresses Radiumcure sont célèbres pour calmer la douleur et empêcher l'inflammation et les pilules Radiovie sont préconisées par la réclame pour les anémiques, les neurasthéniques et les surmenés16.

L'un des produits qui a le plus de succès est sans doute l'eau radioactive. Les cures thermales, en vogue avant même la découverte de la radioactivité, ont maintenant une assise scientifique17. On n'hésite pas à mettre en place des installations sophistiquées pour attirer les curistes. Il ne s'agit plus de proposer uniquement de l'eau radioactive mais également de l'émanation à inhaler grâce à des appareils adaptés. Pour rentabiliser ces investissements, on installe les curistes dans des cabines qui accueillent plusieurs malades à la fois. Ces séances d'inhalation collectives qui durent environ une heure font la renommée de certaines stations thermales comme celle de Spa en Belgique. Et lorsque les eaux ne sont pas assez radioactives, on n'hésite pas à les recharger artificiellement en radioélément.

De nouveaux appareils d'extraction de l'émanation fabriqués par des médecins ou des physiciens seront utilisés en dehors des stations thermales. Quoi de plus agréable que de prolonger les bienfaits d'un traitement en optant pour une cure de boisson chez soi ? De nombreuses sociétés qui commercialisent déjà des produits au radium Erco, la Société d'application du radium, l'Office français du radium se lancent dans ce nouveau créneau. Elles proposent une eau radioactive « à domicile ». Leurs « cafetières à radium » et « fontaines à radium » feront partie des plus belles réussites commerciales du marché des produits radioactifs à destination du grand public. Leur principe de fonctionnement est relativement simple : une capsule de sels de radium est logée à l'intérieur de l'appareil, l'eau absorbe l'émanation et devient alors radioactive. La cure de boisson doit durer 21 jours, annonce la notice. On arrête ensuite une semaine et on recommence. Quant à la cure de bains radioactifs, elle implique une vingtaine de séances à 35°-38° degrés, deux ou trois fois par semaine et il est vivement conseillé de renouveler l'opération deux semaines après la fin du premier traitement18.

Mais l'être humain n'est pas le seul à bénéficier de produits au radium. Les animaux et les plantes y ont droit aussi. « Engraissez tous vos animaux de ferme ou de basse-cour avec Provadior, véritable provende française contenant du radium » annonce un fabricant. De nombreux engrais, faiblement radioactifs, sont proposés aux agriculteurs, tels Excitor Agral. La pratique s'appuie sur des résultats scientifiques qui tendent à démontrer le rôle stimulateur des fertilisants radioactifs sur la végétation et dans la préservation contre les microbes19.

Ce n'est que progressivement que l'on se rendra compte du danger des rayonnements. Les premiers alertés sont les travailleurs du radium. Plusieurs décès sont observés à l'institut du Radium de Londres, consacré aux applications médicales. Des analyses de sang sont alors entreprises sur tout le personnel de l'institut car les signes extérieurs de la maladie par exemple, les brûlures cutanées ne sont pas forcément présents. Les examens pratiqués en série pendant plusieurs mois révèlent des modifications dans la numération globulaire, en particulier chez les personnes qui ont été exposées pendant longtemps aux substances radioactives. Les études sur la santé des travailleurs du radium et des radiologues se multiplient un peu partout, aux Etats-Unis, en Italie, en Suède et en France. En 1922, une vaste enquête est lancée sous les auspices de la Röntgen Society de Philadelphie auprès de mille radiologistes américains. Le questionnaire comprend des données sur les conditions de travail, la santé et les examens sanguins. Parallèlement, une enquête est menée par une grande firme américaine de préparation de substances radioactives sur son personnel. Les résultats de ces deux études indiquent que les modifications hématologiques les plus importantes sont observées chez les médecins radiothérapeutes et röntgenthérapeutes. En France, une enquête conduite par Jacques Lavedan en 1921 à l'institut du Radium va se poursuivre sur plusieurs années. Le personnel de l'Institut est soumis à des tests réguliers tous les trois mois. Là encore, des modifications sont observées dans la numération globulaire mais l'interprétation des résultats prête à des controverses20.

Néanmoins ces travaux conduisent à la mise en place dans les laboratoires des premières mesures de protection contre les rayonnements. Dès 1921, la Röntgen Society de Londres publie une série de recommandations. L'année suivante, la même société fixe des règles de protection. Au dispensaire de la Fondation Curie, des murs en plomb sont installés dans les salles de radiothérapie qui utilisent les rayonnements les plus puissants. Les manipulations des tubes requièrent désormais pinces et instruments appropriés. Les tables de travail doublées de plomb intègrent des boucliers eux aussi plombés. Toutefois, malgré ces protections, des modifications hématologiques sont toujours observées sur les personnels. Les études reprennent donc pour tenter d'améliorer la protection21.

L'industrie, en revanche, ne semble pas vraiment préoccupée par le danger potentiel des rayonnements et les conditions de travail dans les usines restent dangereuses. Plusieurs cancers sont pourtant signalés chez des ouvrières qui utilisent une peinture luminescente au radium et affinent leur pinceau à la bouche. En France, d'anciens chercheurs du laboratoire décèdent. Marcel Demalander et Maurice Demitroux meurent en 1924 après plusieurs semaines de maladie et d'épuisement extrême. Tous deux travaillaient depuis plusieurs années dans l'industrie du radium. Dans la communauté des chercheurs, l'émotion est vive. Albert Laborde, un ancien collaborateur des Curie qui travaille lui-même dans l'industrie, dénonce les conditions de travail dans des salles sans aération. Le principal agent incriminé est en effet l'émanation du radium, le radon, et non pas les rayonnements externes. En 1925, une commission composée de Marie Curie, d'Arsène D'Arsonval, d'Antoine Béclère, de Paul Broca et de Claudius Regaud présente à l'Académie de médecine un rapport sur le contrôle et la réglementation des établissements industriels spécialisés dans la préparation des corps radioactifs22. Ses recommandations restent très générales et mettent surtout l'accent sur la nécessité de « s'aérer ». Fin 1934, le ministre du Travail classe les maladies liées à la fabrication des sels de radium dans la liste des maladies professionnelles au même titre que le saturnisme.

La même année, Irène et Frédéric Joliot-Curie découvrent la radioactivité artificielle à l'institut du Radium. Pour les soins médicaux, les radioéléments artificiels à période de vie courte remplacent petit à petit le radium jusqu'à l'interdiction totale de son utilisation en France dans les années 1970. L'image du radium s'est entre-temps profondément modifiée aux yeux du grand public. La radioactivité est devenue l'objet de toutes les peurs. Quand et comment s'est opéré ce basculement ? S'il est difficile de dater le revirement de l'opinion, il ne fait pas de doute que les bombes d'Hiroshima et de Nagasaki ont profondément marqué les consciences. Mais la perception du risque associé à la radioactivité et plus généralement au progrès technologique prendra de l'ampleur à partir des années 1970 avec la construction des centrales nucléaires et, plus tardivement, le problème posé par les déchets radioactifs.

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LE ROBOT ET LE TOUCHER ...

 

L'immatériel au bout des doigts


spécial robots - par Christian Laugier, César Mendoza dans mensuel n°350 daté février 2002 à la page 52 (2565 mots)
Après la vue et l'ouïe, le toucher fait son entrée dans les technologies virtuelles. Depuis quelques années, des dispositifs haptiques permettent de manipuler des objets simulés par ordinateur, d'éprouver leur consistance, et bientôt leur texture. Une première étape indispensable avant de pouvoir doter les robots autonomes de sensations tactiles.

Un stylo, une feuille de papier, un gobelet en plastique souple, des clés... autant d'objets, que nous manipulons quotidiennement sans les casser ni les déformer outre mesure. L'adaptation permanente de nos gestes à la nature des objets nous semble si évidente que nous n'y pensons quasiment pas. Pourtant, aucun robot « autonome » ne possède un réel sens du toucher : il faudrait qu'il puisse manipuler avec dextérité un objet à partir des données issues de ses capteurs tactiles et de la représentation virtuelle de la scène filmée par ses caméras. Selon Kenneth Salisbury1, qui a travaillé longtemps au Massachusetts Institute of Technology sur la dextérité des robots, la mise au point de tels artefacts est actuellement hors de notre portée. C'est pourquoi, comme plusieurs chercheurs en robotique, il a proposé de mettre au point d'abord des systèmes de télémanipulation doués de toucher virtuel.

De quoi s'agit-il ? L'objectif est qu'un opérateur humain puisse contrôler à distance de façon aussi naturelle et précise que possible. Pour cela, ledit opérateur doit pouvoir guider, dans un environnement simulé et interactif, une copie virtuelle de l'outil robotisé, qui lui transmette des sensations tactiles réalistes. L'environnement virtuel reconstitué pourra de surcroît intégrer des images réelles envoyées par les caméras du robot. Lorsque nous disposerons de tels systèmes, peut-être pourrons-nous tenter d'en équiper des machines totalement autonomes.

Le contrôle à distance de véhicules ou de bras robotiques par des ordinateurs et des opérateurs humains est déjà répandu. Les récentes opérations de téléchirurgie, largement diffusées par les médias voir l'article d'Olivier Blond p. 79, en sont une illustration spectaculaire, tout comme l'a été en 1997 l'exploration d'une portion de sol martien par un petit véhicule équipé de chenilles voir l'article de Francis Rocard p. 61. D'autres activités plus courantes, telles l'inspection et la maintenance d'installations nucléaires ou chimiques, ou encore l'exploitation des fonds marins, nécessitent aussi la transposition des capacités de perception et d'action de l'homme dans des environnements inaccessibles et dangereux. Dans toutes ces situations, les informations fournies par les capteurs équipant le robot sont utilisées pour la modélisation de l'environnement où il évolue, et l'opérateur est « immergé » dans une reconstitution virtuelle de cet environnement.

Saut technologique. Nous savons, depuis de nombreuses années, créer des scènes virtuelles en trois dimensions, à partir d'une vue réelle ou d'un modèle purement mathématique voir l'article de Thierry Viéville p. 42. Nous savons aussi synthétiser des sons divers. En revanche, la sensation de toucher des objets virtuels restait inconcevable, il y a seulement une dizaine d'années. Pourtant, c'est une perception indispensable pour effectuer des manipulations précises, comme l'exige par exemple la chirurgie.

L'apparition, au début des années 1990, de nouveaux types d'interfaces électromagnétiques et électromécaniques, appelés systèmes haptiques du grec haptein , toucher, ainsi que les progrès de la réalité virtuelle rendent désormais accessible ce mode d'interaction. L'impact de ce saut technologique est comparable à celui de l'arrivée du son dans le cinéma muet de nos arrière-grands-parents. Avec les interfaces haptiques, notre objectif est de plonger l'opérateur dans un monde virtuel afin qu'il utilise au mieux ses canaux sensoriels pour piloter à distance un système robotique, tout en laissant parfois à celui-ci une relative autonomie. Ce principe a déjà été utilisé avec succès dès le début des années 1990 par l'aérospatiale allemande lors de la téléprogrammation d'opérations de manipulation simples exécutées par un robot dans une station spatiale. Toutefois, le procédé n'en est encore qu'à ses toutdébuts, de nombreux problèmes restant à résoudre.

Les systèmes haptiques ont des formes et des caractéristiques variées qui vont du bras articulé à retour d'efforts aux gants munis de coussins d'air actifs, en passant par des exosquelettes*, ou encore des systèmes vibro-électriques. Quelques dispositifs de ce type sont actuellement commercialisés : des bras à retour d'efforts comme le Phantom de Sensable Technologies Inc. ou le Laparoscopic Impulse Engine de Immersion Corporation ; des gants sensitifs comme le Cybergrasp Glove de Immersion Corporation ; sans oublier les manettes de jeu haptiques à bon marché utilisées pour les jeux vidéos.

Ces systèmes réunissent deux fonctions. D'une part, ils permettent de guider une main ou un outil virtuel dans le monde simulé. Ce n'est pas le plus difficile à réaliser : en fait, en manipulant quotidiennement la souris de notre ordinateur, nous guidons, à un niveau très élémentaire, un pointeur virtuel sur l'écran.

D'autre part, le système haptique transmet en permanence des forces et des vibrations aux mains ou aux doigts de l'opérateur afin de lui donner l'illusion de toucher quelque chose, par exemple un mur lisse, ou une étoffe souple et texturée. Les spécialistes distinguent le « retour d'effort » et la « sensation tactile ». Dans le premier cas, l'opérateur reçoit du système des informations concernant surtout le poids, l'inertie, et la dureté des objets palpés ; dans l'autre cas, ce sont avant tout des données liées à la forme, à la texture de surface, et parfois à la température qui sont considérées.

Contact virtuel. L'une des principales difficultés rencontrées lors de la mise au point des dispositifs haptiques est liée à leur nature mécanique : ils présentent en effet des frottements internes, une inertie et des vibrations propres. Or, ces caractéristiques doivent être totalement compensées lorsqu'un opérateur humain fait effectuer des mouvements quelconques à un tel dispositif, faute de quoi il recevrait des informations dénuées de sens. Ce problème, longtemps sans réponse, est aujourd'hui résolu dans la plupart des situations, grâce aux nouvelles technologies issues de la robotique. La meilleure solution semble être aujourd'hui la mise au point de dispositifs dont la « transparence » est optimisée pour des types particuliers d'utilisation. Nous sommes encore loin de l'interface haptique universelle, par exemple d'un gant qui permettrait de saisir ou de palper toutes sortes d'objets virtuels dans toutes sortes de situations.

Cependant, la conception d'un dispositif haptique adéquat ne résout qu'une partie du problème. Encore faut-il que le calculateur, qui contrôle l'interface, lui envoie des commandes de nature à créer des illusions réalistes lorsque l'opérateur exerce une pression ou un mouvement de glissement sur une surface fictive à l'aide d'un doigt ou d'un outil virtuel.

Dès le milieu des années 1990, quelques chercheurs pionniers du domaine, tel K. Salisbury , ont proposé des modèles informatiques pour simuler quelques phénomènes physiques simples : un contact ponctuel avec une surface rigide, l'effet du frottement sur cette surface, ou encore le rendu d'une texture. Par exemple, lors d'un contact virtuel entre un outil virtuel et un objet virtuel, le système engendre une force instantanée, orthogonale à la surface de contact, dont l'amplitude varie en fonction des caractéristiques physiques de l'impact vitesse, rigidité des matériaux.... Un calcul exact de cette force serait très complexe, voire irréalisable dans certains cas. C'est pourquoi ces chercheurs ont imaginé de produire une force élémentaire dont l'amplitude est proportionnelle à la déformation locale due au contact, ce qui s'est révélé assez réaliste pour un opérateur humain.En pratique, l'effet est obtenu par la simulation d'un ressort plus ou moins rigide entre l'extrémité de l'outil virtuel et la surface de l'objet touché fig. 1 : plus le ressort est souple, plus on a l'impression de toucher un objet mou.

Les premiers systèmes haptiques ont toutefois montré les limites de ce principe simple lorsque le contact se prolonge dans le temps : des instabilités et des phénomènes de saturation produisaient des sensations de contact irréalistes. Un remède simple a alors été proposé par les mêmes chercheurs : l'ajout d'une force dite « d'amortissement visqueux », proportionnelle à la vitesse relative de la main et de l'objet virtuel. Suivant les valeurs que l'on donne aux coefficients de proportionnalité des forces de contact et d'amortissement, l'opérateur peut avoir la sensation de toucher un mur rigide ou une surface spongieuse.

L'étape suivante a consisté à reproduire des perceptions réalistes des formes et des états de surface frottements et texture. En se fondant sur les principes que nous venons de décrire, les chercheurs ont rapidement montré que c'était faisable à l'aide d'une modulation temporelle des forces de réaction transmises à l'opérateur. Ainsi, une modification appropriée de la direction de la composante orthogonale de la force de réaction rend compte de la forme de l'objet lors de l'exécution de mouvements de palpation. Un changement brusque de l'orientation de cette composante donne l'impression d'une arête vive ; une variation plus progressive, l'impression d'une surface courbée. De même, si la force transmise à l'opérateur est seulement orthogonale à la surface, alors la sensation est celle d'une surface glissante comme de la glace. L'ajout d'un terme tangentiel crée en revanche une sensation de frottement.

Enfin, les mécaniciens savent bien que la sensation procurée par la texture d'un objet résulte de la combinaison des effets produits par des variations microscopiques des états de surface et des frottements associés. Cela est plus difficile à simuler, bien qu'en théorie il suffise de répéter des séquences temporelles de forces de réaction précalculées ou paramétrées. Des travaux visant à reconstruire de manière réaliste des schémas temporels de forces à partir de mesures faites sur des objets réels sont en cours dans plusieurs centres de recherche tels que les universités Johns Hopkins, à Baltimore, ou British Columbia, à Vancouver. Les résultats déjà obtenus laissent supposer que l'on disposera bientôt de modèles réalistes utilisables à plus grande échelle, et pourquoi pas dans le grand public pour palper les produits que l'on désire acheter lors d'un shopping virtuel sur Internet.

Parallèlement à leur mise au point et à leur perfectionnement, ces modèles ont été implantés sur des ordinateurs reliés à des dispositifs haptiques. Pour obtenir des illusions réalistes, et de plus concordantes avec les illusions visuelles produites sur l'écran de l'ordinateur, K. Salisbury et quelques autres ont proposé il y a quelques années2 d'utiliser une représentation locale simplifiée - à l'origine, un point et un plan tangent à l'objet - du contact entre l'outil virtuel et l'objet, ainsi que quelques astuces informatiques.

Fréquences incompatibles. Ainsi, l'un des premiers problèmes importants que nous avons rencontrés était la pénétration quasi systématique de l'extrémité de l'outil virtuel dans l'objet, même dans les cas d'interaction aussi simples que le contact d'un doigt sur un mur rigide. C'était évidemment contraire à la physique ! C'était aussi une source de conflits perceptifs entre la vue et le toucher. Comment y remédier tout en laissant une certaine flexibilité mécanique au dispositif haptique manipulé par l'opérateur ?

L'idée de base consiste à associer une double représentation à l'outil virtuel. Un premier point est positionné sur l'extrémité de cet outil. Il représente le « bout du doigt » et il peut pénétrer fictivement l'objet, du fait de l'écart qui existe entre le modèle informatique et la réalité physique. Un deuxième point est relié au premier par une liaison élastique plus ou moins souple. Son rôle est de représenter le « contact physique » en se positionnant sur la surface de l'objet palpé à proximité du bout du doigt : c'est ce point qui est figuré dans la représentation visuelle de la scène. L'écart entre ces deux points donne alors une indication sur la force qui est exercée par l'opérateur lors de la palpation de l'objet, et donc sur la force de réaction à engendrer. Cette technique, proposée dès 1994 par K. Salisbury, a ensuite été étendue par d'autres chercheurs au traitement de cas plus complexes impliquant des formes diverses, des états de surfaces variés3 et des déformations locales4.

Toutefois, lorsque nous avons voulu, justement, traiter des scènes plus complexes, par exemple le glissement d'un doigt sur une théière virtuelle ou la palpation d'un foie virtuel, une seconde difficulté a surgi. En effet, la création d'une sensation tactile réaliste nécessite la mise en oeuvre de modulations de forces opérant à une fréquence assez élevée. Typiquement, la perception humaine met en jeu des fréquences allant de 300 hertz pour des corps mous soit 300 stimuli par seconde, à 10 kilohertz pour des objets rigides. Les ordinateurs dont nous disposons aujourd'hui peuvent assez facilement réaliser les calculs nécessaires pour de telles fréquences, lorsque l'on manipule des formes géométriques simples et rigides. Mais, pour des scènes virtuelles mettant en jeu des objets complexes et des phénomènes dynamiques variés tels que des déformations, la simulation avec interaction haptique devient vite hors de portée du calcul informatique. Les algorithmes de simulation, qui fonctionnent au mieux à une fréquence compatible avec la vision soit de l'ordre de 25 hertz, sont trop complexes pour que l'on puisse les faire opérer à des fréquences dix, voire mille fois supérieures.

Comment atteindre la fréquence requise par l'interaction haptique, quelle que soit la complexité de la scène globale simulée et donc la lenteur du processus de simulation ? La première idée qui nous est venue à l'esprit était l'extrapolation des forces à envoyer au dispositif haptique, à partir des échantillons fournis par la simulation. Cependant, cette méthode peut donner des résultats aberrants dès que l'on rencontre trop de discontinuités, par exemple la rupture brusque d'un contact ou encore la rencontre d'arêtes vives.

Afin de contourner cette difficulté, certains chercheurs ont imaginé de séparer totalement les fonctions de simulation visuelle et de rendu haptique, en utilisant pour cela un modèle local évolutif du contact entre l'outil et l'objet4. Ce modèle local est mis à jour par un modèle global qui fonctionne à la fréquence de la simulation, et il utilise généralement des formes simples comme des plans ou des surfaces sphériques pour représenter la forme de l'objet virtuel à proximité de son contact avec l'outil fig. 2. Le modèle local est ensuite utilisé à haute fréquence par le système pour calculer les forces mises en jeu par l'interaction haptique. La qualité des résultats expérimentaux obtenus à ce jour avec ce procédé permet de penser que l'on devrait pouvoir l'utiliser pour passer le cap de la complexité, par exemple lors de la prise en compte d'applications comme la simulation chirurgicale5.

Modèle global. Nous avons déjà constaté, toutefois, qu'il faut compléter cette approche lorsque les scènes sont réellement très complexes et très dynamiques comme dans la réalité. Les solutions les plus performantes que nous appliquons aujourd'hui pour reproduire les effets de la dynamique et des interactions entre objets virtuels soit les forces, les déformations, le mouvement, etc. utilisentun modèle global qui possède lui-même deux composantes complémentaires6 : un modèle géométrique qui gère les formes et le rendu graphique, et qui détecte les collisions et les contacts entre les objets ; un modèle physique qui calcule les déformations, les forces d'interaction induites, et éventuellement les ruptures ou les découpes de matériaux. Actuellement, les simulateurs existants ne permettent de traiter, sur des ordinateurs de bureau, que des scènes de taille moyenne comportant surtout des objets rigides.

Bien que des premiers résultats expérimentaux impressionnants aient été récemment obtenus en laboratoire sur des scènes plus complexes incluant des objets très déformables en particulier sur des simulateurs chirurgicaux, nous devrons encore progresser pour pouvoir réellement changer d'échelle et trouver de tels systèmes dans notre vie quotidienne. Néanmoins, ces résultats montrent que la technologie haptique offre de très grandes potentialités pour les interactions de l'homme avec les systèmes robotiques ou virtuels. On peut espérer que dans quelques années, elle sera utilisée de manière courante en téléchirurgie et pourquoi pas, à plus long terme, pour agir chez soi à distance par le biais d'un robot domestique.

Par Christian Laugier, César Mendoza

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

DÉTECTION DES PARTICULES

 

Détection des particules texte intégral


 par Georges Charpak dans mensuel n°99 daté mai 2000 à la page 78 (6748 mots)
Pendant la dernière décennie, des changements révolutionnaires sont intervenus dans le domaine des constituants ultimes de la matière et de leurs interactions. Des dizaines de particules élémentaires de plus en plus massives ont été mises en évidence. Pour atteindre les seuils d’énergie nécessaires à la production de ces nouvelles particules, des accélérateurs très puissants ont été construits. Et pour pouvoir les observer, il a fallu modifier et même inventer des systèmes complexes pouvant identifier la particule recherchée, noyée dans un flux énorme d’autres particules. Ainsi naissent les détecteurs modernes, de dimensions parfois gigantesques, pesant plus d’un millier de tonnes, équipés de milliers de fils, et capables de rechercher ces événements rares qui recèlent la réponse à des questions fondamentales concernant la structure de la matière.

Il est désormais enseigné, dès les classes élémentaires du lycée, que la matière est constituée d’atomes, que chaque atome est constitué d’un noyau entouré d’électrons, que chaque noyau est constitué d’un nombre plus ou moins grand de neutrons et de protons. L’atome le plus simple est l’hydrogène, dont le noyau est un proton unique de charge positive, entouré d’un électron de charge électrique exactement opposée. Tous les atomes existants et leurs propriétés accessibles peuvent être décrits avec la plus extrême précision par ce modèle simple. Protons, neutrons et électrons sont les éléments de base de toute matière, mais il existe d’autres particules dont le nombre ne fait que croître à mesure des progrès de l’observation ou des intuitions théoriques audacieuses dont celle de Yukawa en 1935 fut exemplaire. En effet, Yukawa propose d’expliquer les forces qui lient un proton et un neutron dans le noyau par l’échange d’une particule inconnue, le méson p, qu’on identifiera quelques années plus tard, en 1945.

Pour observer ces particules, il faut d’abord les créer et pour cela il faut disposer d’une énergie équivalente au moins à la masse de la particule qui nous intéresse on sait depuis Einstein que la masse est une forme de l’énergie. Le processus de création de particules met en jeu le choc de deux particules appelées projectile et cible. Les premiers chocs ont été obtenus en utilisant les particules du rayonnement cosmique : le positron, le pion et les premières particules étranges sont ainsi observés. Mais le nombre de particules-projectiles fourni par les rayons cosmiques n’est pas suffisant ; alors entrent en jeu les accélérateurs en 1950. C’est ce choc des particules produites par les accélérateurs contre la matière nucléaire qui permet maintenant d’extraire des particules nouvelles.

Au fil des progrès permis par la construction d’accélérateurs de plus en plus puissants, le nombre des particules distinctes s’est enrichi de façon vertigineuse. Une particule se définit par sa masse, sa charge électrique positive, négative ou nulle, son moment intrinsèque de rotation, sa vie moyenne qui peut aller de l’infini à 10-23 secondes et une liste de propriétés liées à son mode d’interaction dont l’énoncé laisse le profane rêveur : l’étrangeté, le charme, la saveur, la couleur, dont les valeurs ne sont pas une quantité indéfinie comme le laisserait présager le caractère prosaïque de la dénomination mais sont limitées à des quantités entières bien précises, appelées nombres quantiques. Dans les collisions à hautes énergies 1, la nature nous révèle la variété des propriétés de centaines de particules différentes. Nous nous trouvons donc devant un florilège de particules dont les propriétés varient dans des limites défiant l’imagination et dont les masses pourraient dépasser celles des atomes les plus lourds. Ce qui caractérise la situation présente, c’est que ces particules se groupent principalement en deux types, les leptons qui comprennent des particules ayant des similitudes avec l’électron, et les hadrons dont les interactions sont du type de celles qui lient entre eux les neutrons et les protons dans les noyaux. Le miracle c’est qu’avec six composants élémentaires, les quarks, on a pensé expliquer toute la famille des hadrons, qui compte plus de trois cents particules distinctes.

Ces candidats bizarres au titre de particules élémentaires ne sont-ils pas étonnants ? Ils ont des propriétés qui eussent paru choquantes il y a peu de temps : leur charge électrique est un multiple de 1/3 de celle de l’électron mais ils se combinent pour former les hadrons d’une façon telle que l’on ne trouve que des valeurs entières ou nulles pour les particules observables. Il s’agit sans doute d’une révolution dans notre conception de la structure de la matière aussi décisive que la prise de conscience de la structure de l’atome ; elle repose sur l’acquis expérimental de ces dernières années qui doit certaines de ses étapes décisives aux nouveaux accélérateurs et aux nouveaux détecteurs.

Les accélérateurs étaient indispensables pour atteindre les seuils d’énergie nécessaires pour la production des nouvelles particules. Mais ce sont les détecteurs qui permettent d’observer ces particules nouvelles secondaires qui résultent du choc d’une particule initiale provenant d’un accélérateur contre la matière nucléaire, Les particules interagissent avec le milieu qu’elles traversent et y déposent une quantité infime de leur énergie. C’est cette énergie microscopique qui est détectée soit pour compter le nombre de particules d’une espèce bien connue, soit pour rendre visibles les trajectoires et identifier les particules de nature différente et parfois inconnue. L’évolution récente des détecteurs, qui est l’objet de cet article a été conditionnée par plusieurs facteurs : les questions nouvelles que se sont posées les physiciens, les conditions nouvelles créées par les nouveaux accélérateurs mis en oeuvre, les moyens nouveaux nés de l’évolution de la technologie et, parfois, l’esprit d’invention des physiciens. Lorsqu’un nouvel accélérateur entre en fonctionnement, il produit souvent en grande abondance des particules qui étaient rarissimes avec l’accélérateur de la génération précédente. L’événement sensationnel de celui-ci constitue désormais le bruit de fond de celui-là. Lorsque les réactions les plus abondantes, à une énergie donnée d’un accélérateur, ont été analysées, classées, confrontées aux théories, les expérimentateurs recherchent souvent les plus rares car elles recèlent la réponse à des questions fondamentales. Par exemple si une théorie implique l’interdiction d’une forme de désintégration pour une particule donnée, la violation, même avec une très faible probabilité de cette interdiction, peut avoir des implications immenses.

Ceci explique l’importance qui s’est attachée à la recherche de détecteurs capables d’encaisser des flux de plus en plus grands de particules afin de pouvoir observer les événements rarissimes qui sont souvent la réponse à des questions passionnantes. La tendance simultanée à produire beaucoup de particules en raison de l’augmentation de l’énergie disponible, a conduit à l’éclosion des détecteurs modernes qui sont capables de visualiser des réactions complexes aussi bien que certains détecteurs très lents qui ont été des instruments très féconds dans le passé, tout en étant capables de prises de données à des rythmes incroyablement plus élevés.

Je ne vais pas décrire l’énorme variété des détecteurs qui ont constitué l’arsenal du physicien à diverses étapes de l’évolution de la physique nucléaire : compteurs Geiger, compteurs proportionnels, compteurs à scintillation, compteurs Cerenkov, émulsions photographiques épaisses, détecteurs de radiation de transition, etc. Je décrirai les propriétés de détecteurs gazeux utilisés dans la majeure partie des expériences actuelles, et dont la découverte au CERN date de 1968. Pour localiser les particules qui traversent ces détecteurs, on exploite l’ionisation des gaz par les particules chargées qui interagissent avec la matière et créent des ions sur leur passage voir encadré. Un champ magnétique extérieur permet de déterminer la nature de la charge de la particule sens de la courbure de la trajectoire et son impulsion le rayon de courbure est proportionnel à l’impulsion de la particule. Dans les premiers détecteurs comme la chambre de Wilson, la chambre à bulles et la chambre à étincelles, les traces d’ionisation laissées par le passage d’une particule sont photographiées. On voit ainsi sur le cliché obtenu la trajectoire de la particule dont on peut identifier le signe et mesurer l’impulsion grâce au champ magnétique appliqué. Dans les détecteurs gazeux plus récents chambres multifils et chambres à dérive, l’électron arraché par la particule chargée aux atomes du gaz est multiplié par l’application d’un champ électrique jusqu’à une valeur qui permet à des circuits électroniques de détecter cette charge électrique et on obtient un point de la trajectoire. Grâce au calculateur, on reconstruit ensuite la trajectoire de la particule en mesurant de la même manière plusieurs points dans l’espace le long de son sillage. Le sens et le rayon de courbure de cette trajectoire dans un champ magnétique vont nous donner la charge et l’impulsion. Quant à l’identification de la particule, elle constitue un problème primordial et assez complexe dans la physique des hautes énergies : créer des nouvelles particules est une des tâches principales des nouveaux accélérateurs, mais il faut aussi pouvoir les identifier. C’est la raison pour laquelle le dispositif d’une expérience actuelle dans ce domaine de physique comprend tout un ensemble de détecteurs divers et de calculateurs "en ligne" qui ont comme tâche de "voir" naître une particule et de donner aux physiciens tous les renseignements nécessaires à son identification. Le rôle joué par les détecteurs gazeux dans ce processus d’identification est très important puisqu’ils permettent la localisation et la reconstruction de la trajectoire d’une particule dans l’espace. C’est pourquoi nous commencerons par décrire quelques grands ancêtres de ces détecteurs, puis suivre leur évolution dans le temps qui nous a conduit aujourd’hui aux détecteurs modernes utilisés aussi bien dans la physique des particules, que dans la cristallographie, la biologie ou la médecine.

De la minute à la seconde.

La chambre à brouillard, le premier détecteur inventé et construit par Wilson lui-même et un ou deux mécaniciens en 1912, permet de voir avec une grande finesse les trajectoires de particules chargées dans un gaz. Le milieu gazeux air qui remplit la chambre contient une vapeur eau qui est amenée soudainement dans des conditions de sursaturation par la détente d’un piston ; une partie de la vapeur doit alors se condenser sous forme de liquide. Or, cette condensation commence de façon préférentielle en des points qui constituent des germes susceptibles d’amorcer la formation des gouttelettes. Les particules qui traversent ce milieu créent de tels germes et la formation des gouttelettes débute le long de la trajectoire des particules chargées ionisantes. L’illumination des gouttelettes permet de photographier ainsi le sillage des particules ionisantes et la courbure de leur trajectoire dans un champ magnétique donne le signe de leur charge positive ou négative et leur quantité de mouvement. Une recompression ramène la chambre dans son état initial ; après une minute environ, l’équilibre thermique est rétabli et le détecteur prêt à refonctionner. Le rôle joué par ces chambres à brouillard a été immense. Parmi les découvertes faites avec cet outil, il suffit de citer le neutron 1932 et le positron 1933 ainsi que les premières particules "étranges" 1949 dans le rayonnement cosmique. Bien que l’image soit parfaite, deux défauts rendaient cette chambre inopérante pour les questions nouvelles posées par l’apparition en 1953 d’accélérateurs capables de produire abondamment les particules étranges. Les interactions sont produites dans une plaque externe à la chambre si bien que les détails de l’interaction au voisinage immédiat du point d’interaction ne sont pas visibles. D’autre part les chambres de grande taille ne peuvent être déclenchées et interrogées qu’une fois toutes les minutes, ce qui rend prohibitoire la recherche d’événements rarement produits.

La chambre à bulles, inventée par Glaser en 1952, a permis de partiellement corriger ces défauts. Dans cette chambre, le milieu liquide qui sert de cible à un faisceau externe de particules est amené brusquement, au moyen, de la détente d’un piston, dans un état où il devrait bouillir. Une particule incidente peut interagir avec un des noyaux du liquide. Les particules ainsi produites ionisent les molécules du liquide le long de leurs trajectoires et créent des germes à partir desquels démarre l’ébullition. Les bulles commencent à croître et lorsqu’elles atteignent une centaine de microns de diamètre, elles sont illuminées et photographiées. Une recompression ramène alors le détecteur dans l’état initial. Tous les détails du comportement des particules produites au voisinage du point d’interaction seront donc observés. La chambre est située dans un champ magnétique puissant et le sens de la courbure des trajectoires des particules permet l’identification du signe de leur charge. Il y a un côté miraculeux dans ce détecteur. En effet la particule qui le traverse porte une charge électrique très petite, elle a une masse 1023 fois plus petite que celle qui est contenue dans un cm3 du milieu traversé et elle produit cependant une perturbation énorme dans le milieu, aisée à détecter, en raison de l’état instable où se trouve ce milieu.

La chambre à bulles fut l’instrument privilégié pour l’étude des réactions dont la probabilité de production était grande et permit la découverte de nombreuses particules élémentaires. La possibilité d’utiliser comme milieu sensible un liquide ne contenant que le noyau le plus simple, l’hydrogène liquide, facilita l’interprétation des réactions. Dans la physique des neutrinos, les chambres à bulles ont disposé d’un terrain privilégié car les faisceaux primaires ne laissent une trace qu’en interagissant et cette interaction est précisément l’événement intéressant. On dispose de faisceaux de neutrinos suffisamment intenses, 1012/sec., pour que chaque cliché de chambre révèle une interaction. C’est avec la chambre à bulles GARGAMELLE qu’a été faite au CERN en 1973 une des découvertes les plus importantes de ces dernières années, l’existence de courants neutres dans les interactions faibles.

La qualité de l’image d’une chambre à bulles qui permet de livrer des détails très fins au voisinage du point d’interaction vertex est inégalée. Pour répondre à des interrogations d’actualité concernant les particules charmées qui se désintègrent à quelques centaines de microns de leur point de création, on fait aujourd’hui des chambres minuscules. Ces petites chambres de quelques cm3, rapides le taux de répétition peut être de 100 par seconde, sont uniquement destinées à "voir" le vertex de l’interaction ; ce sont des détecteurs extérieurs rapides qui donnent les coordonnées des trajectoires issues de la chambre à bulles et qui permettent de sélectionner les événements rares à photographier afin de ne pas être submergé par le nombre de clichés. Ces chambres sont actuellement en cours de développement. Et, au CERN, une équipe vient de mettre au point une méthode holographique de détermination de la position des bulles dans la chambre qui permet une précision de l’ordre de 10 microns dans la détermination des positions !

Une chambre à bulles peut être utilisée une fois par seconde. Son défaut est qu’elle ne peut pas être déclenchée pour ne détecter que des événements rarissimes, sélectionnés au préalable par des compteurs auxiliaires rapides, au milieu de flux intenses de particules. Une chambre à bulles ne peut pas tolérer plus de 20 particules incidentes, sinon il y a confusion entre les trajectoires des particules. Etant donné que la capacité d’analyse des photographies par tous les laboratoires européens, pourtant bien pourvus d’équipements coûteux, ne dépasse pas dix millions de photos par an, on voit qu’il n’est pas question de voir des événements dont la probabilité de production par des particules chargées est très inférieure à un millionième alors qu’avec les détecteurs gazeux une telle probabilité peut correspondre à un événement par seconde, ainsi qu’on va le voir.

La chambre à étincelles a été le premier relais pris par les détecteurs gazeux pour surmonter cette difficulté et se lancer à la recherche des réactions rares. Ce détecteur est constitué d’un certain nombre de plaques conductrices, parallèles, séparées par des intervalles d’un centimètre remplis d’un gaz noble à la pression atmosphérique. Lorsqu’une particule chargée traverse la chambre, elle crée dans le gaz des électrons qui subsistent pendant un temps assez court 1/10 de microseconde avant d’être balayés par le petit champ électrique qui est appliqué en permanence entre les plaques. Si pendant cet intervalle de temps, on applique une impulsion de tension, les électrons acquièrent une énergie qui leur permet d’ioniser eux-mêmes le gaz, créant de nouveaux électrons et on arrive à une multiplication telle avalanche qu’une étincelle visible est produite aux endroits où les électrons d’ionisation ont été créés. La photographie des étincelles brillantes dans une succession d’éléments, donne une image grossière de la trajectoire de la particule ionisante. Depuis l960 ce détecteur a permis de réaliser des découvertes importantes grâce à la "mémoire" de la chambre qui garde à l’état latent l’ionisation primaire dans un gaz, produisant une étincelle visible seulement si l’impulsion de tension est appliquée. Ainsi des compteurs auxiliaires très rapides pouvant prendre une décision en moins d’un dix millionième de seconde sélectionnent parmi les milliers de particules traversant les chambres l’événement rare qui mérite d’être enregistré ; le temps de réponse de ces compteurs étant inférieur à la durée de vie des électrons dans le gaz, permet d’appliquer la haute tension à la chambre à étincelles et de rendre visible cette interaction rare. Toutefois, il est impossible d’interroger la chambre plus d’une dizaine de fois par seconde. Les détecteurs gazeux actuels, faisant plein usage du développement de l’électronique, permettent d’améliorer ce rythme d’un facteur énorme. Ceci est indispensable pour l’étude des phénomènes rares faisant l’objet de la recherche contemporaine et qui sont cachés parmi une multitude de réactions banales. Mais avant de montrer quelques exemples typiques des détecteurs modernes, il sera utile de décrire quelques propriétés et deux structures de base, les chambres multifils et les chambres à dérive, que nous avons introduites au CERN en 1968.

Des fils tendus dans l’espace.

Lorsqu’une particule chargée électriquement traverse un gaz, elle arrache des électrons aux atomes du gaz. Si un champ électrique suffisamment intense agit sur ces électrons libres, ils peuvent acquérir assez d’énergie pour arracher à leur tour des électrons. Il est possible de réaliser des structures telles que cette multiplication soit juste limitée à une valeur qui permette à des circuits électroniques de détecter l’impulsion de charge électrique ainsi libérée. La position initiale de l’électron peut alors être déterminée de façons diverses que nous allons décrire. Si de multiples mesures sont effectuées le long de la trajectoire de la particule, on peut reconstituer, grâce au calcul, cette trajectoire.

Chaque élément d’une chambre multifils est constitué d’un plan A de fils fins placé en sandwich entre deux plans de fils plus gros. La chambre est remplie d’un gaz rare en général de l’argon dont la qualité essentielle est de laisser libres les électrons arrachés aux atomes par le passage des particules. Si un potentiel est appliqué au plan de fils fins A, par rapport aux fils plus gros C1 et C2, les électrons charge négative libérés dans le gaz sont "aspirés" par les fils de A. Or le champ électrique autour d’un fil varie en proportion inverse de la distance au fil, si bien que près du fil le champ est très intense et les électrons acquièrent assez de vitesse pour ioniser à leur tour le gaz ; sur une distance de 20 microns, avant d’être absorbés par le fil, ils peuvent ainsi produire une avalanche d’électrons et leur nombre est multiplié, par exemple d’un facteur un million. Une telle charge est aisément détectable et à première vue il semblerait à ceux qui sont familiers avec le simple compteur proportionnel, constitué d’un fil au centre d’un cylindre, et qui a été un outil de pointe dans les années trente, qu’il est élémentaire de penser que chaque fil est un détecteur indépendant.

La meilleure illustration de la complexité des phénomènes qui accompagnent une telle avalanche me semble donnée par l’image de la figure 3. Un faisceau de rayons X d’une énergie de 1,5 KeV illumine une plaque de cuivre dans laquelle ont été percées les lettres CERN ; les rayons X traversant l’espace vide constitué par les lettres sont absorbés dans le gaz de la chambre multifils où ils libèrent des électrons qui produisent des avalanches. Les signaux induits par les avalanches sont recueillis par une calculatrice qui à l’aide d’une console de visualisation nous donne une image bi-dimensionnelle x, y parfaite. Il est donc clair que si de tels plans de fils sont placés le long des trajectoires des particules chargées, qui libèrent dans le gaz des électrons exactement comme le font les rayons X, on aura une série de points dans l’espace qui permettent de calculer la trajectoire. Si celle-ci est courbée en raison de la présence d’un champ magnétique il faudra au moins trois points pour avoir la trajectoire. En fait, il en faudra en général beaucoup plus si la figure est complexe et si les trajectoires se croisent. C’est la différence avec un détecteur comme la chambre à bulles où l’information est continue. La révolution dans le coût des composants électroniques, qui a coïncidé avec l’introduction de ces détecteurs, a permis toutefois la réalisation de systèmes de mesure très complexes dont on verra un exemple plus loin. Mais il peut arriver que le nombre d’éléments de mesure nécessaire soit tel que le coût devienne rédhibitoire; dans le cas par exemple où il faut un hectare de surface utile, cela demande des millions de fils équipés de circuits complexes. Une brève description du premier détecteur géant, construit en 1974 et faisant un plein usage des possibilités offertes par les chambres à fils, illustrera la nouvelle approche permise dans l’étude des réactions complexes sub-nucléaires.

Les palpeurs d’une calculatrice géante.

Dans les ISR, les anneaux de collision du CERN, des bouffées de protons d’une énergie de 30 GeV circulent dans des tubes, qui se croisent huit fois en des régions où les faisceaux se heurtent de front. Autour de ces intersections, les physiciens disposent les chambres à fils aux endroits où les particules, produites par les réactions qu’ils cherchent à étudier, ont le plus de chance de passer. Ces détecteurs envoient leurs signaux à des calculatrices qui gèrent l’expérience. Le tout est aménagé dans un aimant afin de connaître la charge électrique des particules et de mesurer, par la courbure de la trajectoire, leur impulsion. 50 000 événements sont ainsi produits par seconde, mais un groupe de physiciens peut ne s’intéresser qu’à un type d’événement très rare ; qui se produit par exemple une fois par jour ! Il lui faudra donc, pour caractériser l’événement, imposer des conditions draconiennes à l’électronique du détecteur pour que celui-ci ne livre qu’une fraction infime des événements à la calculatrice géante qui les analysera et dont le temps est très coûteux.

Un événement rare typique obtenu par le détecteur décrit plus haut est illustré par le cliché initial de cet article résultat du choc d’un proton de 30 GeV contre un proton de même énergie , lancé en sens opposé. Le choix logique imposé à l’électronique, pour l’ouverture des portes libérant l’entrée des mémoires de la calculatrice, est ici dicté par la détection d’un électron de grande énergie émis à un grand angle par rapport à la direction des faisceaux. Au terme d’un mois de prise de données, on pourra ainsi se retrouver avec une centaine d’événements significatifs. C’est la propriété de ces détecteurs de permettre la sélection d’événements rares dans un fond intense qui a été à la base de la découverte des principales particules qui ont marqué le récent tournant de la physique des particules : les J en 1974 et les Upsilon en 1977. Dans ces deux cas la particule était caractérisée, pour le choix des portes d’ouverture, par la désintégration en deux leptons. La mesure des trajectoires de ces leptons dans des champs magnétiques grâce à des chambres multifils a permis de déterminer la masse de la particule initiale qui apparaît comme un pic significatif dans un océan de bruit de fond.

La complexité d’un événement reconstitué rivalise avec celui qui est détecté par une chambre à bulles. Il faut toutefois se garder d’une illusion. Il arrive que la calculatrice soit incapable de reconstruire les trajectoires sans ambiguïté. Pour un événement rarissime isolé, un doute pourra donc subsister quant à sa réalité. En ce qui concerne leur précision, les détecteurs à fils sont inférieurs aux chambres à bulles mais avec les chambres à dérive, que nous allons décrire, ils deviennent compétitifs également dans les mesures de haute précision.

Cette course à la précision a une importance avec l’augmentation de l’énergie des particules. Il faut souvent déterminer l’impulsion des particules à partir de la courbure de leur trajectoire dans un champ magnétique. Ces trajectoires sont d’autant plus "raides" que la vitesse est grande. Un détecteur précis permet alors de mesurer la courbure sur des distances plus petites. Le caractère gigantesque des détecteurs en physique des hautes énergies est souvent lié à la nécessité d’avoir une trajectoire assez longue dans un champ magnétique pour que la courbure puisse être mesurée avec une précision suffisante à l’établissement d’un bilan précis des impulsions dans une réaction. Les chambres à dérive sont à la base de ces détecteurs géants car elles donnent une grande précision et pour une même surface nécessitent beaucoup moins de fils que les chambres multifils.

Localiser une particule à quelques microns près.

Le temps d’apparition de l’impulsion sur un fil de compteur proportionnel est strictement lié à la position initiale des électrons libres dans les gaz; au CERN, en 1968, nous avons montré qu’en exploitant cette propriété, on pouvait obtenir une précision de 100 microns dans la localisation des particules. En mesurant le temps de migration des électrons à partir d’un temps initial donné par des compteurs très rapides, ou par l’accélérateur lui-même s’il fonctionne en bouffées brèves, on peut obtenir la distance au fil avec précision. Or il est aisé, dans des gaz convenables, de déplacer les électrons libérés sur des distances de plusieurs mètres, dans des champs électriques faibles. On peut ainsi réaliser des détecteurs simples, de très grande surface, où un nombre très réduit de fils détecteurs permet d’obtenir la précision désirée avec une grande économie de circuits électroniques. Un exemple de ces détecteurs est le détecteur géant des neutrinos, réalisé au CERN en 1976. Il est constitué d’une masse de fer de 1 500 tonnes cible, où sont intercalés des systèmes de mesure de l’énergie et de la trajectoire des particules chargées, créées lors de l’interaction des neutrinos avec les protons et les neutrons du fer.

La simple comparaison des masses, 1 500 tonnes contre 35 de la chambre à bulles GARGAMELLE, indique pourquoi un tel détecteur est plus approprié à la recherche de phénomènes rares dans les interactions déjà rarissimes des neutrinos; en effet un faisceau de 1012 neutrinos de 1 GeV traversant 1 tonne de fer n’a que 1 chance sur 100 de produire un choc détectable. Certes, la qualité de l’image au vertex est incomparablement moins bonne mais aux très hautes énergies cela n’est souvent pas utile, et, de plus, des observations essentielles peuvent être obtenues par les détecteurs variés associés à ceux qui mesurent seulement les trajectoires.

L’énorme surface des détecteurs destinés à mesurer les coordonnées, qui atteint ici 2 400 mètres carrés et qui se mesure en hectare pour certains détecteurs envisagés, a conduit au règne incontesté des chambres à dérive pour les grands systèmes. Ces chambres permettent une précision inférieure au millimètre, avec des fils qui sont distants de 5 cm. Avec les chambres multifils du détecteur précédent, dont chaque fil, espacé de 2 mm nécessite une électronique indépendante, le coût eut été prohibitif et la capacité énorme de taux de comptage inutile, puisque les neutrinos n’engorgent pas aisément un détecteur. Après l’étude de la structure subnucléaire, les détecteurs multifils et les chambres à dérive escaladent l’échelle des dimensions.

Résoudre la structure spatiale des molécules.

Une des applications les plus importantes en vue, avec les chambres à fils, est sans doute l’étude de la structure spatiale des molécules complexes comme les protéines. Elle a donné lieu à une entreprise commune entre une équipe du CERN et diverses équipes de cristallographes et biologistes à Orsay, au MIT et au Max Planck Institut à Munich, dès 1975.

A Orsay, on dispose aujourd’hui, grâce à la radiation de synchrotron des anneaux de stockage à électrons, de sources de rayons X d’intensité 1000 fois supérieure à celle des sources classiques. Les molécules dont on veut étudier la structure doivent être cristallisées. Le cristal irradié par un faisceau monochromatique de rayons X diffracte une énorme quantité de fins pinceaux de rayons X dans des directions privilégiées, qui dépendent de la structure du cristal et de la position des atomes dans la molécule. L’image produite pour une position donnée du cristal peut être assez complexe. L’intensité des tâches de diffraction obtenues pour une rotation complète du cristal permet aux cristallographes de remonter à la structure spatiale de la molécule. Lorsque l’information est obtenue à partir de clichés sur pellicule photographique, la tâche du dépouillement peut être formidable et demande des années de travail en raison du manque de sensibilité de la pellicule photographique et de son incapacité à fournir une information d’intensité précise dans une large gamme. il y a moins de 100 protéines dont la structure spatiale a été résolue - et il y en a des milliers dont l’étude est intéressante !

La chambre proportionnelle, en cours de développement à Orsay, devrait permettre de gagner près d’un facteur 1 000 dans ce temps d’enregistrement des clichés car chaque photon X est détecté individuellement au rythme de cent mille par seconde. Cette chambre pourrait être une étape pour des développements ultérieurs dans d’autres domaines. En effet, le fait qu’un seul photon soit détectable et localisable implique qu’il n’existe aucun système qui permette de surpasser celui-ci en matière de sensibilité. La taille des mailles du réseau cristallin détermine la longueur d’onde de la radiation pour la mesure de diffraction à des angles utilisables. Or, à partir de 3 Å, les rayons X sont très absorbables et ne peuvent plus traverser un cristal, même petit. Mais on sait qu’une longueur d’onde est associée à toutes les particules. C’est ce caractère ondulatoire qui est exploité par exemple dans les microscopes à électrons. On peut aussi utiliser les neutrons pour produire la diffraction dans les cristaux, car même des cristaux de très grande taille sont pratiquement transparents aux neutrons lents. Les faisceaux intenses de neutrons disponibles auprès de piles atomiques de recherche, conçues spécialement pour cela, comme la pile européenne de Grenoble, ont donné un grand essor à cette méthode d’étude. Les applications ne se bornent pas aux études des molécules : des structures régulières peuvent être étudiées à l’aide des neutrons lents et pour cela encore les structures multifils constituent l’outil privilégié.

Des détecteurs pour l’étude des tissus humains.

Alors que pour la cristallographie le domaine d’énergie des rayons X est voisin de 10 KeV, en médecine, l’intérêt n’apparaît que vers 25 KeV, même pour des tissus mous comme les seins, car aux énergies inférieures, les tissus sont opaques. Or, c’est précisément là que le problème de la dose est le plus crucial, en particulier pour les examens de dépistage préventif. Des méthodes admirables de sensibilité comme la mammographie de seins par xérographie, sont contestées en raison des doses infligées. On peut passer de 10 KeV à 25 KeV au prix de quelques développements supplémentaires : chambres pressurisées, pour avoir une efficacité de 100 % ; électronique beaucoup plus rapide, pour limiter le temps de mesure. Mais dans ce domaine, ne sommes-nous pas habitués à un développement sensible d’année en année ?

La précision exigée en médecine est en général bien supérieure à 1 mm, précision qu’on obtient avec la chambre décrite précédemment. Mais la géométrie sphérique de la chambre conduit précisément à une amplification de l’image. Pour un objet de la taille d’un sein, un gain 10 est parfaitement réalisable. Le fait que l’image soit obtenue sous forme de coordonnées stockées dans une calculatrice donne un pouvoir formidable d’analyse de l’image qui n’existe pas dans une méthode photographique. On peut à volonté passer de l’image du type émulsion photographique à l’image du type xerox où les contrastes sont exaltés.

Certes, le développement que je viens de mentionner semble ardu et coûteux. Mais l’expérience prouve que lorsque aujourd’hui une technique permet de répondre à un besoin dans un domaine important en médecine ou ailleurs, elle ne tarde pas à se développer. La radiographie assistée par les calculatrices les "scanners" en est un exemple car il a fallu près de dix années d’efforts à de nombreuses équipes et des investissements considérables pour arriver à l’instrument de routine qui a révolutionné la radiographie par rayons X en exploitant de façon optimale les propriétés d’absorption des rayons X combinées avec les possibilités nouvelles offertes par l’électronique moderne.

Une approche nouvelle de la radiographie, née au CERN en 1974, exploite non plus les rayons X mais les faisceaux de protons rapides et utilise les chambres, multifils. La méthode repose sur la détection et la localisation des protons incidents et émergeant d’une cible et les chambres donnent avec précision les points d’interaction des protons. La densité des points d’interaction donne dans l’espace la distribution des densités de la matière diffusante. Le développement d’une installation permettant d’appliquer cette méthode à des êtres vivants est en cours à Saclay auprès de l’accélérateur Saturne. Pour avoir une image en un temps compatible avec les exigences de la radiographie d’êtres vivants, un développement exceptionnel des détecteurs proportionnels est en cours, qui exigera sans doute des performances de rapidité qui ne sont même pas atteintes actuellement dans les expériences de physique nucléaire.

Une technique encore en pleine évolution !

Mais en 1978 une étape a été franchie au CERN dans le domaine des détecteurs gazeux, qui a ouvert des perspectives nouvelles dans tous les domaines d’applications : visualisation des trajectoires, détecteurs de neutrons, détecteurs de rayons X, détecteurs d’ultraviolet lointain et c’est par une brève présentation de ces innovations que je veux terminer cet article.

En physique des hautes énergies, il est fréquent qu’un détecteur soit utilisé à la limite de ses capacités de comptage lorsque l’on désire étudier des phénomènes rarissimes noyés dans un bruit de fond intense. Les chambres proportionnelles ont deux limitations : leur "mémoire", qui est de 100 milliardièmes de seconde, qui est le temps nécessaire pour que les électrons libérés par de vieilles traces, n’ayant pas de rapport avec l’événement intéressant, soient absorbés par les électrodes, et l’"asphyxie" produite par la concentration des atomes ionisés qui sont éliminés beaucoup plus lentement que les électrons par le champ électrique en raison de leur masse plus lourde. La première limitation ne permet pas de dépasser 107 impulsions par seconde pour toute la chambre, car déjà une impulsion sur deux est fortuite et n’est pas corrélée à l’événement intéressant, tandis que la deuxième ne permet pas de dépasser 106 coups par seconde par centimètre carré. Suivant la taille de la chambre ou des faisceaux, c’est l’une ou l’autre des limitations qui empêchera d’augmenter l’intensité. Pour surmonter cet obstacle nous avons imaginé de réaliser l’amplification des électrons en deux étapes : les électrons d’ionisation sont d’abord amplifiés entre deux grilles parallèles, d’un facteur mille environ. L’avalanche d’électrons ainsi produite est ensuite transportée dans un espace de dérive de 1 cm environ sous l’influence d’un champ électrique adéquat, puis transférée dans une chambre multifils où elle reçoit une amplification supplémentaire d’un facteur 1 000 également. La différence essentielle, par rapport à une chambre à fils donnant directement le gain de 1 million, tient au fait que dans l’espace de dérive, une grille de contrôle est placée à un potentiel tel qu’elle bloque les électrons, sauf si une impulsion électrique brève, de largeur 30 milliardièmes de secondes, lui est appliquée. Si on s’intéresse à des événements rares sélectionnés par des compteurs auxiliaires, on conçoit que la chambre terminale, qui sert à la localisation, n’amplifiera au gain maximum qu’un nombre réduit de particules, par exemple un pour mille du faisceau incident. Ceci évite donc l’"asphyxie" par les atomes Ionisés trop lents à diffuser. Cette approche nouvelle s’est avérée ouvrir beaucoup plus de possibilités que nous ne l’escomptions lorsqu’elle fut introduite en 1978. Elle permet par exemple des gains suffisants pour détecter un électron libéré dans le gaz par l’absorption d’un photon ultraviolet. Il apparaît que ces chambres sont de façon inattendue un détecteur prometteur pour obtenir des images de ces photons, par exemple en astrophysique. En physique des hautes énergies, une application immédiate a été trouvée en 1980, grâce à l’image de la distribution des photons ultraviolets émis par une particule rapide dans les gaz, par effet Cerenkov 2. Pour une vitesse donnée, ces photons sont émis sous un angle constant par rapport à la trajectoire et avec une optique appropriée, on peut focaliser ces photons sur une chambre à étages multiples qui se concentrent sur un cercle dans le plan du détecteur. La précision obtenue va permettre de séparer des particules de masses distinctes. Cette identification est souvent indispensable dans beaucoup d’expériences avec les particules élémentaires.

Parmi les autres applications inattendues de ce détecteur, citons un progrès notable dans la chromatographie des molécules radioactives sur papier et dans l’imagerie des neutrons lents. Dans les deux cas le progrès est dû à une propriété particulière des structures amplificatrices à faces parallèles : les électrons libérés près de la surface de la cathode subissent une amplification plus grande que ceux qui sont produits n’importe où dans l’intervalle entre les deux électrodes. Par exemple, si la distance est de 5 mm et que la distance moyenne, pour qu’un électron acquière assez d’énergie dans le champ électrique pour arracher un autre électron, est 0,5 mm, un électron qui est libéré à la cathode produira 210 = 1 024 électrons à l’anode, tandis qu’un électron produit au milieu n’en produira que 25 = 32. Si un électron énergique, capable de parcourir par exemple 1 cm dans le gaz, pénètre dans la chambre, il en résulte que les électrons produits près de la cathode, donneront la majeure partie du signal final recueilli. Une méthode de localisation qui donne le centre de gravité des charges amplifiées aura donc tendance à donner la coordonnée de l’intersection entre la trajectoire et la cathode. Or, dans certaines applications on dispose de sources planes émettant des électrons et il est tentant de localiser leur distribution en les plaçant contre une chambre proportionnelle. L’ennui est que les électrons de la source ayant un parcours de 1 cm ou plus, la précision ne peut être bonne, sauf avec ces structures parallèles qui donnent la préférence au point d’entrée. Ceci est le cas avec la chromatographie sur papier.

Cette technique, utilisée couramment en chimie, repose sur le fait que la vitesse des molécules migrant dans un papier imbibé spécial, dont une extrémité trempe dans une solution contenant un mélange de molécules, dépend de la masse des molécules. Après un certain temps, si on place le papier sur une pellicule photographique, les électrons émis par la molécule marquée permettent de repérer la position des molécules d’un certain type, concentrées en une ligne. On peut également faire migrer les molécules de masses différentes, avec des vitesses différentes, grâce à un champ électrique. En plaçant le même papier contre une chambre multiétages, on a une sensibilité énorme par rapport au film, avec une précision de localisation meilleure que 1 mm. Les résultats obtenus au CERN en 1980 montrent que là où une pose de dix jours était nécessaire avec le film, le même résultat est obtenu en 10 minutes avec une information quantitative meilleure.

Pour la détection des neutrons lents c’est la même "astuce" qui est utilisée avec la même chambre. Des films de gadolinium minces absorbent les neutrons lents en réémettant des électrons dont la localisation est assurée de la même manière que dans la chromatographie. Une précision meilleure que 1 mm a été obtenue avec des taux de comptage qui ouvrent des perspectives nouvelles à toutes les méthodes utilisant l’imagerie de neutrons lents.

Si l’on a eu le privilège de regarder le paysage des aires expérimentales en physique des hautes énergies pendant le dernier quart de siècle, on ne peut qu’être frappé par la vitesse des changements malgré la lourdeur des investissements nécessaires à une expérience. Peut-on déceler l’approche de nouveaux détecteurs plus précis, plus rapides ? Les détecteurs basés sur les semi-conducteurs ont jusqu’à présent été décevants en raison de leur prix considérable. Mais avec l’effort énorme entrepris sur divers matériaux semi-conducteurs utilisés pour capter l’énergie solaire, il est possible que des percées technologiques dans ce domaine rendent caducs les détecteurs basés sur l’amplification électronique dans les gaz. Les quelques physiciens des hautes énergies, que l’on voit déjà jouer avec ces matériaux, préparent donc peut-être la relève et s’il faut les croire le décimètre carré avec une précision de 20 microns dans la localisation est en vue. Mais les hectares de détecteurs ne seront pas prêts pour la prochaine génération d’accélérateurs, dans dix ans, et les détecteurs gazeux de particules à amplification électronique dans le gaz constitueront sans doute encore une composante majeure des systèmes d’observation de l’infiniment petit subnucléaire.

Par Georges Charpak

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LACS GLACIERES

 

La dangereuse vidange des lacs glaciaires


terre - par Fabienne Lemarchand dans mensuel n°356 daté septembre 2002 à la page 16 (1240 mots) | Gratuit
Les glaciers fondent à un rythme soutenu sur tous les continents. Gorgés d'eau, les lacs qu'ils alimentent en altitude menacent d'inonder les habitants des vallées dans les cinq à dix ans à venir. En toile de fond, une question désormais récurrente : ces vidanges glaciaires sont-elles liées au réchauffement climatique annoncé ?

Les glaciers de montagne sont extrêmement sensibles aux variations du climat. Ils grossissent ou maigrissent au gré des chauds et froids. La dernière grande crue remonte au petit âge glaciaire, une période qui a sévi du XVIe siècle à 1850 environ. Depuis, tous les glaciers ont reculé. Dans les Alpes, ils ont perdu le tiers de leur volume de 1820I. La diminution n'a toutefois pas été continue. Ainsi, s'ils ont fortement régressé entre 1942 et 1953, les glaciers alpins ont avancé entre 1954 et 1982. Depuis vingt ans, ils reculent à nouveau. Le glaciologue suisse Frank Paul, de l'université de Zurich, a montré, images satellitaires à l'appui, que la surface des glaciers alpins diminuait en moyenne de 1,5 % chaque année depuis 19851. La situation est comparable dans les Andes, où les petits glaciers ceux qui mesurent moins de 1 kilomètre de long ont perdu près des trois quarts de leur surface en moins d'un siècleII.

Lave torrentielle. Selon une étude menée récemment par une équipe de l'US Geological Survey et de la NASA dans le cadre du programme international Glims*, les glaciers himalayens, qui perdent en moyenne 30 à 40 mètres chaque année, connaissent un recul encore plus rapide2. Dans un rapport paru en avril, le Programme des Nations unies pour l'environnement PNUE et le Centre international de mise en valeur intégrée des montagnes Icimod* se sont inquiétés des risques engendrés par cette fonte massive. Très souvent, l'eau de fonte s'accumule au pied du glacier : comme c'est le cas cette année sur le versant est du mont Rose italien, un lac se forme entre le front de la langue glaciaire et une sorte de barrage naturel constitué de débris rocheux et de glace laissés par le glacier à une période plus faste photo ci-contre. Trop plein, ce lac peut déborder, voire se vider totalement en cas de rupture du barrage, déversant des millions de mètres cubes d'eau dans les vallées environnantes on parle de « lave torrentielle ». Déjà, en août 1985, la vidange soudaine du Dig Tsho, dans l'est du Népal, avait détruit 14 ponts et provoqué 1,5 million de dollars de dégâts. Une quarantaine au moins de lacs glaciaires du Népal et du Bhoutan seraient dans une situation préoccupante et pourraient se vider dans les cinq à dix ans qui viennent, mettant en danger des dizaines de milliers de vies humaines3.

« Ces phénomènes de vidange ont toujours existé et sont bien connus des glaciologues. Ils se produisent à chaque période de récession glaciaire », rappelle Louis Reynaud, du laboratoire de glaciologie et de géophysique de l'environnement de Grenoble LGGE. De fait, plusieurs dizaines d'accidents ont été recensés au cours du siècle dernier dans les Alpes ou dans les Andes, où de nombreux lacs sont apparus à la fin du petit âge glaciaire. L'un des plus meurtriers eut lieu en 1970, dans la Cordillère blanche, au Pérou : 18 000 personnes périrent et la ville de Yungay fut entièrement détruite par une gigantesque coulée boueuse.

De telles catastrophes ont ponctué l'histoire de la Terre. Les géologues en ont retrouvé la trace dans les dépôts sédimentaires. Ainsi, à la fin de la dernière période glaciaire, il y a environ 20 000 ans, la région de Channeled Scabland, dans l'Etat de Washington, aux Etats-Unis, fut totalement inondée, probablement en raison de la rupture soudaine d'un gigantesque lac glaciaire. Le débit des coulées boueuses aurait atteint 20 millions de mètres cubes par seconde !4

Il est possible de se prémunir contre de telles catastrophes en aménageant un canal afin de réaliser des vidanges contrôlées et évacuer le trop-plein d'eau. Un tel exutoire a été installé en 1986 sur le glacier d'Arsine, dans le massif des Ecrins Hautes-Alpes5. Un autre est en cours de construction sur le Tsho Rolpa, un lac situé à 4 580 mètres d'altitude, à une centaine de kilomètres au nord-est de Katmandou Népal. A la fin des années 1960, ce lac himalayen ne formait qu'un petit bassin de 0,23 km2. Sa superficie a depuis décuplé, en raison de la fonte rapide du glacier de Tradkarding, et il s'étend aujourd'hui sur 1,68 km2. Si la digue naturelle de roches et de glace qui le retient venait à céder, quelque 80 millions de mètres cubes d'eau se déverseraient dans les vallées voisines de Rolwaling et de Tama Koshi, où vivent plus de 10 000 personnes... Un accord entre les gouvernements népalais et néerlandais a été signé en 1998 pour la construction d'un canal régulateur et l'installation d'un réseau de capteurs et de sirènes afin que les 19 villages menacés soient alertés en cas de montée intempestive des eaux. L'objectif ? Abaisser le niveau du lac d'une trentaine de mètres. Reste que le coût d'une telle opération près de 3 millions de dollars est prohibitif. Et seule une aide internationale de grande ampleur permettrait d'effectuer des travaux comparables sur les lacs les plus dangereux comme sur le Rapshtreng Tsho, au Bhoutan, dont la superficie est passée de 1,54 km2 en 1986 à 2,2 km2 aujourd'hui.

Données insuffisantes. Plus personne ne le conteste : les glaciers du monde entier reculent depuis 1820. Mais les causes de ce retrait restent mal comprises : signe-t-il le réchauffement climatique prédit par les modèles ? Ou résulte-t-il de fluctuations naturelles du climat ? « Pour l'heure, il est impossible de trancher car l'ampleur réelle du retrait reste mal connue », précise Christian Vincent, du LGGE. « Elle est en général déduite des variations de longueur et de surface des glaciers. Celles-ci sont faciles à mesurer sur les cartes topographiques ou les images satellitaires. Malheureusement, elles n'offrent pas une image directe des fluctuations climatiques. Seules les variations du volume des glaciers sont significatives. » Et pour accéder à ce paramètre, il faut mesurer très précisément l'épaisseur de la glace. Ce qui n'est pas sans poser quelques problèmes pratiques, notamment dans l'Himalaya où les glaciers, généralement situés à plus de 4 000 mètres d'altitude, restent parmi les moins connus de la planète. « Ces données sont rares et pas suffisamment anciennes. Elles ne remontent qu'à 1946 pour la Scandinavie et à 1949 pour les Alpes. Ailleurs, elles sont quasi inexistantes », poursuit le glaciologue.

Les mesures réalisées de façon systématique sur quelques glaciers alpins depuis une vingtaine d'années par Christian Vincent et ses collègues ont montré que le volume glaciaire est étroitement corrélé aux précipitations en particulier hivernales et au bilan énergétique en surface en gros des températures estivales6. Autre constat, le recul des vingt dernières années, bien que d'amplitude comparable à celui des années 1942-1953, n'est pas de même nature. Les faibles précipitations hivernales et les étés chauds avaient alors joué de concert pour faire reculer les glaciers tandis qu'une succession d'étés exceptionnellement chauds suffit à expliquer le retrait actuel. Enfin, « le recul des glaciers alpins déduit de ces variations de volume est deux fois moins important que celui déduit des simples mesures de surface », conclut Christian Vincent. En d'autres termes, les glaciers fondent mais peut-être moins que ne le laissaient supposer les observations de surface. Si ces résultats se confirment, les projections pour le XXIe siècle devront elles aussi être revues à la baisse.

Par Fabienne Lemarchand

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google