ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

DÉTECTION DES PARTICULES

 

Détection des particules texte intégral


 par Georges Charpak dans mensuel n°99 daté mai 2000 à la page 78 (6748 mots)
Pendant la dernière décennie, des changements révolutionnaires sont intervenus dans le domaine des constituants ultimes de la matière et de leurs interactions. Des dizaines de particules élémentaires de plus en plus massives ont été mises en évidence. Pour atteindre les seuils d’énergie nécessaires à la production de ces nouvelles particules, des accélérateurs très puissants ont été construits. Et pour pouvoir les observer, il a fallu modifier et même inventer des systèmes complexes pouvant identifier la particule recherchée, noyée dans un flux énorme d’autres particules. Ainsi naissent les détecteurs modernes, de dimensions parfois gigantesques, pesant plus d’un millier de tonnes, équipés de milliers de fils, et capables de rechercher ces événements rares qui recèlent la réponse à des questions fondamentales concernant la structure de la matière.

Il est désormais enseigné, dès les classes élémentaires du lycée, que la matière est constituée d’atomes, que chaque atome est constitué d’un noyau entouré d’électrons, que chaque noyau est constitué d’un nombre plus ou moins grand de neutrons et de protons. L’atome le plus simple est l’hydrogène, dont le noyau est un proton unique de charge positive, entouré d’un électron de charge électrique exactement opposée. Tous les atomes existants et leurs propriétés accessibles peuvent être décrits avec la plus extrême précision par ce modèle simple. Protons, neutrons et électrons sont les éléments de base de toute matière, mais il existe d’autres particules dont le nombre ne fait que croître à mesure des progrès de l’observation ou des intuitions théoriques audacieuses dont celle de Yukawa en 1935 fut exemplaire. En effet, Yukawa propose d’expliquer les forces qui lient un proton et un neutron dans le noyau par l’échange d’une particule inconnue, le méson p, qu’on identifiera quelques années plus tard, en 1945.

Pour observer ces particules, il faut d’abord les créer et pour cela il faut disposer d’une énergie équivalente au moins à la masse de la particule qui nous intéresse on sait depuis Einstein que la masse est une forme de l’énergie. Le processus de création de particules met en jeu le choc de deux particules appelées projectile et cible. Les premiers chocs ont été obtenus en utilisant les particules du rayonnement cosmique : le positron, le pion et les premières particules étranges sont ainsi observés. Mais le nombre de particules-projectiles fourni par les rayons cosmiques n’est pas suffisant ; alors entrent en jeu les accélérateurs en 1950. C’est ce choc des particules produites par les accélérateurs contre la matière nucléaire qui permet maintenant d’extraire des particules nouvelles.

Au fil des progrès permis par la construction d’accélérateurs de plus en plus puissants, le nombre des particules distinctes s’est enrichi de façon vertigineuse. Une particule se définit par sa masse, sa charge électrique positive, négative ou nulle, son moment intrinsèque de rotation, sa vie moyenne qui peut aller de l’infini à 10-23 secondes et une liste de propriétés liées à son mode d’interaction dont l’énoncé laisse le profane rêveur : l’étrangeté, le charme, la saveur, la couleur, dont les valeurs ne sont pas une quantité indéfinie comme le laisserait présager le caractère prosaïque de la dénomination mais sont limitées à des quantités entières bien précises, appelées nombres quantiques. Dans les collisions à hautes énergies 1, la nature nous révèle la variété des propriétés de centaines de particules différentes. Nous nous trouvons donc devant un florilège de particules dont les propriétés varient dans des limites défiant l’imagination et dont les masses pourraient dépasser celles des atomes les plus lourds. Ce qui caractérise la situation présente, c’est que ces particules se groupent principalement en deux types, les leptons qui comprennent des particules ayant des similitudes avec l’électron, et les hadrons dont les interactions sont du type de celles qui lient entre eux les neutrons et les protons dans les noyaux. Le miracle c’est qu’avec six composants élémentaires, les quarks, on a pensé expliquer toute la famille des hadrons, qui compte plus de trois cents particules distinctes.

Ces candidats bizarres au titre de particules élémentaires ne sont-ils pas étonnants ? Ils ont des propriétés qui eussent paru choquantes il y a peu de temps : leur charge électrique est un multiple de 1/3 de celle de l’électron mais ils se combinent pour former les hadrons d’une façon telle que l’on ne trouve que des valeurs entières ou nulles pour les particules observables. Il s’agit sans doute d’une révolution dans notre conception de la structure de la matière aussi décisive que la prise de conscience de la structure de l’atome ; elle repose sur l’acquis expérimental de ces dernières années qui doit certaines de ses étapes décisives aux nouveaux accélérateurs et aux nouveaux détecteurs.

Les accélérateurs étaient indispensables pour atteindre les seuils d’énergie nécessaires pour la production des nouvelles particules. Mais ce sont les détecteurs qui permettent d’observer ces particules nouvelles secondaires qui résultent du choc d’une particule initiale provenant d’un accélérateur contre la matière nucléaire, Les particules interagissent avec le milieu qu’elles traversent et y déposent une quantité infime de leur énergie. C’est cette énergie microscopique qui est détectée soit pour compter le nombre de particules d’une espèce bien connue, soit pour rendre visibles les trajectoires et identifier les particules de nature différente et parfois inconnue. L’évolution récente des détecteurs, qui est l’objet de cet article a été conditionnée par plusieurs facteurs : les questions nouvelles que se sont posées les physiciens, les conditions nouvelles créées par les nouveaux accélérateurs mis en oeuvre, les moyens nouveaux nés de l’évolution de la technologie et, parfois, l’esprit d’invention des physiciens. Lorsqu’un nouvel accélérateur entre en fonctionnement, il produit souvent en grande abondance des particules qui étaient rarissimes avec l’accélérateur de la génération précédente. L’événement sensationnel de celui-ci constitue désormais le bruit de fond de celui-là. Lorsque les réactions les plus abondantes, à une énergie donnée d’un accélérateur, ont été analysées, classées, confrontées aux théories, les expérimentateurs recherchent souvent les plus rares car elles recèlent la réponse à des questions fondamentales. Par exemple si une théorie implique l’interdiction d’une forme de désintégration pour une particule donnée, la violation, même avec une très faible probabilité de cette interdiction, peut avoir des implications immenses.

Ceci explique l’importance qui s’est attachée à la recherche de détecteurs capables d’encaisser des flux de plus en plus grands de particules afin de pouvoir observer les événements rarissimes qui sont souvent la réponse à des questions passionnantes. La tendance simultanée à produire beaucoup de particules en raison de l’augmentation de l’énergie disponible, a conduit à l’éclosion des détecteurs modernes qui sont capables de visualiser des réactions complexes aussi bien que certains détecteurs très lents qui ont été des instruments très féconds dans le passé, tout en étant capables de prises de données à des rythmes incroyablement plus élevés.

Je ne vais pas décrire l’énorme variété des détecteurs qui ont constitué l’arsenal du physicien à diverses étapes de l’évolution de la physique nucléaire : compteurs Geiger, compteurs proportionnels, compteurs à scintillation, compteurs Cerenkov, émulsions photographiques épaisses, détecteurs de radiation de transition, etc. Je décrirai les propriétés de détecteurs gazeux utilisés dans la majeure partie des expériences actuelles, et dont la découverte au CERN date de 1968. Pour localiser les particules qui traversent ces détecteurs, on exploite l’ionisation des gaz par les particules chargées qui interagissent avec la matière et créent des ions sur leur passage voir encadré. Un champ magnétique extérieur permet de déterminer la nature de la charge de la particule sens de la courbure de la trajectoire et son impulsion le rayon de courbure est proportionnel à l’impulsion de la particule. Dans les premiers détecteurs comme la chambre de Wilson, la chambre à bulles et la chambre à étincelles, les traces d’ionisation laissées par le passage d’une particule sont photographiées. On voit ainsi sur le cliché obtenu la trajectoire de la particule dont on peut identifier le signe et mesurer l’impulsion grâce au champ magnétique appliqué. Dans les détecteurs gazeux plus récents chambres multifils et chambres à dérive, l’électron arraché par la particule chargée aux atomes du gaz est multiplié par l’application d’un champ électrique jusqu’à une valeur qui permet à des circuits électroniques de détecter cette charge électrique et on obtient un point de la trajectoire. Grâce au calculateur, on reconstruit ensuite la trajectoire de la particule en mesurant de la même manière plusieurs points dans l’espace le long de son sillage. Le sens et le rayon de courbure de cette trajectoire dans un champ magnétique vont nous donner la charge et l’impulsion. Quant à l’identification de la particule, elle constitue un problème primordial et assez complexe dans la physique des hautes énergies : créer des nouvelles particules est une des tâches principales des nouveaux accélérateurs, mais il faut aussi pouvoir les identifier. C’est la raison pour laquelle le dispositif d’une expérience actuelle dans ce domaine de physique comprend tout un ensemble de détecteurs divers et de calculateurs "en ligne" qui ont comme tâche de "voir" naître une particule et de donner aux physiciens tous les renseignements nécessaires à son identification. Le rôle joué par les détecteurs gazeux dans ce processus d’identification est très important puisqu’ils permettent la localisation et la reconstruction de la trajectoire d’une particule dans l’espace. C’est pourquoi nous commencerons par décrire quelques grands ancêtres de ces détecteurs, puis suivre leur évolution dans le temps qui nous a conduit aujourd’hui aux détecteurs modernes utilisés aussi bien dans la physique des particules, que dans la cristallographie, la biologie ou la médecine.

De la minute à la seconde.

La chambre à brouillard, le premier détecteur inventé et construit par Wilson lui-même et un ou deux mécaniciens en 1912, permet de voir avec une grande finesse les trajectoires de particules chargées dans un gaz. Le milieu gazeux air qui remplit la chambre contient une vapeur eau qui est amenée soudainement dans des conditions de sursaturation par la détente d’un piston ; une partie de la vapeur doit alors se condenser sous forme de liquide. Or, cette condensation commence de façon préférentielle en des points qui constituent des germes susceptibles d’amorcer la formation des gouttelettes. Les particules qui traversent ce milieu créent de tels germes et la formation des gouttelettes débute le long de la trajectoire des particules chargées ionisantes. L’illumination des gouttelettes permet de photographier ainsi le sillage des particules ionisantes et la courbure de leur trajectoire dans un champ magnétique donne le signe de leur charge positive ou négative et leur quantité de mouvement. Une recompression ramène la chambre dans son état initial ; après une minute environ, l’équilibre thermique est rétabli et le détecteur prêt à refonctionner. Le rôle joué par ces chambres à brouillard a été immense. Parmi les découvertes faites avec cet outil, il suffit de citer le neutron 1932 et le positron 1933 ainsi que les premières particules "étranges" 1949 dans le rayonnement cosmique. Bien que l’image soit parfaite, deux défauts rendaient cette chambre inopérante pour les questions nouvelles posées par l’apparition en 1953 d’accélérateurs capables de produire abondamment les particules étranges. Les interactions sont produites dans une plaque externe à la chambre si bien que les détails de l’interaction au voisinage immédiat du point d’interaction ne sont pas visibles. D’autre part les chambres de grande taille ne peuvent être déclenchées et interrogées qu’une fois toutes les minutes, ce qui rend prohibitoire la recherche d’événements rarement produits.

La chambre à bulles, inventée par Glaser en 1952, a permis de partiellement corriger ces défauts. Dans cette chambre, le milieu liquide qui sert de cible à un faisceau externe de particules est amené brusquement, au moyen, de la détente d’un piston, dans un état où il devrait bouillir. Une particule incidente peut interagir avec un des noyaux du liquide. Les particules ainsi produites ionisent les molécules du liquide le long de leurs trajectoires et créent des germes à partir desquels démarre l’ébullition. Les bulles commencent à croître et lorsqu’elles atteignent une centaine de microns de diamètre, elles sont illuminées et photographiées. Une recompression ramène alors le détecteur dans l’état initial. Tous les détails du comportement des particules produites au voisinage du point d’interaction seront donc observés. La chambre est située dans un champ magnétique puissant et le sens de la courbure des trajectoires des particules permet l’identification du signe de leur charge. Il y a un côté miraculeux dans ce détecteur. En effet la particule qui le traverse porte une charge électrique très petite, elle a une masse 1023 fois plus petite que celle qui est contenue dans un cm3 du milieu traversé et elle produit cependant une perturbation énorme dans le milieu, aisée à détecter, en raison de l’état instable où se trouve ce milieu.

La chambre à bulles fut l’instrument privilégié pour l’étude des réactions dont la probabilité de production était grande et permit la découverte de nombreuses particules élémentaires. La possibilité d’utiliser comme milieu sensible un liquide ne contenant que le noyau le plus simple, l’hydrogène liquide, facilita l’interprétation des réactions. Dans la physique des neutrinos, les chambres à bulles ont disposé d’un terrain privilégié car les faisceaux primaires ne laissent une trace qu’en interagissant et cette interaction est précisément l’événement intéressant. On dispose de faisceaux de neutrinos suffisamment intenses, 1012/sec., pour que chaque cliché de chambre révèle une interaction. C’est avec la chambre à bulles GARGAMELLE qu’a été faite au CERN en 1973 une des découvertes les plus importantes de ces dernières années, l’existence de courants neutres dans les interactions faibles.

La qualité de l’image d’une chambre à bulles qui permet de livrer des détails très fins au voisinage du point d’interaction vertex est inégalée. Pour répondre à des interrogations d’actualité concernant les particules charmées qui se désintègrent à quelques centaines de microns de leur point de création, on fait aujourd’hui des chambres minuscules. Ces petites chambres de quelques cm3, rapides le taux de répétition peut être de 100 par seconde, sont uniquement destinées à "voir" le vertex de l’interaction ; ce sont des détecteurs extérieurs rapides qui donnent les coordonnées des trajectoires issues de la chambre à bulles et qui permettent de sélectionner les événements rares à photographier afin de ne pas être submergé par le nombre de clichés. Ces chambres sont actuellement en cours de développement. Et, au CERN, une équipe vient de mettre au point une méthode holographique de détermination de la position des bulles dans la chambre qui permet une précision de l’ordre de 10 microns dans la détermination des positions !

Une chambre à bulles peut être utilisée une fois par seconde. Son défaut est qu’elle ne peut pas être déclenchée pour ne détecter que des événements rarissimes, sélectionnés au préalable par des compteurs auxiliaires rapides, au milieu de flux intenses de particules. Une chambre à bulles ne peut pas tolérer plus de 20 particules incidentes, sinon il y a confusion entre les trajectoires des particules. Etant donné que la capacité d’analyse des photographies par tous les laboratoires européens, pourtant bien pourvus d’équipements coûteux, ne dépasse pas dix millions de photos par an, on voit qu’il n’est pas question de voir des événements dont la probabilité de production par des particules chargées est très inférieure à un millionième alors qu’avec les détecteurs gazeux une telle probabilité peut correspondre à un événement par seconde, ainsi qu’on va le voir.

La chambre à étincelles a été le premier relais pris par les détecteurs gazeux pour surmonter cette difficulté et se lancer à la recherche des réactions rares. Ce détecteur est constitué d’un certain nombre de plaques conductrices, parallèles, séparées par des intervalles d’un centimètre remplis d’un gaz noble à la pression atmosphérique. Lorsqu’une particule chargée traverse la chambre, elle crée dans le gaz des électrons qui subsistent pendant un temps assez court 1/10 de microseconde avant d’être balayés par le petit champ électrique qui est appliqué en permanence entre les plaques. Si pendant cet intervalle de temps, on applique une impulsion de tension, les électrons acquièrent une énergie qui leur permet d’ioniser eux-mêmes le gaz, créant de nouveaux électrons et on arrive à une multiplication telle avalanche qu’une étincelle visible est produite aux endroits où les électrons d’ionisation ont été créés. La photographie des étincelles brillantes dans une succession d’éléments, donne une image grossière de la trajectoire de la particule ionisante. Depuis l960 ce détecteur a permis de réaliser des découvertes importantes grâce à la "mémoire" de la chambre qui garde à l’état latent l’ionisation primaire dans un gaz, produisant une étincelle visible seulement si l’impulsion de tension est appliquée. Ainsi des compteurs auxiliaires très rapides pouvant prendre une décision en moins d’un dix millionième de seconde sélectionnent parmi les milliers de particules traversant les chambres l’événement rare qui mérite d’être enregistré ; le temps de réponse de ces compteurs étant inférieur à la durée de vie des électrons dans le gaz, permet d’appliquer la haute tension à la chambre à étincelles et de rendre visible cette interaction rare. Toutefois, il est impossible d’interroger la chambre plus d’une dizaine de fois par seconde. Les détecteurs gazeux actuels, faisant plein usage du développement de l’électronique, permettent d’améliorer ce rythme d’un facteur énorme. Ceci est indispensable pour l’étude des phénomènes rares faisant l’objet de la recherche contemporaine et qui sont cachés parmi une multitude de réactions banales. Mais avant de montrer quelques exemples typiques des détecteurs modernes, il sera utile de décrire quelques propriétés et deux structures de base, les chambres multifils et les chambres à dérive, que nous avons introduites au CERN en 1968.

Des fils tendus dans l’espace.

Lorsqu’une particule chargée électriquement traverse un gaz, elle arrache des électrons aux atomes du gaz. Si un champ électrique suffisamment intense agit sur ces électrons libres, ils peuvent acquérir assez d’énergie pour arracher à leur tour des électrons. Il est possible de réaliser des structures telles que cette multiplication soit juste limitée à une valeur qui permette à des circuits électroniques de détecter l’impulsion de charge électrique ainsi libérée. La position initiale de l’électron peut alors être déterminée de façons diverses que nous allons décrire. Si de multiples mesures sont effectuées le long de la trajectoire de la particule, on peut reconstituer, grâce au calcul, cette trajectoire.

Chaque élément d’une chambre multifils est constitué d’un plan A de fils fins placé en sandwich entre deux plans de fils plus gros. La chambre est remplie d’un gaz rare en général de l’argon dont la qualité essentielle est de laisser libres les électrons arrachés aux atomes par le passage des particules. Si un potentiel est appliqué au plan de fils fins A, par rapport aux fils plus gros C1 et C2, les électrons charge négative libérés dans le gaz sont "aspirés" par les fils de A. Or le champ électrique autour d’un fil varie en proportion inverse de la distance au fil, si bien que près du fil le champ est très intense et les électrons acquièrent assez de vitesse pour ioniser à leur tour le gaz ; sur une distance de 20 microns, avant d’être absorbés par le fil, ils peuvent ainsi produire une avalanche d’électrons et leur nombre est multiplié, par exemple d’un facteur un million. Une telle charge est aisément détectable et à première vue il semblerait à ceux qui sont familiers avec le simple compteur proportionnel, constitué d’un fil au centre d’un cylindre, et qui a été un outil de pointe dans les années trente, qu’il est élémentaire de penser que chaque fil est un détecteur indépendant.

La meilleure illustration de la complexité des phénomènes qui accompagnent une telle avalanche me semble donnée par l’image de la figure 3. Un faisceau de rayons X d’une énergie de 1,5 KeV illumine une plaque de cuivre dans laquelle ont été percées les lettres CERN ; les rayons X traversant l’espace vide constitué par les lettres sont absorbés dans le gaz de la chambre multifils où ils libèrent des électrons qui produisent des avalanches. Les signaux induits par les avalanches sont recueillis par une calculatrice qui à l’aide d’une console de visualisation nous donne une image bi-dimensionnelle x, y parfaite. Il est donc clair que si de tels plans de fils sont placés le long des trajectoires des particules chargées, qui libèrent dans le gaz des électrons exactement comme le font les rayons X, on aura une série de points dans l’espace qui permettent de calculer la trajectoire. Si celle-ci est courbée en raison de la présence d’un champ magnétique il faudra au moins trois points pour avoir la trajectoire. En fait, il en faudra en général beaucoup plus si la figure est complexe et si les trajectoires se croisent. C’est la différence avec un détecteur comme la chambre à bulles où l’information est continue. La révolution dans le coût des composants électroniques, qui a coïncidé avec l’introduction de ces détecteurs, a permis toutefois la réalisation de systèmes de mesure très complexes dont on verra un exemple plus loin. Mais il peut arriver que le nombre d’éléments de mesure nécessaire soit tel que le coût devienne rédhibitoire; dans le cas par exemple où il faut un hectare de surface utile, cela demande des millions de fils équipés de circuits complexes. Une brève description du premier détecteur géant, construit en 1974 et faisant un plein usage des possibilités offertes par les chambres à fils, illustrera la nouvelle approche permise dans l’étude des réactions complexes sub-nucléaires.

Les palpeurs d’une calculatrice géante.

Dans les ISR, les anneaux de collision du CERN, des bouffées de protons d’une énergie de 30 GeV circulent dans des tubes, qui se croisent huit fois en des régions où les faisceaux se heurtent de front. Autour de ces intersections, les physiciens disposent les chambres à fils aux endroits où les particules, produites par les réactions qu’ils cherchent à étudier, ont le plus de chance de passer. Ces détecteurs envoient leurs signaux à des calculatrices qui gèrent l’expérience. Le tout est aménagé dans un aimant afin de connaître la charge électrique des particules et de mesurer, par la courbure de la trajectoire, leur impulsion. 50 000 événements sont ainsi produits par seconde, mais un groupe de physiciens peut ne s’intéresser qu’à un type d’événement très rare ; qui se produit par exemple une fois par jour ! Il lui faudra donc, pour caractériser l’événement, imposer des conditions draconiennes à l’électronique du détecteur pour que celui-ci ne livre qu’une fraction infime des événements à la calculatrice géante qui les analysera et dont le temps est très coûteux.

Un événement rare typique obtenu par le détecteur décrit plus haut est illustré par le cliché initial de cet article résultat du choc d’un proton de 30 GeV contre un proton de même énergie , lancé en sens opposé. Le choix logique imposé à l’électronique, pour l’ouverture des portes libérant l’entrée des mémoires de la calculatrice, est ici dicté par la détection d’un électron de grande énergie émis à un grand angle par rapport à la direction des faisceaux. Au terme d’un mois de prise de données, on pourra ainsi se retrouver avec une centaine d’événements significatifs. C’est la propriété de ces détecteurs de permettre la sélection d’événements rares dans un fond intense qui a été à la base de la découverte des principales particules qui ont marqué le récent tournant de la physique des particules : les J en 1974 et les Upsilon en 1977. Dans ces deux cas la particule était caractérisée, pour le choix des portes d’ouverture, par la désintégration en deux leptons. La mesure des trajectoires de ces leptons dans des champs magnétiques grâce à des chambres multifils a permis de déterminer la masse de la particule initiale qui apparaît comme un pic significatif dans un océan de bruit de fond.

La complexité d’un événement reconstitué rivalise avec celui qui est détecté par une chambre à bulles. Il faut toutefois se garder d’une illusion. Il arrive que la calculatrice soit incapable de reconstruire les trajectoires sans ambiguïté. Pour un événement rarissime isolé, un doute pourra donc subsister quant à sa réalité. En ce qui concerne leur précision, les détecteurs à fils sont inférieurs aux chambres à bulles mais avec les chambres à dérive, que nous allons décrire, ils deviennent compétitifs également dans les mesures de haute précision.

Cette course à la précision a une importance avec l’augmentation de l’énergie des particules. Il faut souvent déterminer l’impulsion des particules à partir de la courbure de leur trajectoire dans un champ magnétique. Ces trajectoires sont d’autant plus "raides" que la vitesse est grande. Un détecteur précis permet alors de mesurer la courbure sur des distances plus petites. Le caractère gigantesque des détecteurs en physique des hautes énergies est souvent lié à la nécessité d’avoir une trajectoire assez longue dans un champ magnétique pour que la courbure puisse être mesurée avec une précision suffisante à l’établissement d’un bilan précis des impulsions dans une réaction. Les chambres à dérive sont à la base de ces détecteurs géants car elles donnent une grande précision et pour une même surface nécessitent beaucoup moins de fils que les chambres multifils.

Localiser une particule à quelques microns près.

Le temps d’apparition de l’impulsion sur un fil de compteur proportionnel est strictement lié à la position initiale des électrons libres dans les gaz; au CERN, en 1968, nous avons montré qu’en exploitant cette propriété, on pouvait obtenir une précision de 100 microns dans la localisation des particules. En mesurant le temps de migration des électrons à partir d’un temps initial donné par des compteurs très rapides, ou par l’accélérateur lui-même s’il fonctionne en bouffées brèves, on peut obtenir la distance au fil avec précision. Or il est aisé, dans des gaz convenables, de déplacer les électrons libérés sur des distances de plusieurs mètres, dans des champs électriques faibles. On peut ainsi réaliser des détecteurs simples, de très grande surface, où un nombre très réduit de fils détecteurs permet d’obtenir la précision désirée avec une grande économie de circuits électroniques. Un exemple de ces détecteurs est le détecteur géant des neutrinos, réalisé au CERN en 1976. Il est constitué d’une masse de fer de 1 500 tonnes cible, où sont intercalés des systèmes de mesure de l’énergie et de la trajectoire des particules chargées, créées lors de l’interaction des neutrinos avec les protons et les neutrons du fer.

La simple comparaison des masses, 1 500 tonnes contre 35 de la chambre à bulles GARGAMELLE, indique pourquoi un tel détecteur est plus approprié à la recherche de phénomènes rares dans les interactions déjà rarissimes des neutrinos; en effet un faisceau de 1012 neutrinos de 1 GeV traversant 1 tonne de fer n’a que 1 chance sur 100 de produire un choc détectable. Certes, la qualité de l’image au vertex est incomparablement moins bonne mais aux très hautes énergies cela n’est souvent pas utile, et, de plus, des observations essentielles peuvent être obtenues par les détecteurs variés associés à ceux qui mesurent seulement les trajectoires.

L’énorme surface des détecteurs destinés à mesurer les coordonnées, qui atteint ici 2 400 mètres carrés et qui se mesure en hectare pour certains détecteurs envisagés, a conduit au règne incontesté des chambres à dérive pour les grands systèmes. Ces chambres permettent une précision inférieure au millimètre, avec des fils qui sont distants de 5 cm. Avec les chambres multifils du détecteur précédent, dont chaque fil, espacé de 2 mm nécessite une électronique indépendante, le coût eut été prohibitif et la capacité énorme de taux de comptage inutile, puisque les neutrinos n’engorgent pas aisément un détecteur. Après l’étude de la structure subnucléaire, les détecteurs multifils et les chambres à dérive escaladent l’échelle des dimensions.

Résoudre la structure spatiale des molécules.

Une des applications les plus importantes en vue, avec les chambres à fils, est sans doute l’étude de la structure spatiale des molécules complexes comme les protéines. Elle a donné lieu à une entreprise commune entre une équipe du CERN et diverses équipes de cristallographes et biologistes à Orsay, au MIT et au Max Planck Institut à Munich, dès 1975.

A Orsay, on dispose aujourd’hui, grâce à la radiation de synchrotron des anneaux de stockage à électrons, de sources de rayons X d’intensité 1000 fois supérieure à celle des sources classiques. Les molécules dont on veut étudier la structure doivent être cristallisées. Le cristal irradié par un faisceau monochromatique de rayons X diffracte une énorme quantité de fins pinceaux de rayons X dans des directions privilégiées, qui dépendent de la structure du cristal et de la position des atomes dans la molécule. L’image produite pour une position donnée du cristal peut être assez complexe. L’intensité des tâches de diffraction obtenues pour une rotation complète du cristal permet aux cristallographes de remonter à la structure spatiale de la molécule. Lorsque l’information est obtenue à partir de clichés sur pellicule photographique, la tâche du dépouillement peut être formidable et demande des années de travail en raison du manque de sensibilité de la pellicule photographique et de son incapacité à fournir une information d’intensité précise dans une large gamme. il y a moins de 100 protéines dont la structure spatiale a été résolue - et il y en a des milliers dont l’étude est intéressante !

La chambre proportionnelle, en cours de développement à Orsay, devrait permettre de gagner près d’un facteur 1 000 dans ce temps d’enregistrement des clichés car chaque photon X est détecté individuellement au rythme de cent mille par seconde. Cette chambre pourrait être une étape pour des développements ultérieurs dans d’autres domaines. En effet, le fait qu’un seul photon soit détectable et localisable implique qu’il n’existe aucun système qui permette de surpasser celui-ci en matière de sensibilité. La taille des mailles du réseau cristallin détermine la longueur d’onde de la radiation pour la mesure de diffraction à des angles utilisables. Or, à partir de 3 Å, les rayons X sont très absorbables et ne peuvent plus traverser un cristal, même petit. Mais on sait qu’une longueur d’onde est associée à toutes les particules. C’est ce caractère ondulatoire qui est exploité par exemple dans les microscopes à électrons. On peut aussi utiliser les neutrons pour produire la diffraction dans les cristaux, car même des cristaux de très grande taille sont pratiquement transparents aux neutrons lents. Les faisceaux intenses de neutrons disponibles auprès de piles atomiques de recherche, conçues spécialement pour cela, comme la pile européenne de Grenoble, ont donné un grand essor à cette méthode d’étude. Les applications ne se bornent pas aux études des molécules : des structures régulières peuvent être étudiées à l’aide des neutrons lents et pour cela encore les structures multifils constituent l’outil privilégié.

Des détecteurs pour l’étude des tissus humains.

Alors que pour la cristallographie le domaine d’énergie des rayons X est voisin de 10 KeV, en médecine, l’intérêt n’apparaît que vers 25 KeV, même pour des tissus mous comme les seins, car aux énergies inférieures, les tissus sont opaques. Or, c’est précisément là que le problème de la dose est le plus crucial, en particulier pour les examens de dépistage préventif. Des méthodes admirables de sensibilité comme la mammographie de seins par xérographie, sont contestées en raison des doses infligées. On peut passer de 10 KeV à 25 KeV au prix de quelques développements supplémentaires : chambres pressurisées, pour avoir une efficacité de 100 % ; électronique beaucoup plus rapide, pour limiter le temps de mesure. Mais dans ce domaine, ne sommes-nous pas habitués à un développement sensible d’année en année ?

La précision exigée en médecine est en général bien supérieure à 1 mm, précision qu’on obtient avec la chambre décrite précédemment. Mais la géométrie sphérique de la chambre conduit précisément à une amplification de l’image. Pour un objet de la taille d’un sein, un gain 10 est parfaitement réalisable. Le fait que l’image soit obtenue sous forme de coordonnées stockées dans une calculatrice donne un pouvoir formidable d’analyse de l’image qui n’existe pas dans une méthode photographique. On peut à volonté passer de l’image du type émulsion photographique à l’image du type xerox où les contrastes sont exaltés.

Certes, le développement que je viens de mentionner semble ardu et coûteux. Mais l’expérience prouve que lorsque aujourd’hui une technique permet de répondre à un besoin dans un domaine important en médecine ou ailleurs, elle ne tarde pas à se développer. La radiographie assistée par les calculatrices les "scanners" en est un exemple car il a fallu près de dix années d’efforts à de nombreuses équipes et des investissements considérables pour arriver à l’instrument de routine qui a révolutionné la radiographie par rayons X en exploitant de façon optimale les propriétés d’absorption des rayons X combinées avec les possibilités nouvelles offertes par l’électronique moderne.

Une approche nouvelle de la radiographie, née au CERN en 1974, exploite non plus les rayons X mais les faisceaux de protons rapides et utilise les chambres, multifils. La méthode repose sur la détection et la localisation des protons incidents et émergeant d’une cible et les chambres donnent avec précision les points d’interaction des protons. La densité des points d’interaction donne dans l’espace la distribution des densités de la matière diffusante. Le développement d’une installation permettant d’appliquer cette méthode à des êtres vivants est en cours à Saclay auprès de l’accélérateur Saturne. Pour avoir une image en un temps compatible avec les exigences de la radiographie d’êtres vivants, un développement exceptionnel des détecteurs proportionnels est en cours, qui exigera sans doute des performances de rapidité qui ne sont même pas atteintes actuellement dans les expériences de physique nucléaire.

Une technique encore en pleine évolution !

Mais en 1978 une étape a été franchie au CERN dans le domaine des détecteurs gazeux, qui a ouvert des perspectives nouvelles dans tous les domaines d’applications : visualisation des trajectoires, détecteurs de neutrons, détecteurs de rayons X, détecteurs d’ultraviolet lointain et c’est par une brève présentation de ces innovations que je veux terminer cet article.

En physique des hautes énergies, il est fréquent qu’un détecteur soit utilisé à la limite de ses capacités de comptage lorsque l’on désire étudier des phénomènes rarissimes noyés dans un bruit de fond intense. Les chambres proportionnelles ont deux limitations : leur "mémoire", qui est de 100 milliardièmes de seconde, qui est le temps nécessaire pour que les électrons libérés par de vieilles traces, n’ayant pas de rapport avec l’événement intéressant, soient absorbés par les électrodes, et l’"asphyxie" produite par la concentration des atomes ionisés qui sont éliminés beaucoup plus lentement que les électrons par le champ électrique en raison de leur masse plus lourde. La première limitation ne permet pas de dépasser 107 impulsions par seconde pour toute la chambre, car déjà une impulsion sur deux est fortuite et n’est pas corrélée à l’événement intéressant, tandis que la deuxième ne permet pas de dépasser 106 coups par seconde par centimètre carré. Suivant la taille de la chambre ou des faisceaux, c’est l’une ou l’autre des limitations qui empêchera d’augmenter l’intensité. Pour surmonter cet obstacle nous avons imaginé de réaliser l’amplification des électrons en deux étapes : les électrons d’ionisation sont d’abord amplifiés entre deux grilles parallèles, d’un facteur mille environ. L’avalanche d’électrons ainsi produite est ensuite transportée dans un espace de dérive de 1 cm environ sous l’influence d’un champ électrique adéquat, puis transférée dans une chambre multifils où elle reçoit une amplification supplémentaire d’un facteur 1 000 également. La différence essentielle, par rapport à une chambre à fils donnant directement le gain de 1 million, tient au fait que dans l’espace de dérive, une grille de contrôle est placée à un potentiel tel qu’elle bloque les électrons, sauf si une impulsion électrique brève, de largeur 30 milliardièmes de secondes, lui est appliquée. Si on s’intéresse à des événements rares sélectionnés par des compteurs auxiliaires, on conçoit que la chambre terminale, qui sert à la localisation, n’amplifiera au gain maximum qu’un nombre réduit de particules, par exemple un pour mille du faisceau incident. Ceci évite donc l’"asphyxie" par les atomes Ionisés trop lents à diffuser. Cette approche nouvelle s’est avérée ouvrir beaucoup plus de possibilités que nous ne l’escomptions lorsqu’elle fut introduite en 1978. Elle permet par exemple des gains suffisants pour détecter un électron libéré dans le gaz par l’absorption d’un photon ultraviolet. Il apparaît que ces chambres sont de façon inattendue un détecteur prometteur pour obtenir des images de ces photons, par exemple en astrophysique. En physique des hautes énergies, une application immédiate a été trouvée en 1980, grâce à l’image de la distribution des photons ultraviolets émis par une particule rapide dans les gaz, par effet Cerenkov 2. Pour une vitesse donnée, ces photons sont émis sous un angle constant par rapport à la trajectoire et avec une optique appropriée, on peut focaliser ces photons sur une chambre à étages multiples qui se concentrent sur un cercle dans le plan du détecteur. La précision obtenue va permettre de séparer des particules de masses distinctes. Cette identification est souvent indispensable dans beaucoup d’expériences avec les particules élémentaires.

Parmi les autres applications inattendues de ce détecteur, citons un progrès notable dans la chromatographie des molécules radioactives sur papier et dans l’imagerie des neutrons lents. Dans les deux cas le progrès est dû à une propriété particulière des structures amplificatrices à faces parallèles : les électrons libérés près de la surface de la cathode subissent une amplification plus grande que ceux qui sont produits n’importe où dans l’intervalle entre les deux électrodes. Par exemple, si la distance est de 5 mm et que la distance moyenne, pour qu’un électron acquière assez d’énergie dans le champ électrique pour arracher un autre électron, est 0,5 mm, un électron qui est libéré à la cathode produira 210 = 1 024 électrons à l’anode, tandis qu’un électron produit au milieu n’en produira que 25 = 32. Si un électron énergique, capable de parcourir par exemple 1 cm dans le gaz, pénètre dans la chambre, il en résulte que les électrons produits près de la cathode, donneront la majeure partie du signal final recueilli. Une méthode de localisation qui donne le centre de gravité des charges amplifiées aura donc tendance à donner la coordonnée de l’intersection entre la trajectoire et la cathode. Or, dans certaines applications on dispose de sources planes émettant des électrons et il est tentant de localiser leur distribution en les plaçant contre une chambre proportionnelle. L’ennui est que les électrons de la source ayant un parcours de 1 cm ou plus, la précision ne peut être bonne, sauf avec ces structures parallèles qui donnent la préférence au point d’entrée. Ceci est le cas avec la chromatographie sur papier.

Cette technique, utilisée couramment en chimie, repose sur le fait que la vitesse des molécules migrant dans un papier imbibé spécial, dont une extrémité trempe dans une solution contenant un mélange de molécules, dépend de la masse des molécules. Après un certain temps, si on place le papier sur une pellicule photographique, les électrons émis par la molécule marquée permettent de repérer la position des molécules d’un certain type, concentrées en une ligne. On peut également faire migrer les molécules de masses différentes, avec des vitesses différentes, grâce à un champ électrique. En plaçant le même papier contre une chambre multiétages, on a une sensibilité énorme par rapport au film, avec une précision de localisation meilleure que 1 mm. Les résultats obtenus au CERN en 1980 montrent que là où une pose de dix jours était nécessaire avec le film, le même résultat est obtenu en 10 minutes avec une information quantitative meilleure.

Pour la détection des neutrons lents c’est la même "astuce" qui est utilisée avec la même chambre. Des films de gadolinium minces absorbent les neutrons lents en réémettant des électrons dont la localisation est assurée de la même manière que dans la chromatographie. Une précision meilleure que 1 mm a été obtenue avec des taux de comptage qui ouvrent des perspectives nouvelles à toutes les méthodes utilisant l’imagerie de neutrons lents.

Si l’on a eu le privilège de regarder le paysage des aires expérimentales en physique des hautes énergies pendant le dernier quart de siècle, on ne peut qu’être frappé par la vitesse des changements malgré la lourdeur des investissements nécessaires à une expérience. Peut-on déceler l’approche de nouveaux détecteurs plus précis, plus rapides ? Les détecteurs basés sur les semi-conducteurs ont jusqu’à présent été décevants en raison de leur prix considérable. Mais avec l’effort énorme entrepris sur divers matériaux semi-conducteurs utilisés pour capter l’énergie solaire, il est possible que des percées technologiques dans ce domaine rendent caducs les détecteurs basés sur l’amplification électronique dans les gaz. Les quelques physiciens des hautes énergies, que l’on voit déjà jouer avec ces matériaux, préparent donc peut-être la relève et s’il faut les croire le décimètre carré avec une précision de 20 microns dans la localisation est en vue. Mais les hectares de détecteurs ne seront pas prêts pour la prochaine génération d’accélérateurs, dans dix ans, et les détecteurs gazeux de particules à amplification électronique dans le gaz constitueront sans doute encore une composante majeure des systèmes d’observation de l’infiniment petit subnucléaire.

Par Georges Charpak

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LACS GLACIERES

 

La dangereuse vidange des lacs glaciaires


terre - par Fabienne Lemarchand dans mensuel n°356 daté septembre 2002 à la page 16 (1240 mots) | Gratuit
Les glaciers fondent à un rythme soutenu sur tous les continents. Gorgés d'eau, les lacs qu'ils alimentent en altitude menacent d'inonder les habitants des vallées dans les cinq à dix ans à venir. En toile de fond, une question désormais récurrente : ces vidanges glaciaires sont-elles liées au réchauffement climatique annoncé ?

Les glaciers de montagne sont extrêmement sensibles aux variations du climat. Ils grossissent ou maigrissent au gré des chauds et froids. La dernière grande crue remonte au petit âge glaciaire, une période qui a sévi du XVIe siècle à 1850 environ. Depuis, tous les glaciers ont reculé. Dans les Alpes, ils ont perdu le tiers de leur volume de 1820I. La diminution n'a toutefois pas été continue. Ainsi, s'ils ont fortement régressé entre 1942 et 1953, les glaciers alpins ont avancé entre 1954 et 1982. Depuis vingt ans, ils reculent à nouveau. Le glaciologue suisse Frank Paul, de l'université de Zurich, a montré, images satellitaires à l'appui, que la surface des glaciers alpins diminuait en moyenne de 1,5 % chaque année depuis 19851. La situation est comparable dans les Andes, où les petits glaciers ceux qui mesurent moins de 1 kilomètre de long ont perdu près des trois quarts de leur surface en moins d'un siècleII.

Lave torrentielle. Selon une étude menée récemment par une équipe de l'US Geological Survey et de la NASA dans le cadre du programme international Glims*, les glaciers himalayens, qui perdent en moyenne 30 à 40 mètres chaque année, connaissent un recul encore plus rapide2. Dans un rapport paru en avril, le Programme des Nations unies pour l'environnement PNUE et le Centre international de mise en valeur intégrée des montagnes Icimod* se sont inquiétés des risques engendrés par cette fonte massive. Très souvent, l'eau de fonte s'accumule au pied du glacier : comme c'est le cas cette année sur le versant est du mont Rose italien, un lac se forme entre le front de la langue glaciaire et une sorte de barrage naturel constitué de débris rocheux et de glace laissés par le glacier à une période plus faste photo ci-contre. Trop plein, ce lac peut déborder, voire se vider totalement en cas de rupture du barrage, déversant des millions de mètres cubes d'eau dans les vallées environnantes on parle de « lave torrentielle ». Déjà, en août 1985, la vidange soudaine du Dig Tsho, dans l'est du Népal, avait détruit 14 ponts et provoqué 1,5 million de dollars de dégâts. Une quarantaine au moins de lacs glaciaires du Népal et du Bhoutan seraient dans une situation préoccupante et pourraient se vider dans les cinq à dix ans qui viennent, mettant en danger des dizaines de milliers de vies humaines3.

« Ces phénomènes de vidange ont toujours existé et sont bien connus des glaciologues. Ils se produisent à chaque période de récession glaciaire », rappelle Louis Reynaud, du laboratoire de glaciologie et de géophysique de l'environnement de Grenoble LGGE. De fait, plusieurs dizaines d'accidents ont été recensés au cours du siècle dernier dans les Alpes ou dans les Andes, où de nombreux lacs sont apparus à la fin du petit âge glaciaire. L'un des plus meurtriers eut lieu en 1970, dans la Cordillère blanche, au Pérou : 18 000 personnes périrent et la ville de Yungay fut entièrement détruite par une gigantesque coulée boueuse.

De telles catastrophes ont ponctué l'histoire de la Terre. Les géologues en ont retrouvé la trace dans les dépôts sédimentaires. Ainsi, à la fin de la dernière période glaciaire, il y a environ 20 000 ans, la région de Channeled Scabland, dans l'Etat de Washington, aux Etats-Unis, fut totalement inondée, probablement en raison de la rupture soudaine d'un gigantesque lac glaciaire. Le débit des coulées boueuses aurait atteint 20 millions de mètres cubes par seconde !4

Il est possible de se prémunir contre de telles catastrophes en aménageant un canal afin de réaliser des vidanges contrôlées et évacuer le trop-plein d'eau. Un tel exutoire a été installé en 1986 sur le glacier d'Arsine, dans le massif des Ecrins Hautes-Alpes5. Un autre est en cours de construction sur le Tsho Rolpa, un lac situé à 4 580 mètres d'altitude, à une centaine de kilomètres au nord-est de Katmandou Népal. A la fin des années 1960, ce lac himalayen ne formait qu'un petit bassin de 0,23 km2. Sa superficie a depuis décuplé, en raison de la fonte rapide du glacier de Tradkarding, et il s'étend aujourd'hui sur 1,68 km2. Si la digue naturelle de roches et de glace qui le retient venait à céder, quelque 80 millions de mètres cubes d'eau se déverseraient dans les vallées voisines de Rolwaling et de Tama Koshi, où vivent plus de 10 000 personnes... Un accord entre les gouvernements népalais et néerlandais a été signé en 1998 pour la construction d'un canal régulateur et l'installation d'un réseau de capteurs et de sirènes afin que les 19 villages menacés soient alertés en cas de montée intempestive des eaux. L'objectif ? Abaisser le niveau du lac d'une trentaine de mètres. Reste que le coût d'une telle opération près de 3 millions de dollars est prohibitif. Et seule une aide internationale de grande ampleur permettrait d'effectuer des travaux comparables sur les lacs les plus dangereux comme sur le Rapshtreng Tsho, au Bhoutan, dont la superficie est passée de 1,54 km2 en 1986 à 2,2 km2 aujourd'hui.

Données insuffisantes. Plus personne ne le conteste : les glaciers du monde entier reculent depuis 1820. Mais les causes de ce retrait restent mal comprises : signe-t-il le réchauffement climatique prédit par les modèles ? Ou résulte-t-il de fluctuations naturelles du climat ? « Pour l'heure, il est impossible de trancher car l'ampleur réelle du retrait reste mal connue », précise Christian Vincent, du LGGE. « Elle est en général déduite des variations de longueur et de surface des glaciers. Celles-ci sont faciles à mesurer sur les cartes topographiques ou les images satellitaires. Malheureusement, elles n'offrent pas une image directe des fluctuations climatiques. Seules les variations du volume des glaciers sont significatives. » Et pour accéder à ce paramètre, il faut mesurer très précisément l'épaisseur de la glace. Ce qui n'est pas sans poser quelques problèmes pratiques, notamment dans l'Himalaya où les glaciers, généralement situés à plus de 4 000 mètres d'altitude, restent parmi les moins connus de la planète. « Ces données sont rares et pas suffisamment anciennes. Elles ne remontent qu'à 1946 pour la Scandinavie et à 1949 pour les Alpes. Ailleurs, elles sont quasi inexistantes », poursuit le glaciologue.

Les mesures réalisées de façon systématique sur quelques glaciers alpins depuis une vingtaine d'années par Christian Vincent et ses collègues ont montré que le volume glaciaire est étroitement corrélé aux précipitations en particulier hivernales et au bilan énergétique en surface en gros des températures estivales6. Autre constat, le recul des vingt dernières années, bien que d'amplitude comparable à celui des années 1942-1953, n'est pas de même nature. Les faibles précipitations hivernales et les étés chauds avaient alors joué de concert pour faire reculer les glaciers tandis qu'une succession d'étés exceptionnellement chauds suffit à expliquer le retrait actuel. Enfin, « le recul des glaciers alpins déduit de ces variations de volume est deux fois moins important que celui déduit des simples mesures de surface », conclut Christian Vincent. En d'autres termes, les glaciers fondent mais peut-être moins que ne le laissaient supposer les observations de surface. Si ces résultats se confirment, les projections pour le XXIe siècle devront elles aussi être revues à la baisse.

Par Fabienne Lemarchand

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LE SPIN MANQUANT ...

 

À la poursuite du spin manquant


physique - par Serge Kox et Jean-Marc Le Goff dans mensuel n°391 daté novembre 2005 à la page 52 (2052 mots)
Les particules qui composent le noyau des atomes représentent 99 % de la masse qui nous environne. Bien qu'elles aient été découvertes dans la première moitié du XXe siècle, leur structure interne recèle encore bien des mystères. On commence seulement à entrevoir comment se construit l'une de leurs caractéristiques quantiques fondamentales, le spin.

La revue que vous tenez entre les mains, vos mains elles-mêmes, et plus généralement toute la matière qui nous entoure est formée d'atomes, assemblages d'électrons et de noyaux. Les composants de ces noyaux, les nucléons, sont les protons, de charge électrique positive, et les neutrons, électriquement neutres. Les nucléons sont eux-mêmes constitués de particules plus fondamentales encore : les quarks et les gluons qui lient ces derniers entre eux. Cette description est bien établie depuis maintenant une trentaine d'années. Mais retrouver les propriétés d'une structure à partir de celles de ses constituants est parfois difficile. C'est le cas pour la construction des nucléons à partir des quarks et des gluons, et cela est

particulièrement vrai pour ce qui concerne le « spin », une propriété qui caractérise tous les objets de l'infiniment petit.

Les physiciens ont longtemps pensé que le spin des nucléons résultait principalement du spin des quarks. Mais une expérience réalisée il y a une quinzaine d'années au laboratoire européen pour la recherche nucléaire, le CERN, près de Genève, a montré que la contribution des spins des quarks au spin du nucléon était très faible ! Ce résultat totalement inattendu sema le trouble dans la communauté des physiciens. Que nous dit-il sur la façon dont la matière est organisée ? D'où vient alors le spin des nucléons ? Ces questions posées, ce que l'on a appelé la « crise du spin » suscita une intense activité de recherche à la fois théorique et expérimentale. La preuve, l'article du CERN qui déclencha la controverse est l'une des trois publications expérimentales les plus citées en physique des particules. Ces recherches commencent aujourd'hui à porter leurs fruits.

Sauts quantiques
Le spin est une grandeur qui n'a de sens que lorsque l'on se place dans le cadre de la mécanique quantique. Son existence permet d'expliquer de nombreux phénomènes physiques, tels que le magnétisme et les spectres d'émission lumineuse des atomes. Une image courante pour expliquer ce qu'est le spin est de se représenter les particules comme des toupies tournant sur elles-mêmes. Si l'on se situait dans le cadre de la physique classique, ces toupies seraient caractérisées par une grandeur appelée « moment cinétique intrinsèque ». Puisque cette grandeur dépend de la masse, du rayon et de la vitesse de rotation, elle pourrait prendre toutes les valeurs possibles. Le spin, en revanche, spécifique au monde subatomique, ne peut prendre que des valeurs particulières séparées par des « sauts quantiques ».

En général, les caractéristiques individuelles d'un système de particules en interaction s'ajoutent pour donner ses propriétés globales à l'ensemble. C'est le cas par exemple pour la charge électrique du nucléon : on l'obtient en additionnant la somme des charges portées par les quarks qui le constituent. Six types de quarks existent « up », « down », « étrange », « charme », « bottom » et « top », mais deux seulement sont présents de manière permanente dans les nucléons : un quark down et deux quarks up pour le proton ; deux down et un up pour le neutron. La charge électrique du proton est ainsi la somme des charges des deux quarks up 2/3 et de celle du quark down - 1/3, soit une fois la charge électrique élémentaire. Pour la composition des spins, bien que les règles de la mécanique quantique compliquent un peu les choses, un raisonnement similaire peut s'appliquer. Ainsi, les physiciens s'attendaient à ce que le spin du nucléon provienne essentiellement des trois quarks, up ou down , qui le composent.

Pour mettre à nu la structure interne des nucléons, une finesse d'observation adaptée à leur très petite taille, qui est de l'ordre du millionième de millionième de millimètre, est requise. Or, plus les objets sont petits, plus l'énergie nécessaire à leur observation doit être grande. Les « microscopes » que les physiciens utilisent sont ainsi de puissants accélérateurs qui projettent à très grande vitesse des particules contre des nucléons cibles. Deux types de particules sont utilisés pour cela : les électrons, et leurs « cousins » plus massifs, les muons, qui portent tous les deux une charge électrique. En effet, ces particules ont l'avantage de ne pas posséder de structure interne, ce qui facilite l'interprétation des résultats, et la théorie de l'électrodynamique quantique décrit avec une très grande précision les interactions qui se produisent entre particules chargées. Les expériences sont réalisées avec des particules « polarisées », c'est-à-dire que leurs spins pointent tous dans une direction donnée lire ci-dessous « Les particules selon leur spin ». On mesure alors le nombre d'interactions entre les projectiles et les nucléons dans les cas où leurs spins sont orientés soit dans le même sens, soit dans un sens opposé. La différence entre ces taux de réaction permet de déduire la contribution des quarks au spin du nucléon.

La piste des gluons
C'est de cette manière que les physiciens de l'expérience European Muon Collaboration EMC du CERN mesurèrent pour la première fois en 1988 la contribution du spin des quarks au spin du nucléon [1] . Énorme surprise : la valeur était très faible, il était même possible qu'elle soit nulle ! On soupçonna immédiatement une erreur expérimentale. Des expériences plus précises conduites ultérieurement par la collaboration SMC au CERN de 1992 à 1996, par différentes collaborations au SLAC en Californie de 1992 à 1997, puis par la collaboration Hermes auprès de l'accélérateur DESY à Hambourg à partir de 1995, ont « essentiellement » confirmé les résultats de EMC, en les revoyant néanmoins un peu à la hausse. La contribution du spin des quarks au spin du nucléon, qui est aujourd'hui établie à 25 % environ, reste encore bien au-dessous de ce à quoi les physiciens s'attendaient.

Quelques mois après la présentation des résultats de l'expérience EMC, des recherches théoriques conduisirent toutefois à leur réinterprétation [2] . Du fait de complications mathématiques inhérentes à la théorie de la chromodynamique quantique, qui décrit les interactions entre les quarks, EMC et les expériences suivantes ne mesuraient en fait pas toute la contribution des spins des quarks : le résultat était réduit d'une fraction de la contribution du spin des gluons. On entrevit ainsi un scénario où la crise du spin disparaissait : la contribution des gluons y serait telle que l'on retrouverait la contribution importante des quarks à laquelle on s'attendait. Pour le vérifier et tenter d'avoir une compréhension plus précise de la structure des nucléons, une collaboration internationale de 250 chercheurs s'est regroupée au CERN en 1997 pour réaliser l'expérience Compass.

Contrairement aux quarks, les gluons n'ont pas de charge électrique. On ne peut donc pas faire interagir directement des faisceaux d'électrons ou de muons avec des gluons pour étudier leur spin. Néanmoins, on peut avoir recours à une approche indirecte. L'interaction entre un muon et un proton se produit par l'intermédiaire d'un photon. Dans une grande majorité de cas, ce photon interagit avec un quark ce qui donne lieu à de nombreuses particules produites dans la direction de la quantité de mouvement * du photon.

Plus rarement, le photon interagit avec un gluon, ce qui produit une paire formée d'un quark et d'un antiquark, son équivalent d'antimatière. Dans ce cas, des particules peuvent être produites dans une autre direction

que celle du photon, ce qui permet de savoir que l'on a bien « vu » un gluon. Comme pour les quarks, c'est la différence entre les taux de réaction selon l'orientation des spins qui permet de déduire la contribution du spin des gluons. Telle est la méthode expérimentale sur laquelle se fonde la collaboration Compass, qui utilise notamment une nouvelle génération de détecteurs

dont le principe a été proposé par Georges Charpak, Prix Nobel de physique en 1992.

En avril 2005, la collaboration a présenté les résultats de la première moisson de données. Ils suggèrent que la contribution du spin des gluons est très faible. La piste des gluons n'est toutefois pas abandonnée. Car Compass n'a pris en compte qu'une certaine catégorie de gluons, ceux dont la quantité de mouvement est telle qu'ils pouvaient effectivement interagir avec le faisceau de particules accélérées. Après un arrêt d'une année, Compass prendra à nouveau des mesures à partir du

printemps 2006 avec un appareillage amélioré. Celui-ci devrait permettre d'obtenir d'autres résultats par une méthode complémentaire, fondée sur l'identification du type de particules produites plutôt que sur leur direction de propagation.

Contribution du « spin orbital »
Par ailleurs, une collaboration internationale de physiciens travaillant au laboratoire RHIC, à Brookhaven, près de New York, cherche elle aussi à mesurer la contribution des gluons. Pour cela, elle fait collisionner l'un contre l'autre deux faisceaux de protons polarisés. L'un des faisceaux est utilisé en quelque sorte comme un faisceau de quarks pour « voir » les gluons dans l'autre proton. En 2006, les données déjà enregistrées depuis trois ans devraient permettre d'obtenir un résultat pour des gluons ayant des quantités de mouvement différentes de ceux observés par Compass. On peut donc espérer savoir d'ici peu si la contribution des gluons est à même de résoudre la crise du spin.

En attendant, et puisque la contribution des gluons semble pour le moment faible, l'attention se focalise sur une troisième contribution possible au spin des nucléons. Celle-ci est associée aux mouvements relatifs des quarks et des gluons à l'intérieur même du nucléon. En effet, pour reprendre l'analogie où l'on représente une particule comme une toupie en rotation autour

de son axe, celle-ci peut également tourner autour du « centre » du nucléon, comme les

planètes gravitent autour du Soleil, qui matérialise le centre du système solaire.

On dispose de plusieurs indications sur l'existence de cette forme de spin au sein du nucléon, que l'on appelle aussi le « spin orbital ». La plus probante a été apportée par une expérience

réalisée en 2004 au laboratoire Thomas Jefferson, en Virginie, à laquelle vingt-deux équipes internationales ont participé [3] . Les physiciens ont bombardé une cible de neutrons avec un faisceau d'électrons, dont les caractéristiques permettaient d'étudier une configuration rare où l'un des trois quarks porte à lui seul presque toute la quantité de mouvement du nucléon. Ils ont constaté que, lorsque ce quark était un quark down , son spin pointait dans la direction opposée à celle du spin du nucléon. Or, selon la théorie de la chromodynamique quantique qui décrit les interactions entre les quarks, ce résultat est inexplicable si l'on néglige le spin orbital. La contribution de ce dernier au spin du nucléon doit donc vraisemblablement être prise en compte.

Ce résultat qualitatif encourage les physiciens à mesurer la contribution du spin orbital. Les travaux réalisés notamment par le théoricien Xiang-Dong Ji, un physicien de l'université du Maryland, offrent l'espoir d'y parvenir un jour [4] . Car les formalismes sur lesquels il travaille depuis 1996, appelés « distributions de partons généralisées », permettent de décrire à la fois la quantité de mouvement des particules selon un axe et leur position dans un plan perpendiculaire. C'est-à-dire exactement ce qui est nécessaire pour calculer le spin orbital. Toutefois, accéder à la contribution du spin orbital

reste encore une gageure. Car, pour se servir de ces

outils théoriques, il faut réaliser des expériences où toutes les particules produites sont détectées, et utiliser

plusieurs accélérateurs couvrant une très large gamme

d'énergie. Lorsque l'on y parviendra, la combinaison de

ces percées théoriques et expérimentales permettra

d'obtenir pour la première fois une image tridimensionnelle de la structure la plus intime de la matière.

EN DEUX MOTS Dans le monde subatomique, tous les objets sont caractérisés par une propriété quantique fondamentale : le spin. Une image courante pour expliquer ce qu'est le spin est de représenter ces objets comme des toupies en rotation sur elles-mêmes. Les physiciens ont longtemps pensé que le spin des particules qui composent le noyau des atomes, les nucléons, provenait essentiellement des briques les plus élémentaires de la matière, les quarks. Mais les mesures réalisées depuis la fin des années 1980 ont toutes infirmé cette hypothèse, ce qui mettait en cause les modèles sur la structure des nucléons. Cette « crise du spin » a déclenché une intense activité de recherche dont on voit poindre aujourd'hui les résultats.

Par Serge Kox et Jean-Marc Le Goff

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

GRAVITÉ QUANTIQUE ...

 

1 - La gravité quantique à boucles en 5 questions


dossier - par Bernard Romney dans mensuel n°458 daté décembre 2011 à la page 38 (2607 mots) | Gratuit
En quelques années, la théorie de la gravité quantique à boucles, qui cherche à quantifier la gravitation, a changé de statut et gagné une certaine maturité. Quels sont les fondements de cette théorie ?

F in mai 2011, Madrid accueille une communauté particulière de physiciens : tous les spécialistes de la « gravité quantique à boucles » s'y réunissent pour célébrer les 25 ans de l'article fondateur de cette théorie. Dans son allocution, l'auteur de cette publication, le physicien d'origine indienne Abhay Ashtekar, dépeint l'essor actuel de cette approche théorique, notamment en cosmologie. On est donc loin de la théorie longtemps considérée comme exotique, n'intéressant que quelques théoriciens travaillant à une reformulation mathématique de la loi de la gravitation.

Aujourd'hui, ce modèle de quantification de l'espace-temps est cohérent et a acquis une nouvelle assise. Tout tourne autour de l'idée que l'espace n'est plus continu mais formé de petits grains élémentaires. Bien sûr, cette théorie, très difficile à tester, est encore spéculative. Mais décrire la structure intime de l'espace-temps, comme passer « de l'autre coté du Big Bang » motive toute cette communauté de physiciens. « Les boucles » ont passé un cap : c'est donc l'occasion d'en expliquer les fondements.

1 Quels sont les objectifs de cette théorie ?
Imaginée à partir du milieu des années 1980, la gravité quantique à boucles est une théorie qui, comme son nom l'indique, cherche à quantifier la gravité, et tente ainsi de répondre à l'une des questions clés de la physique actuelle. En effet, le début du XXe siècle a vu l'émergence des deux théories de la physique contemporaine. La mécanique quantique qui décrit les propriétés de l'infiniment petit : molécules, atomes, particules élémentaires... Et la relativité générale, théorie relativiste de la gravitation, qui décrit l'Univers à grande échelle. Dans leurs domaines respectifs, ces deux théories font des merveilles. Pour autant, elles sont totalement incompatibles, et conduisent à deux représentations du monde radicalement différentes. D'un côté, des phénomènes quantiques aléatoires, incertains et discontinus, ayant cours dans l'espace-temps parfaitement plat et figé de la microphysique. De l'autre l'espace-temps courbe et dynamique, mais parfaitement lisse et continu de la relativité générale.

Exigence conceptuelle donc, mais pas seulement. En effet, si elles sont peu nombreuses, certaines questions, comme le début de l'Univers ou la fin de vie d'un trou noir, requièrent, pour être abordées dans leur intégralité, une théorie à même de rendre compte de situations où les effets gravitationnels se font sentir à l'échelle microscopique. Ce dont seule une théorie quantique de la gravitation serait capable.

Dès 1916, Einstein prend conscience de la nécessité de quantifier la gravitation. Mais les physiciens y sont d'abord parvenus pour les autres interactions fondamentales : la force électromagnétique et les interactions nucléaires faible et forte. C'est d'ailleurs l'un des triomphes de la physique du siècle dernier d'avoir forgé une théorie à la fois quantique et relativiste de ces trois dernières interactions. Et le résultat de ce tour de force est synthétisé dans ce que les physiciens des particules appellent le modèle standard.

À l'inverse, malgré un siècle d'efforts, personne n'a réussi à proposer une version quantique entièrement satisfaisante de la gravitation. Et pour cause : alors que les outils mathématiques utilisés pour quantifier les autres forces fondamentales ne sont utilisables que dans le cadre d'un espace-temps plat, celui de la gravitation est fondamentalement mouvant.

Pour contourner le problème, plusieurs tentatives ont consisté à étudier le cas de petites déformations de l'espace-temps sur une trame considérée comme plate et fixe. Mais toutes se sont confrontées à d'incontournables incohérences mathématiques les rendant in fine inutilisables.

Aujourd'hui, il existe essentiellement deux grandes théories concurrentes, et à ce stade encore spéculatives, qui proposent de quantifier la gravitation : la théorie des cordes lire L'ambitieuse théorie des cordes, p. 41 et la gravité quantique à boucles. La première évolue sur un espace-temps parfaitement figé. Et c'est ce qu'un certain nombre de théoriciens lui reprochent. Selon eux, pour cette raison, la théorie des cordes ne peut pas être l'ultime théorie quantique de la gravitation. Et ils lui préfèrent la gravité quantique à boucles, a priori plus modeste. N'ayant pas pour ambition d'unifier toutes les interactions, elle se concentre en effet exclusivement sur la quantification de la gravitation. De plus, l'approche « cordiste » part d'une hypothèse ad hoc - l'existence des cordes -, alors que les « bouclistes », et c'est leur force, ne se fondent que sur de la physique connue : la mécanique quantique et la relativité générale.

2 Comment les boucles quantifient-elles la gravitation ?
Pour les spécialistes des boucles, une véritable théorie quantique de la gravitation ne doit formuler aucune hypothèse sur la géométrie de l'espace-temps. Comme en relativité générale, c'est le contenu en matière de l'Univers qui fixe de façon dynamique sa géométrie. Les physiciens parlent ainsi d'approche « indépendante du fond ».

À partir de là, il s'agit d'appliquer les techniques standard de quantification à la gravitation. C'est-à-dire à l'espace-temps lui-même, puisque selon les équations d'Einstein, la force qui fait « tomber les pommes » est une manifestation directe de la déformation que la matière imprime à la trame de l'espace-temps.

Certes, de multiples tentatives ont montré toute la difficulté d'appliquer un tel programme. Mais pour les promoteurs de la gravité quantique à boucles, c'est justement le fait d'avoir privilégié des approches non indépendantes du fond qui a été à l'origine des échecs passés. Car en figeant la trame de l'espace-temps, elles empêchaient que ne se révèle son éventuelle structure quantique.

Concrètement, l'origine de la gravité quantique à boucles réside dans une reformulation de la relativité générale proposée en 1986 par Abhay Ashtekar, alors à l'université de Syracuse, aux États-Unis [1] . L'exercice est d'une extrême technicité mathématique. Sauf que réécrites sous cette forme, les équations décrivant la géométrie mouvante de l'espace-temps ressemblent désormais à celles qui décrivent les lignes de champ électrique dans la théorie de Maxwell. Ce que remarquent Carlo Rovelli et Lee Smolin, alors à l'université Yale aux États-Unis, au tournant des années 1980 et 1990 [2] .

Les deux physiciens suggèrent d'exporter les méthodes utilisées pour dériver la version quantique de l'électromagnétisme, quoique sous une forme très largement remaniée, dans le champ de la relativité générale et de la gravitation. Ainsi naît une théorie quantique de la gravité, dont le nom, gravité quantique à boucles, vient du fait qu'elle s'appuie sur le calcul de la variation de l'orientation de surfaces d'espace le long de lignes fermées d'espace-temps, autrement dit des boucles. Calculs auxquels sont associées des incertitudes fondamentales équivalentes à celles qui, en mécanique quantique, empêchent de déterminer simultanément la position et la vitesse d'une particule microscopique.

3 À quelle vision de l'espace-temps conduit la gravité quantique à boucles ?
En 1994, Carlo Rovelli et Lee Smolin, alors aux universités de Pittsburgh et de Syracuse, montrent que cette théorie conduit à une représentation de l'espace-temps radicalement nouvelle [3] . Alors que l'espace-temps de la théorie d'Einstein est lisse à toutes les échelles, celui de la gravité quantique à boucles, d'après les calculs des deux théoriciens, présente une structure discontinue si on le regarde aux échelles les plus petites.

Ainsi, de la même manière que l'énergie d'un atome ou d'une molécule ne peut prendre que certaines valeurs, la gravité quantique à boucles indique que l'espace lui-même n'est pas insécable à l'infini. Les calculs conduisent à une longueur élémentaire, la plus petite possible, équivalente à la longueur de Planck, soit 10-35 mètre. Ce qui mène à une surface élémentaire d'Univers de 10-70 mètre carré, et en trois dimensions à un volume élémentaire, le plus petit « cube » d'espace envisageable, de 10-105 mètre cube. L'Univers entier devenant alors une sorte de gigantesque « lego » composé de volumes élémentaires certes minuscules, mais insécables. De la même manière que la matière, d'apparence lisse et continue à notre échelle, résulte de l'agencement de particules dont la taille est finie.

Étonnant ? Peut-être. Si ce n'est que ces « grains » d'espace n'ont rien d' ad hoc , mais sont au contraire une conséquence implacable des calculs à base de boucles. Plus précisément, chaque fois que les équations de la théorie parcourent une boucle de façon abstraite, elles engendrent du même coup un nouveau quantum de volume [fig. 1] .

L'année suivante, Carlo Rovelli et Lee Smolin raffinent leur approche. Plus précisément, ils réalisent que la structure granulaire de l'espace peut être décrite par une gigantesque toile, ou réseau, dont chaque noeud représente un volume élémentaire et chaque lien la surface séparant deux volumes adjacents. Cette représentation leur a été inspirée par des travaux réalisés quinze ans plus tôt par Roger Penrose, à l'université d'Oxford. Et c'est donc auprès du célèbre mathématicien que les deux théoriciens peaufinent leurs idées durant l'été 1994, lors d'un séjour à Vérone, en Italie.

Pour autant, cet espace-temps granulaire ne suffit pas à faire alors de la théorie quantique à boucles une théorie quantique de la gravité. Encore faut-il qu'elle indique comment la dynamique de l'espace-temps met en oeuvre ces quanta d'espace dans des situations physiques concrètes, de la même manière que la relativité générale décrit l'extension de l'Univers dans l'espace-temps comme une solution des équations d'Einstein.

Les premières équations d'évolution d'un Univers quantique sont le fait de Thomas Thiemann, alors à l'université de Penn State, en Pensylvanie, en 1996. Accueillies avec un immense enthousiasme, elles laissent entrevoir la possibilité de calculer les probabilités quantiques précises de chaque modification de l'espace-temps quantifiée. Elles conduisent aussi à se représenter ce dernier telle une « mousse » faite de petits volumes d'espace et de temps, la quatrième dimension - le temps - devenant également une grandeur discontinue, dont le plus petit incrément est environ égal au temps de Planck, soit 10-43 seconde [fig.2] .

Néanmoins, l'euphorie est de courte durée : les équations de Thiemann sont si difficiles à manipuler qu'elles ne sont presque d'aucune utilité pratique. Sans compter qu'à l'horizon des années 2000 personne n'est en mesure de garantir l'unicité des règles conduisant à la quantification de l'espace-temps dans le cadre de la gravité quantique à boucle. D'où un risque de conduire, pour une situation physique donnée, à des prédictions différentes et contradictoires et donc d'invalider la théorie.

Aussi faut-il attendre ces toutes dernières années pour que plusieurs physiciens, notamment Laurent Freidel, à l'institut Perimeter, à Waterloo, au Canada, Etera Livine, à l'école normale supérieure de Lyon, et le groupe de Carlo Rovelli, au Centre de physique théorique, à Luminy, prouvent définitivement le caractère univoque de la gravité quantique à boucles [4] . Et en donnent une formulation permettant de l'utiliser pour réaliser des calculs.

4 Quels sont les succès de cette théorie ?
Tout d'abord, la gravité quantique à boucles est la seule théorie qui propose une description quantique de l'espace-temps, et donc de la gravitation, qui intègre à la fois les exigences de la mécanique quantique : description probabiliste des phénomènes physiques, relations d'incertitude, caractère discontinu de la réalité... et le caractère fondamentalement dynamique de l'espace-temps de la relativité générale.

Par ailleurs, John Barrett, Winston Fairbairn et leur groupe de recherche, à l'université de Nottingham en Grande-Bretagne, ont récemment prouvé qu'à grandes échelles la gravité quantique à boucles se résume effectivement à la relativité générale [5] , de même que dans le domaine des faibles champs de gravitation, la relativité générale ne fait qu'une avec la théorie newtonienne.

Dans le même esprit, Eugenio Bianchi et You Ding, à l'université de Aix-Marseille, ont montré que la gravité quantique à boucles permet de décrire certaines propriétés de l'espace-temps en terme de propagation de gravitons, particule élémentaire imaginée être associée au champ de gravité. Et là encore, ses prédictions sont conformes à celles de la relativité générale. Elle permet aussi de retrouver les équations dites de Friedman qui décrivent l'expansion de l'Univers dans le cadre de la théorie d'Einstein de la gravitation.

Mais ce n'est pas tout. L'une des plus grandes réussites de la gravité quantique à boucles concerne la cosmologie. Ainsi, elle permet de dépasser les difficultés posées par la singularité mathématique associée au Big Bang, dont le sens physique est inexistant. Plus précisément, elle montre que notre univers en expansion pourrait résulter du « rebond » d'un univers en contraction qui l'aurait précédé lire « De l'autre côté du Big Bang », p. 46.

Enfin, la gravité quantique à boucles s'est illustrée dans la description de la physique des trous noirs lire « Comment la théorie des boucles voit les trous noirs », p. 44. En effet elle a permis à Carlo Rovelli, dès 1996, de retrouver la formule de l'entropie d'un trou noir. En des termes profanes, l'étrange résultat obtenu au début des années 1970 par Stephen Hawking, à Cambridge, et Jacob Bekenstein, alors à Princeton, selon lequel un trou noir, astre dont la relativité générale indique qu'il est impossible de s'en extraire, émet néanmoins, comme tout corps, un rayonnement thermique lié au fait qu'il possède une température. Et dont le physicien Stephen Hawking avait montré qu'il ne peut s'expliquer qu'en introduisant une dose de mécanique quantique dans la physique de ces astres noirs.

5 Est-il possible de tester la gravité quantique à boucles ?
Sachant que les prédictions de la gravité quantique à boucles concernent des domaines - échelle de Planck de l'espace-temps , Big Bang, trous noirs - totalement inaccessibles à l'expérimentation directe, la réponse est difficile. Et, il y a encore quelques années, d'aucuns auraient assuré que cette théorie, comme du reste toute théorie quantique de la gravitation, ne pourrait jamais être testée. Aujourd'hui, les avis sont partagés. Mais quelques pistes existent.

Ainsi, même s'il n'y a pas consensus sur la question, il n'est pas impossible que la granularité de l'espace prédite par les « boucles » s'accompagne d'une violation du sacro-saint caractère de la vitesse de la lumière. En effet, lorsqu'elle se propage entre les atomes d'un solide, la lumière, si sa longueur d'onde est très grande par rapport à la distance inter-atomique, ne subit pas d'influence du réseau cristallin, comme si elle ne le « voyait » pas. Et sa vitesse est la même que dans le vide. A l'inverse, si sa longueur d'onde est de l'ordre de grandeur de la distance inter-atomique, ou plus petite, elle devient sensible à l'influence du milieu dans lequel elle se propage. Sa vitesse dépend alors de sa longueur d'onde. Il n'est donc pas impossible qu'un photon de très petite longueur d'onde, de l'ordre de la longueur de Planck, puisse voir sa vitesse de propagation dans le vide affectée par la structure quantique de l'espace-temps telle que prédite par la gravité quantique à boucles.

Pour le savoir, les astrophysiciens comptent en particulier sur l'observation de ce qu'ils appellent des sursauts gamma, soit des bouffées de lumière ultra intenses - pendant quelques centaines de secondes, elles sont jusqu'à 10 fois plus lumineuses que toute la galaxie - émis par des galaxies anciennes situées à plusieurs milliards d'années-lumière de la Terre. Ainsi, un décalage constaté dans l'arrivée des photons de différentes longueurs d'onde pourrait être un signe favorable en faveur des boucles.

Autre possibilité : la piste cosmologique. En effet, les calculs montrent que la structure granulaire de l'espace-temps aurait pu imprimer sa marque dans le fond diffus cosmologique, la plus ancienne lumière aujourd'hui observable dans l'Univers. Effets qui pourraient être décelés par les nouveaux télescopes spatiaux. Avec tout de même un bémol : l'impossibilité de prévoir, étant donné l'indétermination qui règne sur certains paramètres de la théorie, si ces modulations dans le fond diffus ne seraient pas plus grandes que l'Univers observable. Auquel cas, même si elles existent, elles resteront à jamais inaccessibles.

Certains « bouclistes » optent enfin pour une approche probabiliste, et se demandent par exemple quelle est la probabilité que la gravité quantique à boucle engendre un Univers compatible avec les propriétés du nôtre. À ce jeu, il sera difficile de vérifier cette théorie.

Par Bernard Romney

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google