|
|
|
|
 |
|
LA MASSE DU PROTON |
|
|
|
|
|
Paris, 20 novembre 2008
D'où vient la masse du proton ?
A 95 % de l'énergie des quarks et des gluons, répondent les physiciens du Centre de physique théorique de Marseille (1). Menés à partir du modèle standard qui décrit les interactions entre particules élémentaires, leurs calculs prouvent que la masse du proton résulte principalement de l'énergie portée par ces tous petits "éléments" que sont les quarks et les gluons, au travers de la célèbre formule d'Einstein E=mc2. Cette prouesse confirme la validité d'une théorie pour dépeindre les interactions fortes entre particules. Publiés dans Science le 21 novembre 2008, ces travaux ont été accomplis grâce à des supercalculateurs parmi les plus puissants au monde. Ils permettent d'envisager l'arrivée d'une nouvelle théorie en physique fondamentale, au-delà du modèle actuel, avec d'éventuelles découvertes dans le domaine des interactions faibles de quarks.
Dans les noyaux des atomes, on trouve des protons et des neutrons. Ceux-ci sont eux-mêmes constitués de quarks et de gluons, sortes de petites sous-structures fondamentales. Or, la masse des gluons est nulle. Et, contrairement à ce que l'on pourrait penser, la masse des quarks qui composent un proton ne représente que 5% de la masse de ce dernier. D'où proviennent donc les 95% restants ?
Une équipe de physiciens français, allemands et hongrois vient de prouver que ces 95% résultent de l'énergie due aux mouvements des quarks et des gluons, et à leurs interactions. Une masse issue d'une énergie, c'est un résultat quelque peu déroutant, pourtant traduit par la célèbre formule d'Einstein E=mc2 énonçant l'équivalence entre masse et énergie. Jusqu'ici hypothèse, ce résultat est pour la première fois corroboré.
Les chercheurs, pilotés en France par Laurent Lellouch, directeur de recherche CNRS au Centre de physique théorique, se sont appuyés sur plus de vingt ans de recherches effectuées par des physiciens du monde entier. Partant des équations de la chromodynamique quantique (2), c'est-à-dire la théorie qui décrit les interactions fortes, ils sont parvenus à calculer la masse des protons, des neutrons et autres particules du même type (3). Résultat, les masses obtenues par le calcul sont en excellent accord avec celles mesurées expérimentalement. Les chercheurs confirment ainsi que le modèle standard est correct pour décrire l'origine de la masse de ces particules et donc celle de plus de 99% de l'univers visible, comprenant le Soleil, la Terre, nous-même et tous les objets qui nous entourent.
Pour parvenir à leurs fins, les chercheurs ont utilisé une approche où l'espace-temps est envisagé comme un réseau cristallin à quatre dimensions, composé de sites espacés le long de rangées et de colonnes. Leur principal défi était d'arriver à une solution qui corresponde à notre espace-temps continu, tout en contrôlant toutes les sources d'incertitudes liées aux calculs sur réseau. Sur le plan pratique, ce travail marque l'arrivée à maturité de méthodes numériques pertinentes pour l'étude des interactions fortes. Il devrait jouer un rôle fondamental dans la nouvelle ère de la physique qui s'ouvre avec le Large Hadron Collider. En effet, contrôler le modèle des interactions fortes pourrait permettre de mettre en évidence de nouveaux effets liés aux interactions faibles de quarks qui sont masqués par les interactions fortes.
Ce calcul s'avère l'un des plus importants calculs numériques effectués à ce jour. Une véritable performance qui a requis les ressources des supercalculateurs Blue Gene de l'Institut du développement et des ressources en informatique scientifique (IDRIS) du CNRS et du Forschungszentrum Jülich, mais également des fermes de calcul de l'Université de Wuppertal et du Centre de physique théorique de Marseille.
DOCUMENT CNRS LIEN
|
|
|
|
|
 |
|
MICROELECTRONIQUE |
|
|
|
|
|
Paris, 12 janvier 2011
Microélectronique : un gaz d'électrons à la surface d'un isolant ouvre la voie du transistor multi-fonctions
Des chercheurs du CNRS et de l'Université Paris-Sud 11 (1) ont découvert comment créer une couche conductrice à la surface d'un matériau isolant et transparent très étudié pour la microélectronique du futur, le titanate de strontium (SrTiO3). Cette couche conductrice de deux nanomètres d'épaisseur est un gaz d'électrons métallique bidimensionnel qui fait partie du matériau. Facilement réalisable, elle ouvre des perspectives pour l'électronique à base d'oxydes de métaux de transition (la famille de SrTiO3), qui cherche à profiter de l'énorme variété des propriétés physiques de ces matériaux (supraconductivité, magnétisme, thermoélectricité, etc.) pour intégrer plusieurs fonctionnalités différentes dans un même dispositif microélectronique. Cette découverte inattendue, mise en évidence au synchrotron SOLEIL, est publiée dans la revue Nature du 13 janvier 2011.
Aujourd'hui, les composants microélectroniques sont fabriqués à base de couches de semi-conducteurs déposées sur un substrat de silicium. Afin de poursuivre l'accroissement périodique des performances des composés microélectroniques au-delà de 2020, des solutions technologiques alternatives sont à l'étude. Les chercheurs travaillent de plus en plus sur les oxydes de métaux de transition (2), qui présentent des propriétés physiques intéressantes comme la supraconductivité (3), la magnétorésistance (4), la thermoélectricité (5), la multi-ferroïcité (6), ou encore la capacité photo catalytique (7).
Parmi les oxydes des métaux de transition, le titanate de strontium (SrTiO3) est très étudié. C'est un isolant, mais il devient bon conducteur en le dopant (en créant quelques lacunes d'oxygène par exemple). Les interfaces entre le SrTiO3 et d'autres oxydes (LaTiO3 ou LaAlO3) sont conductrices, même si les deux matériaux sont isolants. En plus, elles présentent de la supraconductivité, de la magnétorésistance, ou de la thermoélectricité avec de très bons rendements à température ambiante. Seulement voilà : les interfaces entre oxydes sont très difficiles à réaliser.
Une découverte inattendue vient de faire sauter ce verrou technologique. Une équipe internationale pilotée par des scientifiques du CNRS et de l'Université Paris-Sud 11 vient de réaliser un gaz d'électrons métallique bidimensionnel à la surface de SrTiO3. Il s'agit d'une couche conductrice de deux nanomètres d'épaisseur environ, obtenue en cassant un morceau de titanate de strontium sous vide. Ce procédé, très simple, est peu coûteux. Les éléments qui constituent SrTiO3 sont disponibles en grande quantité dans les ressources naturelles et c'est un matériau non toxique, contrairement aux matériaux les plus utilisés aujourd'hui en microélectronique (les tellurures de bismuth). En outre, des gaz d'électrons métalliques bidimensionnels pourraient probablement être créés de façon similaire à la surface d'autres oxydes de métaux de transition.
La découverte d'une telle couche conductrice (sans avoir à rajouter une couche d'un autre matériau) est un grand pas en avant pour la microélectronique à base d'oxydes. Elle pourrait permettre de combiner les propriétés intrinsèques multifonctionnelles des oxydes de métaux de transition avec celles du métal bidimensionnel à sa surface. On peut songer, par exemple, au couplage d'un oxyde ferro-électrique avec le gaz d'électrons à sa surface, pour faire des mémoires non volatiles, ou à la fabrication de circuits transparents sur la surface des cellules solaires ou des écrans tactiles.
Les expériences de photoémission résolue en angle (ARPES) qui ont servi à mettre en évidence le gaz d'électron métallique bidimensionnel ont été réalisées d'une part au synchrotron SOLEIL (Saint-Aubin, France), et au Synchrotron Radiation Center (Université du Wisconsin, USA).
Notes :
(1) Cette étude a été pilotée par les chercheurs du Centre de spectrométrie nucléaire et spectrométrie de masse(Université Paris-Sud 11/CNRS) en collaboration étroite avec des chercheurs du Laboratoire de physique des solides (Université Paris-Sud 11/CNRS), de l'Unité mixte de physique CNRS/Thales associée à l'Université Paris-Sud 11 et de l'Institut d'électronique fondamentale(Université Paris-Sud 11/CNRS).
(2) le cuivre, le titane, le manganèse, le fer, le cobalt, le nickel, etc.
(3) la capacité à conduire le courant électrique sans pertes
(4) le changement de la résistance de plusieurs ordres de grandeur sous application d'un très faible champ magnétique, utilisée dans les disques durs.
(5) la capacité de transformer un gradient de température en énergie électrique, qui pourrait servir à récupérer la chaleur dégagée par un ordinateur pour la réinjecter dans le système sous forme d'énergie (et économiser ainsi la batterie ou l'alimentation).
(6) coexistence de ferroélectricité, ferromagnétisme et/ou ferroélasticité, de quelques oxydes de fer ou de manganèse
(7) de quelques oxydes de titane – qui arrivent même à faire de l'hydrolyse (la décomposition de l'eau en oxygène et hydrogène) en présence de lumière ultraviolette.
DOCUMENT CNRS LIEN |
|
|
|
|
 |
|
METAMORPHOSE DES NEUTRINOS |
|
|
|
|
|
Paris, 15 juin 2011
Des neutrinos en flagrant délit de métamorphose
Pour la première fois, les physiciens de l'expérience T2K au Japon, parmi lesquels ceux du CNRS (1) et du CEA/Irfu, annoncent avoir très probablement détecté une transformation de neutrinos muons en neutrinos électrons. L'observation - probable à plus de 99% - de ce phénomène constituerait une découverte majeure pour la compréhension de la physique des particules élémentaires et ouvrirait la voie à de nouvelles études sur l'asymétrie entre la matière et l'antimatière.
Les neutrinos existent sous trois formes ou « saveurs » : les neutrinos électrons, muons et tau. L'expérience T2K, située au Japon, étudie le mécanisme d'oscillation de ces particules, c'est-à-dire la faculté qu'elles ont à se transformer en une autre saveur dans leurs déplacements. Son principe est d'observer les oscillations des neutrinos sur une distance de 295 km, entre les sites de Tokai, où les neutrinos muons sont produits grâce à l'accélérateur de particules de JPARC (2) sur la côte est du Japon, et le détecteur Super-Kamiokande, une cuve d'eau cylindrique de 40 mètres de diamètre et 40 mètres de hauteur située à 1 000 mètres sous terre, près de la côte ouest (d'où son nom T2K, qui signifie « de Tokai à Kamiokande »).
Les analyses des données collectées entre la mise en service de l'expérience en janvier 2010 et mars 2011 (l'expérience a été arrêtée avec le séisme du 11 mars) montrent que durant cette période, le détecteur Super-Kamiokande a enregistré un total de 88 neutrinos, parmi lesquels 6 neutrinos électrons qui proviendraient de la métamorphose de neutrinos muons en neutrinos électrons. Les 82 neutrinos restants seraient essentiellement des neutrinos muons n'ayant subi aucune transformation entre leur point de production et leur détection. Des mesures utilisant un GPS certifient que les neutrinos identifiés par le détecteur Super-Kamiokande ont bel et bien été produits sur la côte est du Japon. Les physiciens estiment ainsi que les résultats obtenus correspondent à une probabilité de 99,3% de découverte de l'apparition des neutrinos électrons.
L'expérience T2K redémarrera dès la fin de cette année. Bien que situés dans une zone sismique proche de l'épicentre du tremblement de terre du 11 mars 2011, le laboratoire JPARC et les détecteurs proches de T2K n'ont subi heureusement que des dégâts minimes. Le prochain objectif de T2K est de confirmer avec davantage de données l'apparition des neutrinos électrons et, mieux encore, de mesurer le dernier « angle de mélange », un paramètre du modèle standard qui ouvrirait la voie aux études de l'asymétrie entre la matière et l'antimatière dans notre Univers.
La collaboration T2K regroupe plus de 500 physiciens de 62 institutions réparties dans 12 pays (Japon, pays européens et États-Unis). Les équipes du CNRS et du CEA/Irfu ont mis au point certains instruments de mesure utilisés dans les détecteurs proches (situés à 280 mètres du point de production des neutrinos et nécessaires à contrôler l'expérience) et participé à la calibration du détecteur Super-Kamiokande. Elles ont également contribué à l'analyse des données.
DOCUMENT CNRS LIEN |
|
|
|
|
 |
|
LE BOSON DE HIGGS |
|
|
|
|
|
DOCUMENT + VIDEO UNIVERSCIENCE LIEN
Enquête Accelerateur de particules| Boson
Le boson de Higgs enfin démasqué
Le CERN vient de présenter les derniers résultats des expériences menées au sein du LHC. Comme les physiciens s’y attendaient, l’existence du fameux boson vient d’être confirmée et la masse de la particule déterminée. Et tout cela est parfaitement compatible avec le Modèle standard.
Par Yaroslav Pigenet, le 03/07/2012 (Mis à jour le 06/07/2012)
Le LHC (Large Hadron Collider) « Nous avons observé un nouveau boson ! » C'est par cette litote que Joe Incadela, responsable de l’expérience CMS du LHC, a confirmé que la longue traque du boson de Brout-Englert-Higgs venait d’entrer dans une nouvelle phase. Désormais la fameuse particule n’est plus seulement une entité théorique, sa réalité physique a enfin été démontrée par l’expérience et sa masse estimée aux alentours de 125 GeV/c2. Même si la nouvelle était attendue, le petit monde de la physique est enthousiaste devant cette (nouvelle) confirmation expérimentale du Modèle standard. « Il s’agit d’un résultat très préliminaire, mais nous pensons qu’il est très significatif, très robuste », a notamment expliqué Joe Incandela au cours de la conférence organisée le 4 juillet au CERN pour présenter ces résultats.
Une particule clé
L’existence du boson de Higgs a été prédite dès 1964, non seulement par Peter Higgs, mais aussi, indépendamment, par les physiciens Gerald Guralnik, Carl Richard Hagen, Tom Kibble, Robert Brout et François Englert. Cette particule, jusqu’ici hypothétique, donnerait naissance au champ de Higgs, dans lequel « baignerait » l’Univers entier et qui conférerait aux autres particules leur masse spécifique.
À ce titre, le Higgs est à la fois la clé de voûte et l’ultime pièce manquante du Modèle standard de la physique des particules. En effet, bien que prédite par la théorie, cette particule élémentaire n’avait jusqu’ici jamais été observée expérimentalement, contrairement à toutes les autres particules postulées par ce même modèle.
Le Modèle standard, c'est quoi ?
Les particules du Modèle standard La matière qui nous entoure est constituée de particules élémentaires décrites avec un haut degré de précision par une théorie appelée « Modèle standard ». Développé dans la deuxième moitié du XX ème siècle, ce dernier prévoit l'existence de douze particules ( et de leur douze antiparticules) qui composent la matière, les fermions, et treize autres particules, les bosons, qui assurent sa cohésion. Toutes les particules élémentaires prédites par le modèle ont fini par être observées. Toutes sauf une, qui résiste encore et toujours aux expérimentateurs : le boson de Higgs. Et c'est là que le bât blesse. Jusque là cantonnée au statut d'objet mathématique, cette particule est la clé de voûte du Modèle standard. Elle permet d'expliquer certaines incohérences mathématiques et mène à une théorie consistante et extrêmement précise sur le plan prédictif. Le défi du plus puissant accélérateur de particules au monde, le LHC, est justement de détecter la présence du Higgs et prouver ainsi sa réalité physique. Si Higgs existe, alors le Modèle standard sera validé, unifiant ainsi les trois forces fondamentales de l'infiniment petit : les interactions forte, faible et électromagnétique... mais toujours pas la gravitation, qui régit l'infiniment grand.
C’est le franchissement de ce seuil de significativité statistique qui vient juste d’être annoncé par les responsables des expériences ATLAS et CMS dont les résultats seront prochainement publiés. Mieux, les deux expériences, menées indépendamment, parviennent à une estimation similaire de la masse du boson de Higgs, ce qui renforce leur validité. A savoir, 125,3 GeV/c2 selon l’expérience CMS, et 126,5 GeV/c2 selon l’expérience ATLAS, soit 133 fois la masse du proton, en total accord avec les masses prévisibles par le Modèle standard.
Juste un boson ?
Désintégration d'un candidat boson de Higgs La quantité totale de données collectées et analysées par ATLAS ayant doublé depuis décembre, il paraissait donc assez probable que ce seuil statistique fatidique serait enfin franchi et que le CERN pourrait annoncer LA détection du fameux boson. Et justifier ainsi les 8,9 milliards € qu’a coûté la construction du LHC. Mais même si on comprend Peter Higgs, 83 ans, qui considère que cette confirmation expérimentale « est la chose la plus incroyable qui soit arrivée dans sa vie », on ne peut s’empêcher de noter que la « percée » annoncée pour cette conférence consiste plutôt à confirmer et affiner une découverte prévue depuis longtemps. Comme l’a reconnu Fabiola Gianotti, responsable d’Atlas, « ceci n’est qu’un début, nous aurons besoin de plus de données pour commencer à comprendre la nature de cette particule ». Des données qui permettront peut-être de parachever, mais aussi de dépasser voire d’invalider un Modèle standard dont, à l’instar du mathématicien Alain Connes, « personne ne pense qu’il est le fin mot de l'histoire surtout à cause du très grand nombre de paramètres libres qu'il contient ».
Yaroslav Pigenet, le 03/07/2012 | Mis à jour le 06/07/2012
La discrimination par la désintégration
Cela fait maintenant trois ans que les chercheurs traquent les traces de ce boson dans les débris laissés par les collisions entre protons accélérés par le LHC à des vitesses proches de celle de la lumière.
Le Higgs ayant une existence bien trop brève pour être détecté directement, seuls les produits de sa désintégration – d’autres particules élémentaires – peuvent attester de sa présence et dévoiler ses caractéristiques inconnues, notamment sa masse. La principale difficulté étant de distinguer, au milieu de la soupe de particules produite à chaque collision, celles qui proviennent effectivement de la désintégration du Higgs de celles qui découlent d’autres phénomènes parasites générés par la collision. Sachant, en outre, que le Higgs peut emprunter plusieurs trajectoires de désintégration, donnant chacune des produits différents, et que la probabilité de chacune de ces trajectoires dépend de la masse du boson… que l’on ne connaît pas a priori.
Une existence statistique
Simulation d'une détection de boson de Higgs Ainsi un Higgs doté d’une masse de 100 GeV/c2 a une faible probabilité de se décomposer en deux bosons W, mais cette probabilité est beaucoup plus importante si le Higgs « pèse » 170 GeV/c2. Bref, la détection et la caractérisation du Higgs reposent sur un raisonnement statistique exploitant les données collectées pour des millions de collisions successives, et non sur une identification formelle à 100%. Cette méthode statistique a permis aux chercheurs de réduire peu à peu, expérience après expérience, l’éventail des masses possibles pour le Higgs.
Des GeV qui en font des tonnes
En physique des particules, l’électron-volt (eV) est une unité d’énergie beaucoup plus pratique à utiliser que le joule du système international (1eV= 1,60217653×10-19 J). De même, en raison de l’équivalence masse/énergie (E=mc2 donc m=E/c2) démontrée par la relativité restreinte d’Einstein, pour des raisons de commodité, on exprime la masse en électron-volt/c2 (eV/c2) plutôt qu’en kilogramme.
Par exemple, l’ancêtre de LHC, le LEP, a permis d’exclure une masse du Higgs inférieure à 114,4 GeV/c2. Une estimation complétée par les derniers résultats fournis par l’accélérateur Tevatron, qui interdisent toute masse comprise entre 147 et 179 GeV/c2 et situent le Higgs dans l’intervalle 115-135 GeV/c2 avec un risque d’erreur de 3%. Enfin, en décembre 2011, les expériences ATLAS et CMS du LHC ont observé des signaux cohérents indiquant la présence d’un Higgs d’une masse de 124 à 126 GeV/c2. La probabilité d’erreur était cette fois ramenée à 0,2%. Le Graal était donc presque à portée, mais en physique des particules, pour affirmer une découverte, la probabilité d'erreur doit être inférieure à 0,00003%.
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|