|
|
|
|
|
|
DES ROBOTS HUMANOÏDES |
|
|
|
|
|
Paris, 12 février 2016
Des robots humanoïdes dans les usines aéronautiques de demain
Développer des technologies de robotique humanoïde pour effectuer des tâches difficiles dans les usines aéronautiques, c'est le programme de recherche commun, d'une durée de quatre ans, du Joint Robotics Laboratory (CNRS/AIST)1 et d'Airbus Group. Il sera officiellement lancé le 12 février 2016 à l'ambassade de France à Tokyo2. L'introduction d'humanoïdes sur les lignes d'assemblage aéronautiques permettra de décharger les opérateurs humains des tâches les plus laborieuses ou dangereuses. Ils pourront ainsi se concentrer sur des tâches à plus forte valeur ajoutée. La principale difficulté pour ces robots sera de travailler dans un environnement exigu : comment réaliser certains mouvements sans entrer en collision avec les nombreux objets alentours ? C'est la première question à laquelle devront répondre les chercheurs, en développant de nouveaux algorithmes de planification et contrôle des mouvements précis.
Du fait de la taille des appareils aéronautiques (par exemple des avions de ligne) et du très grand nombre de tâches à effectuer sur peu d'unités, l'utilisation de robots spécialisés à base fixe, déjà utilisés dans l'industrie automobile, est impossible dans l'industrie aéronautique. D'autres difficultés s'ajoutent : même si des robots constitués d'une base mobile et d'un bras manipulateur peuvent être utilisés par l'industrie (comme chez Airbus Group par exemple), ceux-ci sont limités dans leurs déplacements. Ils n'ont, en effet, pas la possibilité de monter des escaliers ou des échelles, de passer des obstacles au sol, etc. De son côté, le Joint Robotics Laboratory (JRL, CNRS/AIST) développe, à partir des modèles de robots HRP-2 et HRP-43, des nouvelles technologies de locomotion dites multi-contacts : en s'aidant de tout son corps pour prendre contact avec son environnement, et non seulement avec ses pieds, ce type de robot peut monter des échelles et entrer dans des endroits exigus. La possibilité d'avoir des contacts multiples permet aussi d'accroître la stabilité du robot et la force qu'il peut appliquer lorsqu'il effectue une tâche. De plus, la forme anthropomorphique de ces robots offre une polyvalence utile pour effectuer un grand nombre de tâches différentes dans des environnements variés.
La collaboration entre les chercheurs du JRL et Airbus Group a donc pour but de permettre aux robots humanoïdes d'effectuer des tâches de manipulation dans un environnement contraint et limité, les lignes d'assemblage, où ils devront faire un usage coordonné de leur corps pour mener à bien leur mission. Les espaces exigus requièrent en effet des postures particulières. Le calcul de telles postures s'avérant mathématiquement complexe, les chercheurs devront tout d'abord développer de nouveaux algorithmes, bien plus puissants que ceux existants actuellement, tout en gardant ces calculs suffisamment rapides pour que les mouvements des robots restent efficaces. Les tâches typiques que les robots auront à effectuer seront, par exemple, de serrer un écrou, de nettoyer une zone de ses poussières métalliques ou d'insérer des pièces dans la structure de l'appareil. Ils pourront également vérifier le bon fonctionnement des systèmes une fois la fabrication terminée.
Ces algorithmes seront testés sur un ensemble de scénarios tirés des besoins des différentes branches d'Airbus Group (Aviation Civile, Hélicoptères, et Spatial), et dont le réalisme ira croissant au fil des années. Du côté de la recherche en robotique, en plus de l'apport des nouveaux algorithmes, cette collaboration mettra peut-être en lumière des insuffisances des robots actuels (design, précision ou puissance, par exemple). Elle pourrait également permettre de spécifier le cahier des charges de la première génération de robots humanoïdes dédiés à la manufacture de grandes structures, d'ici 10 à 15 ans.
DOCUMENT cnrs LIEN |
|
|
|
|
|
|
LES TERRES RARES |
|
|
|
|
|
«La course aux terres rares est stimulée par de nouveaux usages »
entretien - par Propos recueillis par Muriel de Véricourt dans mensuel n°457 daté novembre 2011 à la page 92 (1989 mots) | Gratuit
C'est l'histoire d'un groupe de 17 métaux, les terres rares, enjeu géopolitique tout autant qu'industriel. À quoi servent-elles ? Quelles sont leurs promesses ? Risque-t-on d'en manquer ? Georges Pichon décrypte pour La Recherche les jeux du marché.
LA RECHERCHE : Pourquoi les terres rares intéressent-elles tant de monde ?
GEORGES PICHON : À cause des propriétés chimiques, optiques et magnétiques très intéressantes de ces quinze métaux dont le noyau atomique est constitué d'un nombre de protons compris entre 57 et 71 ils sont regroupés sous le vocable de lanthanides, auxquels il faut ajouter l'yttrium et le scandium, situés dans la même colonne du tableau périodique des éléments. Ces terres dites rares ne le sont pourtant pas : elles sont plutôt bien réparties dans l'écorce terrestre. Par exemple, le cérium, le plus commun d'entre ces métaux, est plus répandu que le cuivre. L'institut d'études géologiques des États-Unis estime que l'écorce terrestre contient 100 millions de tonnes de terres rares, plus de 700 fois la demande actuelle !
Ce sont donc leurs possibles applications qui sont à l'origine de leur popularité...
G.P. Tout à fait, ces éléments chimiques font parler d'eux d'abord parce qu'ils entrent dans la composition de produits de notre quotidien : téléphones portables, téléviseurs, ordinateurs. Mais ils font aussi figure de possibles substituts à l'énergie issue du pétrole. Ils entrent d'ores et déjà dans la fabrication des éoliennes ou des véhicules hybrides. D'autres utilisations, enfin, n'existent pas encore mais pourraient être gourmandes en terres rares si certaines technologies décollaient. C'est par exemple le cas des réfrigérateurs ou des climatiseurs sans fluides frigorigènes. Au total, compte tenu de ce que l'on fabrique actuellement, la demande en terres rares est environ de 136 000 tonnes par an.
Ce niveau élevé est-il en augmentation ?
G.P. Oui, le nombre d'applications ne cesse de croître, à tel point que certains spécialistes n'hésitent pas à parler d'« addiction » aux terres rares. En 2000, la production mondiale n'excédait pas 80 000 tonnes par an. En 2014, on estime qu'elle pourrait être de plus de 203 000 tonnes ! Cette tendance à la hausse n'est pas nouvelle. Ces métaux, découverts entre la fin du XIXe siècle et le début du XXe siècle, ont en effet toujours intéressé les industriels. Les premières applications remontent à la fin du XIXe siècle : il s'agissait d'utiliser le cérium pour fabriquer des becs de gaz destinés à l'éclairage public. Puis on s'est mis à fabriquer des pierres à briquet, utilisant la capacité des terres rares à s'enflammer au contact de l'air. Ces métaux ont ensuite été utilisés pour polir et décolorer le verre par oxydation : c'est une application qui continue encore aujourd'hui à tirer la demande à la hausse, du fait de l'augmentation des surfaces vitrées dans le monde. Les terres rares se sont également imposées dans les opérations de traitement de la fonte et de l'acier, une pratique qui consomme encore aujourd'hui plus d'un quart de la production mondiale.
Qu'en est-il des nouveaux usages ?
G.P. À partir des années 1990, l'industrie électronique est devenue utilisatrice, propulsant le Japon au premier rang des consommateurs de ces métaux. Dix ans plus tard, le secteur de l'énergie s'est à son tour emparé de ces éléments chimiques. Notamment de l'un d'entre eux, le néodyme, qui entre dans la composition des aimants très puissants utilisés dans les éoliennes et les moteurs de véhicules hybrides. Aujourd'hui, l'amélioration du niveau de vie partout dans le monde stimule à la fois l'augmentation des usages traditionnels et la multiplication des applications de haute technologie. La hausse de la demande est, on l'a compris, un phénomène de longue date. Ce qui est nouveau, donc, c'est plutôt l'impression, au vu des positions chinoises, que cette demande pourrait un jour devenir difficile à satisfaire.
Quel est le problème avec la Chine ?
G.P. La Chine, qui produit et commercialise 95 % des terres rares dans le monde, limite ses exportations depuis 2004. À mon avis, l'objectif est d'inciter les nombreux industriels utilisateurs de ces matières premières à venir s'installer sur place. Quoi qu'il en soit, l'Organisation mondiale du commerce vient de condamner le protectionnisme chinois. Officiellement, pas pour les terres rares. Mais, selon les analystes, il s'agit bel et bien d'un avertissement. En effet, le motif de condamnation concerne l'adoption récente d'une politique agressive de restriction des exportations sous prétexte de protection de l'environnement. Cela s'applique, entre autres, aux terres rares.
Comment s'explique la position hégémonique de la Chine ?
G.P. Plusieurs pays disposent d'importantes ressources en terres rares, mais la Chine est quasi la seule à les exploiter aujourd'hui. Cette situation est très récente, et personne n'a su la prévoir. Dans les années 1970, les États-Unis étaient le premier producteur mondial, grâce à une mine située à Mountain Pass, en Californie. La Chine a commencé à produire en 1984, dans l'indifférence générale, car les terres rares étaient à l'époque une ressource peu coûteuse et largement disponible. Du fait du faible niveau de salaires et de l'absence de réglementation environnementale contraignante, génératrice de surcoûts dans les pays industrialisés, la production chinoise a progressivement supplanté toute concurrence. La mine californienne a fini par fermer en 2002. Depuis, la plus grande partie des volumes échangés provient d'un seul centre de traitement situé à Baotou, en Mongolie-Intérieure, à côté de la mine de Bayan Obo, qui renferme 600 millions de tonnes de minerais contenant 5 % d'oxydes de terres rares. Les industriels du monde entier s'accommodaient parfaitement de cette situation tant que les prix étaient bas. D'autant plus que l'extraction des terres rares est une industrie polluante, car les minerais qui en contiennent renferment aussi des éléments radioactifs, à savoir du thorium-232, de l'uranium-238 et leurs produits de filiation.
La tension géostratégique actuelle conduit-elle les industriels à réfléchir à une diversification de leurs approvisionnements ?
G.P. C'est certain, plusieurs sociétés minières ont remis en service des gisements délaissés quelques années auparavant. C'est le cas de la mine de Mountain Pass, remise en exploitation en 2010, qui a déjà produit 1 000 tonnes. La société Molycorp, qui exploite ce gisement, indique vouloir produire 20 000 tonnes par an à partir de 2012. De son côté, la compagnie minière Lynas a ouvert une mine en Australie. Celle-ci devrait commencer à produire d'ici à la fin de l'année et fournir 22 000 tonnes par an fin 2012. Mais ces projets se heurtent à de nombreux obstacles. Ainsi, la société Lynas espérait envoyer ses produits d'extraction en Malaisie pour qu'ils y soient raffinés. Mais la population malaise menace de se mobiliser contre la perspective de rejets radioactifs sur son territoire... Face à ces difficultés, l'accent est également mis sur la recherche de nouveaux gisements prometteurs. De nombreuses sociétés minières, épaulées par des géologues, en recherchent en ce moment, notamment en Finlande, aux États-Unis et sur le continent africain. Je n'ai encore vu passer aucune annonce qui fasse état de découvertes en Afrique susceptibles de bouleverser l'économie des terres rares, mais je parierais volontiers que cela arrivera.
Un moyen d'apaiser le marché est d'économiser le matériau. Peut-on recycler les terres rares ?
G.P. Beaucoup de chercheurs y travaillent. Le groupe de chimie Rhodia, qui exploite et transforme des terres rares importées de Chine dans son usine de La Rochelle, est particulièrement actif. L'enjeu est de mettre au point des procédés métallurgiques d'extraction des terres rares à partir d'un produit de recyclage, et ce à un prix acceptable. Ces efforts aboutiront sans doute au cours des prochaines années. Les chimistes travaillent aussi à la mise au point de procédés plus économes, pour exploiter au mieux une ressource dont le prix flambe.
La substitution par d'autres composés est-elle possible ?
G.P. Des recherches intensives sont menées sur le sujet, notamment au Japon et en Allemagne, mais les résultats sont pour l'instant décevants. Certaines caractéristiques des terres rares, comme leurs propriétés magnétiques liées à leur structure électronique particulière, les rendent difficilement remplaçables. De plus, la volonté de s'affranchir de ces matières premières se heurterait dans bien des cas à la rigidité des filières industrielles. Les producteurs de verre, par exemple, sont peu enclins à modifier leur équipement. Pour l'instant, ils préfèrent payer davantage, car ce surcoût reste marginal dans le produit final. En revanche, les secteurs qui ne sont pas encore rentables, comme la production d'énergie sans pétrole, pourraient abandonner les recherches autour de technologies utilisatrices de terres rares si celles-ci ne sont pas disponibles à un coût acceptable.
C'est donc un problème de prix...
G.P. Absolument, les acteurs de ce marché ne croient pas au risque de pénurie. Le battage autour de la situation commerciale actuelle donne au grand public l'impression que la ressource en terres rares est sur le point de s'épuiser. En fait, ce n'est pas le cas. On connaît d'ailleurs de nombreux gisements de terres rares répartis dans le monde, entre autres en Finlande, au Vietnam, aux États-Unis, au Canada et en Allemagne.
De plus, les efforts de prospection devraient conduire à en identifier de nouveaux et à évaluer si leur exploitation est envisageable et peut être rentable.
Mais peut-on au moins connaître le montant des réserves disponibles ?
G.P. Cette information est gardée comme un secret d'État par les Chinois. Et ils ont intérêt à mentir ! Ailleurs dans le monde, ces renseignements seraient plus facilement disponibles... s'ils n'étaient pas couverts par le secret industriel. Toutefois, les exploitants sont obligés de communiquer lorsqu'ils recherchent des financements pour exploiter un nouveau gisement. Cotés en Bourse, ils ne peuvent pas se permettre de distiller des données fantaisistes. Quoi qu'il en soit, la principale raison pour laquelle l'information est aujourd'hui lacunaire, c'est que jusqu'ici personne ne s'intéressait à ces matières premières peu coûteuses. En raison de la tension actuelle sur ce marché, les industriels et les États aimeraient aujourd'hui y voir plus clair et disposer d'une cartographie détaillée des ressources.
Quelle est l'importance de l'expertise scientifique dans ce travail de recension ?
G.P. L'apport des géologues est capital non seulement pour identifier les gisements mais aussi pour déterminer la teneur des minerais en telle ou telle espèce chimique. En effet, la composition exacte des produits d'extraction varie d'une mine à l'autre. Cela importe peu pour certains usages, liés aux propriétés chimiques voisines des dix-sept terres rares, qui peuvent donc être utilisées sous forme de mélange. Mais c'est au contraire très important pour les applications qui misent sur les propriétés magnétiques ou optiques propres à l'un ou l'autre de ces dix-sept éléments. La composition exacte du minerai d'un gisement est donc une information sensible, qui reste secrète. L'expertise des géologues permet de décrypter les données qui sont rendues publiques.
On a récemment découvert d'importants gisements sous-marins dans l'océan Pacifique. Cela change-t-il la donne ?
G.P. La mise en évidence par une équipe de scientifiques japonais de terres rares dans des boues prélevées à plusieurs milliers de mètres au fond dans l'océan Pacifique n'est pas véritablement une surprise : l'existence de ressources sous-marines était déjà connue. C'est avant tout un effet d'annonce, à replacer dans le contexte de la tension diplomatique entre la Chine et le Japon. L'industrie électronique japonaise, qui exporte ses productions dans le monde entier, consomme les deux tiers des terres rares exportées par les Chinois, sans disposer d'aucune ressource productive et se trouve donc en état de totale dépendance. Cette « découverte » est à classer parmi les arguments avancés pendant une négociation commerciale...
Apprendre à extraire une telle ressource sous-marine n'est donc pas envisageable ?
G.P. Personne ne peut répondre à cette question aujourd'hui. Pour trancher, il faudrait y consacrer beaucoup de temps et de moyens. Cette affaire rappelle l'engouement, depuis la fin des années 1970, pour les nodules polymétalliques, ces concrétions rocheuses présentes à plusieurs milliers de mètres de profondeur sous les océans, dont on pensait pouvoir extraire des métaux. Leur exploitation n'a pas, depuis, fait la preuve de sa rentabilité. Ce précédent devrait inciter à la prudence. Pour ma part, je ne crois pas que ces « gisements » de terres rares seront exploités dans les cinquante prochaines années, s'ils le sont jamais.
Par Propos recueillis par Muriel de Véricourt
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
MANIPULER UN PHOTON ... |
|
|
|
|
|
« Nous rêvions de manipuler un photon sans le détruire »
prix nobel - par Propos recueillis par Denis Delbecq dans mensuel n°471 daté janvier 2013 à la page 92 (1896 mots) | Gratuit
Le Français Serge Haroche a partagé le prix Nobel de physique avec l'Américain David Wineland. Ils ont tous deux développé des moyens de mesurer des systèmes quantiques simples pour ausculter les propriétés fondamentales de la lumière et de la matière.
LA RECHERCHE :Vous partagez cette année le prix Nobel de physique avec votre confrère américain David Wineland. Quels sont les points communs entre vos travaux ?
SERGE HAROCHE : Nos deux groupes travaillent dans le domaine que l'on appelle l'optique quantique, qui étudie les propriétés fondamentales des atomes et de la lumière en interaction. Avec Jean-Michel Raimond et Michel Brune, nous enfermons des photons, des grains de lumière, dans une boîte quantique. C'est-à-dire une cavité de quelques centimètres qui est recouverte de miroirs entre lesquels les photons rebondissent. Et nous nous servons d'atomes pour les observer. De son côté, le groupe de David Wineland piège des ions - des atomes débarrassés d'un électron -, et les sonde avec des particules de lumière. Nous travaillons donc des deux côtés d'un même miroir, pour ausculter les propriétés fondamentales de la lumière et de la matière, et étudier la manière dont on passe de l'échelle quantique à l'échelle macroscopique, celle de notre environnement quotidien, dont les propriétés sont très différentes. C'est notre capacité à manipuler sans les détruire des particules uniques, ions ou photons, que le Comité Nobel a choisie cette année de récompenser.
À quand remontent vos recherches primées cette année ?
S.H. Elles correspondent à deux étapes clés. La première remonte au milieu des années 1990 : nous avons réussi à l'époque à observer ce qu'on appelle la décohérence, le phénomène de disparition des effets quantiques provoquée par les interactions des systèmes quantiques microscopiques avec le monde macroscopique. La seconde, dix ans plus tard, nous a conduits à observer pour la première fois des photons sans les détruire. Mais le point de départ est le développement des lasers dans les années 1960. David Wineland et moi avons eu la chance de faire notre doctorat à cette époque extraordinaire. Grâce à ces sources de lumière, nous avons appris à manipuler et à sonder la matière avec une précision et une sensibilité inédites. Dans les années 1970, je me suis intéressé à des atomes d'un type particulier, dits de Rydberg. Quand un atome se trouve dans son état fondamental, les électrons les plus éloignés se trouvent à une distance d'environ 0,1 nanomètre du noyau. Dans un atome de Rydberg, souvent de rubidium, préparé à l'aide de champs électromagnétiques, on a amené le dernier électron sur une orbite située à une distance mille fois plus grande. Cet électron périphérique est alors très sensible à d'infimes perturbations électromagnétiques dans le domaine des micro-ondes. En quelque sorte, l'atome de Rydberg se comporte comme une antenne d'une extrême sensibilité. C'est l'espoir de parvenir à enfermer un photon dans une boîte et de le faire interagir avec un atome de Rydberg qui nous a guidés depuis plus de trente ans.
Quel a été le premier apport de ces boîtes quantiques, qui sont au coeur de toutes vos recherches ?
S.H. En 1935, Erwin Schrödinger avait proposé une expérience de pensée pour illustrer la manière dont un système quantique peut être couplé avec le monde macroscopique. Il avait imaginé, par provocation, de lier le destin d'un chat enfermé dans une boîte fictive, totalement isolée du monde extérieur, à celui d'un atome excité qui, quand il perd de l'énergie, casse une ampoule de poison qui tue l'animal. De cette manière, quand l'atome est excité, le chat est vivant, et quand il ne l'est plus, le chat est mort. C'est ce que l'on appelle l'intrication : le chat et l'atome ne peuvent plus être décrits séparément, ils sont deux facettes d'un même système couplé. À notre échelle, macroscopique, tout dispositif est dans un état bien défini, un chat est donc vivant ou mort. Mais à l'échelle quantique, les particules sont dans une superposition d'états possibles ; l'atome est excité et non excité. Le chat de Schrödinger est donc vivant et mort à la fois, du moins tant que le phénomène de décohérence ne détruit pas l'intrication.
Au milieu des années 1990, nous avons pu réaliser cette expérience du chat, en enfermant dans notre boîte quantique un champ constitué de quelques photons qui étaient intriqués avec un atome de Rydberg. David Wineland a fait la même chose avec quelques ions piégés. Nos deux groupes ont aussi observé un signal caractéristique de la décohérence qui détruit les superpositions d'état d'autant plus vite que ces « ersatz » de chat de Schrödinger contiennent plus de particules.
En 2005, vous réussissez une prouesse : observer un photon sans le détruire. Racontez-nous ces dix ans d'efforts.
S.H. Le photon pose un problème en physique quantique : quand un détecteur le voit, c'est parce qu'il l'a absorbé ; la mesure est donc destructrice. Dès le début des années 1990, nous avions imaginé, avec Jean-Michel Raimond, Michel Brune et des collègues théoriciens brésiliens, Luiz Davidovich et Nicim Zagury, de faire interagir des photons et des atomes de Rydberg de manière si subtile que les grains de lumière ne seraient pas détruits. Mais il fallait pour cela que le photon survive assez longtemps avant d'être absorbé par les miroirs en niobium de notre boîte quantique, matériau choisi pour ses propriétés dans le domaine des micro-ondes. Il fallait prolonger la survie du photon bien au-delà de la centaine de microsecondes, la durée qu'on obtenait à l'époque. La solution est venue d'une collaboration avec un laboratoire du CEA, qui a proposé de fabriquer des miroirs en cuivre, plus faciles à usiner pour obtenir un état de surface quasi parfait, et recouverts ensuite de niobium. Un jour de 2006, Michel Brune est entré dans mon bureau avec une boîte capable de garder les photons, en moyenne, pendant 130 millisecondes. Soit deux milliards de rebonds entre les miroirs ! C'était au-delà de nos espérances, et nous avons pu cette année-là observer pour la première fois un photon sans le détruire, et même compter les photons - jusqu'à 7 - quand ils sont plusieurs en même temps dans la cavité. Nous avons pu également observer la disparition soudaine des photons lorsqu'ils sont absorbés dans les parois de notre boîte, qui se produit sous forme de saut quantique, à un instant restant par essence aléatoire. Dès qu'un événement survient, nous pouvons à présent le détecter immédiatement, et le compenser à volonté en rétablissant le nombre de photons initial.
Voulez-vous dire qu'on sait contrôler la quantité de photons à une unité près, comme on régule la température d'une pièce avec un thermostat ?
S.H. C'est exactement ça. Nous savons maintenir jusqu'à 7 photons dans une cavité, de manière indéfinie. Chaque fois que l'un d'entre eux disparaît ou apparaît, nous en sommes avertis et pouvons en introduire un nouveau pour le remplacer, ou en retirer un. La différence avec un régulateur à l'échelle macroscopique - et c'est toute la complexité de ces expériences -, c'est que chaque observation perturbe le système, même si elle ne détruit pas les photons. Il faut donc tenir compte de cette perturbation dans le système de rétroaction. Tout cela n'est possible que parce qu'on dispose d'ordinateurs capables de gérer de grandes quantités de données en temps réel. Ils nous ont aussi permis, en 2008, de réaliser un véritable film qui montre la décohérence à l'oeuvre dans un petit système quantique.
La capacité à créer, observer, conserver et effacer des atomes ou des photons à l'unité près a-t-elle des retombées concrètes ?
S.H. Longtemps, il s'agissait surtout d'étudier des concepts, comme le chat de Schrödinger. Mais au fil des progrès, des applications sont apparues que personne ne soupçonnait. David Wineland a ainsi pu construire une horloge cent fois plus précise que les horloges à césium les plus performantes à ce jour : elle ne dérive que d'une demi-douzaine de secondes en 13 milliards d'années, l'équivalent de l'âge de l'Univers. C'est un instrument qui fera progresser l'étude de la gravitation et de la relativité.
L'optique quantique a également engendré une discipline nouvelle, l'information quantique, avec des applications concrètes, telle la cryptographie, et l'espoir de construire un ordinateur quantique : si on savait conserver assez longtemps un système quantique formé de centaines ou de milliers d'atomes placés chacun dans leur propre superposition d'états, nous disposerions d'une puissance fantastique pour certains calculs, comme la factorisation de grands nombres. Nous en sommes très loin aujourd'hui, car la décohérence est d'autant plus gênante que le nombre d'éléments quantiques est important. C'est là que le savoir-faire que nous avons développé sur la régulation du nombre de photons dans une boîte quantique peut donner des idées pour l'avenir.
L'ordinateur quantique n'est donc plus un fantasme ?
S.H. Je reste un peu sceptique, en particulier sur la capacité à réaliser ce que les Anglo-Saxons appellent la scalability. C'est une propriété essentielle qui consiste, une fois qu'on dispose d'un circuit élémentaire et fonctionnel, à en augmenter le nombre pour obtenir un fonctionnement à grande échelle. Tout comme on assemble des transistors pour faire des puces. Il y a des pistes, comme ce qu'on appelle l'électrodynamique quantique de circuits. Au lieu d'utiliser des ions ou des photons, on crée des atomes artificiels très simples, avec seulement deux niveaux d'énergie ; ils se présentent sous la forme de circuits minuscules qu'on assemble pour réaliser des expériences. Il y a dix ans, cette discipline était dans les limbes, très loin de ce qu'on faisait avec des ions ou des photons. Aujourd'hui, le retard de ces atomes artificiels sur les atomes réels est comblé. Mais la décohérence reste un énorme obstacle. Je pense qu'il manque encore une idée radicale qui viendra probablement d'un autre domaine, sans qu'on sache lequel. Quand le laser a été inventé, personne n'imaginait qu'il puisse révolutionner la communication. Et il y a eu une convergence, presque fortuite, entre les lasers, la fibre optique et les puces informatiques, pour créer nos systèmes de télécommunications.
De la même manière, la résonance magnétique est devenue une technique d'imagerie parce qu'on a découvert les aimants supraconducteurs et que l'informatique a permis de traiter les images. C'est pour cela qu'il faut laisser la recherche fondamentale libre d'aller dans toutes les directions.
Vous étiez l'élève de Claude Cohen-Tannoudji, Nobel en 1997, qui avait été élève d'Alfred Kastler, Nobel en 1966. Comment expliquer cette lignée unique ?
S.H. Cela tient à la particularité d'une structure comme l'École normale supérieure, qui dispose d'un important vivier d'étudiants. Surtout, elle permet aux chercheurs confirmés de continuer à travailler ensemble, en combinant leurs compétences, sans exiger qu'ils aient chacun leur projet indépendant. Tout ce que j'ai réalisé, c'est grâce à ma collaboration avec Jean-Michel Raimond depuis les années 1970, et avec Michel Brune, qui nous a rejoints à la fin des années 1980 et, bien sûr, avec tous les étudiants et postdoctorants qui nous ont accompagnés dans cette aventure. Le travail d'équipe poursuivi dans la confiance sur le long terme a été essentiel à notre succès. C'est exactement ce qui se passe au National Institute of Standard and Technology de Boulder, aux États-Unis, où David Wineland est installé. Sa réussite est, elle aussi, le fruit d'un travail de longue haleine avec un groupe de chercheurs confirmés. La loi du prix Nobel est que l'on distingue le chef du groupe, mais il faut bien comprendre que c'est le travail de toute l'équipe qui est derrière les travaux récompensés. Je suis sûr que David Wineland partage mon sentiment à ce sujet.
Par Propos recueillis par Denis Delbecq
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
NEUTRINOS - MÉTAMORPHOSE 2 |
|
|
|
|
|
Les neutrinos en pleine transformation
autre - par Michel Gonin dans mensuel n°460 daté février 2012 à la page 44 (1478 mots) | Gratuit
Les physiciens ont enfin la preuve que les neutrinos peuvent subir une transformation quantique : l'oscillation de saveur. Ce résultat confirme que ces particules ont une masse comme on le soupçonnait depuis longtemps.
Les neutrinos sont extrêmement difficiles à observer. Uniquement soumis à l'interaction nucléaire faible, l'une des quatre forces fondamentales du modèle standard de la physique des particules élémentaires, ils n'interagissent en effet presque jamais avec la matière. Ils contiennent pourtant des informations cruciales sur la composition de l'Univers, et la compréhension de leurs propriétés représente sans doute la clé de voûte du modèle standard de la physique des particules. Une étape importante de l'étude de ces neutrinos a été franchie en 2011 par l'expérience T2K, installée au Japon. Cette collaboration internationale de 500 chercheurs a en effet démontré intégralement l'existence d'un phénomène nommé oscillation quantique de saveur, autrement dit la transformation d'une des trois formes de neutrinos, ou saveurs, en une autre [1] .
À la fin des années 1990, plusieurs expériences de détection de ces particules avaient mis en évidence que des neutrinos « disparaissaient ». Les physiciens en avaient déduit que ceux-ci avaient changé de saveur. Mais ils n'avaient pas détecté l'apparition des neutrinos correspondants. Il subsistait un doute, qui vient d'être écarté par les résultats de T2K : les physiciens ont observé les deux phénomènes, disparition puis réapparition de certains neutrinos sous une autre saveur. L'existence de l'oscillation est donc définitivement prouvée.
Trois saveurs
L'existence des neutrinos a été postulée en 1930 par le physicien autrichien Wolfgang Pauli. Cette particule, indétectable à l'époque, permettait que soit respecté le principe de la conservation de l'énergie dans les phénomènes de désintégration bêta * des noyaux atomiques, par exemple lorsqu'un neutron se désintègre en proton. Son collègue italien Enrico Fermi les a aussitôt baptisés « neutrinos », littéralement les « petits neutres », car minuscules et de charge électrique nulle.
Les neutrinos existent sous trois saveurs : électronique, muonique et tauique. Chacune traduit une identité quantique qui différencie les neutrinos entre eux. Le neutrino électronique accompagne la production des électrons dans la radioactivité bêta. C'est la première saveur à avoir été détectée expérimentalement, en 1956 aux États-Unis, au voisinage d'un réacteur nucléaire producteur de neutrinos [2] . Cette détection prouvait que l'hypothèse de Pauli était juste.
Le neutrino muonique est créé notamment lors de la désintégration d'un muon, une particule élémentaire apparentée à l'électron, de même charge mais plus lourde. Cette saveur a été découverte en 1962 au laboratoire Brookaven près de New York [3] .
La troisième saveur, le neutrino tauique, a été identifiée au Fermilab à Chicago en 2001 [4] . Elle est associée à la particule tau, une autre particule proche de l'électron et du muon, et encore plus lourde. Il a donc fallu aux expérimentateurs plus de 70 ans pour attraper dans leurs filets les trois saveurs de neutrinos !
Une fois les neutrinos détectés, des physiciens ont voulu déterminer s'ils avaient une masse. La plupart d'entre eux pensaient que non, au vu des expériences précédentes qui avaient fixé des limites supérieures très faibles. La théorie favorisait l'hypothèse d'une masse nulle, mais ne permettait pas de la calculer pour vérifier. Seules des expériences pouvaient permettre de trancher.
Dans le monde quantique, pas question de peser directement les particules. Leurs états sont souvent instables, et ont une durée de vie finie. Chaque particule n'a pas une masse déterminée, mais une distribution continue de masses, centrée autour d'une valeur moyenne et donnée par des lois probabilistes.
Pour la plupart des particules, ces instabilités conduisent à une désintégration, irréversible. Mais pour les neutrinos, la théorie indiquait que, s'ils avaient effectivement une masse, cela conduirait à des phénomènes réversibles à l'infini nommés « oscillations de saveur ». Ainsi, un neutrino électronique se transformerait en neutrino muonique ou tauique, avec la possibilité de revenir ultérieurement dans son état initial.
La théorie quantique indique plus précisément que chaque état physique de saveur pour les neutrinos est un mélange de trois états de masse. Leur proportion relative est déterminée par des coefficients, nommés « angles de mélange », dont la théorie ne permet pas de calculer les valeurs. Cette proportion détermine la valeur moyenne de la masse pour chaque saveur et la probabilité qu'a une oscillation de se produire.
Observer les oscillations
Au contraire, si les neutrinos n'avaient pas de masse, comme les photons, les lois de la relativité restreinte indiquaient que le temps n'existait pas pour ces particules. Pas question donc qu'ils subissent des oscillations de saveur. Ainsi, pour démontrer que les neutrinos avaient une masse, il suffisait d'observer ces oscillations.
Mais c'était plus facile à dire qu'à faire. Dès les années 1960, des pionniers ont traqué des disparitions de neutrinos électroniques ou muoniques. Ces particules sont constamment produites dans notre Univers, et en quantités impressionnantes. La fusion à l'intérieur du Soleil, les fissions des noyaux dans les réacteurs nucléaires ou encore la radioactivité naturelle de la croûte terrestre nous soumettent en permanence à des flux intenses de ces particules, flux que l'on peut souvent modéliser.
Il a fallu attendre 1998 pour que ces expériences de première génération arrivent à la conclusion définitive qu'il manquait des neutrinos de certaines saveurs dans ces flux. L'explication la plus probable était qu'ils avaient changé de saveur : on avait, semble-t-il, observé des oscillations. Les physiciens pensaient détenir ainsi la preuve que les neutrinos avaient une masse. Celle-ci était très faible : au moins 100 000 fois inférieure à celle de l'électron. Ces expériences leur permirent aussi de mesurer deux des trois angles de mélange : environ 45 et 32 degrés.
À partir des années 2000, les physiciens des hautes énergies ont imaginé des expériences d'oscillation de neutrinos de deuxième génération, plus précises. Pour certaines d'entre elles, les neutrinos sont produits par des accélérateurs de particules, dans un flux parfaitement maîtrisé. Grâce à cette innovation technologique, combinée aux connaissances issues des expériences de la fin du XXe siècle, les physiciens savaient aussi à quelles distances des sources placer les détecteurs et quelles gammes d'énergie sélectionner pour observer disparitions et apparitions avec une plus grande probabilité. Les détecteurs de deuxième génération sont également capables de détecter deux saveurs de neutrinos, une caractéristique nécessaire pour observer l'apparition des nouvelles saveurs.
T2K fait partie de cette nouvelle famille d'expériences. Un accélérateur de particules, situé dans le laboratoire J-PARC, sur la côte est du Japon, bombarde de protons une cible de graphite. Ces collisions produisent des particules instables. Celles-ci se désintègrent ensuite en émettant des muons et des neutrinos muoniques. Un filtre placé 100 mètres après la cible piège les protons et les muons, seuls les neutrinos poursuivent leur course.
Super-Kamiokande
À 280 mètres de la cible, ceux-ci traversent un détecteur qui contrôle précisément la direction du flux et la saveur des neutrinos émis. Tous les neutrinos continuent ensuite leur course à travers l'écorce terrestre, sans interagir avec la matière. Et 295 kilomètres plus loin, ils traversent un second détecteur, Super-Kamiokande. Cette distance de 295 kilomètres n'a pas été choisie par hasard : les neutrinos produits dans le laboratoire J-PARC oscillent avec une plus grande probabilité au bout d'une milliseconde, le temps qu'il leur faut pour parcourir cette distance compte tenu de leur vitesse, très légèrement inférieure à celle de la lumière.
Super-Kamiokande est constitué d'un cylindre de 40 mètres de haut et de 40 mètres de diamètre, rempli de 50 000 tonnes d'eau. Il est tapissé de dizaines de milliers de photomultiplicateurs qui enregistrent un flash lumineux « Tcherenkov », émis lorsqu'un neutrino muonique ou électronique interagit avec le noyau d'un atome d'une molécule d'eau. Les caractéristiques du flash permettent de déterminer la saveur du neutrino. Un système de synchronisation des horloges par GPS permet de s'assurer que les neutrinos détectés sont bien ceux émis à J-PARC.
Durant la période de collecte des données, de janvier 2010 à mars 2011, Super-Kamiokande a enregistré un total de 88 neutrinos, parmi lesquels 6 neutrinos électroniques qui proviendraient de la métamorphose de neutrinos muoniques. Les 82 neutrinos restants sont des neutrinos muoniques n'ayant subi aucune transformation entre leur production et leur détection. Les physiciens ont calculé que les résultats obtenus sont fiables à 99,3 %. Ces observations prouvent définitivement que les neutrinos ont une masse. Elles ont aussi permis de mesurer une valeur approximative de 8 degrés pour le dernier angle de mélange.
Ces résultats ont été publiés en juillet dernier. L'expérience Minos aux États-Unis a annoncé quelques semaines après un résultat similaire, bien que moins précis. Une autre oscillation, celle d'un neutrino muonique se transformant en neutrino tauique, a aussi été rapportée par l'expérience Opera du CERN. Mises à l'arrêt le 11 mars 2011, après le séisme du Japon, les installations de l'expérience T2K n'ont subi que des dégâts minimes. Elles doivent être remises en service en janvier 2012. Les résultats conjugués de T2K et d'autres expériences à travers le monde laissent entrevoir une mesure précise et rapide du dernier angle de mélange des oscillations, et donc leur caractérisation complète.
Par Michel Gonin
DOCUMENT larecherche.fr LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|