ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LE BIG-BANG

 

 

 

 

 

 

 

Texte de la 186e conférence de l'Université de tous les savoirs donnée le 4 juillet 2000.


Le Big-bang


par Marc Lachièze-Rey

Si les modèles de Big-bang sont l'expression de notre cosmologie contemporaine, la discipline est loin d'être nouvelle : aussi loin que l'on remonte dans l'Antiquité, les regards et les pensées sont tournés vers le Ciel, le Monde, le Cosmos, l'Univers,... Concernée par l'Univers dans son ensemble, la cosmologie nous indique sans doute quelque chose sur la place que nous y occupons. Aujourd'hui, la cosmologie est devenue une science.

On fait le plus souvent remonter l'origine de la science moderne à l'époque de Galilée et Newton. La cosmologie scientifique prend naissance au même moment. Le vingtième siècle bouleversera cette cosmologie scientifique en lui conférant un caractère relativiste, et en la concrétisant sous forme de modèles, en particulier la famille des modèles de Big-bang. Il ne s'agit pas d'un modèle unique, d'une vision totalement figée de l'Univers et de son évolution, mais plutôt d'un ensemble de descriptions possibles, partageant des caractéristiques communes, mais aussi des différences. Une grande part du travail actuel des astrophysiciens et des cosmologues consiste, précisément, à examiner, au sein de la classe des modèles de Big-bang, lesquels semblent décrire le mieux notre Univers. Ils vérifient également sans cesse, avec jusqu'à présent des succès toujours grandissants, la validité de cette classe de modèles.

L'Univers

Le concept d'univers, tel que nous le concevons aujourd'hui, constitue l'objet même de la cosmologie. Mais il ne remonte pas plus tôt que le XVIIe siècle, le moment où l'unité du Monde fut reconnue et admise. Deux millénaires plus tôt, Platon qualifiait le Monde de Cosmos, insistant ainsi sur son harmonie (à la source étymologique du terme grec). L'Antiquité décrivait un monde très différent du nôtre : hiérarchisé plutôt que unifié, d'extension très petite et bien moindre que ce que nous concevons aujourd'hui puisque limitée au système solaire. Ce monde se constituait d'un emboîtement hiérarchique de sphères, centrées sur la Terre située au centre du monde : sphères de la Lune, du Soleil, des planètes, jusqu'à la Sphère des Fixes, portant les étoiles (fixes). Celle-ci constituait la frontière du Monde, fini, borné.

Ces idées, développées essentiellement par Platon et Aristote et mises en Suvre par de nombreux mathématiciens, géomètres et astronomes, ont régné pendant près de deux millénaires. D'origine pythagoricienne, l'idée de la prééminence du cercle et de la sphère fut reprise et promue par Platon. Ces figures hautement symétriques ont joué un rôle déterminant, conforme à la nécessité de décrire le monde harmonieux de manière harmonieuse. Le dogme a tenu deux mille ans, tous les mouvements célestes devant être décrits par des combinaisons de sphères et de cercles en rotation, jusqu'à ce que Johannes Kepler découvre la nature elliptique des orbites planétaires. L'événement, à la charnière des XVIe et XVIIe, constitue l'un des ingrédients essentiels d'une première révolution cosmologique. Cet ample mouvement débute après la Renaissance (avec de nombreux précurseurs comme Nicole Oresme, Nicolas de Cuse...) et se poursuit jusqu'à la fin du XVIIe siècle. Newton y porte la touche finale avec ses Principia qui synthétisent les travaux de nombreux précurseurs (Giordano Bruno, Nicolas Copernic, Tycho Brahe, Johannes Kepler, Galilée...). Il établit ainsi les bases de la mécanique, de l'astronomie, de la cosmologie, et fonde la physique moderne.

L'univers du XVIIe est devenu beaucoup plus vaste que celui de l'antiquité. Il ne s'arrête pas à la Sphère des Fixes, ne se réduit pas au système solaire : les étoiles ne sont pas toutes à la même distance de nous mais se répartissent dans tout l'espace. Copernic déplace le centre du Monde de la Terre vers le Soleil, mais Newton niera l'idée même d'un centre du Monde. Telle est notre conviction actuelle : dans le Monde dépourvu de tout centre, tous les points sont équivalents, aucun n'est particulier. Le Monde - l'Univers en tant que Monde unifié - est homogène. Cela signifie que tous les points sont équivalents dans un Univers, et que les lois physiques sont donc partout et toujours identiques. Cette idée d'universalité (des lois physiques, des mouvements, de la composition de la matière) rend tout simplement possible la physique, et l'astrophysique. L'universalité, le concept d'univers, garantit que le résultat d'une expérience menée là-bas est identique à celui d'une expérience menée ici ; que les résultats seront encore les mêmes si je mène l'expérience demain. Une telle reproductibilité fonde la possibilité de faire de la physique.

L'idée d'univers, comme tant d'autres idées nouvelles émises à cette époque, va à l'encontre des conceptions aristotéliciennes : plus de centre du Monde, plus de position privilégiée de la terre, plus d'espace borné, clos, plus de mouvements circulaires. L'Univers n'est plus constitué de quatre éléments (la terre, l'eau, l'air et le feu) mais de petites particules (retour à l'atomisme). Sa composition est universelle comme le vérifieront les astrophysiciens au XIXe : l'Univers est bien ... un univers. La matière est la même sur terre, dans les étoiles, dans les galaxies, dans le vide interstellaire, etc. Les lois de la gravitation, l'électromagnétisme, la physique quantique, la relativité, s'y appliquent pareillement.

Espace, temps, espace-temps

Newton énonce, et c'est essentiel, les propriétés de l'espace et du temps. Ce cadre immuable de la physique est identifié à l'Univers vu d'un point de vue géométrique. La physique newtonienne ira de succès en succès pendant trois siècles, et reste encore aujourd'hui très efficace pour de très nombreux problèmes. Ce sont des difficultés purement conceptuelles, et non pas observationnelles ou expérimentales - rien ne remet en cause la pertinence de cette théorie pour prédire ou interpréter tous les résultats observés -, qui conduisent à sa remise en cause au début du XXe siècle, et à l'introduction des théories relativistes. En 1917, la Relativité Générale renouvelle fondamentalement la cosmologie. Quelques décennies plus tard, se mettra en place la physique quantique, volet complémentaire de la physique du XXe siècle.

Ce début de XXe siècle voit donc un renouveau total de la physique, qui provoquera une seconde révolution cosmologique fondée à la fois sur la nouvelle théorie de la Relativité générale et sur de nouveaux résultats observationnels. La cosmologie moderne, relativiste, et en particulier les modèles de Big-bang, n'auraient pas vu le jour sans cette conjonction remarquable entre nouvelles théories (introduites, j'insiste, pour des raisons purement conceptuelles) et nouveaux résultats d'observations dus à l'introduction de grands télescopes, l'utilisation de la photographie et de la spectroscopie (ceci permettant d'étudier des objets très peu lumineux, et donc très éloignées tels que galaxies, quasars,...). Cette convergence entre théorie et observations permit le développement d'une nouvelle cosmologie, aboutissant à la construction des modèles de Big-bang.

Le grand Univers

Depuis la fin du XIXe siècle, un Grand Débat occupait la communauté astrophysique, à propos de l'extension de notre Univers. Après la Renaissance, les philosophes de la nature avaient compris qu'il s'étendait beaucoup plus loin que le système solaire, les étoiles se répartissant à des éloignements divers et très importants. Il devenait possible d'envisager un univers très grand, voire même infini comme l'avaient imaginé quelques précurseurs dont Giordano Bruno. à la fin du XIXe siècle, de nombreux dénombrements d'étoiles font comprendre aux astronomes que notre système solaire (l'étoile Soleil entourée de ses planètes) n'est qu'une zone minuscule au sein d'un rassemblement d'étoiles beaucoup plus vaste : notre galaxie, la Voie Lactée, comprend des dizaines ou des centaines de milliards d'étoiles. Les astronomes en dessinent les contours, y situent notre système solaire. La plupart estiment, à l'époque, que notre galaxie constitue la totalité de l'Univers. Au-delà de notre galaxie, il n'y aurait rien : du vide mais pas de matière, pas d'étoiles. Pourtant, certains avaient déjà soupçonné qu'il y avait peut-être autre chose, bien au-delà. Parmi eux, le philosophe Emmanuel Kant avait par exemple suggéré, dès la fin du XVIIIe siècle, l'existence d'autres univers-îles. En visionnaire, il anticipait notre vision d'un Univers constitué d'un rassemblement de galaxies, semblables en effet aux îles d'un archipel au milieu de l'océan.

Ces questions suscitèrent des débats de plus en plus virulents à la charnière des deux siècles. Les arguments présentés par les opposants aux univers-îles semblaient très convaincants, mais il apparut par la suite qu'ils reposaient sur des résultats d'observations erronés. Le débat fut définitivement tranché en 1924 grâce aux observations menées par l'astronome américain Edwin Hubble. Utilisant les grands télescopes à sa disposition, il réussit à montrer qu'un objet céleste, appelé à cette époque la Grande Nébuleuse d'Andromède, se situait en dehors de notre propre Galaxie, et même très loin d'elle : il devenait évident que l'Univers s'étendait bien au-delà de notre Galaxie, qu'il était immense, beaucoup plus grand que la Voie Lactée. Et il se révélait peuplé d'innombrables galaxies : la nébuleuse d'Andromède (appelée aujourd'hui galaxie d'Andromède) est l'une d'elles, à-peu-près analogue à la nôtre mais située à des millions d'années-lumière. Par la suite, les astronomes en ont découvert des milliers, des millions, peut-être bientôt des milliards. Ainsi, en 1924, l'Univers est brusquement devenu extrêmement grand, nous ne savons toujours pas aujourd'hui jusqu'à quel point. Nous ne savons même pas si l'espace est fini ou infini. La Relativité Générale, fondée sur une géométrie nouvelle particulière, dite non euclidienne, permet un univers de volume et de circonférence finis, mais dépourvu de toute limite.

Expansion relativiste

L'Univers est donc immense, constitué d'innombrables galaxies. Mais ce n'est qu'un premier aspect de la révolution cosmologique en cours. Toute une série d'observations remontant à la fin du XIXe siècle, effectuées essentiellement par l'astronome américain Vesto Slipher, suggèrent un mouvement apparent et global de toutes les galaxies. Bien plus, des régularités surprenantes se manifestent : toutes s'éloignent, aucune ne se rapproche (les très rares exceptions n'ont guère d'importance dans ce schéma). Enfin, moins les galaxies sont lumineuses (et donc, plus elles sont lointaines), plus elles semblent s'éloigner rapidement. Cela dévoile une sorte de mouvement d'expansion, dont l'extension, la régularité et les propriétés, dépassent de loin l'échelle des galaxies. Les astronomes comprennent rapidement qu'il s'agit d'un phénomène d'échelle cosmologique (impliquant l'Univers dans son ensemble et non pas telle ou telle de ses parties) mais ils ne savent pas l'interpréter. Découverte de manière empirique, cette expansion restait encore en 1929 un mystère complet pour les astronomes, lorsque Hubble énonça sa fameuse loi de Hubble qui déclare que la vitesse d'expansion d'une galaxie est proportionnelle à son éloignement. La solution avait en fait déjà été trouvée en 1927 par le physicien belge Georges Lemaître (qui avait énoncée la loi de Hubble)mais elle ne fut portée à la connaissance de la communauté astronomique qu'en 1930 (voir xxx). Lemaître avait trouvé la solution du problème cosmologique, en montrant que les équations de la Relativité Générale impliquent que l'Univers doit être en expansion ou en contraction. Ayant eu connaissance des premiers résultats observationnels de Slipher, il les avait interprétés comme une manifestation de cette expansion de l'Univers comprise dans un cadre relativiste.

Les résultat initiaux de Lemaître, publiés en 1927 dans une revue belge, n'ayant eu quasiment aucun écho, les cosmologues se demandaient encore, en 1930, comment interpréter les résultats de Slipher et de Hubble. En 1931, Georges Lemaître envoya une copie de son article à son ancien professeur Arthur Eddington. Ce dernier, le publiant de nouveau, lui donna la publicité qu'il méritait. L'expansion de l'Univers fut alors comprise et admise par la majorité de la communauté astronomique (il est à signaler que le physicien soviétique Alexandre Friedmann avait trouvé dès 1922 les mêmes solutions de la relativité générale, néanmoins sans les relier aux résultats observationnels) : le mouvement observé des galaxies, si régulier, d'extension si grande, est bien de nature cosmique, et relativiste. Il est impossible de l'imputer à une cause locale : ce sont ne sont pas les galaxies qui s'attirent ou se repoussent par leurs interactions. Il s'agit d'une propriété de l'Univers lui-même, parfaitement comprise et interprétée dans le cadre de la Relativité Générale.

Cette théorie énonce essentiellement deux points extrêmement nouveaux. Le premier (déjà présent en relativité restreinte) implique de mêler l'espace et le temps dans une entité plus globale que l'on appelle l'espace-temps. Deuxième point, la géométrie de cet espace-temps peut être déformée, posséder une courbure, une topologie, et elle peut varier dans le temps. En fait, la nouvelle géométrie spatio-temporelle fait apparaître toute modification des propriétés de l'espace dans le temps comme une courbure de l'espace-temps. C'est un avantage de cette approche : ce que l'on considérait comme une variation dans le temps, est maintenant considéré comme un pur effet géométrique, dans la géométrie étendue incluant la dimension temporelle. Parler de la géométrie de l'espace-temps, c'est donc parler à la fois de la géométrie de l'espace et de son évolution dans le temps. Dans ce cadre, l'expansion cosmique (de l'espace) apparaît comme un aspect géométrique de la géométrie de l'espace-temps.

Les galaxies ne sont pas en mouvement dans l'espace. Mais l'espace lui-même est en expansion, entraînant les galaxies comme le courant d'une rivière peut entraîner des bateaux dont les moteurs sont à l'arrêt. Ces derniers sont immobiles par rapport à l'eau ; de même, les galaxies sont immobiles, ou plutôt comobiles, par rapport à l'espace qui les entraîne. Si l'on ne peut voir directement un tel courant d'espace, la Relativité prévoit un tel phénomène et lui donne un sens : l'espace est en expansion, la découverte observationnelle a coïncidé avec l'invention de la Relativité qui offre un cadre théorique pour l'interpréter.

Une fois l'expansion reconnue, il reste à en tirer les conséquences physiques. Là encore, Georges Lemaître fut un précurseur, avec son modèle de l'atome primitif (1931) qui en tire les conséquences physiques sur l'histoire de l'Univers. On ne connaissait encore, à l'époque, ni la physique nucléaire ni la physique des particules, et à peine la physique quantique, aussi ces idées restaient encore vagues. Mais ces modèles, retravaillés, réajustés, sont finalement devenus les modèles de Big-bang. À l'époque, les idées de Lemaître, impossibles à tester, ne suscitèrent que très peu d'intérêt. Dès le début, elles suscitèrent même une certaine hostilité. Le recul historique montre aujourd'hui l'aspect dogmatique (encore parfois présent) d'une bonne part des critiques contre le Big-bang, résultant de la difficulté de remettre en cause une idée établie depuis des siècles, quasiment mythique : celle d'un monde éternellement identique à lui-même, sans évolution. Des opposants aux Big-bang ont tenté de soutenir, sans doute au-delà du raisonnable, un modèle cosmologique selon lequel l'Univers resterait toujours identique à lui-même (état stationnaire), alors que les observations nous montrent de plus en plus clairement l'expansion et l'évolution des galaxies. Ces modèles, originellement intéressants et astucieux, ne purent résister à la confrontation aux observations. D'autres esprits critiques, parfois les mêmes, soulignaient une ressemblance entre les idées de Lemaître et le Fiat Lux des Écritures. De ce fait, ils accusaient Georges Lemaître, simultanément physicien et prêtre catholique, de concordisme : n'aurait-il pas introduit ses convictions religieuses dans la physique ? Il faut pourtant rendre justice à Lemaître qui s'est constamment défendu de cette accusation. Les bases scientifiques des modèles de Big-bang ont été affermies d'autant plus soigneusement qu'elles ont été fortement critiquées.

L'intérêt pour les modèles de Big-bang renaît dans les années 1940, avec le début du développement de la physique nucléaire. Les physiciens nucléaires comprennent que, selon ces modèles, l'Univers a dû passer par un état très dense, très chaud et très concentré, idéal pour le déroulement de réactions nucléaires. Puisque ces dernières fabriquent des éléments chimiques, ne serait-il pas possible que tous les éléments chimiques que l'on rencontre dans l'Univers - fer, azote, oxygène, carbone, etc... - aient été fabriqués durant les instants très reculés de l'Univers, selon le modèle du Big-bang chaud ? La réponse est en fait négative, nous le savons maintenant, car ces éléments n'ont pas eu le temps de se former. Cependant, les plus légers d'entre eux (le deutérium, l'hélium et le lithium en partie), ont sans doute bien été fabriqués de cette manière, lors d'un épisode de nucléosynthèse primordiale caractéristique des modèles de Big-bang. Nous en avons aujourd'hui la conviction car les distributions universelles de ces éléments sont en accord avec les prédictions de ces modèles.

L'intérêt pour ces modèles a repris de nouveau dans les années 1960. Effectuant de nouveaux calculs de réactions nucléaires, quelques physiciens de Princeton ont pu prédire que, si l'histoire de l'Univers s'est effectivement déroulée conformément aux modèles de Big-bang, il doit subsister aujourd'hui des vestiges d'un passé très reculé - l'époque où l'Univers était très chaud et très condensé - sous la forme d'un rayonnement « fossile » observable. Ce rayonnement électromagnétique devrait baigner tout l'Univers d'ondes radio. En 1964, alors que ces physiciens de Princeton commençaient à construire un appareillage pour tenter de le détecter, deux collègues radioastronomes de la compagnie Bell Telephone (Penzias et Wilson, qui reçurent pour cela le prix Nobel) le découvrent fortuitement en testant une antenne destinée à la radioastronomie. L'ayant tout d'abord interprété comme un parasite gênant à éliminer, ils conclurent finalement à l'existence d'un rayonnement omniprésent. Ses propriétés, rapidement mesurées, se révélèrent en accord avec les prédictions des modèles de Big-bang. Ces derniers furent alors acceptés par une large fraction (mais pas la totalité) de la communauté scientifique.

Les fondements du Big-bang

Les modèles de Big-bang sont quasiment inévitables. Les observations astronomiques et les lois physiques que nous connaissons nous y mènent de manière quasiment inéluctable. Il s'agit en premier lieu de la constatation de l'immensité de l'Univers fait de galaxies, confirmée depuis 1924 par d'innombrables observations de galaxies lointaines, avec des télescopes toujours plus puissants.

Les cosmologues énoncent un principe fondamental, le principe cosmologique. Exprimant l'abandon définitif des conceptions pré-coperniciennes, il énonce l'équivalence de tous les points : pas de centre, pas de bords. L'Univers est homogène, d'une homogénéité qui prend son sens à l'échelle cosmologique : il peut y avoir une galaxie ici, et pas à côté. Mais aux très grandes échelles, dépassant celles des amas ou des superamas de galaxies (soit plusieurs dizaines de millions d'années-lumière, mais ceci est bien inférieur aux échelles cosmologiques) il n'y a pas de zone où les galaxies soient plus ou moins nombreuses, ou différentes. Ce principe s'oppose à toute conception « anthropique » ou géocentrique. Il énonce également que l'Univers est isotrope : non seulement il n'y a aucun point particulier, mais aucune direction particulière non plus : pas de haut et de bas, pas de centre de l'Univers, donc pas de direction vers un centre, pas d'axe de rotation. En l'absence d'indices suggérant le contraire, ce principe est adopté pour construire les modèles cosmologiques.

Cependant, le fondement essentiel des modèles de Big-bang reste l'expansion de l'Univers. Elle se fonde sur ce que l'on appelle l'effet Doppler : lorsqu'un objet (une source) émet un rayonnement, nous voyons ce rayonnement « resserré »(c'est-à-dire avec une fréquence plus grande) si l'objet se rapproche, ou « desserré » (avec une fréquence inférieure) si la source s'éloigne. Lorsqu'une étoile ou une galaxie émet de la lumière (un type particulier de rayonnement, dans le domaine électromagnétique) qui parvient jusqu'à nous, cette lumière est décalée à une longueur d'onde plus petite ou plus grande (vers le bleu ou vers le rouge) si la source se rapproche ou s'éloigne de nous. C'est exactement ce que l'on observe : un décalage vers le rouge d'autant plus prononcé que la galaxie est éloignée. Dans le spectre d'une galaxie, c'est-à-dire dans la décomposition de la lumière qu'elle a émise, les astronomes savent parfaitement reconnaître un éventuel décalage, vers le rouge ou vers le bleu (on le mesure à partir de certaines « raies » présentes à des longueurs d'onde bien définies). C'est ainsi que, depuis Vesto Slipher, les astronomes mesurent les vitesses des galaxies et établissent l'expansion de l'Univers. Quelques physiciens et astrophysiciens ont contesté cette interprétation, mais ils n'ont pas réussi à proposer d'autre explication satisfaisante. L'expansion de l'Univers est donc très fermement établie.

D'autres ont suggéré que l'évolution de l'Univers pourrait être gouvernée par autre chose que la gravitation. Pourtant, toutes les autres interactions connues, par exemple électromagnétiques, sont de portée très limitée. L'univers semble donc bien gouverné par la gravitation, elle-même décrite par la théorie de la relativité générale (cette dernière hypothèse est aujourd'hui discutée : même si les analyses du système solaire et de certains systèmes astrophysiques la confirment[1], il n'est pas définitivement prouvé qu'elle s'applique à l'échelle de l'Univers entier. Mais aucune autre théorie n'existe actuellement et il reste raisonnable d'admettre sa validité. Au demeurant, l'adoption d'une théorie concurrente ne modifierait sans doute pas les caractéristiques essentielles des modèles de Big-bang).

La relativité générale décrit l'Univers comme un espace-temps, muni de propriétés géométriques (courbure en particulier) qui incluent l'évolution temporelle. Selon la relativité générale, ces propriétés géométriques dépendent, par les équations d'Einstein, du contenu en énergie de l'Univers. Par exemple, la matière massive contribue à ralentir l'expansion. Selon que l'Univers en contient plus ou moins (en moyenne), c'est-à-dire qu'il est plus ou moins dense, l'expansion se ralentira plus ou moins (il est même possible d'envisager qu'elle s'accélère).

Admettant la Relativité Générale et la physique bien établie (électromagnétisme, physique atomique, thermodynamique, physique nucléaire, astronomie etc.) on est inévitablement conduit aux modèles de Big-bang. Pour les contester, et décrire l'Univers par un autre modèle (qui resterait à trouver), il faudrait remettre en cause des pans entiers de notre physique d'aujourd'hui. Par exemple, les partisans des « modèles stationnaires » avaient dû supposer des phénomènes physiques nouveaux : présence de particules de masses négatives, création spontanée de matière (à partir de rien). Aujourd'hui, seuls les modèles de Big-bang réussissent à décrire ce que nous observons, toutes les propositions de modèles concurrents ayant été démenties par l'expérience. Mais peut-être un jour ...

Les modèles de Big-bang

Ces modèles disent en premier lieu que l'Univers est homogène et isotrope, en expansion. Calculs et observations concordent pour établir que cette expansion de déroule sans changement notable depuis une certaine durée tU, que l'on appelle âge de l'Univers, actuellement estimé à 15 milliards d'années environ (compte tenu des incertitudes, il vaut mieux dire entre 10 et 25 milliards d'années). Cela implique, conséquence immédiate, que rien dans l'Univers ne peut être plus âgé que tU. Or, les estimations d'âges de planètes, étoiles, galaxies, donnent à peu près toutes les valeurs possibles entre 0 et 15 milliards d'années. Un succès pour le Big-bang ! En effet, si l'Univers n'est pas est lui-même âgé de quinze milliards d'années, comment comprendre que nous n'observons aucune étoile ou galaxies d'un âge supérieur ?

À cause de l'expansion, la matière cosmique se trouve dans des volumes de plus en plus grands. Autrement dit, elle se dilue et donc, en conformité avec les lois de la physique, se refroidit. En même temps, dilution et refroidissement sont accompagnés d'une lente structuration. Ainsi, les modèles de Big-bang énoncent l'histoire d'un Univers en expansion depuis quinze milliards d'années, en dilution, en refroidissement et qui se structure.

Plus on remonte dans le passé, plus l'Univers était concentré et chaud, moins il était structuré. Il est aujourd'hui peuplé d'objets structurés, aussi bien au niveau microscopique - atomes, molécules, cristaux - qu'au niveau astronomique: des étoiles, des galaxies, des planètes. Rien de tout cela n'existait dans l'Univers primordial. Les modèles de Big-bang permettent de reconstituer l'évolution passée de l'Univers par l'application des lois de la physique. Cela conduit à distinguer deux époques : l'Univers primordial correspond au premier million d'années ; l'ère de la matière qui suit est beaucoup plus longue et dure à-peu-près quinze milliards d'années. Bien que beaucoup plus court, l'Univers primordial fut le siège de nombreux phénomènes d'importance cosmique.

La limite entre ces deux périodes est marquée par une transition, évènement très important appelé recombinaison. L'Univers primordial (premier million d'années) était opaque au rayonnement électromagnétique : on ne pourra jamais rien observer directement de cette période. On ne peut que le reconstituer en appliquant les lois de la physique, ce que font les modèles de Big-bang. C'est durant l'Univers primordial que furent fabriqués d'abord les particules élémentaires, puis les noyaux atomiques les plus légers. à la fin, précisément au moment de la recombinaison, furent fabriqués les premiers atomes proprement dits. L'Univers primordial était baigné de rayonnement électromagnétique, dont l'énergie dépassait alors de beaucoup celle de la matière (alors qu'aujourd'hui l'énergie du rayonnement est mille fois inférieure à celle de la matière). Les atomes n'étant pas encore formés, il n'existait dans l'Univers primordial aucune structure, hormis quelques noyaux d'atomes.

La recombinaison marque le moment où l'Univers devient transparent. Tout ce que les astronomes sont capables d'observer se situe donc plus tardivement. La recombinaison est elle-même un évènement très intéressant car c'est à ce moment-là que fut émis le fameux rayonnement diffus cosmologique, que nous observons tout autour de nous, dans toutes les directions : nous avons l'impression d'être au centre d'une gigantesque sphère brillante de luminosité (en ondes radio) uniforme. Au-delà de cette surface, réside l'Univers opaque inobservable (à cause de la vitesse finie de la lumière, cet « au-delà » possède une signification à la fois spatiale et temporelle). Les plus récentes observations ont montré que l'intensité de ce rayonnement est parfaitement identique dans toutes les directions du ciel, à quelques millionièmes près. C'est l'un des arguments forts qui montre qu'il ne peut avoir été engendré que dans le cadre des modèles de Big-bang. En plus de cette remarquable uniformité, il se caractérise par une répartition en énergie extrêmement particulière : un spectre de corps noir, bien connu des physiciens, qui manifeste une situation d'équilibre thermique. L'observation du fonds diffus cosmologique indique donc que l'Univers dans son ensemble devait être en équilibre thermique dans un passé très reculé, exactement ce que prédisent les modèles de Big-bang. Les très nombreux résultats d'observation du fonds diffus cosmologique (dont les plus fameux par le satellite COBE) confirment de mieux en mieux l'accord exceptionnel entre la réalité et les prédictions théoriques des modèles de Big-bang.

Après la recombinaison, l'Univers entre dans l'ère de la matière, où il commence à ressembler à ce qu'il est aujourd'hui. Le rayonnement électromagnétique perd son influence au profit de la matière. Celle-ci, continuant à se diluer et à se refroidir, commence à s'organiser. Aux petites échelles spatiales, se forment des atomes (à la recombinaison), des molécules, des cristaux, des poussières... Une partie de ces objets, avec le gaz omniprésent (essentiellement de l'hydrogène) s'agglomèrent et donnent naissance aux galaxies, aux étoiles, aux planètes, aux amas de galaxies ... à tous les objets que les astronomes observent dans l'Univers.

Géométrie cosmique

Telle est l'histoire de l'Univers du point de vue de la physique. Cependant, il n'y a pas un seul modèle de Big-bang, mais toute une famille dont les membres se distinguent par certaines caractéristiques de leur géométrie. D'une part l'aspect spatial de cette géométrie conduit à distinguer trois familles selon la courbure spatiale négative, nulle ou positive. Un espace à courbure positive généralise, à trois dimensions, la surface d'une sphère. Un espace à courbure nulle généralise à trois dimensions la surface d'un plan. Il existe en outre des espaces à courbure négative, moins familiers. Les trois versions sont possibles, seules les observations permettent de trancher. Les affirmations récentes selon lesquelles « l'Univers serait plat » correspondent à la version intermédiaire où l'espace est plat (les modèles de Big-bang se distinguent également, en principe, par leur topologie spatiale). Par ailleurs, la loi d'expansion cosmique constitue la partie temporelle de la géométrie de l'espace-temps. L'expansion indique que l'espace-temps ne peut être plat, même si l'espace peut l'être.

La relativité générale permet aussi, en principe, de prévoir le destin de l'Univers. Deux possibilités se présentent, dont nous ne savons pas encore laquelle est la bonne. Ou bien la phase d'expansion continuera indéfiniment. Ou bien elle se terminera et l'Univers débutera une phase de recontraction sur lui-même, processus inverse de l'expansion, qui mènera à une fin grosso modo symétrique au Big-bang, appelée le big crunch. Nul ne sait ce qui se passera alors, pas plus que l'on ne sait ce qui s'est passé aux tous premiers instants de l'Univers primordial. Peut-être que l'Univers rebondira pour amorcer une nouvelle phase d'expansion. Peut-être sera-ce la fin de tout, ou ...

Aujourd'hui, certains indices suggèrent que l'expansion pourrait continuer éternellement, voire s'accélérer. Mais tout ceci est à prendre avec de grandes précautions car nous ne savons pas encore précisément lesquels, dans la famille des modèles de Big-bang, conviennent le mieux pour décrire notre Univers. Astrophysiciens et cosmologues s'interrogent sur la courbure et la topologie de la géométrie spatiale, sur la valeur de la constante de Hubble qui mesure le taux actuel de l'expansion, sur la forme précise de la loi d'expansion, accélérée ou décélérée, sur son futur, éternel ou débouchant sur un big crunch.

Le plus surprenant est la simplicité, notamment géométrique, de ces modèles cosmologiques fondés sur la relativité générale. Comment se fait-il que des modèles aussi simples décrivent si bien quelque chose d'aussi compliqué que l'Univers dans sa globalité ? Bien entendu, ce n'est pas aux modèles eux-mêmes qu'il faut demander la réponse à cette question. Certains l'oublient un peu facilement et critiquent les modèles à ce propos, mais il faudrait critiquer de même l'ensemble de la physique, sinon de la science. À vrai dire, tenter de comprendre pourquoi un modèle fonctionne exige de se placer dans un cadre plus général, une sorte de super-modèle, de super-théorie. Nous avons d'ailleurs d'autres motivations à cela car aujourd'hui, les deux théories physiques de base, relativité générale et (physique) quantique, sont incompatibles. Outre le malaise que cela suscite d'un point de vue conceptuel, cela interdit de décrire les trous noirs, ou l'Univers primordial. La recherche est extrêmement active, en vue d'une théorie plus fondamentale que la Relativité Générale ou la physique quantique, qui les engloberait chacune comme une approximation (tout comme la relativité générale englobe la physique newtonienne). Cela pourrait mener à une cosmologie (quantique ?) plus globale qui permettrait peut-être de comprendre l'origine du bien fondé des modèles de Big-bang. Cette nouvelle théorie reste encore inconnue même si des pistes intéressantes (cosmologie quantique, supercordes, supersymétrie,...) sont explorées.

L'origine du monde ?

Je ne puis terminer sans évoquer la question de l'Origine de l'Univers, que beaucoup associent au Big-bang. Le lien n'est cependant pas si clair. L'Univers étant en expansion, toutes les dimensions cosmiques augmentent avec le temps (on repère augmentation par l'évolution temporelle d'un facteur d'échelle : toute longueur cosmique augmente avec le temps proportionnellement à ce facteur). Vers le passé primordial, ce facteur d'échelle devient de plus en plus petit, tellement qu'il semble naturel de penser qu'il y eut un moment où il était nul. Ce moment est parfois assimilé à « l'origine de tout », quelquefois appelé Big-bang. À vrai dire, la physique et la cosmologie ne prédisent nullement un tel instant. Elles impliquent certes que le facteur d'échelle et toutes les longueurs cosmiques ont été très petites (en comparaison d'aujourd'hui), mais non pas nulles. On ne peut décrire aucun événement qui correspondrait à une explosion cosmique. La reconstitution vers le passé ne peut être menée jusqu'à un hypothétique instant zéro car les densité, énergie, température, très élevées de l'Univers primordial sortent du cadre de notre physique : elles impliquent qu'effets quantiques et relativistes devraient opérer simultanément, une situation que la physique actuelle est impuissante à traiter (à cause de l'incompatibilité mentionnée). Il est impossible de prolonger la reconstitution vers le passé au-delà d'une « barrière de non-connaissance » (aucun événement cosmique spécial identifié, mais la limite de notre ignorance). Elle est baptisée barrière de Planck, en référence à la constante de Planck qui caractérise les phénomènes quantiques.

La physique quantique implique que toute grandeur dynamique doit fluctuer. La relativité générale implique que l'espace et le temps sont des grandeurs dynamiques. Espace et temps devraient donc tous deux fluctuer, y compris à l'échelle de l'Univers entier (très ramassé à cette époque). Cela interdit par exemple de savoir si deux événements se déroulent en un même point ou non, à un même instant ou non, si l'un précède l'autre ou si c'est l'opposé. Ces questions perdent même leur sens, ce qui empêche toute approche physique. Sans espace et temps bien définis, on ne peut faire de physique. Peut-être un cadre complètement différent, encore à trouver, permettra-t-il d'opérer sans temps ni espace.

Toujours est-il que la reconstitution du passé de l'Univers ne mène à aucune origine, à aucune création. La simple logique devrait d'ailleurs nous mettre en garde contre une assimilation entre la création de l'Univers et son début temporel. Selon nos conceptions, le temps est partie constituante de l'Univers, si bien que la création de ce dernier (pour autant que ceci ait un sens) intègre la création du temps. Or le temps ne peut être créé au sein d'un temps déjà existant !

Une création de l'Univers, si l'on tient absolument à l'envisager, ce serait la création de l'espace-temps, donc de l'espace et aussi du temps. Elle ne peut pas procéder dans le temps, et ne peut donc qu'être atemporelle. Rien dans la physique ou dans la cosmologie ne permet de parler d'un instant de Création !

Malgré les immenses succès des modèles de Big-bang, il nous faut rester modestes : la cosmologie, et la science en général, ne nous fournira jamais l'explication du monde, et de la place que nous y occupons.

Bibliographie

- Figures du ciel, J.-P. Luminet et M. Lachièze-Rey, Seuil - BnF, 1998.

- Initiation à la cosmologie, M. Lachièze-Rey, Dunod, 1999.

- Du monde clos à l'univers infini, Alexandre Koyré, Gallimard 1973.

- Le rayonnement cosmologique, M. Lachièze-Rey et E. Gunzig, Masson 1995.

- Alexandre Friedmann et Georges Lemaître, Essais de cosmologie, l'invention du Big-bang, Seuil - Sources 1997.

- Connaissance du Cosmos, Marc Lachièze-Rey, Albin Michel , 1987.

- Gravitation and cosmology, Steven Weinberg, 1980, John Wiley and Sons, New York.

- Univers, J. Demaret, Le Mail 1991.

- À la poursuite du Big-bang, J Gribbin, Éditions du Rocher, 1991.

- Chronique de l'espace-temps, A. Mazure, G. Mathez et Y. Mellier, Masson 1994.

- Cosmologies du XXème siècle. Etude Epistémologique et historique des théories de la Cosmologie contemporaine, J. Merleau-Ponty, Gallimard, Paris, 1965.

- Le Big-bang en questions, Science et Vie Hors série n° 189, décembre 1994.

[1] Voir la 183e conférence de l'Université de tous les savoirs donnée par T. Damour.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
initiation musicale toulon  

LES ATOMES FROIDS ...

 

 

 

 

 

 

 

La preuve par les atomes froids
Frédéric Chevy dans mensuel 393
daté janvier 2006 -  Réservé aux abonnés du site


À quoi pourraient servir les gaz d'atomes refroidis à très basse température où, entre autres comportements étranges, la viscosité est nulle ? À fabriquer un nouveau type d'ordinateur, ont montré des physiciens en s'appuyant sur des travaux engagés depuis une dizaine d'années.
Comment se comportent les noyaux atomiques, les étoiles à neutrons ou encore les matériaux supraconducteurs qui

conduisent l'électricité sans perte d'énergie ? Pour répondre à cette question, les physiciens butent sur un problème : les calculs concernant ces systèmes composés d'un grand nombre de particules en interaction sont d'une énorme complexité. Même les ordinateurs les plus puissants sont incapables de les effectuer en des temps raisonnables.

Pour contourner les obstacles posés par ces systèmes à « n-corps quantiques », une approche consisterait à simuler leur comportement avec des systèmes physiques modèles, en réalisant ce qu'on appelle un « calculateur analogique quantique ». Depuis quelques années, les physiciens étaient de plus en plus nombreux à penser que des gaz d'atomes refroidis à quelques milliardièmes de degrés au-dessus du zéro absolu constitueraient d'excellents candidats. Cette intuition a été confirmée, en juillet 2005, par les travaux de Wolfgang Ketterle et son équipe au MIT. En identifiant un nouvel état de la matière où la viscosité est nulle, ils ont franchi un premier pas vers la réalisation d'un simulateur quantique, laissant poindre la résolution d'autres problèmes fondamentaux de la physique [1] .

Calcul analogique
Les calculateurs analogiques sont fondés sur un principe foncièrement différent de celui des ordinateurs que nous utilisons aujourd'hui. Ces derniers sont des dispositifs programmables qui, pour résoudre un problème donné, réalisent une série d'opérations élémentaires « ET », « OU », « NON », etc.. Leur nombre est d'autant plus grand que l'on souhaite un résultat précis. Or, pour satisfaire cette exigence, le temps de calcul peut parfois excéder la durée de vie d'un chercheur ! Cette difficulté ne se pose pas pour les calculateurs analogiques dont le principe consiste à résoudre un problème mathématique en s'appuyant sur un système physique qui obéit à la même équation : des résultats de mesures sont utilisés pour répondre à la question initiale. Pour un ordinateur analogique, le temps de calcul correspond ainsi à la durée de la manipulation. Et la précision n'est limitée que par celle des instruments de mesure.

Historiquement, le calcul analogique préexiste au calcul numérique. Son origine est même très ancienne. Vers - 100 avant notre ère, par exemple, la machine dite d'Anticythère simulait la marche apparente du Soleil et de la Lune. Constitué d'une vingtaine de roues dentées, d'axes, de tambours et d'aiguilles mobiles, ce mécanisme était l'ancêtre des horloges astronomiques du Moyen Âge et de la Renaissance, comme celle d'une douzaine de mètres de haut que l'on peut toujours admirer dans la cathédrale de Strasbourg.

Polyvalence du numérique
Pendant des siècles, les calculateurs analogiques ont été utilisés pour résoudre des problèmes divers. Ainsi, dans les années 1930, l'armée américaine calculait encore les trajectoires balistiques avec des ordinateurs analogiques mécaniques. Mais en dépit de leurs performances en termes de temps de calcul, ces machines présentaient un inconvénient de taille : leur manque de souplesse. On ne pouvait les utiliser que pour résoudre un seul type de problème. Après la Seconde Guerre mondiale, ce concept fut progressivement abandonné au profit des ordinateurs numériques, programmables et beaucoup plus polyvalents, avec le succès que l'on sait.

Quelques physiciens, comme le Prix Nobel Richard Feynman, continuèrent de penser que l'ordinateur analogique n'avait pas dit son dernier mot : devant les difficultés posées par l'étude des systèmes à n-corps quantiques, il constituerait un atout précieux [2] . Mais les contraintes étaient très fortes. Le système ne devait contenir aucune impureté de manière à correspondre le plus exactement possible aux modèles théoriques. Et tous les paramètres physiques, en particulier l'intensité des interactions entre les constituants, devaient pouvoir être contrôlés afin de simuler le comportement d'autres systèmes physiques. Faute

de candidats valables, l'idée de Feynman resta temporairement sans suite.

Il fallut attendre l'essor des gaz d'« atomes froids » pour qu'une piste crédible se révèle enfin. Dans les années 1980, grâce à la lumière laser, les physiciens avaient appris à refroidir des gaz à des températures jamais atteintes par l'homme. Les initiateurs de cette technique, Steve Chu, de l'université Stanford, Claude Cohen-Tannoudji, de l'École normale supérieure, et William Phillips, du National Institute of Standard and Technology, obtinrent le prix Nobel de physique en 1997. Si les atomes froids apparaissaient comme de si bons candidats pour la réalisation d'un simulateur analogique quantique, c'est parce que leur très basse température ainsi que leur faible densité permettent un contrôle quasi total des propriétés physiques du gaz. Et, puisque dans de telles conditions les atomes se déplacent lentement, on peut effectuer des mesures d'une très grande précision, comme le prouvent les dernières générations d'horloges à atomes froids : à ce jour, elles fournissent les étalons de fréquence, et donc de temps, les plus précis au monde.

Un prototype à portée de main
Dans la pratique, le paramètre physique le plus difficile à moduler sur une large gamme était l'interaction entre particules. En 1999, l'observation d'un phénomène quantique appelé « résonance de Feshbach * » permit de passer outre cette difficulté : en utilisant des champs magnétiques, les physiciens apprirent à contrôler la force des interactions entre les atomes froids [3] . Cette découverte laissa penser au groupe de théoriciens dirigés par Ignacio Cirac et Peter Zoller, de l'université d'Innsbruck, en Autriche, qu'un prototype d'ordinateur analogique était à portée de main. Ils réussirent à convaincre plusieurs groupes de théoriciens et d'expérimentateurs, issus de l'optique quantique, la physique atomique, la physique des solides et la physique nucléaire, de combiner leurs talents et de se lancer dans cette aventure.

La validité de l'approche analogique devait d'abord être testée dans la situation la plus simple, en l'occurrence un système contenant une seule espèce d'atomes. À très basse température, on savait que le comportement d'un groupe de particules était dominé par une propriété quantique fondamentale, le « spin », qui, en quelque sorte, décrit la vitesse de rotation de chaque particule sur elle-même à la manière d'une toupie. Le spin ne peut pas prendre de valeurs quelconques : il peut être soit entier 0, 1, 2, etc., soit demi-entier 1/2, 3/2, etc.. Dans le premier cas, la particule est appelée « boson », dans le deuxième, c'est un « fermion ». Or, contrairement aux bosons comme les photons, par exemple dont le comportement était relativement bien compris, les fermions posaient de multiples questions qui résistaient aux spécialistes du domaine. Il parut donc opportun de développer un ordinateur analogique utilisant des atomes fermioniques.

L'une des questions ouvertes concernait l'existence et la nature de la superfluidité des systèmes fermioniques, un état où la matière s'écoule sans frictions du fait de sa viscosité nulle. Cette propriété était habituellement associée aux particules bosoniques, car celles-ci ont tendance à se placer dans le même état énergétique. En 1924, Albert Einstein avait montré qu'il existait une température au-dessous de laquelle les bosons s'accumulaient dans l'état de plus basse énergie, formant ce que l'on nomme aujourd'hui un « condensat de Bose-Einstein » CBE. Dès les années 1930, le caractère superfluide de ce condensat avait pu être démontré dans l'hélium liquide. Plus récemment, en 1995, les premiers condensats de Bose-Einstein gazeux ont été observés par le groupe d'Eric Cornell et Carl Weinman, de l'université du Colorado, et par celui de Wolfgang Ketterle. Un tour de force expérimental qui est à l'origine des avancées les plus récentes en physique des atomes froids, et qui valut à ces physiciens d'être récompensé par le prix Nobel en 2001.

Contrairement aux bosons, les fermions sont « individualistes » : ils ne peuvent occuper à deux le même état énergétique. Pour placer des fermions, comme les électrons, par exemple, dans un piège, il est nécessaire de remplir un à un les niveaux d'énergie en commençant par le plus bas [fig. 1] : l'« énergie de Fermi » est alors associée au dernier état peuplé. En raison du comportement individualiste des fermions, on pourrait penser qu'il n'existe pas d'état superfluide dans un système composé de ce type de particules. Cette hypothèse était pourtant invalidée par l'existence des métaux supraconducteurs qui étaient connus depuis le début du XXe siècle, où la disparition de la résistance électrique est analogue à la perte de viscosité. Dans les métaux, les physiciens américains John Bardeen, Leon Cooper et John Schrieffer ont démontré dans les années 1950 que l'état supraconducteur résultait de l'appariement des électrons entre eux.

Interactions attractives
Or, lorsque deux particules s'associent pour former une paire, leurs spins peuvent s'ajouter ou se soustraire, mais celle-ci possède toujours un spin entier : c'est donc un boson. En formant une paire, des fermions soumis à des interactions attractives sont donc susceptibles de former un état superfluide. C'est la théorie dite « BCS », dont le domaine de validité était restreint aux interactions faiblement attractives entre fermions.

Cette théorie pouvait-elle être étendue à tout régime d'interaction ? Vers le début des années 1980, Philippe Nozières, Anthony Leggett et Stefan Schmitt-Rink en avaient fait l'hypothèse en se fondant qualitativement sur le fait que la distance entre les atomes d'une paire devait être d'autant plus faible que les interactions entre particules étaient attractives [4] . Pour des interactions fortes, on s'attend donc à obtenir des paires de très petite taille. Celles-ci peuvent alors être considérées comme des particules ponctuelles, ce qui nous ramène à la théorie d'Einstein appliquée à un gaz de molécules bosoniques. Lorsqu'on réduit l'intensité des interactions, la taille des paires augmente. Et lorsque l'attraction devient extrêmement faible, la distance entre deux particules d'une même paire devient bien plus grande que la distance entre deux paires. Nozières, Leggett et Schmitt-Rink retrouvaient ainsi les paires de Cooper telles qu'elles avaient été décrites, dans les années 1950, par Bardeen, Cooper et Schrieffer [fig. 2] .

L'argument précédent était relativement solide dans les régimes d'interactions très fortes ou très faibles, puisqu'on pouvait leur appliquer soit la théorie d'Einstein soit la théorie BCS. La situation était nettement plus confuse dans le régime d'interactions intermédiaire. En effet, les interactions y étaient trop importantes pour traiter le gaz comme un groupe de fermions sans interactions, et elles étaient trop faibles pour traiter les paires comme des particules ponctuelles. Or, d'un point de vue aussi bien théorique qu'expérimental, ce régime était le plus intéressant à étudier puisque celui-ci décrit des systèmes aussi divers que les étoiles à neutrons, l'un des stades ultimes de l'évolution d'une étoile, les matériaux supraconducteurs à haute température critique, dont l'interprétation théorique est controversée et dont les enjeux économiques sont potentiellement considérables, ou encore le plasma de quarks et de gluons, un état qui se serait formé quelques millionièmes

de secondes après le Big Bang !

Pour trancher entre l'hypothèse de Nozières, Leggett et Schmitt-Rink et d'autres modèles qui prédisaient notamment une transition non continue et un comportement instable dans le régime intermédiaire, la réponse ne pouvait venir que d'une résolution exacte du problème : soit en mobilisant des ressources informatiques très puissantes, soit, dans l'optique d'un calcul analogique en la

testant sur un système pour lequel il serait possible de faire varier l'intensité des interactions.

L'approche analogique a commencé à porter ses fruits en 2003 : des condensats moléculaires composés de fermions ont été observés presque simultanément par Rudolph Grimm, à Innsbruck, et Deborah Jin, à Boulder [5] . Mettant à profit les connaissances acquises sur les résonances de Feshbach, la transition CBE-BCS a ensuite pu être explorée. En accord avec les prédictions de Leggett, Nozières et Schmitt-Rink, un nuage d'atome pour toutes les intensités d'interactions a été conservé intact, sans qu'aucune des

instabilités prédites par les modèles concurrents ne se manifeste.

Suite à ce premier résultat qualitatif, une période d'activité expérimentale intense permit de caractériser plus précisément le régime de transition. L'existence d'un appariement entre fermions a pu être démontrée, et l'énergie du gaz entre le condensat de molécules et l'état BCS a été établie. Il s'avère que l'énergie de chaque particule est proportionnelle à l'énergie de Fermi du système. Et la constante de proportionnalité, que l'on note par la lettre grecque prononcez xi est un nombre « universel », au même titre que par exemple. Autrement dit, elle ne dépend pas du système physique auquel on applique ce modèle de fermions en interactions, qu'il s'agisse d'un gaz d'atomes froids ou d'une étoile à neutrons !

Tourbillons quantiques
En 2004, notre groupe de l'École normale supérieure a déterminé expérimentalement ce paramètre dans le régime intermédiaire en ouvrant brusquement le piège servant à confiner les atomes [6] . Le gaz « explose », et s'étend d'autant plus rapidement que que son énergie est importante.Ainsi, en mesurant le rayon du gaz après une milliseconde, nous avons pu remonter à une valeur de . Celle-ci était en profond désaccord avec la valeur prédite par Nozière, Leggett et Schmitt-Rink. Cependant, leur calcul était sujet à caution puisqu'il avait été réalisé en dehors du cadre de validité de la théorie BCS.

En travaillant sur un très petit nombre de fermions une trentaine, Vijay Pandharipande, de l'université d'Urbana-Champaign, a réalisé une simulation informatique numérique qui semble confirmer nos mesures [7] . D'autres simulations prenant en compte

plusieurs dizaines de milliers de particules, plus

réalistes et donc plus pertinentes, sont actuellement en cours. Elles nécessiteront une année de calcul,

et mobiliseront les plus puissants ordinateurs branchés en réseau, ce qui souligne la pertinence de l'approche analogique.

Mais en dépit des résultats et d'indices expérimentaux obtenus depuis 2003, il manquait encore une preuve directe de l'existence d'un état superfluide dans la transition CBE-BCS. Celle-ci est venue au printemps 2005 avec les expériences

de mise en rotation

de gaz de fermions dans le régime intermédiaire réalisées par le groupe de Ketterle. Lorsqu'un fluide classique, comme de l'eau par exemple, est placé dans un seau en rotation, la friction avec les parois entraîne le liquide : celui-ci se met à tourner « en bloc » avec le seau. Or, du fait de l'absence de viscosité dans l'état superfluide, une telle situation ne peut se produire. À la place, des tourbillons se forment. Ils ont le même diamètre et se manifestent par le trou qu'ils percent dans le nuage, puisque la force centrifuge rejette les atomes de leur centre. De tels tourbillons avaient été observés dans l'hélium superfluide par Richard Packard, de l'université de Californie, en 1974, et dans des gaz de bosons, par notre groupe, en 2001.

Dans l'expérience de Ketterle, des atomes de lithium sont piégés par un faisceau laser. Le gaz prend la forme d'un cigare allongé dans la direction du faisceau voir ci-dessus . Un deuxième faisceau permet de mettre le gaz en rotation. Lorsque sa vitesse est suffisament grande, des tourbillons apparaissent. Ils s'organisent selon un réseau triangulaire connu sous le nom de « réseau d'Abrikosov » [8] . Si l'existence des tourbillons résulte bien des lois de la mécanique quantique, le réseau d'Abrikosov est une conséquence d'effets hydrodynamiques et sa structure est le produit de deux forces en compétition : la poussée d'Archimède, qui tend à ramener chaque tourbillon vers le centre du piège, et la force de Magnus * , qui repousse les tourbillons tournant dans le même sens. Caractéristique du régime superfluide, l'observation de tourbillons dans un gaz de fermions montre bien que le nuage reste superfluide sur toute la transition CBE-BCS.

L'élucidation du comportement d'un gaz de fermions monoatomiques constitue un pas important vers l'élaboration d'un simulateur quantique capable d'étudier des systèmes composés d'atomes différents et dans des situations aussi variées que possible. Un enjeu important sera d'isoler les problèmes abordables ainsi que le système expérimental le plus polyvalent. Actuellement à l'étude, la possibilité de piéger des gaz d'atomes froids dans des réseaux optiques obtenus par l'interférence de plusieurs lasers ouvre des perspectives prometteuses.

EN DEUX MOTS Dans le monde quantique, celui de l'infiniment petit, les interactions

entre particules peuvent mener à des calculs

très complexes. Tellement que la puissance des ordinateurs ne suffit pas à les comprendre. Pour s'affranchir de cette difficulté, les physiciens cherchent à mettre au point un calculateur analogique

à l'aide d'atomes ultra-froids qui simuleraient

le comportement de particules en interaction. Un premier pas a été franchi au printemps 2005 par l'équipe du physicien allemand Wolfgang Ketterle.
[1] M. Zwierlein et al., Nature, 435, 1047, 2005.

[2] R. Feynman, Int. J. Theor. Phys., 21, 467, 1982.

[3] A. Moerdijk et al., Phys. Rev. A, 51, 4852, 1995.

[4] A. Leggett, Modern Trends in The Theory of Condensed Matter, Springer Verlag, 1980 ; P. Nozières et S. Schmitt-Rink, J. Low. Temp. Phys, 59 , 195, 1985.

[5] S. Jochim et al., Nature, 426, 537, 2003.


[6] T. Bourdel et al., Phys. Rev. Lett., 93, 050401, 2004.


[7] J. Carlson et al., Phys. Rev. Lett., 91, 050401, 2003.


[8] Alexandre Bouzdine, « L'héritage de Lev Landau », La Recherche, janvier 2004, p. 63.
NOTES
* Dans le phénomène de résonance de Feshbach, on utilise un champ magnétique pour déplacer les niveaux d'énergie des électrons et maîtriser la manière dont les atomes interagissent.

* L'effet Magnus correspond à la force exercée par un fluide sur un objet en rotation. Cet effet est utilisé par les footballeurs pour donner une trajectoire incurvée au ballon en le mettant en rotation au moment du coup de pied.
SAVOIR
F. Chevy et C. Salomon, « Superfluidity in Fermi gases », Physics World, 18, 3, 2005.

F. Chevy et J. Dalibard, « Les Condensats de Bose-Einstein en rotation », Bulletin de la SFP, décembre 2003-janvier 2004, p. 4.

W J.-J. Gleitz, Le Calcul analogique, PUF, 1968.

 

  DOCUMENT       la recherche.fr      LIEN

 
 
 
initiation musicale toulon  

LA PHYSIQUE EN CHAMPS MAGNÉTIQUE INTENSE

 

 

 

 

 

 

 

Texte de la 596 e conférence de l'Université de tous les savoirs prononcée le 18 juillet 2005

Par Geert Rikken: « Physique en champ magnétique intense »

Introduction

Dans cette conférence je vais vous parlez des champs magnétique intenses comme outil de recherche en physique. Vous pourrez voir que d'autres domaines s'en servent également. Je vais commencer avec par une petite introduction historique qui tracera un bref aperçu des lois fondamentales et des techniques pour générer les champs magnétiques intenses. Puis je présenterai trois grandes catégories dans lesquelles on peut classer l'utilisation des champs magnétiques intenses. D'abord il y a la manipulation magnétique ou des forces mécaniques font bouger et s'orienter des objets. Dans la deuxième catégorie on utilise un champ magnétique pour sonder l'état de la matière, c'est-à-dire l'état où elle serait en l'absence du champ magnétique. Puis, dans la troisième catégorie, le champ magnétique crée un nouvel état de la matière qui n'existe pas sans champ magnétique.

Dans la dernière catégorie, il n'y a pas trop d'applications quotidiennes quand on parle des champs très intenses. Pour la manipulation magnétique, il y a beaucoup plus d'application que vous connaissez sans doute, parce que la plupart se rencontrent dans la vie quotidienne. De l'autre coté, en termes d'intensité, c'est la dernière catégorie qui demande les champs les plus élevés et c'est là dessus que les laboratoires de recherche des champs intenses travaillent le plus.

Historique

Le champ magnétique a fasciné les gens depuis prés de 3000 ans. Les anciens chinois le connaissaient déjà et les Romains discutaient déjà l'origine du mot. On trouve deux versions dont l'une est proposée par Lucrétius faisait descendre le mot du nom de la région Magnésie qui se situe en Grèce, et où l'on trouve des aimants permanents constitués essentiellement d'oxyde de fer aimanté. Euclide racontait l'histoire d'un berger, Magnès, qui aurait découvert le phénomène parce que les clous dans ses bottes étaient attirés par certaines pierres. C'est ainsi que l'on aurait donné son nom au phénomène.

Au Moyen Age il y a eu beaucoup d'histoires autour du magnétisme, et les gens ont cru qu'il était médicinal, ou même diabolique. Il faut attendre 1600 pour voir le premier traité scientifique sur le magnétisme. Il est l'Suvre de William Gilbert, le médecin de la Reine d'Angleterre Elizabeth. C'est à cette période que l'électricité a commencé à faire son apparition. Jusqu'en 1820 on considérait que les deux étaient complètement différents, l'un n'ayant rien à faire avec l'autre. C'est le danois Christian Oersted qui a démontré expérimentalement, et par pur hasard, que les deux sont intimement liés. Alors qu'il effectuait une expérience en électricité sur une table se trouvait à proximité sur une autre table une boussole pour une expérience de magnétisme. Il constata que la boussole bougeait quand il faisait passer un courant électrique sur la première table. C'était la preuve que le courant créait un champ magnétique. Une dizaine d'années plus tard Faraday démontra à l'inverse qu'un champ magnétique variable pouvait créer un champ électrique. Tous ces phénomènes ont finalement été résumés par Maxwell dans une forme mathématique qui lie le champ magnétique, le champ électrique, le courant et les charges. Il en donna ainsi une description homogène et cohérente qui s'est avéré correcte jusqu'aujourd'hui.

Depuis, de nombreuses recherches ont été menées dans le domaine des champs magnétiques comme le montre la liste des prix Nobel liés aux résultats obtenus en champ magnétique ou autour de ce domaine (Cf. figure 1). Parmi ces prix certains ont été décernés en physique, d'autres en chimie et en médecine, certains pour des découvertes de phénomènes fondamentaux et d'autres également pour de l'instrumentation développé autour des champs magnétiques, comme par exemple le cyclotron ou le spectromètre de masse qui sont tous les deux basés sur le champs magnétique.

figure 1

Les lois fondamentales

Souvent des gens me demandent « qu'est-ce qu'un champ magnétique ? », et je n'ai pas vraiment de réponse satisfaisante. Une réponse brève et simple est que c'est une manifestation du champ électromagnétique. Il faut simplement accepter de considérer que l'électromagnétisme est une des quatre interactions fondamentales de l'univers et qu'il n'est pas possible de le réduire à des choses encore plus élémentaires. Une autre définition assez utile du champ magnétique est que c'est une influence qui entoure une charge électrique qui bouge.

En électricité, l'objet élémentaire est la charge électrique, en magnétisme les choses ne sont pas si simples. Il n'existe pas une charge magnétique, l'objet élémentaire est le dipôle magnétique qu'on peut s'imaginer comme un courant circulaire. Le moment magnétique correspondant est le rayon fois la vitesse fois la charge et ce moment crée un champ magnétique autour de lui.

Les lois fondamentales classiques du champ magnétique sont assez simples.

D'abord, il y a la force de Lorentz qui dit qu'une charge qui bouge dans un champ subit une force perpendiculaire à la vitesse et au champ. Dans un champ magnétique homogène, un électron fait donc un mouvement circulaire, qui s'appelle le mouvement cyclotron, caractérisé par le rayon cyclotron et la fréquence cyclotron. Deuxièmement, un champ magnétique induit un moment magnétique dans n'importe quelle matière, c'est-à-dire également dans celle qu'on appelle non-magnétique. Si le moment induit s'oppose au champ, on parle de diamagnétisme, si c'est l'opposé, on parle de paramagnétisme. Finalement, l'énergie d'un dipôle dans un champ est le produit scalaire du moment et du champ, qui fait qu'un dipôle préfère être parallèle au champ. Cette énergie s'appelle l'énergie de Zeeman.

Dans la recherche moderne, les champs magnétiques sont souvent appliqués à des systèmes quantiques, dans la physique des solides ou la physique atomique. Dans ces systèmes, les lois quantiques sont dominantes. Le premier phénomène quantique surprenant, lié au champ magnétique est que les particules comme les électrons ou les protons ont un moment magnétique intrinsèque, qu'on appelle le spin. Pour employer une image simple, il faut imaginer que ces particules chargées tournent autour d'un axe. La mécanique quantique dit que le spin des électrons ne peut avoir que deux valeurs, up et down. Il n'existe aucune explication classique pour ce phénomène qui a été découvert expérimentalement sans aucune prévision théorique. Dans la mécanique quantique, il existe aussi un mouvement cyclotron, mais plus compliqué et bien sur quantifié. Le rayon cyclotron, quantifié, est proportionnel à la longueur magnétique, qui correspond pour un champ d'un Tesla à 25 nanomètres, ce qui fait que les champs magnétiques trouvent aujourd'hui beaucoup d'emploi dans les nanosciences. L'énergie cyclotron est quantifiée, et proportionnelle à la fréquence cyclotron. On appelle ces niveaux d'énergie les niveaux de Landau. Le dernier aspect quantique un peu bizarre du champ magnétique est que le champ lui-même devient quantifié, et n'est plus un paramètre continu. Le quanta de flux magnétique est donné par des constantes fondamentales et correspond au champ magnétique qui traverse la surface d'une orbite cyclotron fondamentale d'un électron. L'intensité du champ correspond maintenant à la concentration des quantum de flux.

Cela nous amène au dernier aspect quantique de la physique en champ magnétique. La mécanique quantique connaît deux grandes familles de particules. D'un coté, il y a la famille des fermions, qui consiste en particules qui ont un spin non entier, très souvent ½, et qui ont comme particularité de ne pas pouvoir se partager un état à une énergie donné. Les électrons et les protons en sont des exemples. D'un autre coté, il y a la famille des bosons, qui consiste en particules qui ont un spin entier, et qui ont comme particularité qu'il peuvent se partager un état à un énergie donné. Les photons et certains atomes sont des exemples de bosons. La différence entre bosons et fermions devient importante quand on met beaucoup de particules ensembles. Les fermions ne veulent pas être tous à la même énergie et beaucoup d'entre eux sont donc forcés d'occuper des états à plus hautes énergies. A une température égale à zéro, le niveau de Fermi sépare les états vides des états remplis. Pour les bosons, les choses sont complètement différentes. A une température inégale à zéro, les bosons occupent une gamme d'énergie à cause des excitations thermiques. Mais si on baisse suffisamment la température, il peuvent tous se partager l'état de la plus basse énergie et ainsi créer un état cohérent. Cette transition s'appelle la condensation de Bose-Einstein, et fournit l'explication de la superfluidité de hélium liquide et de la supraconductivité ( Cf. figure 2).

figure 2

La supraconductivité est un phénomène qui a une relation à la fois difficile et fructueuse avec le champ magnétique, comme on le verra après. Dans certains cristaux se crée une attraction entre les électrons, malgré la répulsion Coulombienne, qui est le résultat de la déformation du cristal par les électrons. Deux électrons peuvent ainsi former une paire, appelé paire de Cooper, dans laquelle ils ont leurs moments cinétiques et leurs spins opposés. Cette nouvelle entité, la paire de Cooper, a donc un spin totale égal à zéro et est un boson. A une température suffisamment basse, toutes les paires peuvent condenser dans un état quantique cohérent. Cet état, observé pour la première fois par Kamerlingh Onnes en 1911, a deux propriétés remarquables : la résistivité électrique égale à zéro, d'où le nom supraconductivité, et le champ magnétique expulsé de l'intérieur du cristal, ce que l'on appelle l'effet Meissner. Cet effet existe jusqu'à une valeur critique du champ. Les champs plus intenses détruisent la supraconductivité parce que le deux spins de la paire de Cooper veulent tous les deux s'aligner avec le champ, annihilant ainsi la paire de Cooper et la supraconductivité.

La pratique des champs intenses

Les ordres de grandeur des champs magnétiques qu'on rencontre sont très divers. Autour de nos cerveaux on trouve des champs extrêmement faibles, liés aux activités cérébrales, et utilisés pour étudier ces dernières. Dans l'espace intra stellaire on trouve des champs faibles dont personne ne connaît l'origine. Le champ le plus connu est bien sur celle de la Terre qui fait aligner nos boussoles. Les aimants permanents ont un champ entre 0,1 et 1 Tesla. Des champs plus intenses sont générés par des électro-aimants, qui peuvent aller jusqu'à 1000 Tesla. La Nature a trouvé des moyens plus efficaces, et sur certaines étoiles, appelés les magnétars, les astronomes ont observés des champs d'un milliard de Tesla.

Dans ce qui suit je ne parlerai plus des champs faibles, en dessous d'un Tesla, pour me concentrer sur les champs intenses, crées par des électro-aimants ( Cf. figure 3).

figure 3

La seule méthode de créer un champ magnétique intense est de faire circuler un courant électrique très fort dans un solénoïde. Il y a deux problèmes à résoudre.

D'abord il y a le réchauffement du conducteur à cause du courant électrique. Pour éviter ce réchauffement, on peut utiliser un fil supraconducteur à basse température, qui n'a aucune résistivité électrique. Cette approche est limitée par les champs magnétiques critiques qui détruisent la supraconductivité. L'alternative consiste à refroidir le conducteur pour enlever la chaleur générée par la dissipation électrique.

Le second problème est la force de Lorentz. Le courant et le champ magnétique qu'ils génèrent ensembles créent une force de Lorentz qui va radialement vers l'extérieur, comme si le champ créait une pression magnétique à l'intérieur qui fait exploser le solénoïde quand elle devient trop forte ( Cf. figure 4). Pour remédier à ce problème, les électro-aimants sont construits avec des conducteurs ultra forts, ou avec un renfort externe.

figure 4

Les champs magnétiques intenses statiques jusqu'à quelques Tesla sont généré avec des fils en cuivre sur un noyau en fer, le plus fort de ce type étant l'aimant de Bellevue, construit au début du 20me siècle, qui a atteint 7 Tesla. Des champs atteignant jusqu'à 22 Tesla peuvent être générés avec des fils supraconducteurs refroidis avec de l'hélium liquide. Pour aller encore plus haut, la seule méthode consiste à utiliser du cuivre comme conducteur, en prenant soin de baisser la température par refroidissement à l'eau. Des puissances électriques jusqu'à 20 MW, refroidies avec 300 litres d'eau froide par seconde, permettent de générer jusqu'à 33 Tesla. En combinant les deux dernières techniques, on construit des aimant hybrides, qui ont généré jusqu'à 45 Tesla.

Pour aller plus haut en champ, on doit se contenter des champs transitoires, avec des durées en dessous d'une seconde. A Toulouse on produit des champs jusqu'à 60 Tesla avec des bobines monolithiques, faites d'un fil ultra fort et d'un renfort externe. Avec deux bobines concentriques on peut mieux répartir les contraintes mécaniques et atteindre jusqu'à 77 Tesla, comme l'a démontré récemment une collaboration européenne basée à Toulouse. Si on veut aller encore plus haut il faut accepter que la bobine soit détruite pendant le tir. Les bobines « monospire » sont constituées d'une seule spire en cuivre, qui explose radialement vers l'extérieur pendant un tir, laissant l'expérience au centre de la bobine intact. De cette façon on peut créer jusqu'à 300 Tesla. Les champs les plus intenses sont générés par la compression de flux ; le champ créé par une petite bobine est compressé par un cylindre en cuivre qui à son tour est comprimé par une explosion. Des champs jusqu'à 2000 Tesla ont été obtenus, mais l'expérience a été complètement détruite par l'explosion ( Cf. figure 5).

figure 5

Applications des champs intenses ; manipulation magnétique

Après cette partie technique, passons maintenant aux applications des champs.

La première catégorie d'application est la manipulation magnétique. Ce qui est très connue c'est bien sur l'orientation magnétique, comme, par exemple, dans le cas d'une boussole. On connaît un peu moins la séparation magnétique qui permet d'enlever des composant magnétique d'un mélange, par exemple les ordures ménagères. Assez actuel, avec l'arrivé d'ITER en France, est le confinement magnétique ou l'on peut confiner des particules chargés dans une volume sans qu'ils touchent le parois. Dans les tokamaks, comme ITER, un plasma ultra chaud est ainsi confiné. Toutes ces applications, ainsi que d'autres, comme la réfrigération magnétique ou le frein magnétique, impliquent des champs assez modestes, de quelques Tesla.

Ce qui est plus intéressant en termes de champs intenses est la lévitation magnétique. Non seulement cela demande des champs plus forts mais en outre il semble exister un problème fondamental pour ce phénomène. Il y a un vieux théorème, appelé le théorème d'Earnshaw, qui dit qu'il n'est pas possible d'atteindre une lévitation stable de charges ou d'aimants dans un champ magnétique statique. Si vous avez jamais essayé de prendre deux aimants permanents et d'en faire léviter un au dessus de l'autre, vous savez que c'est effectivement impossible. Il existe deux façons de contourner le théorème d'Earnshaw. La première est la lévitation dynamique, la deuxième la lévitation diamagnétique. Commençons avec la lévitation dynamique. Si le théorème d'Earnshaw interdit la lévitation stable, la stabilité nécessaire à conditions que l'on puisse activement réguler la lévitation. Par exemple on peut avoir une attraction entre un aimant permanent et un électro-aimant. Dès qu'ils se rapprochent trop, on réduit le courant dans l'électro-aimant pour qu'ils s'éloignent. Dès qu'ils s'éloignent trop, on augmente le courant etc. Il faut donc un système électronique de rétroaction pour arriver à une lévitation quasi stable. Ce principe a été implémenté dans le train à lévitation allemand TransRapid, ce qui lui permet d'avancer, sans friction avec les rails, à des vitesses allant jusqu'à 500 km/h.

Avec la lévitation diamagnétique on se sert d'une autre astuce pour contourner le théorème d'Earnshaw ; le diamagnétisme. Le diamagnétisme, ou le matériau repousse le champ magnétique, est un phénomène purement quantique, qui n'est pas couvert par le théorème d'Earnshaw. Dans un champ magnétique inhomogène, le champ exerce une force sur le matériau diamagnétique qui peut compenser la force gravitationnelle, permettant ainsi de faire léviter l'objet. Pour de l'eau, il faut un gradient magnétique d'à peu près 1000 T2/m pour que la lévitation ait lieu, valeur que l'on peut obtenir grâce à des électro-aimants performants. Par exemple, des êtres vivants, qui sont constitués principalement d'eau, peuvent être lévités ainsi en simulant l'apesanteur, une méthode bien sur moins chers que celle qui consiste à les envoyer dans une station spatiale. On peut aussi utiliser la lévitation diamagnétique comme outil de recherche pour étudier par exemple les interactions entre des gouttes d'eau, qui montrent des collisions élastiques sans fusion. On peut observer la lévitation diamagnétique à son extrême en faisant léviter un aimant permanent au dessus d'un supraconducteur, l'effet Meissner du supraconducteur représentant le diamagnétisme total ( Cf. figure 6).

figure 6

Applications des champs intenses ; sonder la matière

La deuxième catégorie des applications des champs intenses concerne le champ magnétique utilisé comme outil pour sonder la matière et déterminer ses propriétés, y compris des propriétés non-magnétiques. La première est l'effet Hall, qui est une conséquence de la force de Lorentz et qui fait qu'un courant qui passe perpendiculairement à un champ, crée un champ électrique perpendiculaire à ce courant et à ce champ. Cet effet permet de déterminer le signe de large des porteurs et leur concentration. La deuxième application dans cette catégorie est la résonance magnétique. Comme je l'ai expliqué avant, un moment magnétique quantique peut avoir deux valeurs, spin up et spin down, et ces deux états sont séparés par l'énergie de Zeeman. Si on irradie ce moment avec de la radiation électromagnétique, dont la fréquence correspond exactement à cette énergie, cette radiation peut être absorbé, le spin sera tourné du down vers le up et on parle alors de résonance. Ce principe peut être appliqué à plusieurs types de moments magnétiques. Pour les spins nucléaires, on parle de résonance magnétique nucléaire (RMN) et les fréquences nécessaires sont entre 10 et 1000 MHz. Si on l'applique aux spins des électrons, on parle de résonance paramagnétique des électrons (RPE) et les fréquences sont typiquement mille fois plus hautes, entre 10 et 1000 GHz. On peut aussi l'appliquer aux moments magnétiques orbitaux, comme le mouvement cyclotron des électrons (on parle de résonance cyclotron, dans le domaine de fréquences terahertz) ou des ions. Ces ions on peut les créer en ionisant des molécules et ainsi on peut déterminer la masse des molécules avec une très haute précision en mesurant la fréquence de résonance avec une haute précision. Dans ce qui va suivre je souhaite montrer pourquoi la RMN et sa dérivé, l'IRM (imagerie par résonance magnétique), sont tellement puissantes et utiles.

L'essentiel est que la RMN sonde le champ magnétique local d'un spin nucléaire. Si vous imaginez par exemple une molécule de benzène avec un champ perpendiculaire à l'anneaux des atomes de carbones, le moment magnétique induit dans les électrons de la molécule crée son propre champ magnétique qui est superposé au champ externe et qui fait que les protons dans le noyau des atomes d'hydrogène qui sont à l'extérieur de cet anneaux, voient un champ local légèrement différent ( Cf. figure 7). Leur fréquence de résonance sera donc un peu différente que la valeur pour un proton libre et cette différence est une empreinte pour l'environnement chimique de ces protons. En mesurant les différentes fréquences de résonances des protons dans une molécule organique, on peut déduire l'environnement chimique de chaque type de proton et ainsi reconstruire la structure de la molécule. Aujourd'hui la RMN est une des méthodes d'analyse les plus performantes en chimie organique. Des champs magnétiques très intenses sont nécessaires pour analyser les solides par RMN, parce que les raies de résonance sont beaucoup plus larges.

figure 7

Vous connaissez probablement tous quelqu'un qui a subit un examen d'imagerie par résonance magnétique, qui est une application récente de la RMN. Dans l'IRM on utilise toujours la RMN pour sonder le champ local, mais maintenant à une échelle macroscopique quand on applique un champ magnétique avec un gradient. La position le long du gradient se traduit dans une fréquence de résonance, et l'intensité de l'absorption à cette fréquence se traduit dans la concentration des noyaux à cette position dans le gradient. En faisant ces mesures avec des gradients en trois directions, un ordinateur peut reconstruire un plan tri-dimensionnel de la concentration de ces noyaux, qui peut alors être interprété par un médecin.

La troisième catégorie des sondes magnétiques de la matière est constituée des oscillations quantiques. Pour des fermions, les variations de l'énergie de Landau et du rayon du cyclotron avec le champ magnétiques font que le niveau de Fermi, et donc toutes les propriétés électroniques, vont varier périodiquement avec 1/B. Il y a plusieurs manifestations de ces variations, appelés oscillations quantiques. La plus connue est l'oscillation de l'aimantation du système appelée l'effet de Haas van Alphen. On peut aussi l'observer dans la résistivité électrique appelée effet Shubnikov de Haas. Avec ces oscillations, on peut déterminer la masse effective des électrons, leur temps de diffusion et leur surface de Fermi, la surface séparant les états vides des états remplis, en mesurant les oscillations en fonction de l'angle entre le champ et les axes du cristal.

Applications des champs intenses ; créer des nouveaux états

Le troisième grand groupe d'application des champs magnétiques intenses est la création des nouveaux états de la matière condensée et je voudrais vous présenter trois catégories.

Dans les gaz bidimensionnels des électrons, les champs intenses créent les effets Hall quantique intégrale et fractionnaire, les deux découvertes couronnés avec un prix Nobel.

Le gaz bidimensionnel existe à l'interface entre deux couches dans certains dispositifs semi-conducteurs et comme pour tous les conducteurs il a un effet Hall que j'ai décrit avant. La grande surprise, observée par von Klitzing en 1980, était qu'on n'observe pas la prédiction classique, c'est-à-dire un effet Hall linéaire en champ magnétiques, mais des plateaux quantifié dans la résistance de Hall, et des zéros dans la résistance longitudinale. L'explication de l'effet Hall quantique intégrale vient des impuretés dans le système. Ces impuretés font que les niveaux de Landau sont élargis et que les états loin du centre du niveau sont localisés. Tant que le niveau de Fermi se trouve dans ces états localisés, la résistance de Hall est donnée par le facteur de remplissage, c'est-à-dire, le nombre de niveaux de Landau en dessous du niveau de Fermi (et donc constant), et la résistance longitudinale est zéro parce que les porteurs mobiles n'ont pas d'états vides proches disponibles. Comme l'effet Hall quantique dépend des impuretés, il doit disparaître si on réussit à fabriquer des systèmes plus propres, ce qui a été observé. Mais en même temps un autre effet Hall quantique inattendu se manifestait. L'effet Hall quantique fractionnaire phénoménologiquement ressemble beaucoup à l'effet Hall quantique intégrale, mais cette fois ci, les plateaux et les zéros se trouvent à des facteurs de remplissage donnés par des fractions. L'explication de l'effet Hall quantique fractionnaire, donnée par Laughlin, et récompensée par un prix Nobel en 1998, est que les interactions entre les électrons deviennent dominantes et qu'une nouvelle entité se forme, constitué d'un électron avec deux quantum de flux magnétique et qu'on appelle un fermion composite. Dans cette description, l'effet Hall quantique fractionnaire des électrons devient l'effet Hall quantique intégrale des fermions composites.

La deuxième catégorie concerne la supraconductivité exotique. Depuis la découverte de la supraconductivité en 1911, la température critique (la température en dessous laquelle la supraconductivité existe) a monté doucement avec les découvertes de nouveaux matériaux. Un grand saut fut fait en 1986 avec la découverte d'une nouvelle famille de supraconducteurs ; les cuprates. Ils sont composés de couches d'oxyde de cuivre ou la conduction électrique a lieu, séparés par des couches d'autres atomes, qui servent aussi pour injecter de la charge dans les couches d'oxydes de cuivre. Les structures cristallines sont assez compliquées et les diagrammes de phase de ces composés sont très riches, en particulier en fonction du dopage, c'est-à-dire du nombre d'électrons ou de trous par atome de cuivre, introduit par les autres atomes. On y trouve des phases isolantes, supraconductrices, anti-ferromagnétiques et métalliques. Le mécanisme de la supraconductivité dans les cuprates n'est pas bien connu, et aussi l'état normal des cuprates au dessus de la température critique est mal compris et on ne sait par exemple pas s'il est isolant ou métallique. L'approche normale pour discriminer entre un isolant et un métal est de refroidir le système, et de mesurer sa résistivité électrique. Pour un isolant, cette résistivité doit diverger tandis que pour un métal il devient constant. Pour les cuprates, cette approche n'est pas possible parce que la supraconductivité intervient. La solution est d'appliquer un champ magnétique intense pour supprimer la supraconductivité. Sous ces conditions, on peut mesurer la résistivité de l'état normal jusqu'à de basses températures. Récemment on a ainsi observé dans des échantillons très purs d'YBaCuO que l'état normal est métallique.

Je vous ai expliqué qu'un champ intense tue la supraconductivité. Paradoxalement, le contraire existe aussi, de la supraconductivité induit par le champ magnétique ! C'est le cas dans certains conducteurs organiques qui contiennent des anions paramagnétiques. Les électrons de conduction sentent le champ externe et le champ d'échange des ions et les deux sont opposés. Pour une certaine gamme de champs externes, les deux champs se compensent à peu près, les électrons sentent donc très peu de champ total et la supraconductivité peut exister. Ce phénomène s'appelle l'effet Jaccarino-Peter.

La dernière catégorie où le champ magnétique crée des nouveaux états, fait partie du magnétisme quantique. Aujourd'hui, les chimistes savent synthétiser des nouveaux cristaux très purs des oxydes des métaux de transition. Les interactions entre les charges, les moments magnétiques orbitaux, les spins et les phonons donnent une grande richesse à ces systèmes, avec beaucoup de phases différentes en fonction de la température et du dopage. Que se passe-t-il si on ajoute encore une composante, le champ magnétique ? Un champ magnétique lui aussi peut induire une transition de phase, comme la température ou la pression. Cela devient clair si on regarde un système de deux électrons avec spin ½. En général ils s'accouplent anti-parallèlement pour donner une paire avec spin zéro, l'état singlet. L'état parallèle avec le spin égal à un, appelé l'état triplet, a une énergie plus haute. Mais à partir d'un certain champ magnétique externe, à cause de l'effet Zeeman, l'état avec spin -1 a une énergie plus basse que l'état avec spin égal à zéro et le système change d'état. La combinaison des oxydes de métaux de transition avec la transition de phase magnétique a récemment donnée quelques résultats remarquables. Le premier exemple est la condensation de Bose-Einstein des triplons dans le pourpre de Han. C'est un système des couches anisotropes de dimères des ions paramagnétiques de cuivre. Le résultat des interactions entre tous les ions est que l'état fondamental à champ zéro est non magnétique. L'application d'un champ magnétique intense fait croiser l'état triplet à l'état singlet. De leur mélange, une nouvelle entité sort : le triplon. A cause de leur spin entier, les triplons sont des bosons et il peuvent condenser à basse température dans un état cohérent : la condensation Bose-Einstein. Cette transition de phase magnétique est visible dans la chaleur spécifique. Avec des mesures de la chaleur spécifique en fonction de la température et du champ, on peut trouver le diagramme de phase et identifier le domaine du condensât des triplons.

Le deuxième exemple est aussi un système de couches d'ions de cuivre : le SrCu2(BO3)2. Dans ce système, des plateaux d'aimantation ont été observés. Récemment, des mesures de RMN à très basses températures et dans un champ très intense ont démontré que sur ces plateaux, le système a une superstructure magnétique très compliqué qui n'existe pas ailleurs.

C'est avec ce dernier exemple que je termine mon exposé. J'espère avoir pu vous montrer que la physique en champ magnétique intense est à la fois utile, puissante et fascinante. Je tiens à remercier tous mes collègues pour les discussions et pour m'avoir fourni des images.


 DOCUMENT       canal-u.tv     LIEN

 
 
 
initiation musicale toulon  

LES NANOSTRUCTURES SEMI-CONDUCTRICES

 

 

 

 

 

 

 

Texte de la 586 e conférence de l'Université de tous les savoirs prononcée le 8 juillet 2005

Par Jean-Michel Gérard * « Les nanostructures semiconductrices »


Au cours des vingt dernières années, les chercheurs ont appris à structurer la matière à l'échelle du nanomètre, en particulier pour les besoins de la microélectronique. Rappelons qu'un nanomètre, c'est un milliardième de mètre, c'est-à-dire cinquante mille fois plus petit que le diamètre d'un cheveu. On parle donc ici d'une échelle extrêmement petite, de l'ordre de quelques distances inter-atomiques au sein des molécules ou des corps solides. A l'échelle du nanomètre, les propriétés physiques sont très différentes de celles qui sont observables dans notre monde macroscopique et sont gouvernées, pour l'essentiel, par la mécanique quantique. Nous allons montrer ici qu'il est particulièrement intéressant de fabriquer des objets de taille nanométrique à partir de matériaux semi-conducteurs. Ces « nanostructures semiconductrices » nous ouvrent des perspectives d'application originales et importantes, grâce à leurs propriétés très particulières.
Nous utilisons tous au quotidien des composants nanométriques, souvent sans le savoir. A titre d'exemple, lorsque nous écoutons notre lecteur de disque compact, nous mettons en Suvre un laser semiconducteur « à puits quantique » pour lire l'information stockée sur le disque. Le cSur de ce composant est constitué par un empilement de couches semiconductrices, qui comporte notamment une couche très fine, le puits quantique, dont l'épaisseur est de l'ordre de 10 nanomètres. Ce composant a été développé il y a une vingtaine d'années et a aujourd'hui de très nombreuses applications.
Les semi-conducteurs constituent une famille de matériaux particulièrement commodes pour fabriquer des nano-structures et exploiter leurs propriétés originales. Après avoir rappelé en termes simples ce qu'est un semi-conducteur, je décrirai les effets quantiques de base attendus pour des structures semi-conductrices de taille nanométrique. Je présenterai ensuite les techniques de fabrication à cette échelle avant d'illustrer par quelques exemples les propriétés et applications des nanostructures semiconductrices.

Qu'est ce qu'un semiconducteur ?

Pour comprendre les propriétés électriques ou optiques des matériaux, il faut de façon générale connaître les états possibles pour les électrons dans le système considéré. Rappelons que ces états sont par exemple très différents pour un électron libre dans l'espace et pour un électron appartenant à un atome. Si l'électron est libre, il peut avoir n'importe quelle vitesse et par conséquent n'importe quelle énergie. S'il appartient à un atome isolé, son énergie ne peut au contraire prendre que certaines valeurs bien définies. Ceci résulte du fait que l'électron, attiré par le noyau atomique, est piégé au voisinage de celui-ci. Plus généralement, la mécanique quantique nous apprend que toute particule dont la position est confinée dans les trois dimensions de l'espace possède un ensemble discret d'énergies permises.
Considérons à présent la situation dans laquelle l'électron n'est plus dans un espace libre mais dans un solide, par exemple un morceau de fer ou un morceau de silicium. Dans ce cas, l'énergie de cet électron ne peut prendre que des valeurs comprises dans certains intervalles (ou « bandes ») d'énergie permise (voir la figure 1). Ceux-ci sont séparés par des « bandes interdites », plages d'énergie pour lesquels le système ne possède aucun état quantique permettant à l'électron d'avoir cette énergie. La connaissance de cette structure de bandes d'un matériau donné permet de définir si celui-ci est un métal ou un isolant. On connaît en effet le nombre d'électrons de ce solide et, d'après une loi physique connue sous le nom de principe de Pauli, on sait qu'on ne peut mettre dans un état quantique donné qu'un seul électron. Dans une « expérience de pensée », plaçons donc les électrons du solide à l'intérieur de ces bandes d'états disponibles. Pour cela, on remplit successivement les différents états, en commençant par ceux de plus basse énergie, jusqu'à ce que tous les électrons soient placés. Dans le cas d'un métal, ce processus s'arrête au milieu d'une bande d'états (voir figure 1). Un tel système électronique va pouvoir répondre très facilement à une sollicitation par une force extérieure, par exemple un champ électrique. En effet, les électrons qui occupent la bande partiellement remplie vont pouvoir se redistribuer aisément au sein de cette bande, puisqu'elle comprend à la fois des états occupés et des états vides très proches en énergie les uns des autres. Un tel solide sera un bon conducteur du courant, et est dit métallique. Supposons au contraire qu'on soit dans une situation pour laquelle les électrons remplissent parfaitement un certain nombre de bandes d'états, toutes les autres étant vides. Dans ce cas, il est beaucoup plus difficile de changer la configuration électronique du système, car il faut apporter une énergie importante pour faire passer un électron d'une bande d'états pleine à une bande d'états vide. Un tel solide, qui ne peut pas répondre à une sollicitation par un champ électrique, est un isolant. Plus précisément, on parlera de matériau semi-conducteur ou de matériau isolant, selon qu'il est possible ou non de rendre ce matériau partiellement conducteur en le fonctionnalisant, en suivant une méthode simple que nous allons décrire.
Nous avons vu que dans un isolant, les bandes d'états sont soit parfaitement remplies par les électrons, soit entièrement vides. On va pouvoir dès lors fonctionnaliser ce matériau en introduisant volontairement des impuretés, ce qu'on appelle « doper » le matériau. Imaginez, par exemple, que dans un cristal de silicium, vous remplaciez des atomes de silicium par des atomes de phosphore qui apportent chacun un électron en plus. Pour placer ces électrons excédentaires, il nous faut commencer à remplir une nouvelle bande, qu'on appelle bande de conduction. Puisqu'ils occupent une bande partiellement occupée, ces électrons vont pouvoir conduire le courant, et la conductibilité du matériau peut être ajustée très simplement en dosant le nombre d'électrons qu'on introduit. De la même façon, si vous insérez des impuretés qui apportent un électron en moins, la dernière bande d'état occupée, appelée bande de valence, ne sera pas complètement pleine. Elle comportera certains « trous », qui permettent ici encore au matériau de devenir conducteur. Le contrôle du dopage des semiconducteurs a constitué une étape clef pour le développement des diodes, des transistors et plus généralement pour l'essor de la microélectronique et de l'optoélectronique.

Figure 1 : Représentation schématique des états électroniques et de leur remplissage par les électrons du solide dans le cas d'un métal, d'un semiconducteur pur, et d'un semiconducteur dopé par des impuretés « donneuses d'électron ».

En considérant la figure 1 b), nous allons voir qu'un semi-conducteur non dopé présente des propriétés très spécifiques vis-à-vis de la lumière. La lumière et la matière interagissent par échange de quanta d'énergie comme l'a montré Einstein en 1905. Ces quantas (les « photons ») peuvent être vus comme des petits grains de lumière, qui ont une énergie hn, où h la constante de Planck et n la fréquence de l'onde lumineuse. Si ce quantum d'énergie hn est plus petit que la largeur de la bande interdite qui sépare la bande de valence de la bande de conduction, le principe de conservation d'énergie nous empêche de promouvoir un électron de la bande de valence à la bande de conduction. Le semi-conducteur ne peut absorber un tel photon, et est donc transparent pour un rayonnement lumineux de fréquence n. Par contre, si l'énergie hn est plus grande que la largeur de la bande d'énergie interdite, il devient possible de faire passer un électron de la bande de valence à la bande de conduction en absorbant un photon.
De plus, un semi-conducteur, peut être mis en Suvre pour émettre de la lumière de fréquence relativement bien définie. Imaginons que nous ayons placé par un moyen idoine, un certain nombre d'électrons dans la bande de conduction et un certain nombre de trous dans la bande de valence. Chaque électron pourra alors redescendre de la bande de conduction à la bande de valence en émettant un photon, avec une énergie voisine de la largeur de la bande interdite. En jouant sur la nature ou la composition du matériau semiconducteur, on peut ainsi ajuster la fréquence du rayonnement émis. Les matériaux les plus employés pour cette fonction sont le nitrure de gallium GaN, le phosphure d'indium InP, ou encore l'arséniure de gallium GaAs, tandis que le silicium, matériau roi de l'électronique, n'est pas un bon émetteur de lumière.
Le principal composant optoélectronique en termes de marché (loin devant la diode laser) est la diode électroluminescente. Ce composant très répandu est largement utilisé pour la visualisation (voyants lumineux, feux de signalisation routière, écrans plats extérieurs...) et de plus en plus pour l'éclairage. Nous reviendrons plus loin sur quelques avancées récentes importantes dans ce domaine.
On peut comprendre relativement simplement comment les diodes électroluminescentes et les diodes lasers émettent de la lumière lorsqu'on leur injecte un courant électrique (figure 2). Juxtaposons côte à côte deux morceaux de semi-conducteur dopés, l'un riche en électrons (SC « de type n ») et l'autre pauvre en électrons (SC « de type p »). Des électrons pourront alors passer de la bande de conduction du matériau de type n vers des états vides de valence du matériau de type p, passage qui s'accompagne de l'émission de photons. Afin d'entretenir ce phénomène, il faut bien entendu apporter des électrons au matériau de type n et en extraire du matériau de type p. Ceci est simplement réalisé en appliquant une tension électrique entre ces deux matériaux via des contacts métalliques.

Figure 2 : Principe de fonctionnement d'une diode électroluminescente (M = métal, SC = semi-conducteur). A droite, diodes électroluminescentes réalisées à partir du semiconducteur GaN (nitrure de gallium).

Afin d'accroître la fonctionnalité des matériaux semi-conducteurs, on peut aussi associer des semi-conducteurs de nature différente, présentant des largeurs de bande interdite différentes, de façon à réaliser une « hétérostructure » semiconductrice. Insérons par exemple une couche d'un matériau à petite bande interdite, P, au sein d'un semiconducteur G de plus grande bande interdite. Plaçons un électron dans la bande de conduction du matériau G. Lorsqu'il se déplace au sein de celui-ci, l'électron « voit » un univers essentiellement uniforme (tous les endroits se ressemblent dans un cristal, les atomes étant parfaitement bien ordonnés). A contrario, lorsqu'il arrive à l'interface entre les matériaux P et G, cet électron peut abaisser son énergie en passant de G à P, car il existe des états de conduction dans le matériau P à plus basse énergie que dans le matériau G. En quelque sorte, l'électron se comporte ici un peu comme une bille qui rencontrerait une marche d'escalier. Il était sur la marche du haut, il saute et tombe sur la marche du bas. On peut bien entendu décliner cette idée de très nombreuses façons, afin de structurer le profil de potentiel vu par l'électron. On va construire pour lui un paysage avec des collines et des vallées, dont le profil et la hauteur peuvent être dessinés quasiment à volonté en jouant avec la nature des matériaux.

Les nanostructures semiconductrices

Invention capitale, les hétérostructures semiconductrices ont déjà valu plusieurs prix Nobel à leurs inventeurs. Derniers en date, Z. Alferov et H. Kroemer se sont vus récompenser en 2000 pour avoir « développé des hétérostructures semiconductrices employées dans les domaines de l'électronique ultrarapide et de l'optoélectronique », selon les termes du comité Nobel. Les hétérostructures « quantiques » sont quant à elles apparues à la fin des années 70. Le principe reste ici le même, à ceci près qu'on va à présent structurer la matière à l'échelle du nanomètre de façon à voir apparaître des effets quantiques. Parmi les exemples les plus célèbres, on peut citer le super-réseau, qui est une sorte de millefeuille, constitué d'un empilement périodique G/P/G/P...de couches semiconductrices de grande bande interdite (G) et de petite bande interdite (P) de quelques nanomètres d'épaisseur. Les super-réseaux possèdent des propriétés de conduction électrique très particulières, dont la découverte a valu le prix Nobel 1973 à L. Esaki. On peut aussi jouer à confiner les électrons dans des nanostructures. L'exemple le plus simple, déjà cité, est le puits quantique G/P/G constitué par une couche mince P, d'épaisseur nanométrique, placée au sein d'un matériau G de plus grande bande interdite. Un électron de conduction, placé dans le puits quantique, est confiné selon une direction de l'espace, mais reste libre de se mouvoir dans les deux autres dimensions. On peut également fabriquer des fils quantiques ou des boîtes quantiques, pour lesquels l'électron est confiné selon deux dimensions ou trois dimensions. Dans le cas des boîtes quantiques, l'électron est confiné dans toutes les directions ; cette situation est tout à fait analogue au cas de l'électron piégé au voisinage du noyau dans un atome. On s'attend donc à retrouver, dans le cas des boîtes quantiques, un système présentant (comme l'atome) des états électroniques discrets, bien séparés en énergie.

Figure 3 : Représentation schématique d'un puits quantique (PQ), de fils quantiques (FQs) et de boîtes quantiques (BQs). Vue en coupe de puits quantiques de GaN dans AlN, obtenue par microscopie électronique à haute résolution (Remerciements à J.L. Rouvière et B. Daudin, CEA).

On sait réaliser des puits quantiques de bonne qualité depuis le début des années 80. A titre d'exemple, la figure 3 montre une vue en coupe d'un puits quantique de GaN au sein d'une couche de nitrure d'aluminium AlN, obtenue par microscopie électronique. Sur cette image, chaque ligne correspond à un plan d'atomes. On voit qu'en fait la structure est très proche de la perfection : d'une part, on passe de la couche de GaN à la couche d'AlN via un changement de composition abrupt à l'échelle atomique ; d'autre part, les interfaces sont presque parfaitement plates, à la présence près de quelques marches atomiques. Comment obtient-on en pratique un tel contrôle ? La perfection de ces objets résulte de la mise en Suvre d'une technique de déposition de films en couches minces, qui s'appelle l'épitaxie par jets moléculaires. Cette technique consiste à prendre un substrat, c'est-à-dire un cristal semi-conducteur sans défaut, sur lequel on va déposer l'hétérostructure désirée. Pour déposer une couche de nature donnée, par exemple en GaAs, on expose la surface du substrat à des flux d'atomes, ici de gallium et d'arsenic, évaporés à partir de cellules chauffées contenant des charges extrêmement pures de ces éléments. On ajuste la composition du matériau qu'on dépose en contrôlant les flux de ces différentes familles d'atomes, et les épaisseurs des couches déposées en jouant sur le temps de déposition. L'épitaxie par jets moléculaires se déroule dans une enceinte dans laquelle on réalise un vide résiduel extrêmement poussé (10-13 atmosphères !) de façon à éviter toute contamination par des atomes indésirables.

Les puits quantiques constituent un exemple simple de système dont les propriétés électroniques sont gouvernées par la mécanique quantique. Ces effets quantiques résultent du confinement de l'électron dans la couche « puits ». On sait depuis L. De Broglie qu'à toute particule on peut associer une onde, et que cette onde représente en fait la probabilité de présence de la particule dans l'espace. Toute onde confinée présente des fréquences de résonance particulière. Considérons par exemple la corde d'un violon ; elle a une longueur bien définie, est fixée à ses deux extrémités, et possède des fréquences de résonance spécifiques : la « note » qui lui est associée, ainsi que ses harmoniques, dont la fréquence est un multiple de celle de la note fondamentale. Il en est de même pour l'électron dans le puits quantique, dont l'onde associée va devoir s'adapter à la taille du puits. De façon analogue à la corde vibrante, dont la longueur est égale à un multiple de la demi longueur d'onde, la longueur d'onde de De Broglie l de l'électron est reliée à l'épaisseur L du puits par la relation L= n. l /2 où n est un nombre entier. De même que la longueur d'onde, l'énergie de l'électron (associée à son mouvement dans une direction perpendiculaire au plan du puits) ne peut prendre qu'un ensemble de valeurs discrètes données par l'expression suivante : . [1] Cette relation nous montre que l'électron a toujours une énergie cinétique minimale, donnée par E1, dont la valeur croît rapidement (comme 1/L2) lorsqu'on réduit la taille L du puits quantique. De même, la séparation énergétique entre les niveaux discrets de l'électron Em- En croît, elle aussi, comme 1/L2. L'étude expérimentale des puits quantiques par spectroscopie optique, par exemple l'étude de leurs propriétés d'absorption de la lumière, a parfaitement confirmé l'ensemble de ces prédictions. Les propriétés des puits quantiques ont été discutées plus en détail par E. Rosencher dans le cadre de ce cycle de conférences de l'UTLS, ainsi que leurs applications très variées en optoélectronique.

Nous allons nous intéresser plus spécifiquement dans la suite de cet exposé aux propriétés et applications des boîtes quantiques, qui ont fait l'objet de très nombreuses études au cours des dix dernières années. Initialement, ces nanostructures ont été principalement développées dans le but d'améliorer les propriétés des diodes laser. Pourquoi fabriquer des boîtes quantiques, et que s'attend t-on à gagner par rapport au laser à puits quantique ?
Ouvrons le boîtier de votre lecteur CD, et regardons à quoi ressemble la diode laser qu'il utilise pour lire le disque. Si on réalise une vue en coupe de ce composant, de façon à obtenir une image analogue à la figure 3, on verra qu'il est constitué par un empilement de couches semi-conductrices. L'une d'elles, de quelques centaines de nanomètres d'épaisseur, sert à guider le faisceau laser à l'intérieur du composant ; en son sein, on trouvera une ou quelques couches plus fines, formant des puits quantiques, qui vont amplifier cette onde laser s'ils sont excités par un courant électrique. Bien que les diodes laser soient des composants présentant des performances tout à fait remarquables, celles-ci sont cependant limitées par certaines lois fondamentales de la physique. Lorsqu'on met des électrons et des trous dans un puits quantique à la température T, l'énergie de ceux-ci n'est pas bien définie, mais distribuée sur une bande d'énergie de largeur typique kT, où k est la constante de Boltzmann. Le laser, quant à lui, fonctionne avec une fréquence d'émission n bien précise. On voit donc que la plupart des paires électron-trou injectées dans le puits, dont l'énergie est différente de hn, ne participent pas à l'émission laser. Ces paires peuvent cependant se recombiner, en émettant un photon par émission spontanée à une énergie différente de hn. Cette consommation d'électrons et de trous, inutiles pour le fonctionnement du laser, accroît la valeur du courant de seuil du laser, courant minimal qu'il faut lui injecter pour assurer son fonctionnement.
En 1982, Y. Arakawa et Y. Sakaki, de l'Université de Tokyo, ont proposé de réaliser des lasers à boîtes quantiques. L'idée sous-jacente était simple, conceptuellement du moins. Dans une boîte quantique, l'électron est confiné dans toutes les directions de l'espace, et ses états électroniques possibles sont discrets, comme pour un atome isolé. Si la boîte est assez petite, les états vont être très bien séparés en énergie comme on l'a vu auparavant, en discutant des effets de confinement. Supposons donc que cette séparation soit plus grande que l'énergie thermique kT (qui vaut 25 meV à température ambiante). Lorsqu'on injecte un électron dans la boîte quantique, celui-ci ne pourra occuper qu'un seul état, celui de plus basse énergie, car l'énergie thermique est insuffisante pour lui permettre d'occuper des états plus hauts en énergie. Il en est de même pour un trou, dans les états de valence de la boîte quantique. On espère donc, si les boîtes quantiques sont toutes identiques, que tous les électrons et les trous injectés vont travailler à la même énergie, ce qui devrait révolutionner les propriétés des lasers : on s'attend par exemple à ce que le courant de seuil soit réduit par un facteur 100 !
Cela étant dit, il faut que l'ensemble de boîtes quantiques satisfasse, pour atteindre cet objectif, un ensemble de conditions draconiennes. Tout d'abord, on veut que les états de la boîte quantique soient très bien séparés en énergie (à l'échelle de l'énergie thermique kT), de façon à ce que seul le premier état électronique de la boîte soit peuplé. Un calcul simple montre qu'alors la boîte quantique doit être plus petite que 15 nanomètres environ pour chacune de ses trois dimensions. Bien entendu, il faut aussi que les boîtes quantiques soient pratiquement identiques. En effet, la position des niveaux quantiques dans une boîte dépend de la taille de la boîte ; elle en dépend même très fortement pour un objet aussi petit, puisque l'énergie de confinement varie comme 1/L2, comme on l'a vu plus haut. On peut montrer facilement que la dispersion des tailles des boîtes quantiques doit être nettement plus petite que 15%. A notre échelle, une précision relative de 15% paraît quelque peu grossière, mais dans le cas présent, cela signifie que les boîtes quantiques doivent être fabriquées avec une précision absolue nettement meilleure que 2 nanomètres ! Enfin, il nous faut mettre en Suvre suffisamment de boîtes quantiques pour que le laser fonctionne effectivement, ce qui implique de fabriquer de l'ordre de un milliard à cent milliards de boîtes par centimètre carré. Chacune de ces trois contraintes, et a fortiori leur combinaison, paraissent extrêmement difficiles à remplir.

Comment fabriquer des boîtes quantiques ?

De nombreuses approches ont été explorées pour fabriquer des boîtes quantiques au cours des vingt dernières années. De façon imagée, on peut dire que la première à avoir fait l'objet d'un intérêt soutenu est celle du sculpteur. On part d'un puits quantique, qu'on cisèle au burin pour former un plot vertical, qui ne contient qu'une toute petite partie du puits. On forme de cette façon une boîte quantique pour laquelle l'électron est confiné suivant un axe vertical par la modulation de composition du semiconducteur (comme pour le puits quantique), et latéralement par les bords du plot. On sait fabriquer de tels objets en utilisant les outils de nanofabrication couramment employés en microélectronique, en particulier la lithographie électronique (qui permet de dessiner des motifs de taille nanométrique dans une résine à l'aide d'un faisceau d'électrons), et la gravure sèche assistée par plasma, qui permet de reproduire ce motif dans le semiconducteur. Bien qu'on ait réussi à fabriquer des boîtes quantiques par cette voie dès 1990, cette approche aujourd'hui abandonnée pose deux problèmes majeurs. D'une part, la lithographie électronique est une technique séquentielle ; il nous faut dessiner le motif désiré dans la résine boîte par boîte. Cette étape est donc fastidieuse et nécessairement coûteuse. D'autre part, on ne sait pas lithographier une résine organique à une échelle inférieure à 3 nanomètres environ. Cette approche n'est donc pas adaptée pour fabriquer un ensemble de boîtes quantiques avec le degré de précision requis pour faire un laser performant.
Fort heureusement, il s'est produit au début des années 90 deux miracles, de ceux dont la Nature a le secret. On a en effet alors découvert qu'il est possible d'obtenir des boîtes quantiques presque identiques très simplement, par auto-assemblage. Nous allons à présent présenter deux méthodes de fabrication de ce type, qui sont aujourd'hui très couramment employées.
La synthèse chimique de boîtes quantiques est assez proche de notre expérience quotidienne. Prenons une casserole d'eau salée, que nous laissons trop longtemps sur le feu. Au début, l'eau s'évapore progressivement, sans qu'on observe de changement particulier. A partir d'un certain moment, on verra cependant de tout petits cristaux de sel commencer à se déposer sur les bords de la casserole. L'eau salée a atteint sa concentration de saturation, ce qui conduit à la précipitation du sel excédentaire sous forme de petits cristaux solides. On peut faire à peu près la même chose à l'échelle nanométrique, avec des semi-conducteurs, par exemple avec le séléniure de cadmium CdSe. Dans la pratique, on prend un récipient dans lequel on met en solution de l'oxyde de cadmium dans un solvant organique. On injecte ensuite brutalement du sélénium dans la solution. Ce faisant, on dépasse le seuil de saturation pour CdSe et on déclenche la nucléation d'un très grand nombre de cristaux nanométriques de CdSe. A ce stade, les molécules de solvant viennent se fixer à la surface des nanocristaux, ce qui va ralentir leur croissance. Du fait de leur formation quasi-simultanée et de leur croissance lente, les nanocristaux conservent des tailles très voisines au cours du temps. Lorsqu'on arrête la croissance à un moment donné en cessant d'apporter du sélénium à la solution, on obtient un ensemble de nanocristaux dont la dispersion des tailles peut être de l'ordre de 5 %, ce qui est tout à fait remarquable pour des objets dont la taille n'est que de 3 nanomètres ! Cette merveilleuse homogénéité est illustrée par le cliché de microscopie électronique présenté sur la figure 4.

Figure 4 : A gauche, vue au microscope électronique d'un ensemble de nanocristaux de CdSe obtenus par synthèse chimique. La fluctuation relative de leur rayon R est de l'ordre de 5%. A droite, observation sous éclairage ultraviolet de flacons contenant des nanocristaux de CdSe dans un solvant: la couleur de la suspension colloïdale peut être ajustée dans tout le spectre visible en jouant sur la taille moyenne des nanocristaux. Remerciements à P. Reiss et J. Bleuse (CEA).

La seconde approche permet de fabriquer des boîtes quantiques par auto-assemblage en utilisant -comme pour les puits quantiques- l'épitaxie par jets moléculaires. Contrairement aux nanocristaux, ces boîtes quantiques vont pouvoir être intégrées facilement au sein d'un composant semi-conducteur, par exemple un laser. Pour présenter cette méthode, considérons une image d'une surface de GaAs sur laquelle on a déposé deux couches moléculaires (soit un demi-nanomètre en moyenne) d'InAs. Cette image, présentée figure 5, a été obtenue par microscopie à force atomique, une technique qui permet d'avoir une résolution à l'échelle atomique sur la topographie d'une surface. On constate ici la formation spontanée d'un ensemble dense d'îlots de taille nanométrique à la surface de l'échantillon. Ce mode de croissance tridimensionnel avec formation d'îlots est en fait observé pour un très grand nombre de couples de matériaux semi-conducteurs.
Pourquoi ce mode de croissance tridimensionnel est-il observé ici ? Lorsqu'on dépose par croissance épitaxiale un semiconducteur A sur un substrat S, on choisit en général deux matériaux pour lesquels la géométrie d'agencement des atomes et leurs distances mutuelles sont les mêmes. Les atomes déposés pour former la couche A adoptent alors de façon naturelle le même ordre cristallin que dans le substrat. (On rencontre une situation analogue lorsqu'on joue aux LegoTM : on peut facilement accrocher des pièces rouges sur un plan de pièces blanches). La croissance se fait alors couche atomique par couche atomique et permet de réaliser des puits quantiques. La situation est différente pour InAs et GaAs, qui ont une même structure cristalline, mais des distances inter-atomiques assez différentes (7% environ). (Une faible différence de distance entre plots d'accrochage suffit pour que les pièces de jeux de constructions différents soient incompatibles !). Pour déposer une couche d'InAs sur GaAs, il va falloir déformer la maille cristalline d'InAs, de façon à adapter la distance entre atomes voisins dans le plan de la couche au paramètre de maille du substrat. Une croissance couche par couche reste ainsi possible, mais la déformation élastique de la couche déposée a un coût en énergie important. Il y a deux solutions pour relaxer cette énergie élastique. La première repose sur la création de défauts cristallins, les dislocations. Une autre solution, adoptée par la Nature dans le cas d'InAs sur GaAs, réside dans la formation d'îlots tridimensionnels. Les atomes à la surface de l'îlot n'ayant pas d'atomes voisins, ils peuvent se « pousser de côté » pour donner plus de place aux autres. Cette morphologie particulière permet donc à la couche d'InAs contrainte de diminuer son énergie élastique.

Figure 5 : A gauche, vue au microscope à force atomique de la surface d'une couche fine d'InAs épitaxiée sur un substrat de GaAs ; les îlots d'InAs ont une hauteur moyenne de 5 nm et une largeur de 20 nm environ à leur base. A droite, vue en coupe d'un plan de boîtes quantiques d'InAs dans GaAs, obtenue par microscopie électronique. Remerciements à JM Moison et A Ponchet, CNRS.

Une fois qu'on a formé ces îlots nanométriques d'InAs, il suffit de déposer une nouvelle couche de GaAs en surface. On obtient alors des inclusions d'InAs, matériau de petite bande interdite, au milieu de GaAs, matériau de plus grande bande interdite, qui constituent de ce fait des boîtes quantiques. Ce procédé de fabrication collectif permet de réaliser en quelques secondes de l'ordre de 10 à 100 milliards de boîtes quantiques par centimètre carré. Il est de surcroît extrêmement propre, puisqu'il se déroule dans l'enceinte du bâti d'épitaxie par jet moléculaire. Quant aux fluctuations de taille, celles-ci ne dépassent pas 7 à 10% lorsque le procédé est optimisé, et sont donc d'amplitude suffisamment faible pour qu'on puisse exploiter ces boîtes quantiques dans des composants optoélectroniques.

Quelques propriétés optiques des nanocristaux et des boîtes quantiques

Considérons à présent les propriétés optiques de ces nano-objets. Nous allons voir que celles-ci présentent des signatures très claires d'effets quantiques. Observons tout d'abord la figure 4, qui présente une série de petites fioles contenant des nanocristaux en solution. Ceux-ci sont constitués du même semi-conducteur, le sélénium de cadmium CdSe. Cependant, on a laissé croître ces nano-cristaux plus ou moins longtemps d'un échantillon à l'autre, de sorte que le diamètre moyen varie graduellement de 3 nanomètres, pour la fiole de gauche à 5nm pour celle de droite. Cette variation de taille provoque un changement spectaculaire de la couleur des nano-cristaux. Cette couleur, qui est ici observée sous excitation par une lampe UV (on est donc en train d'observer l'émission des nano-cristaux), reflète l'énergie de bande interdite de ces boîtes quantiques. Parce qu'on confine fortement l'électron dans ces nano-objets, l'énergie des états électroniques, et donc la largeur de la bande interdite, sont très différentes de celle du semi-conducteur massif CdSe. En ce qui concerne les applications associées à cet effet, il faut mentionner qu'une technique très voisine est employée pour fabriquer des filtres colorés, très utilisés dans les laboratoires d'optique. Au lieu de réaliser la croissance des nanocristaux en solution, on peut en effet les faire précipiter au sein d'une matrice vitreuse, pendant que le verre est fondu. Ce procédé était déjà connu au XVIIème siècle par les artisans verriers de Murano.
Revenons à présent aux boîtes quantiques d'InAs dans GaAs obtenues par épitaxie. Lorsqu'on observe leur émission collective, on constate tout d'abord que sa distribution spectrale est centrée autour d'une énergie hn beaucoup plus grande que la bande interdite du semiconducteur massif InAs, et qui croît lorsque la taille moyenne des boîtes quantiques diminue. Ici encore, le confinement quantique des électrons et des trous entraîne une modification très marquée de la bande interdite du système et donc de ses propriétés d'émission. On constate par ailleurs que cette émission collective est distribuée sur une gamme spectrale très large, typiquement cent mille fois plus large que pour un atome ! D'où cela vient-il ? On se doute que les fluctuations de taille de boîte à boîte sont partiellement responsables de ce résultat. Pour confirmer cette hypothèse et connaître les propriétés intrinsèques des boîtes quantiques, il faut isoler et étudier une boîte quantique unique. Partant d'un plan de boîtes quantiques tel que celui de la figure 5, on va graver celui-ci de façon à définir des plots, dont la taille est de l'ordre de 100 nanomètres, et qui ne contiennent que quelques boîtes, voire une seule boîte. Lorsqu'on réalise cette expérience, on peut observer un spectre d'émission constitué de quelques raies spectrales très fines, qui correspondent chacune à une boîte quantique spécifique (voir la figure 6). Ce comportement, observé à basse température (T

Figure 6 : Spectre d'émission mesuré à basse température (10K) pour un ensemble de boîtes quantiques (à gauche) et pour une boîte quantique isolée, à droite. On notera que l'échelle des énergies est environ 100 fois plus petite pour le spectre de la boîte unique.

Lorsqu'on souhaite discuter les applications futures des boîtes quantiques, par exemple dans le domaine des lasers, il est bien entendu essentiel de considérer leurs propriétés optiques à température ambiante. Nous avons précédemment montré qu'à basse température, une boîte quantique émet, comme un atome, un rayonnement de très faible largeur spectrale. Malheureusement, on perd cette propriété très séduisante dès lors qu'on dépasse une température supérieure à une centaine de Kelvin typiquement. A température ambiante (300K), la raie d'émission observée pour une boîte unique est voisine de 10 milli-électrons volt (soit environ kT/2), ce qui est comparable à la largeur de raie observée pour un puits quantique. On est donc ici très loin de l'image de l'atome artificiel. Plus on élève la température, plus les vibrations des atomes constituant le cristal semiconducteur sont importantes. Ces vibrations cristallines viennent perturber le système électronique et de ce fait élargissent l'émission associée à une boîte unique. Ce résultat, qui n'a été découvert que relativement récemment, nous montre donc que l'image de l'atome artificiel isolé n'est pas du tout valide à haute température. Une boîte quantique est un système électronique localisé fortement couplé à son environnement. En sus de son importance conceptuelle, ce résultat nous invite à reconsidérer les applications initialement envisagées pour les boîtes quantiques.

Quelles applications pour les boîtes quantiques ?

L'observation de raies d'émission larges pour les boîtes quantiques isolées à 300K a sonné le glas du vieux rêve d'Arakawa et Sakaki : il ne sera pas possible d'obtenir un laser à boîte quantique 100 fois plus performant qu'un laser à puits quantique. L'idée de départ était d'avoir une raie d'émission très fine - pour un ensemble de boîtes quantiques très similaires- , qui permette de bien mieux utiliser les paires électron-trou injectées qu'avec un puits quantique. On voit ici que pour une raison tout à fait intrinsèque, ce couplage aux vibrations cristallines, la largeur de raie d'une boîte unique et donc a fortiori d'un plan de boîtes ne peut pas être beaucoup plus étroite que pour un puits quantique.
Très souvent, dans le monde de la recherche, lorsqu'un rêve s'écroule, dix autres naissent. C'est ici le cas. En s'attachant à étudier les propriétés spécifiques des boîtes quantiques, on leur trouve jour après jour de nombreuses opportunités d'application. Il ne saurait ici être question d'en faire une présentation exhaustive ; je n'en citerai donc que quelques unes, choisies pour leur valeur exemplaire.
Plusieurs équipes de recherche ont développé des lasers à boîtes quantiques émettant au voisinage de 1.3 µm - l'une des principales longueurs d'onde employées pour les télécommunications sur fibre optique -, lasers dont les propriétés sont beaucoup moins sensibles à la température celles des lasers à puits quantiques disponibles dans la même gamme spectrale (Cette propriété résulte de la densité d'états discrète des boîtes quantiques : faire passer un électron d'un état à un autre requiert un changement notable de son énergie). Bien que les lasers à boîtes quantiques soient un peu moins performants que les lasers à puits quantiques, leur faible sensibilité aux variations de température permet de simplifier le circuit électronique d'alimentation et de contrôle du laser, et de se dispenser de systèmes complexes de régulation en température. Cette simplification a, bien entendu, a un impact très fort en termes de coût de revient global des modules laser pour les télécommunications à 1.3 µm. Plusieurs start-ups exploitant cette opportunité ont vu le jour aux Etats-Unis, en Europe et au Japon.
C'est cependant dans un domaine différent des lasers, celui des diodes électroluminescentes, que les boîtes quantiques ont trouvé leur principal domaine d'application à ce jour. Les diodes électro-luminescentes (ou « DELs » pour light emitting diodes) représentent un marché colossal supérieur à 3 milliards d'euros par an, et de loin le plus gros marché des composants optoélectroniques. Ce composant très répandu autour de nous est employé pour des fonctions de visualisation et d'éclairage. Les écrans plats extérieurs en couleur, tel que celui que vous voyez sur la tour Montparnasse, reposent sur l'émission de dizaines de millions de DELs. Elles assurent également l'éclairage de l'écran de votre téléphone portable, du tableau de bord des véhicules automobiles récents, et sont présentes dans tous les feux de signalisation routière. Les DELs présentent en fait des avantages très importants par rapport aux lampes à incandescence. Elles consomment typiquement 10 fois moins d'énergie et sont « éternelles », en ce sens que leur durée de vie est 10 fois plus longue que la durée de vie du système dans lequel elles sont incorporées. On saisit très vite l'intérêt d'intégrer ces composants dans un système complexe tel qu'une voiture ; nul n'a envie de démonter un tableau de bord pour changer une simple ampoule ! Si on était capable de remplacer toutes les lampes à incandescence par des DELs blanches, on réduirait aussi très fortement la consommation énergétique associée à l'éclairage, et de plusieurs pour cents la consommation énergétique globale. Les enjeux associés à cette utilisation de plus en plus vaste des DELs sont donc considérables sur un plan économique mais aussi écologique.

Figure 7: Vue en coupe de la couche active d'une DEL bleue commerciale, constituée par une couche très fine d'alliage (InxGa1-x)N dans GaN. Cartographie de la composition chimique de l'alliage, obtenues par microscopie électronique. On observe un phénomène de démixtion et la formation d'inclusions de taille nanométriques très riches en indium (remerciements P. Bayle, CEA).

En 1995, ce domaine a connu une véritable révolution, avec la commercialisation par une société japonaise de DELs bleues et vertes très brillantes. Jusque là en effet, on ne savait produire efficacement de la lumière avec les DELs que dans le rouge ou l'orange. Un épais mystère était attaché au fonctionnement de ces nouvelles DELs. En effet, celles-ci sont réalisées à partir de nitrure de gallium GaN, pour lequel on ne dispose pas de substrat bien adapté à sa croissance épitaxiale. La croissance des DELs GaN est le plus souvent réalisée sur un substrat de saphir, dont le paramètre de maille cristalline est très différent de celui de GaN. De ce fait, la couche épitaxiée contient un très grand nombre de défauts, les dislocations, qui sont connus comme des « tueurs » de paires électron-trou. Celles-ci sont en effet capturées très efficacement par les dislocations, et se recombinent sur ce défaut en générant de la chaleur en lieu et place de photons. Pour les semiconducteurs usuels, on doit donc travailler avec un matériau absolument sans dislocations si on veut obtenir des DELs efficaces. L'analyse par microscopie électronique de la couche active des DELs bleues a donné la clef de ce mystère quelques années plus tard. On s'est alors rendu compte que cette couche active, qu'on croyait être un puits quantique d'alliage (InGa)N, est en fait un ensemble de boîtes quantiques. En cours de croissance, cet alliage présente en effet un phénomène de démixtion, avec formation d'agrégats de taille nanométriques riche en InN, qui constituent des boîtes quantiques (figure 7). Cette nanostructuration de la couche active a des conséquences très importantes. En effet, le piégeage des électrons et les trous dans les boîtes quantiques inhibe presque totalement leur diffusion vers les dislocations, et assure ainsi leur recombinaison radiative. Cette nanostructuration spontanée des couches d'(InGa)N a ainsi engendré un marché de plusieurs milliards d'euros par an !
Les boîtes quantiques offrent de nombreuses autres perspectives d'application, qui font actuellement l'objet d'études exploratoires. L'un des objectifs les plus séduisants est la réalisation d'une source de photons uniques, composant qui exploite l'émission d'une unique boîte quantique. Les composants considérés jusqu'ici, lasers ou DELs, fonctionnent avec des dizaines de milliards de boîtes. Travailler avec une seule boîte quantique nous permet de réaliser une fonction optoélectronique importante et originale, l'émission à la demande de photons un par un. Comme l'a expliqué Philippe Grangier dans une conférence récente de l'Université de Tous Les Savoirs, la disponibilité d'une telle source lumineuse est essentielle en vue d'une application future de la cryptographie quantique à grande échelle. Rappelons ici simplement que la cryptographie quantique propose des protocoles de communication originaux, qui s'appuient sur les lois de la mécanique quantique pour garantir une confidentialité absolue de l'information échangée. Un autre champ d'application des sources à photon unique pourrait être la métrologie. Si on est capable, à la demande, d'émettre une impulsion lumineuse contenant un et un seul photon, on pourrait aussi répéter l'opération 1 million de fois, et émettre précisément 1 million de photons. On pourrait donc utiliser cette source comme étalon de flux lumineux ou plus généralement d'énergie.
Comment préparer un photon unique ? C'est en fait relativement délicat. Un photon unique est un état quantique de la lumière, et il est absolument impossible de le générer par des moyens « classiques » par exemple à l'aide d'un laser, d'une DEL ou d'une lampe à incandescence. A titre d'exemple, lorsqu'un laser génère des impulsions lumineuses contenant en moyenne n photons, le nombre de photons présente en fait une fluctuation d'impulsion à impulsion égale à la racine de n. Pour émettre des photons un par un, il faut en fait utiliser un système quantique unique, tel qu'un atome unique. Isolons par la pensée un atome dans l'espace, et excitons le à l'aide d'un rayonnement lumineux dont la fréquence correspond à l'une de ses raies spectrales. L'absorption d'un photon par l'atome s'accompagne du passage d'un électron d'un état « b » bien défini vers un état « h » lui aussi bien défini, et d'énergie plus élevée. Dans cette nouvelle configuration électronique, l'atome ne peut plus absorber la lumière, puisque l'état « b » est vide. On voit par conséquent qu'un atome excité de cette façon ne peut stocker qu'une excitation élémentaire : lorsqu'on coupe le faisceau de pompage, il se désexcite en émettant un unique photon. En pratique, on sait piéger un atome unique dans l'espace par des méthodes optiques, mais pour une durée qui n'excède pas quelques secondes. Il est ici beaucoup plus commode d'employer une boîte quantique comme « atome artificiel » pour réaliser la même fonction. En collaboration avec des collègues du CNRS, nous avons proposé un protocole original, qui permet de générer des photons un par un à la demande à l'aide d'une boîte quantique. Celui-ci tire en fait parti de la forte interaction de Coulomb entre électrons et trous piégés dans une même boîte. La boîte quantique peut être excitée au choix à l'aide d'un faisceau optique ou à l'aide d'une impulsion électrique, ce qui ouvre la voie au développement de sources de photons uniques compactes et pratiques pour la cryptographie quantique. Plusieurs dizaines d'équipes dans le monde y travaillent aujourd'hui.
Je présenterai enfin un nouvel exemple d'application des nano-cristaux semiconducteurs. A la différence des boîtes quantiques obtenues par croissance sur un substrat, ceux-ci peuvent être dispersés dans différents milieux, en particulier liquides. Ils constituent aujourd'hui une classe de marqueurs fluorescents particulièrement intéressante pour la biologie. On sait aujourd'hui assurer la biocompatibilité de ces nano-objets, ainsi que leur solubilisation dans les liquides physiologiques, en les enrobant par exemple de silice. On sait aussi greffer sur leur surface du matériel biologique, par exemple une protéine ou un fragment d'ADN monobrin, afin de le fonctionnaliser. En cartographiant l'émission des nanocristaux dans l'espace, on peut voir où ce matériel biologique est allé se fixer à l'intérieur d'un organisme, éventuellement jusqu'à l'échelle intracellulaire. Bien qu'il existe des colorants organiques qui remplissent une fonction similaire, les nanocristaux présentent des atouts très importants. Tout d'abord, ils sont dix à cent fois plus stables dans le temps, ce qui permet de faire de longues expériences. Ensuite, le spectre de leur émission est moins large ; il est donc possible d'employer en parallèle des nanocristaux émettant dans des gammes de longueur d'onde différentes et d'obtenir simultanément des informations de nature différente. Enfin, leur biocompatibilité est bien supérieure à celle des colorants organiques, qui sont pour la plupart hautement toxiques.

En conclusion, je voudrais conclure cette présentation, en soulignant le caractère extrêmement vivant de ce domaine. Loin d'être figées, les techniques de nanofabrication font l'objet de nombreux développements, qui permettent par exemple de construire des systèmes quantiques plus complexes (« molécules artificielles » constituées d'un assemblage de boîtes quantiques, dopage par des atomes magnétiques, intégration de boîtes quantiques dans des microrésonateurs optiques...). Mois après mois, de nouveaux résultats viennent enrichir la palette des effets quantiques observables avec les nanostructures semi-conductrices et élargir leur champ d'application potentiel.

*CEA Grenoble, CEA/DRFMC/SP2M, 17 rue des Martyrs, 38054 Grenoble Cedex 9.
Adresse électronique : jean-michel.gerard@cea.fr

[1] Remarquons que l'électron reste libre de se mouvoir dans le plan du puits quantique ; l'énergie cinétique associée à ce mouvement peut prendre une valeur positive quelconque.


DOCUMENT       canal-u.tv     LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google