|
|
|
|
|
|
PHOTON |
|
|
|
|
|
photon
(de électron)
Consulter aussi dans le dictionnaire : photon
Cet article fait partie du dossier consacré à la lumière.
Quanton spécifique de la lumière, véhicule des interactions électromagnétiques.
INTRODUCTION
Les phénomènes électromagnétiques, allant de l'électricité et du magnétisme aux rayons X, en passant par les ondes radio et la lumière, ont été rassemblés dans un cadre théorique unique par James Clerk Maxwell vers 1865. Depuis cette date, les équations de Maxwell ont joué un rôle central dans l'histoire de la physique, et notamment dans l'origine et les développements de deux théories « révolutionnaires » apparues au début du xxe s. : la relativité et la mécanique quantique.
Une découverte essentielle, ayant marqué les débuts de ces deux théories, est le concept de « grain » ou quantum d'énergie lumineuse, devenu plus tard le photon. Pressenti par Max Planck en 1900, introduit réellement par Albert Einstein en 1905, le concept de photon s'est immédiatement révélé très fructueux dans l'interprétation de certaines expériences. Cependant, la notion de « grain » d'énergie lumineuse semblait alors totalement contradictoire avec les équations de Maxwell. Ces équations, qui prévoient l'existence d'ondes lumineuses, formaient pourtant une des bases les plus solides de la physique de la fin du xixe s.
La résolution de ces contradictions devait venir de la toute jeune mécanique quantique, grâce à laquelle Paul Dirac put effectuer en 1927 une synthèse entre les propriétés à la fois « ondulatoires » et « corpusculaires » que semble posséder le photon. La théorie de Dirac, développée ensuite sous le nom d'électrodynamique quantique, est aujourd'hui fondamentale pour la physique des hautes énergies, dont un résultat spectaculaire a été la mise en évidence des bosons intermédiaires Z0, W+ et W− au Cern en 1983. Par ailleurs, l'apparition du laser au début des années 1960 a conduit au développement rapide d'un nouveau champ de recherches, l'optique quantique, dans laquelle les propriétés quantiques de la lumière jouent un rôle essentiel. En particulier, il est maintenant possible d'observer directement les propriétés ondulatoires et corpusculaires d'un photon unique, matérialisant ainsi des concepts vieux de plus de cinquante ans.
HISTORIQUE DE LA NOTION DE PHOTON
L'introduction du concept de photon ne s'est pas faite sans difficultés ; les étapes essentielles de ces débuts se situent entre 1900 et 1922.
PLANCK ET LE RAYONNEMENT DU CORPS NOIR
Un matériau chauffé à une température suffisamment élevée émet de la lumière : il devient incandescent. Le spectre de la lumière émise, c'est-à-dire la répartition de l'énergie lumineuse en fonction de la fréquence (responsable de la couleur que nous voyons), devrait dépendre du matériau utilisé. Cependant, Gustav Kirchhoff montra en 1860, par un argument thermodynamique très général, que ce spectre dépend uniquement de la température – et non du matériau particulier – à condition que celui-ci soit parfaitement absorbant ; on parle alors de « corps noir ». Cette découverte déclencha un intense travail expérimental et théorique, afin, d'une part de réaliser concrètement un tel corps noir et de mesurer son spectre et, d'autre part, de calculer la loi inconnue ρ (ν, T) exprimant la quantité d'énergie rayonnée à la fréquence ν par un corps noir chauffé à la température T.
À la fin du xixe s., les méthodes de mesure de l'émissivité du corps noir avaient beaucoup progressé, mais les tentatives de calculs de ρ (ν, T) demeuraient infructueuses : deux lois différentes semblaient s'appliquer aux régions « basses fréquences » et « hautes fréquences » des spectres observés. Enfin, en 1900, Planck parvenait à la bonne formule par une démarche d'abord intuitive. En fait, le caractère révolutionnaire de cette découverte apparut réellement lorsque Planck parvint à justifier rigoureusement sa formule, en admettant que les échanges d'énergie entre la lumière et le matériau s'effectuaient par quanta, c'est-à-dire par « paquets » indivisibles. La valeur du quantum d'énergie, dépendant de la fréquence ν, est égale à hν, où h est une constante universelle, maintenant baptisée « constante de Planck ».
Rien, dans la physique de cette époque, ne pouvait justifier l'hypothèse de Planck : la loi d'émissivité du corps noir, immédiatement confirmée par l'expérience, ouvrait donc la voie à des théories entièrement nouvelles.
EINSTEIN ET L'EFFET PHOTOÉLECTRIQUE
En 1905, le mystère des quanta de Planck restait entier ; on ignorait si la lumière, les atomes, ou seulement les échanges d'énergie devaient être quantifiés. C'est alors qu'Einstein proposa que la lumière elle-même soit formée de quanta (qui devaient être baptisés photons seulement en 1926) ; cette hypothèse permettait d'interpréter de façon simple l'effet photoélectrique.
Cet effet, connu depuis la fin du xixe s., consiste en l'émission d'électrons par une plaque métallique éclairée par un faisceau lumineux. Deux observations semblaient défier toute explication : tout d'abord, l'effet n'existe que pour des fréquences lumineuses ν supérieures à une certaine fréquence seuil νs ; ensuite, l'énergie cinétique des électrons émis dépend de la fréquence, c'est-à-dire de la couleur, et non de l'intensité de la lumière utilisée. L'interprétation fournie par Einstein fut alors la suivante : la lumière est formée de grains d'énergie hν et l'absorption d'un de ces grains provoque l'émission d'un électron par la plaque métallique. L'énergie cinétique Ec communiquée à l'électron est alors l'énergie hν, diminuée d'une quantité fixe Ws nécessaire pour arracher l'électron au matériau, ce qui se représente par l'équation :
Ec = hν − Ws
Cette équation très simple rend compte de tous les faits expérimentaux observés :
– l'énergie cinétique Ec d'un électron émis ne dépend pas de l'intensité de la lumière (c'est-à-dire du nombre de photons) mais de sa fréquence ; Ec augmente du côté « bleu » du spectre visible (hautes fréquences) ;
– pour que l'électron soit émis, l'énergie Ec doit être positive ; il existe donc un seuil à l'effet photoélectrique, c'est-à-dire une valeur minimum hνs = Ws en dessous de laquelle aucun électron n'est émis.
Le seuil dépend du métal utilisé ; les valeurs les plus basses de hνs sont obtenues pour les métaux alcalins.
Des expériences réalisées par Robert Millikan, en 1915, confirmèrent toutes ces prédictions.
L'énergie seuil fut mesurée pour plusieurs métaux, et la valeur de h obtenue par ces expériences se révéla être en très bon accord avec celle obtenue par Planck à partir de la loi d'émissivité du corps noir : on pouvait donc penser que le photon allait avoir gain de cause. En fait, rien n'était encore joué, puisque Millikan et, avec lui, de nombreux autres physiciens de renom rejetaient l'interprétation de l'effet photoélectrique donnée par Einstein. Ce conflit provenait de la contradiction apparente qui existe entre le concept de photon – particule de lumière – et les équations de Maxwell de l'électromagnétisme – qui impliquent l'existence d'ondes lumineuses.
COMPTON ET LA DIFFUSION ÉLECTRON-PHOTON
Cependant, une nouvelle expérience en faveur du photon « corpusculaire » devait emporter l'adhésion de la communauté des physiciens : il s'agit de l'étude par Arthur Compton de la « collision » d'un électron et d'un photon. Les équations de l'effet Compton décrivent le choc d'un électron et d'un photon comme un choc de particules matérielles, en assurant la conservation de l'énergie et de la quantité de mouvement. Le résultat du calcul est que le photon est dévié, et sa fréquence légèrement changée. La valeur théorique de ce décalage de fréquence fut confirmée expérimentalement par Compton, ce qui imposa définitivement la nécessité du concept de photon.
En 1918, Planck reçut le prix Nobel pour la découverte du quantum d'action ; Einstein, en 1922, pour son interprétation de l'effet photoélectrique ; Compton, en 1927, pour la découverte de l'effet qui porte son nom. Peu de temps après, les progrès réalisés par la théorie quantique allaient permettre une description synthétique des propriétés à la fois « ondulatoires » et « corpusculaires » de la lumière.
LE PHOTON, PARTICULE ÉLÉMENTAIRE
FICHE D’IDENTITÉ DU PHOTON
Le photon est une particule de masse nulle, de spin unité ; son énergie est E = hν, et sa quantité de mouvement est p = (h/2π) k où k est le vecteur d'onde associé à la particule.
INTERACTIONS PHOTON-MATIÈRE
Les interactions des photons avec des atomes ou d'autres particules peuvent s'accompagner de transfert d'énergie, d'impulsion ou de moment cinétique. Par exemple, des photons polarisés circulairement peuvent transférer leur moment cinétique à une vapeur atomique : c'est le principe du pompage optique, inventé par Alfred Kastler en 1950, utilisé notamment dans les lasers.
De même, la pression de radiation exercée par un faisceau lumineux sur des atomes peut être utilisée pour ralentir ou dévier un jet d'atomes. Ces phénomènes sont observés dans le domaine des basses énergies, c'est-à-dire pour des valeurs de hν très inférieures à l'énergie de masse mec2 d'un électron. Lorsque hν devient plus grand que 2 mec2 (domaine des rayons γ), l'électrodynamique quantique relativiste prédit la possibilité pour un photon de se transformer en une paire électron-positon (le positon, également appelé positron, étant l’antiparticule de l’électron) ; la réaction inverse (annihilation d'une paire) est possible également, et de telles réactions sont couramment observées dans les accélérateurs de particules.
LE PHOTON DANS LE MODÈLE STANDARD
Dans les théories contemporaines, le photon est le médiateur de l'interaction électromagnétique, c'est-à-dire que cette interaction est décrite comme un échange de photons. À très haute énergie, Steven Weinberg, Abdus Salam et Sheldow Glashow ont montré que l'interaction électromagnétique s'unifie avec l'interaction faible, responsable de certaines réactions de désintégration. Les médiateurs de cette interaction électrofaible sont les bosons intermédiaires Z0, W+ et W−.
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
LES NANOSTRUCTURES SEMI-CONDUCTRICES |
|
|
|
|
|
LES NANOSTRUCTURES SEMI-CONDUCTRICES
Lorsqu'un matériau semi-conducteur est structuré à l'échelle du nanomètre ses propriétés électroniques et optiques sont gouvernées par la mécanique quantique. Le puits quantique, formé par une couche mince semi-conductrice d'épaisseur nanométrique, est très communément employé depuis 20 ans pour fabriquer des composants très performants (diodes laser, transistors à gaz d'électrons bidimensionnel). De nombreuses études sont aujourd'hui consacrées aux boîtes quantiques semi-conductrices, nanostructures capables de confiner les électrons à l'échelle du nanomètre dans toutes les directions de l'espace. Après avoir présenté et comparé les principales stratégies permettant de fabriquer ces nano-objets, l'exposé s'attachera à montrer combien leurs propriétés sont originales. Une boîte quantique isolée se comporte par exemple à bien des égards comme un macro-atome artificiel ; cette propriété très intéressante permet de reproduire dans un système solide des expériences d'optique quantique jusque là réalisées avec des systèmes atomiques. Pour conclure, les perspectives d'application très prometteuses des boîtes quantiques dans des domaines aussi variés que l'optoélectronique, les communications quantiques, la micro/nanoélectronique ou la biologie seront brièvement présentées.
Texte de la 586 e conférence de l'Université de tous les savoirs prononcée le 8 juillet 2005
Par Jean-Michel Gérard * « Les nanostructures semiconductrices »
Au cours des vingt dernières années, les chercheurs ont appris à structurer la matière à l'échelle du nanomètre, en particulier pour les besoins de la microélectronique. Rappelons qu'un nanomètre, c'est un milliardième de mètre, c'est-à-dire cinquante mille fois plus petit que le diamètre d'un cheveu. On parle donc ici d'une échelle extrêmement petite, de l'ordre de quelques distances inter-atomiques au sein des molécules ou des corps solides. A l'échelle du nanomètre, les propriétés physiques sont très différentes de celles qui sont observables dans notre monde macroscopique et sont gouvernées, pour l'essentiel, par la mécanique quantique. Nous allons montrer ici qu'il est particulièrement intéressant de fabriquer des objets de taille nanométrique à partir de matériaux semi-conducteurs. Ces « nanostructures semiconductrices » nous ouvrent des perspectives d'application originales et importantes, grâce à leurs propriétés très particulières.
Nous utilisons tous au quotidien des composants nanométriques, souvent sans le savoir. A titre d'exemple, lorsque nous écoutons notre lecteur de disque compact, nous mettons en Suvre un laser semiconducteur « à puits quantique » pour lire l'information stockée sur le disque. Le cSur de ce composant est constitué par un empilement de couches semiconductrices, qui comporte notamment une couche très fine, le puits quantique, dont l'épaisseur est de l'ordre de 10 nanomètres. Ce composant a été développé il y a une vingtaine d'années et a aujourd'hui de très nombreuses applications.
Les semi-conducteurs constituent une famille de matériaux particulièrement commodes pour fabriquer des nano-structures et exploiter leurs propriétés originales. Après avoir rappelé en termes simples ce qu'est un semi-conducteur, je décrirai les effets quantiques de base attendus pour des structures semi-conductrices de taille nanométrique. Je présenterai ensuite les techniques de fabrication à cette échelle avant d'illustrer par quelques exemples les propriétés et applications des nanostructures semiconductrices.
Qu'est ce qu'un semiconducteur ?
Pour comprendre les propriétés électriques ou optiques des matériaux, il faut de façon générale connaître les états possibles pour les électrons dans le système considéré. Rappelons que ces états sont par exemple très différents pour un électron libre dans l'espace et pour un électron appartenant à un atome. Si l'électron est libre, il peut avoir n'importe quelle vitesse et par conséquent n'importe quelle énergie. S'il appartient à un atome isolé, son énergie ne peut au contraire prendre que certaines valeurs bien définies. Ceci résulte du fait que l'électron, attiré par le noyau atomique, est piégé au voisinage de celui-ci. Plus généralement, la mécanique quantique nous apprend que toute particule dont la position est confinée dans les trois dimensions de l'espace possède un ensemble discret d'énergies permises.
Considérons à présent la situation dans laquelle l'électron n'est plus dans un espace libre mais dans un solide, par exemple un morceau de fer ou un morceau de silicium. Dans ce cas, l'énergie de cet électron ne peut prendre que des valeurs comprises dans certains intervalles (ou « bandes ») d'énergie permise (voir la figure 1). Ceux-ci sont séparés par des « bandes interdites », plages d'énergie pour lesquels le système ne possède aucun état quantique permettant à l'électron d'avoir cette énergie. La connaissance de cette structure de bandes d'un matériau donné permet de définir si celui-ci est un métal ou un isolant. On connaît en effet le nombre d'électrons de ce solide et, d'après une loi physique connue sous le nom de principe de Pauli, on sait qu'on ne peut mettre dans un état quantique donné qu'un seul électron. Dans une « expérience de pensée », plaçons donc les électrons du solide à l'intérieur de ces bandes d'états disponibles. Pour cela, on remplit successivement les différents états, en commençant par ceux de plus basse énergie, jusqu'à ce que tous les électrons soient placés. Dans le cas d'un métal, ce processus s'arrête au milieu d'une bande d'états (voir figure 1). Un tel système électronique va pouvoir répondre très facilement à une sollicitation par une force extérieure, par exemple un champ électrique. En effet, les électrons qui occupent la bande partiellement remplie vont pouvoir se redistribuer aisément au sein de cette bande, puisqu'elle comprend à la fois des états occupés et des états vides très proches en énergie les uns des autres. Un tel solide sera un bon conducteur du courant, et est dit métallique. Supposons au contraire qu'on soit dans une situation pour laquelle les électrons remplissent parfaitement un certain nombre de bandes d'états, toutes les autres étant vides. Dans ce cas, il est beaucoup plus difficile de changer la configuration électronique du système, car il faut apporter une énergie importante pour faire passer un électron d'une bande d'états pleine à une bande d'états vide. Un tel solide, qui ne peut pas répondre à une sollicitation par un champ électrique, est un isolant. Plus précisément, on parlera de matériau semi-conducteur ou de matériau isolant, selon qu'il est possible ou non de rendre ce matériau partiellement conducteur en le fonctionnalisant, en suivant une méthode simple que nous allons décrire.
Nous avons vu que dans un isolant, les bandes d'états sont soit parfaitement remplies par les électrons, soit entièrement vides. On va pouvoir dès lors fonctionnaliser ce matériau en introduisant volontairement des impuretés, ce qu'on appelle « doper » le matériau. Imaginez, par exemple, que dans un cristal de silicium, vous remplaciez des atomes de silicium par des atomes de phosphore qui apportent chacun un électron en plus. Pour placer ces électrons excédentaires, il nous faut commencer à remplir une nouvelle bande, qu'on appelle bande de conduction. Puisqu'ils occupent une bande partiellement occupée, ces électrons vont pouvoir conduire le courant, et la conductibilité du matériau peut être ajustée très simplement en dosant le nombre d'électrons qu'on introduit. De la même façon, si vous insérez des impuretés qui apportent un électron en moins, la dernière bande d'état occupée, appelée bande de valence, ne sera pas complètement pleine. Elle comportera certains « trous », qui permettent ici encore au matériau de devenir conducteur. Le contrôle du dopage des semiconducteurs a constitué une étape clef pour le développement des diodes, des transistors et plus généralement pour l'essor de la microélectronique et de l'optoélectronique.
Figure 1 : Représentation schématique des états électroniques et de leur remplissage par les électrons du solide dans le cas d'un métal, d'un semiconducteur pur, et d'un semiconducteur dopé par des impuretés « donneuses d'électron ».
En considérant la figure 1 b), nous allons voir qu'un semi-conducteur non dopé présente des propriétés très spécifiques vis-à-vis de la lumière. La lumière et la matière interagissent par échange de quanta d'énergie comme l'a montré Einstein en 1905. Ces quantas (les « photons ») peuvent être vus comme des petits grains de lumière, qui ont une énergie hn, où h la constante de Planck et n la fréquence de l'onde lumineuse. Si ce quantum d'énergie hn est plus petit que la largeur de la bande interdite qui sépare la bande de valence de la bande de conduction, le principe de conservation d'énergie nous empêche de promouvoir un électron de la bande de valence à la bande de conduction. Le semi-conducteur ne peut absorber un tel photon, et est donc transparent pour un rayonnement lumineux de fréquence n. Par contre, si l'énergie hn est plus grande que la largeur de la bande d'énergie interdite, il devient possible de faire passer un électron de la bande de valence à la bande de conduction en absorbant un photon.
De plus, un semi-conducteur, peut être mis en Suvre pour émettre de la lumière de fréquence relativement bien définie. Imaginons que nous ayons placé par un moyen idoine, un certain nombre d'électrons dans la bande de conduction et un certain nombre de trous dans la bande de valence. Chaque électron pourra alors redescendre de la bande de conduction à la bande de valence en émettant un photon, avec une énergie voisine de la largeur de la bande interdite. En jouant sur la nature ou la composition du matériau semiconducteur, on peut ainsi ajuster la fréquence du rayonnement émis. Les matériaux les plus employés pour cette fonction sont le nitrure de gallium GaN, le phosphure d'indium InP, ou encore l'arséniure de gallium GaAs, tandis que le silicium, matériau roi de l'électronique, n'est pas un bon émetteur de lumière.
Le principal composant optoélectronique en termes de marché (loin devant la diode laser) est la diode électroluminescente. Ce composant très répandu est largement utilisé pour la visualisation (voyants lumineux, feux de signalisation routière, écrans plats extérieurs...) et de plus en plus pour l'éclairage. Nous reviendrons plus loin sur quelques avancées récentes importantes dans ce domaine.
On peut comprendre relativement simplement comment les diodes électroluminescentes et les diodes lasers émettent de la lumière lorsqu'on leur injecte un courant électrique (figure 2). Juxtaposons côte à côte deux morceaux de semi-conducteur dopés, l'un riche en électrons (SC « de type n ») et l'autre pauvre en électrons (SC « de type p »). Des électrons pourront alors passer de la bande de conduction du matériau de type n vers des états vides de valence du matériau de type p, passage qui s'accompagne de l'émission de photons. Afin d'entretenir ce phénomène, il faut bien entendu apporter des électrons au matériau de type n et en extraire du matériau de type p. Ceci est simplement réalisé en appliquant une tension électrique entre ces deux matériaux via des contacts métalliques.
Figure 2 : Principe de fonctionnement d'une diode électroluminescente (M = métal, SC = semi-conducteur). A droite, diodes électroluminescentes réalisées à partir du semiconducteur GaN (nitrure de gallium).
Afin d'accroître la fonctionnalité des matériaux semi-conducteurs, on peut aussi associer des semi-conducteurs de nature différente, présentant des largeurs de bande interdite différentes, de façon à réaliser une « hétérostructure » semiconductrice. Insérons par exemple une couche d'un matériau à petite bande interdite, P, au sein d'un semiconducteur G de plus grande bande interdite. Plaçons un électron dans la bande de conduction du matériau G. Lorsqu'il se déplace au sein de celui-ci, l'électron « voit » un univers essentiellement uniforme (tous les endroits se ressemblent dans un cristal, les atomes étant parfaitement bien ordonnés). A contrario, lorsqu'il arrive à l'interface entre les matériaux P et G, cet électron peut abaisser son énergie en passant de G à P, car il existe des états de conduction dans le matériau P à plus basse énergie que dans le matériau G. En quelque sorte, l'électron se comporte ici un peu comme une bille qui rencontrerait une marche d'escalier. Il était sur la marche du haut, il saute et tombe sur la marche du bas. On peut bien entendu décliner cette idée de très nombreuses façons, afin de structurer le profil de potentiel vu par l'électron. On va construire pour lui un paysage avec des collines et des vallées, dont le profil et la hauteur peuvent être dessinés quasiment à volonté en jouant avec la nature des matériaux.
Les nanostructures semiconductrices
Invention capitale, les hétérostructures semiconductrices ont déjà valu plusieurs prix Nobel à leurs inventeurs. Derniers en date, Z. Alferov et H. Kroemer se sont vus récompenser en 2000 pour avoir « développé des hétérostructures semiconductrices employées dans les domaines de l'électronique ultrarapide et de l'optoélectronique », selon les termes du comité Nobel. Les hétérostructures « quantiques » sont quant à elles apparues à la fin des années 70. Le principe reste ici le même, à ceci près qu'on va à présent structurer la matière à l'échelle du nanomètre de façon à voir apparaître des effets quantiques. Parmi les exemples les plus célèbres, on peut citer le super-réseau, qui est une sorte de millefeuille, constitué d'un empilement périodique G/P/G/P...de couches semiconductrices de grande bande interdite (G) et de petite bande interdite (P) de quelques nanomètres d'épaisseur. Les super-réseaux possèdent des propriétés de conduction électrique très particulières, dont la découverte a valu le prix Nobel 1973 à L. Esaki. On peut aussi jouer à confiner les électrons dans des nanostructures. L'exemple le plus simple, déjà cité, est le puits quantique G/P/G constitué par une couche mince P, d'épaisseur nanométrique, placée au sein d'un matériau G de plus grande bande interdite. Un électron de conduction, placé dans le puits quantique, est confiné selon une direction de l'espace, mais reste libre de se mouvoir dans les deux autres dimensions. On peut également fabriquer des fils quantiques ou des boîtes quantiques, pour lesquels l'électron est confiné selon deux dimensions ou trois dimensions. Dans le cas des boîtes quantiques, l'électron est confiné dans toutes les directions ; cette situation est tout à fait analogue au cas de l'électron piégé au voisinage du noyau dans un atome. On s'attend donc à retrouver, dans le cas des boîtes quantiques, un système présentant (comme l'atome) des états électroniques discrets, bien séparés en énergie.
Figure 3 : Représentation schématique d'un puits quantique (PQ), de fils quantiques (FQs) et de boîtes quantiques (BQs). Vue en coupe de puits quantiques de GaN dans AlN, obtenue par microscopie électronique à haute résolution (Remerciements à J.L. Rouvière et B. Daudin, CEA).
On sait réaliser des puits quantiques de bonne qualité depuis le début des années 80. A titre d'exemple, la figure 3 montre une vue en coupe d'un puits quantique de GaN au sein d'une couche de nitrure d'aluminium AlN, obtenue par microscopie électronique. Sur cette image, chaque ligne correspond à un plan d'atomes. On voit qu'en fait la structure est très proche de la perfection : d'une part, on passe de la couche de GaN à la couche d'AlN via un changement de composition abrupt à l'échelle atomique ; d'autre part, les interfaces sont presque parfaitement plates, à la présence près de quelques marches atomiques. Comment obtient-on en pratique un tel contrôle ? La perfection de ces objets résulte de la mise en Suvre d'une technique de déposition de films en couches minces, qui s'appelle l'épitaxie par jets moléculaires. Cette technique consiste à prendre un substrat, c'est-à-dire un cristal semi-conducteur sans défaut, sur lequel on va déposer l'hétérostructure désirée. Pour déposer une couche de nature donnée, par exemple en GaAs, on expose la surface du substrat à des flux d'atomes, ici de gallium et d'arsenic, évaporés à partir de cellules chauffées contenant des charges extrêmement pures de ces éléments. On ajuste la composition du matériau qu'on dépose en contrôlant les flux de ces différentes familles d'atomes, et les épaisseurs des couches déposées en jouant sur le temps de déposition. L'épitaxie par jets moléculaires se déroule dans une enceinte dans laquelle on réalise un vide résiduel extrêmement poussé (10-13 atmosphères !) de façon à éviter toute contamination par des atomes indésirables.
Les puits quantiques constituent un exemple simple de système dont les propriétés électroniques sont gouvernées par la mécanique quantique. Ces effets quantiques résultent du confinement de l'électron dans la couche « puits ». On sait depuis L. De Broglie qu'à toute particule on peut associer une onde, et que cette onde représente en fait la probabilité de présence de la particule dans l'espace. Toute onde confinée présente des fréquences de résonance particulière. Considérons par exemple la corde d'un violon ; elle a une longueur bien définie, est fixée à ses deux extrémités, et possède des fréquences de résonance spécifiques : la « note » qui lui est associée, ainsi que ses harmoniques, dont la fréquence est un multiple de celle de la note fondamentale. Il en est de même pour l'électron dans le puits quantique, dont l'onde associée va devoir s'adapter à la taille du puits. De façon analogue à la corde vibrante, dont la longueur est égale à un multiple de la demi longueur d'onde, la longueur d'onde de De Broglie l de l'électron est reliée à l'épaisseur L du puits par la relation L= n. l /2 où n est un nombre entier. De même que la longueur d'onde, l'énergie de l'électron (associée à son mouvement dans une direction perpendiculaire au plan du puits) ne peut prendre qu'un ensemble de valeurs discrètes données par l'expression suivante : . [1] Cette relation nous montre que l'électron a toujours une énergie cinétique minimale, donnée par E1, dont la valeur croît rapidement (comme 1/L2) lorsqu'on réduit la taille L du puits quantique. De même, la séparation énergétique entre les niveaux discrets de l'électron Em- En croît, elle aussi, comme 1/L2. L'étude expérimentale des puits quantiques par spectroscopie optique, par exemple l'étude de leurs propriétés d'absorption de la lumière, a parfaitement confirmé l'ensemble de ces prédictions. Les propriétés des puits quantiques ont été discutées plus en détail par E. Rosencher dans le cadre de ce cycle de conférences de l'UTLS, ainsi que leurs applications très variées en optoélectronique.
Nous allons nous intéresser plus spécifiquement dans la suite de cet exposé aux propriétés et applications des boîtes quantiques, qui ont fait l'objet de très nombreuses études au cours des dix dernières années. Initialement, ces nanostructures ont été principalement développées dans le but d'améliorer les propriétés des diodes laser. Pourquoi fabriquer des boîtes quantiques, et que s'attend t-on à gagner par rapport au laser à puits quantique ?
Ouvrons le boîtier de votre lecteur CD, et regardons à quoi ressemble la diode laser qu'il utilise pour lire le disque. Si on réalise une vue en coupe de ce composant, de façon à obtenir une image analogue à la figure 3, on verra qu'il est constitué par un empilement de couches semi-conductrices. L'une d'elles, de quelques centaines de nanomètres d'épaisseur, sert à guider le faisceau laser à l'intérieur du composant ; en son sein, on trouvera une ou quelques couches plus fines, formant des puits quantiques, qui vont amplifier cette onde laser s'ils sont excités par un courant électrique. Bien que les diodes laser soient des composants présentant des performances tout à fait remarquables, celles-ci sont cependant limitées par certaines lois fondamentales de la physique. Lorsqu'on met des électrons et des trous dans un puits quantique à la température T, l'énergie de ceux-ci n'est pas bien définie, mais distribuée sur une bande d'énergie de largeur typique kT, où k est la constante de Boltzmann. Le laser, quant à lui, fonctionne avec une fréquence d'émission n bien précise. On voit donc que la plupart des paires électron-trou injectées dans le puits, dont l'énergie est différente de hn, ne participent pas à l'émission laser. Ces paires peuvent cependant se recombiner, en émettant un photon par émission spontanée à une énergie différente de hn. Cette consommation d'électrons et de trous, inutiles pour le fonctionnement du laser, accroît la valeur du courant de seuil du laser, courant minimal qu'il faut lui injecter pour assurer son fonctionnement.
En 1982, Y. Arakawa et Y. Sakaki, de l'Université de Tokyo, ont proposé de réaliser des lasers à boîtes quantiques. L'idée sous-jacente était simple, conceptuellement du moins. Dans une boîte quantique, l'électron est confiné dans toutes les directions de l'espace, et ses états électroniques possibles sont discrets, comme pour un atome isolé. Si la boîte est assez petite, les états vont être très bien séparés en énergie comme on l'a vu auparavant, en discutant des effets de confinement. Supposons donc que cette séparation soit plus grande que l'énergie thermique kT (qui vaut 25 meV à température ambiante). Lorsqu'on injecte un électron dans la boîte quantique, celui-ci ne pourra occuper qu'un seul état, celui de plus basse énergie, car l'énergie thermique est insuffisante pour lui permettre d'occuper des états plus hauts en énergie. Il en est de même pour un trou, dans les états de valence de la boîte quantique. On espère donc, si les boîtes quantiques sont toutes identiques, que tous les électrons et les trous injectés vont travailler à la même énergie, ce qui devrait révolutionner les propriétés des lasers : on s'attend par exemple à ce que le courant de seuil soit réduit par un facteur 100 !
Cela étant dit, il faut que l'ensemble de boîtes quantiques satisfasse, pour atteindre cet objectif, un ensemble de conditions draconiennes. Tout d'abord, on veut que les états de la boîte quantique soient très bien séparés en énergie (à l'échelle de l'énergie thermique kT), de façon à ce que seul le premier état électronique de la boîte soit peuplé. Un calcul simple montre qu'alors la boîte quantique doit être plus petite que 15 nanomètres environ pour chacune de ses trois dimensions. Bien entendu, il faut aussi que les boîtes quantiques soient pratiquement identiques. En effet, la position des niveaux quantiques dans une boîte dépend de la taille de la boîte ; elle en dépend même très fortement pour un objet aussi petit, puisque l'énergie de confinement varie comme 1/L2, comme on l'a vu plus haut. On peut montrer facilement que la dispersion des tailles des boîtes quantiques doit être nettement plus petite que 15%. A notre échelle, une précision relative de 15% paraît quelque peu grossière, mais dans le cas présent, cela signifie que les boîtes quantiques doivent être fabriquées avec une précision absolue nettement meilleure que 2 nanomètres ! Enfin, il nous faut mettre en Suvre suffisamment de boîtes quantiques pour que le laser fonctionne effectivement, ce qui implique de fabriquer de l'ordre de un milliard à cent milliards de boîtes par centimètre carré. Chacune de ces trois contraintes, et a fortiori leur combinaison, paraissent extrêmement difficiles à remplir.
Comment fabriquer des boîtes quantiques ?
De nombreuses approches ont été explorées pour fabriquer des boîtes quantiques au cours des vingt dernières années. De façon imagée, on peut dire que la première à avoir fait l'objet d'un intérêt soutenu est celle du sculpteur. On part d'un puits quantique, qu'on cisèle au burin pour former un plot vertical, qui ne contient qu'une toute petite partie du puits. On forme de cette façon une boîte quantique pour laquelle l'électron est confiné suivant un axe vertical par la modulation de composition du semiconducteur (comme pour le puits quantique), et latéralement par les bords du plot. On sait fabriquer de tels objets en utilisant les outils de nanofabrication couramment employés en microélectronique, en particulier la lithographie électronique (qui permet de dessiner des motifs de taille nanométrique dans une résine à l'aide d'un faisceau d'électrons), et la gravure sèche assistée par plasma, qui permet de reproduire ce motif dans le semiconducteur. Bien qu'on ait réussi à fabriquer des boîtes quantiques par cette voie dès 1990, cette approche aujourd'hui abandonnée pose deux problèmes majeurs. D'une part, la lithographie électronique est une technique séquentielle ; il nous faut dessiner le motif désiré dans la résine boîte par boîte. Cette étape est donc fastidieuse et nécessairement coûteuse. D'autre part, on ne sait pas lithographier une résine organique à une échelle inférieure à 3 nanomètres environ. Cette approche n'est donc pas adaptée pour fabriquer un ensemble de boîtes quantiques avec le degré de précision requis pour faire un laser performant.
Fort heureusement, il s'est produit au début des années 90 deux miracles, de ceux dont la Nature a le secret. On a en effet alors découvert qu'il est possible d'obtenir des boîtes quantiques presque identiques très simplement, par auto-assemblage. Nous allons à présent présenter deux méthodes de fabrication de ce type, qui sont aujourd'hui très couramment employées.
La synthèse chimique de boîtes quantiques est assez proche de notre expérience quotidienne. Prenons une casserole d'eau salée, que nous laissons trop longtemps sur le feu. Au début, l'eau s'évapore progressivement, sans qu'on observe de changement particulier. A partir d'un certain moment, on verra cependant de tout petits cristaux de sel commencer à se déposer sur les bords de la casserole. L'eau salée a atteint sa concentration de saturation, ce qui conduit à la précipitation du sel excédentaire sous forme de petits cristaux solides. On peut faire à peu près la même chose à l'échelle nanométrique, avec des semi-conducteurs, par exemple avec le séléniure de cadmium CdSe. Dans la pratique, on prend un récipient dans lequel on met en solution de l'oxyde de cadmium dans un solvant organique. On injecte ensuite brutalement du sélénium dans la solution. Ce faisant, on dépasse le seuil de saturation pour CdSe et on déclenche la nucléation d'un très grand nombre de cristaux nanométriques de CdSe. A ce stade, les molécules de solvant viennent se fixer à la surface des nanocristaux, ce qui va ralentir leur croissance. Du fait de leur formation quasi-simultanée et de leur croissance lente, les nanocristaux conservent des tailles très voisines au cours du temps. Lorsqu'on arrête la croissance à un moment donné en cessant d'apporter du sélénium à la solution, on obtient un ensemble de nanocristaux dont la dispersion des tailles peut être de l'ordre de 5 %, ce qui est tout à fait remarquable pour des objets dont la taille n'est que de 3 nanomètres ! Cette merveilleuse homogénéité est illustrée par le cliché de microscopie électronique présenté sur la figure 4.
Figure 4 : A gauche, vue au microscope électronique d'un ensemble de nanocristaux de CdSe obtenus par synthèse chimique. La fluctuation relative de leur rayon R est de l'ordre de 5%. A droite, observation sous éclairage ultraviolet de flacons contenant des nanocristaux de CdSe dans un solvant: la couleur de la suspension colloïdale peut être ajustée dans tout le spectre visible en jouant sur la taille moyenne des nanocristaux. Remerciements à P. Reiss et J. Bleuse (CEA).
La seconde approche permet de fabriquer des boîtes quantiques par auto-assemblage en utilisant -comme pour les puits quantiques- l'épitaxie par jets moléculaires. Contrairement aux nanocristaux, ces boîtes quantiques vont pouvoir être intégrées facilement au sein d'un composant semi-conducteur, par exemple un laser. Pour présenter cette méthode, considérons une image d'une surface de GaAs sur laquelle on a déposé deux couches moléculaires (soit un demi-nanomètre en moyenne) d'InAs. Cette image, présentée figure 5, a été obtenue par microscopie à force atomique, une technique qui permet d'avoir une résolution à l'échelle atomique sur la topographie d'une surface. On constate ici la formation spontanée d'un ensemble dense d'îlots de taille nanométrique à la surface de l'échantillon. Ce mode de croissance tridimensionnel avec formation d'îlots est en fait observé pour un très grand nombre de couples de matériaux semi-conducteurs.
Pourquoi ce mode de croissance tridimensionnel est-il observé ici ? Lorsqu'on dépose par croissance épitaxiale un semiconducteur A sur un substrat S, on choisit en général deux matériaux pour lesquels la géométrie d'agencement des atomes et leurs distances mutuelles sont les mêmes. Les atomes déposés pour former la couche A adoptent alors de façon naturelle le même ordre cristallin que dans le substrat. (On rencontre une situation analogue lorsqu'on joue aux LegoTM : on peut facilement accrocher des pièces rouges sur un plan de pièces blanches). La croissance se fait alors couche atomique par couche atomique et permet de réaliser des puits quantiques. La situation est différente pour InAs et GaAs, qui ont une même structure cristalline, mais des distances inter-atomiques assez différentes (7% environ). (Une faible différence de distance entre plots d'accrochage suffit pour que les pièces de jeux de constructions différents soient incompatibles !). Pour déposer une couche d'InAs sur GaAs, il va falloir déformer la maille cristalline d'InAs, de façon à adapter la distance entre atomes voisins dans le plan de la couche au paramètre de maille du substrat. Une croissance couche par couche reste ainsi possible, mais la déformation élastique de la couche déposée a un coût en énergie important. Il y a deux solutions pour relaxer cette énergie élastique. La première repose sur la création de défauts cristallins, les dislocations. Une autre solution, adoptée par la Nature dans le cas d'InAs sur GaAs, réside dans la formation d'îlots tridimensionnels. Les atomes à la surface de l'îlot n'ayant pas d'atomes voisins, ils peuvent se « pousser de côté » pour donner plus de place aux autres. Cette morphologie particulière permet donc à la couche d'InAs contrainte de diminuer son énergie élastique.
Figure 5 : A gauche, vue au microscope à force atomique de la surface d'une couche fine d'InAs épitaxiée sur un substrat de GaAs ; les îlots d'InAs ont une hauteur moyenne de 5 nm et une largeur de 20 nm environ à leur base. A droite, vue en coupe d'un plan de boîtes quantiques d'InAs dans GaAs, obtenue par microscopie électronique. Remerciements à JM Moison et A Ponchet, CNRS.
Une fois qu'on a formé ces îlots nanométriques d'InAs, il suffit de déposer une nouvelle couche de GaAs en surface. On obtient alors des inclusions d'InAs, matériau de petite bande interdite, au milieu de GaAs, matériau de plus grande bande interdite, qui constituent de ce fait des boîtes quantiques. Ce procédé de fabrication collectif permet de réaliser en quelques secondes de l'ordre de 10 à 100 milliards de boîtes quantiques par centimètre carré. Il est de surcroît extrêmement propre, puisqu'il se déroule dans l'enceinte du bâti d'épitaxie par jet moléculaire. Quant aux fluctuations de taille, celles-ci ne dépassent pas 7 à 10% lorsque le procédé est optimisé, et sont donc d'amplitude suffisamment faible pour qu'on puisse exploiter ces boîtes quantiques dans des composants optoélectroniques.
Quelques propriétés optiques des nanocristaux et des boîtes quantiques
Considérons à présent les propriétés optiques de ces nano-objets. Nous allons voir que celles-ci présentent des signatures très claires d'effets quantiques. Observons tout d'abord la figure 4, qui présente une série de petites fioles contenant des nanocristaux en solution. Ceux-ci sont constitués du même semi-conducteur, le sélénium de cadmium CdSe. Cependant, on a laissé croître ces nano-cristaux plus ou moins longtemps d'un échantillon à l'autre, de sorte que le diamètre moyen varie graduellement de 3 nanomètres, pour la fiole de gauche à 5nm pour celle de droite. Cette variation de taille provoque un changement spectaculaire de la couleur des nano-cristaux. Cette couleur, qui est ici observée sous excitation par une lampe UV (on est donc en train d'observer l'émission des nano-cristaux), reflète l'énergie de bande interdite de ces boîtes quantiques. Parce qu'on confine fortement l'électron dans ces nano-objets, l'énergie des états électroniques, et donc la largeur de la bande interdite, sont très différentes de celle du semi-conducteur massif CdSe. En ce qui concerne les applications associées à cet effet, il faut mentionner qu'une technique très voisine est employée pour fabriquer des filtres colorés, très utilisés dans les laboratoires d'optique. Au lieu de réaliser la croissance des nanocristaux en solution, on peut en effet les faire précipiter au sein d'une matrice vitreuse, pendant que le verre est fondu. Ce procédé était déjà connu au XVIIème siècle par les artisans verriers de Murano.
Revenons à présent aux boîtes quantiques d'InAs dans GaAs obtenues par épitaxie. Lorsqu'on observe leur émission collective, on constate tout d'abord que sa distribution spectrale est centrée autour d'une énergie hn beaucoup plus grande que la bande interdite du semiconducteur massif InAs, et qui croît lorsque la taille moyenne des boîtes quantiques diminue. Ici encore, le confinement quantique des électrons et des trous entraîne une modification très marquée de la bande interdite du système et donc de ses propriétés d'émission. On constate par ailleurs que cette émission collective est distribuée sur une gamme spectrale très large, typiquement cent mille fois plus large que pour un atome ! D'où cela vient-il ? On se doute que les fluctuations de taille de boîte à boîte sont partiellement responsables de ce résultat. Pour confirmer cette hypothèse et connaître les propriétés intrinsèques des boîtes quantiques, il faut isoler et étudier une boîte quantique unique. Partant d'un plan de boîtes quantiques tel que celui de la figure 5, on va graver celui-ci de façon à définir des plots, dont la taille est de l'ordre de 100 nanomètres, et qui ne contiennent que quelques boîtes, voire une seule boîte. Lorsqu'on réalise cette expérience, on peut observer un spectre d'émission constitué de quelques raies spectrales très fines, qui correspondent chacune à une boîte quantique spécifique (voir la figure 6). Ce comportement, observé à basse température (T
Figure 6 : Spectre d'émission mesuré à basse température (10K) pour un ensemble de boîtes quantiques (à gauche) et pour une boîte quantique isolée, à droite. On notera que l'échelle des énergies est environ 100 fois plus petite pour le spectre de la boîte unique.
Lorsqu'on souhaite discuter les applications futures des boîtes quantiques, par exemple dans le domaine des lasers, il est bien entendu essentiel de considérer leurs propriétés optiques à température ambiante. Nous avons précédemment montré qu'à basse température, une boîte quantique émet, comme un atome, un rayonnement de très faible largeur spectrale. Malheureusement, on perd cette propriété très séduisante dès lors qu'on dépasse une température supérieure à une centaine de Kelvin typiquement. A température ambiante (300K), la raie d'émission observée pour une boîte unique est voisine de 10 milli-électrons volt (soit environ kT/2), ce qui est comparable à la largeur de raie observée pour un puits quantique. On est donc ici très loin de l'image de l'atome artificiel. Plus on élève la température, plus les vibrations des atomes constituant le cristal semiconducteur sont importantes. Ces vibrations cristallines viennent perturber le système électronique et de ce fait élargissent l'émission associée à une boîte unique. Ce résultat, qui n'a été découvert que relativement récemment, nous montre donc que l'image de l'atome artificiel isolé n'est pas du tout valide à haute température. Une boîte quantique est un système électronique localisé fortement couplé à son environnement. En sus de son importance conceptuelle, ce résultat nous invite à reconsidérer les applications initialement envisagées pour les boîtes quantiques.
Quelles applications pour les boîtes quantiques ?
L'observation de raies d'émission larges pour les boîtes quantiques isolées à 300K a sonné le glas du vieux rêve d'Arakawa et Sakaki : il ne sera pas possible d'obtenir un laser à boîte quantique 100 fois plus performant qu'un laser à puits quantique. L'idée de départ était d'avoir une raie d'émission très fine - pour un ensemble de boîtes quantiques très similaires- , qui permette de bien mieux utiliser les paires électron-trou injectées qu'avec un puits quantique. On voit ici que pour une raison tout à fait intrinsèque, ce couplage aux vibrations cristallines, la largeur de raie d'une boîte unique et donc a fortiori d'un plan de boîtes ne peut pas être beaucoup plus étroite que pour un puits quantique.
Très souvent, dans le monde de la recherche, lorsqu'un rêve s'écroule, dix autres naissent. C'est ici le cas. En s'attachant à étudier les propriétés spécifiques des boîtes quantiques, on leur trouve jour après jour de nombreuses opportunités d'application. Il ne saurait ici être question d'en faire une présentation exhaustive ; je n'en citerai donc que quelques unes, choisies pour leur valeur exemplaire.
Plusieurs équipes de recherche ont développé des lasers à boîtes quantiques émettant au voisinage de 1.3 µm - l'une des principales longueurs d'onde employées pour les télécommunications sur fibre optique -, lasers dont les propriétés sont beaucoup moins sensibles à la température celles des lasers à puits quantiques disponibles dans la même gamme spectrale (Cette propriété résulte de la densité d'états discrète des boîtes quantiques : faire passer un électron d'un état à un autre requiert un changement notable de son énergie). Bien que les lasers à boîtes quantiques soient un peu moins performants que les lasers à puits quantiques, leur faible sensibilité aux variations de température permet de simplifier le circuit électronique d'alimentation et de contrôle du laser, et de se dispenser de systèmes complexes de régulation en température. Cette simplification a, bien entendu, a un impact très fort en termes de coût de revient global des modules laser pour les télécommunications à 1.3 µm. Plusieurs start-ups exploitant cette opportunité ont vu le jour aux Etats-Unis, en Europe et au Japon.
C'est cependant dans un domaine différent des lasers, celui des diodes électroluminescentes, que les boîtes quantiques ont trouvé leur principal domaine d'application à ce jour. Les diodes électro-luminescentes (ou « DELs » pour light emitting diodes) représentent un marché colossal supérieur à 3 milliards d'euros par an, et de loin le plus gros marché des composants optoélectroniques. Ce composant très répandu autour de nous est employé pour des fonctions de visualisation et d'éclairage. Les écrans plats extérieurs en couleur, tel que celui que vous voyez sur la tour Montparnasse, reposent sur l'émission de dizaines de millions de DELs. Elles assurent également l'éclairage de l'écran de votre téléphone portable, du tableau de bord des véhicules automobiles récents, et sont présentes dans tous les feux de signalisation routière. Les DELs présentent en fait des avantages très importants par rapport aux lampes à incandescence. Elles consomment typiquement 10 fois moins d'énergie et sont « éternelles », en ce sens que leur durée de vie est 10 fois plus longue que la durée de vie du système dans lequel elles sont incorporées. On saisit très vite l'intérêt d'intégrer ces composants dans un système complexe tel qu'une voiture ; nul n'a envie de démonter un tableau de bord pour changer une simple ampoule ! Si on était capable de remplacer toutes les lampes à incandescence par des DELs blanches, on réduirait aussi très fortement la consommation énergétique associée à l'éclairage, et de plusieurs pour cents la consommation énergétique globale. Les enjeux associés à cette utilisation de plus en plus vaste des DELs sont donc considérables sur un plan économique mais aussi écologique.
Figure 7: Vue en coupe de la couche active d'une DEL bleue commerciale, constituée par une couche très fine d'alliage (InxGa1-x)N dans GaN. Cartographie de la composition chimique de l'alliage, obtenues par microscopie électronique. On observe un phénomène de démixtion et la formation d'inclusions de taille nanométriques très riches en indium (remerciements P. Bayle, CEA).
En 1995, ce domaine a connu une véritable révolution, avec la commercialisation par une société japonaise de DELs bleues et vertes très brillantes. Jusque là en effet, on ne savait produire efficacement de la lumière avec les DELs que dans le rouge ou l'orange. Un épais mystère était attaché au fonctionnement de ces nouvelles DELs. En effet, celles-ci sont réalisées à partir de nitrure de gallium GaN, pour lequel on ne dispose pas de substrat bien adapté à sa croissance épitaxiale. La croissance des DELs GaN est le plus souvent réalisée sur un substrat de saphir, dont le paramètre de maille cristalline est très différent de celui de GaN. De ce fait, la couche épitaxiée contient un très grand nombre de défauts, les dislocations, qui sont connus comme des « tueurs » de paires électron-trou. Celles-ci sont en effet capturées très efficacement par les dislocations, et se recombinent sur ce défaut en générant de la chaleur en lieu et place de photons. Pour les semiconducteurs usuels, on doit donc travailler avec un matériau absolument sans dislocations si on veut obtenir des DELs efficaces. L'analyse par microscopie électronique de la couche active des DELs bleues a donné la clef de ce mystère quelques années plus tard. On s'est alors rendu compte que cette couche active, qu'on croyait être un puits quantique d'alliage (InGa)N, est en fait un ensemble de boîtes quantiques. En cours de croissance, cet alliage présente en effet un phénomène de démixtion, avec formation d'agrégats de taille nanométriques riche en InN, qui constituent des boîtes quantiques (figure 7). Cette nanostructuration de la couche active a des conséquences très importantes. En effet, le piégeage des électrons et les trous dans les boîtes quantiques inhibe presque totalement leur diffusion vers les dislocations, et assure ainsi leur recombinaison radiative. Cette nanostructuration spontanée des couches d'(InGa)N a ainsi engendré un marché de plusieurs milliards d'euros par an !
Les boîtes quantiques offrent de nombreuses autres perspectives d'application, qui font actuellement l'objet d'études exploratoires. L'un des objectifs les plus séduisants est la réalisation d'une source de photons uniques, composant qui exploite l'émission d'une unique boîte quantique. Les composants considérés jusqu'ici, lasers ou DELs, fonctionnent avec des dizaines de milliards de boîtes. Travailler avec une seule boîte quantique nous permet de réaliser une fonction optoélectronique importante et originale, l'émission à la demande de photons un par un. Comme l'a expliqué Philippe Grangier dans une conférence récente de l'Université de Tous Les Savoirs, la disponibilité d'une telle source lumineuse est essentielle en vue d'une application future de la cryptographie quantique à grande échelle. Rappelons ici simplement que la cryptographie quantique propose des protocoles de communication originaux, qui s'appuient sur les lois de la mécanique quantique pour garantir une confidentialité absolue de l'information échangée. Un autre champ d'application des sources à photon unique pourrait être la métrologie. Si on est capable, à la demande, d'émettre une impulsion lumineuse contenant un et un seul photon, on pourrait aussi répéter l'opération 1 million de fois, et émettre précisément 1 million de photons. On pourrait donc utiliser cette source comme étalon de flux lumineux ou plus généralement d'énergie.
Comment préparer un photon unique ? C'est en fait relativement délicat. Un photon unique est un état quantique de la lumière, et il est absolument impossible de le générer par des moyens « classiques » par exemple à l'aide d'un laser, d'une DEL ou d'une lampe à incandescence. A titre d'exemple, lorsqu'un laser génère des impulsions lumineuses contenant en moyenne n photons, le nombre de photons présente en fait une fluctuation d'impulsion à impulsion égale à la racine de n. Pour émettre des photons un par un, il faut en fait utiliser un système quantique unique, tel qu'un atome unique. Isolons par la pensée un atome dans l'espace, et excitons le à l'aide d'un rayonnement lumineux dont la fréquence correspond à l'une de ses raies spectrales. L'absorption d'un photon par l'atome s'accompagne du passage d'un électron d'un état « b » bien défini vers un état « h » lui aussi bien défini, et d'énergie plus élevée. Dans cette nouvelle configuration électronique, l'atome ne peut plus absorber la lumière, puisque l'état « b » est vide. On voit par conséquent qu'un atome excité de cette façon ne peut stocker qu'une excitation élémentaire : lorsqu'on coupe le faisceau de pompage, il se désexcite en émettant un unique photon. En pratique, on sait piéger un atome unique dans l'espace par des méthodes optiques, mais pour une durée qui n'excède pas quelques secondes. Il est ici beaucoup plus commode d'employer une boîte quantique comme « atome artificiel » pour réaliser la même fonction. En collaboration avec des collègues du CNRS, nous avons proposé un protocole original, qui permet de générer des photons un par un à la demande à l'aide d'une boîte quantique. Celui-ci tire en fait parti de la forte interaction de Coulomb entre électrons et trous piégés dans une même boîte. La boîte quantique peut être excitée au choix à l'aide d'un faisceau optique ou à l'aide d'une impulsion électrique, ce qui ouvre la voie au développement de sources de photons uniques compactes et pratiques pour la cryptographie quantique. Plusieurs dizaines d'équipes dans le monde y travaillent aujourd'hui.
Je présenterai enfin un nouvel exemple d'application des nano-cristaux semiconducteurs. A la différence des boîtes quantiques obtenues par croissance sur un substrat, ceux-ci peuvent être dispersés dans différents milieux, en particulier liquides. Ils constituent aujourd'hui une classe de marqueurs fluorescents particulièrement intéressante pour la biologie. On sait aujourd'hui assurer la biocompatibilité de ces nano-objets, ainsi que leur solubilisation dans les liquides physiologiques, en les enrobant par exemple de silice. On sait aussi greffer sur leur surface du matériel biologique, par exemple une protéine ou un fragment d'ADN monobrin, afin de le fonctionnaliser. En cartographiant l'émission des nanocristaux dans l'espace, on peut voir où ce matériel biologique est allé se fixer à l'intérieur d'un organisme, éventuellement jusqu'à l'échelle intracellulaire. Bien qu'il existe des colorants organiques qui remplissent une fonction similaire, les nanocristaux présentent des atouts très importants. Tout d'abord, ils sont dix à cent fois plus stables dans le temps, ce qui permet de faire de longues expériences. Ensuite, le spectre de leur émission est moins large ; il est donc possible d'employer en parallèle des nanocristaux émettant dans des gammes de longueur d'onde différentes et d'obtenir simultanément des informations de nature différente. Enfin, leur biocompatibilité est bien supérieure à celle des colorants organiques, qui sont pour la plupart hautement toxiques.
En conclusion, je voudrais conclure cette présentation, en soulignant le caractère extrêmement vivant de ce domaine. Loin d'être figées, les techniques de nanofabrication font l'objet de nombreux développements, qui permettent par exemple de construire des systèmes quantiques plus complexes (« molécules artificielles » constituées d'un assemblage de boîtes quantiques, dopage par des atomes magnétiques, intégration de boîtes quantiques dans des microrésonateurs optiques...). Mois après mois, de nouveaux résultats viennent enrichir la palette des effets quantiques observables avec les nanostructures semi-conductrices et élargir leur champ d'application potentiel.
*CEA Grenoble, CEA/DRFMC/SP2M, 17 rue des Martyrs, 38054 Grenoble Cedex 9.
Adresse électronique : jean-michel.gerard@cea.fr
[1] Remarquons que l'électron reste libre de se mouvoir dans le plan du puits quantique ; l'énergie cinétique associée à ce mouvement peut prendre une valeur positive quelconque.
VIDEO CANAL U LIEN |
|
|
|
|
|
|
LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE |
|
|
|
|
|
LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE
Depuis son émergence dans les années 1920, la Mécanique Quantique n'a cessé d'interpeller les physiciens par le caractère non intuitif de nombre de ses prédictions. On connaît l'intensité du débat entre Bohr et Einstein sur cette question. Le caractère incontournable de la Mécanique quantique au niveau microscopique est très vite apparu évident, puisque cette théorie fournit une description cohérente de la structure de la matière. En revanche, un doute pouvait subsister sur la validité au niveau macroscopique de prédictions étonnantes comme la dualité onde particule, ou les corrélations à distance entre particules intriquées. Après la publication des inégalités de Bell, en 1965, on a réalisé que les prédictions de la Mécanique quantique sur ces corrélations à distance étaient en contradiction avec la vision du monde (réalisme local) défendue par Einstein, et qu'il devenait possible de trancher ce conflit par des tests expérimentaux. Les expériences réalisées depuis plus de deux décennies avec des paires de photons corrélés ont confirmé de façon indubitable la justesse des prédictions quantiques, et donc la nécessité de renoncer à certaines images plus intuitives défendues par Einstein. Ces travaux très fondamentaux débouchent aujourd'hui sur des applications inattendues : cryptographie quantique, ordinateur quantique...
Texte de la 213e conférence de l'Université de tous les savoirs donnée le 1er août 2000.
Quelques tests expérimentaux des fondements de la mécanique quantique (en optique) par Alain Aspect
Je vais vous parler de fondements conceptuels de la mécanique quantique, et de tests expérimentaux directs de ceux-ci. La mécanique quantique est une théorie élaborée au début du XXe siècle entre 1900 et 1925. Cette nouvelle théorie physique a eu immédiatement des succès considérables pour comprendre le monde physique qui nous entoure, de la structure de l’atome à la conduction électrique des solides. Toutes ces propriétés ne peuvent se décrire correctement que dans le cadre de la mécanique quantique.
La mécanique quantique est également le cadre naturel pour décrire l'interaction entre la lumière et la matière, par exemple pour expliquer comment la matière peut émettre de la lumière blanche quand elle est chauffée (c'est ce qui se passe dans les ampoules électriques ordinaires). Un processus d'émission particulier, l’émission stimulée, est à la base du laser dont on connaît les nombreuses applications, des lecteurs de disque compact aux télécommunications par fibre optique.
Est-il bien sérieux de vouloir tester une théorie manifestement bien confirmée par le simple fait qu'elle explique tant de phénomènes ? Nous allons montrer que la mécanique quantique a tellement bouleversé les cadres conceptuels dans lesquels s'exerçait la pensée scientifique, et même la pensée tout court, que dès l'émergence des théories quantiques les physiciens se sont préoccupé de vérifier expérimentalement ses prédictions les plus surprenantes. Cette quête n’a pas cessé, au gré des progrès techniques. Il est remarquable que la plupart de ces tests portent sur la lumière, phénomène au départ de la théorie quantique il y a un siècle, avec les travaux de Planck en 1900, et ceux d’Einstein sur l’effet photoélectrique en 1905.
Je vais aujourd’hui aborder deux points particulièrement fascinants de la mécanique quantique : d’abord la dualité onde-particule ; puis les corrélations Einstein-Podolsky-Rosen, manifestation de l’intrication quantique.
À la fin du XIXe siècle, la physique est solidement établie sur deux piliers. Il y a d'un côté les particules, des corpuscules de matière, dont le mouvement est décrit par la mécanique newtonienne. Cette théorie extrêmement fructueuse est celle qui nous permet aujourd'hui de lancer des fusées aux confins du système solaire. La relativité a apporté quelques corrections à cette mécanique newtonienne mais le cadre conceptuel de la physique a peu changé. On parle toujours de trajectoires des particules soumises à des forces. De l’autre côté il y a les ondes, au rang desquelles la lumière. L'électromagnétisme est une théorie bien établie qui explique parfaitement la propagation de la lumière, et qui a permis l’invention de dispositifs pour générer les ondes radio. Ces ondes ont des propriété typiques : elles interfèrent, elles diffractent. Pour la physique classique, les deux domaines sont parfaitement identifiés : il y a d'un côté, les particules, et de l'autre les ondes.
La mécanique quantique au contraire mélange tout cela. Pour cette théorie, un électron est certes une particule mais aussi une onde, tandis que la lumière est non seulement une onde mais aussi une particule (le photon). Le premier test expérimental que je présenterai portera sur cette dualité onde-particule.
Un deuxième point radicalement incompatible avec les concepts de la physique classique a été mis en lumière en 1935 par Einstein et deux collaborateurs, Podolsky et Rosen. Ils ont en effet découvert que la mécanique quantique prévoyait, dans certaines situations très rares, que deux particules pouvaient avoir des corrélations étonnantes. Un long débat de nature épistémologique s’en est suivi, principalement entre Einstein et Bohr, mais sur le plan expérimental il n’était pas prouvé que ces corrélations EPR pouvaient être observées dans la
1
nature. Ce n’est qu’à partir des années 1970, après la contribution majeure de John Bell, que les expériences on commencé à apporter une réponse. C'est à ce problème que nous allons consacrer la deuxième partie de cette conférence.
Commençons donc par la dualité onde-corpuscule, toujours aussi fascinante. Si elle a été mise en évidence dès 1925 pour l’électron, et largement confirmée depuis, la situation n’est devenu claire pour la lumière que vers les années 70. Une expérience réalisée en 1982 à l’Institut d’Optique avec Philippe Grangier illustre particulièrement bien cette dualité. Dans un premier temps, nous analysons la lumière émise par une source S, à l’aide d’une lame semi-réfléchissante B suivie de deux détecteurs, un dans le faisceau transmis, l’autre dans le faisceau réfléchi (Figure 1). Chaque détecteur (photomultiplicateur) fournit, lorsqu’il reçoit de la lumière, des impulsions électriques, d’autant plus nombreuses que la lumière est plus intense, et dont les taux sont mesurés par les compteurs CT et CR. Comme notre lame semi- réfléchissante est équipée (elle transmet 50 % de la lumière incidente, et elle en réfléchit
50 %), on observe des taux de comptages égaux.
Un compteur de coïncidences CC est alors ajouté au dispositif. Il s'agit d'une sorte d'horloge extrêmement précise, capable de déterminer si deux détections dans les voies transmise et réfléchie sont simultanées à mieux que 5 milliardièmes de seconde près (5 nanosecondes). Qu’attend-on dans le cadre d'une description ondulatoire de la lumière ? L’onde incidente est partagée en deux ondes d’intensités égales, qui donnent lieu sur chaque détecteur à des impulsions produites à des instants aléatoires, mais dont les taux moyens sont égaux. On attend que de temps en temps, de façon aléatoire, deux détections dans les voies transmise et réfléchie se produisent simultanément : on doit observer un certain nombre de coïncidences.
Or lorsque nous avons analysé la lumière issue d’une source très particulière, développée pour l'occasion, aucune coïncidence n’a été observée. Comme nous l’attendions, cette source émet de la lumière dont les propriétés apparaissent manifestement corpusculaires : la seule interprétation raisonnable de l’absence de coïncidences est que cette lumière se comporte non pas comme une onde, mais comme des grains de lumière séparés – des photons- qui sont soit transmis soit réfléchis, mais qui ne sont pas divisés en deux par la lame semi réfléchissante. La source particulière permettant d'obtenir ce résultat est appelée « source de photons uniques ». Les photons y sont émis un par un, bien séparés dans le temps.
2
Figure 1. Mise en évidence du caractère corpusculaire de la lumière émise par la source de photons uniques S. On n’observe aucune détection en coïncidence sur les détecteurs CS et CC , placés derrière la lame semi réfléchissante B. Cette observation nous amène à décrire cette lumière comme formée de grains de lumière (les photons) qui sont soit transmis, soit réfléchis par B, mais pas divisé comme cela serait le cas pour une onde.
Dans un deuxième temps, sans changer de source, nous avons remplacé les détecteurs par des miroirs permettant de recombiner les deux faisceaux lumineux sur une deuxième lame semi-réfléchissante. Les deux détecteurs sont maintenant placés dans les deux voies de sortie de cette lame semi réfléchissante (Figure 2). On a ainsi réalisé un schéma classique d’interféromètre de Mach-Zehnder, qui nous a permis d’observer un comportement habituel d’interférences: lorsqu’on modifie lentement la longueur d’un des deux bras de l’interféromètre (en déplaçant un miroir), on observe que les taux de comptage sont modulés (Figure 3).
Figure 2. Mise en évidence du caractère ondulatoire de la lumière émise par la même source S que pour l’expérience de la figure 1. Les faisceaux issus de B sont réfléchis par les miroirs MR et MT , puis recombinés sur une deuxième lame B’, et détectés sur D1 . On observe que le taux de détection est modulé en fonction de la différence des longueurs des trajets BMTB’ et BMRB’. Cette observation nous amène à décrire la lumière comme une onde partagée sur la lame B, et recombinée sur la lame B’, ce qui donne lieu à interférence.
Figure 3. Interférences à un seul photon, observées avec le montage de la figure 2. On porte le taux de comptage enregistré par le compteur C1 ,en fonction de la position du miroir MT . On observe une modulation complète, de période égale à la longueur d’onde de la lumière, comme on s’y attend pour une onde. Au maximum, on détecte 200 photons en 20
3
secondes d’observation. La source S est la même que celle utilisée dans l’expérience de la figure 1.
Ce comportement s’interprète sans difficulté dans le cadre d’une description ondulatoire de l’expérience de la figure 2. L’onde incidente, décrite comme une vibration sinusoïdale du champ électromagnétique, est divisée par la première lame semi-réfléchissante en deux ondes (plus faibles) qui vont se recombiner sur la deuxième lame semi-réfléchissante. Suivant la différence des chemins parcourus entre les deux bras de l’interféromètre, les deux ondes vont se recombiner en phase ou en opposition de phase, et on comprend que le taux de comptage dépende de la différence des longueurs des deux bras.
Ainsi, dans l’expérience de la figure 2, la lumière émise par notre source se comporte comme une onde qui se partage en deux sur la première lame semi réfléchissante, et qui se recombine sur la deuxième. Mais l'expérience de la figure 1 mettait en évidence un comportement radicalement différent : la lumière y apparaissait formée de corpuscules – les photons – qui, au niveau de la première lame semi réfléchissante, allaient soit dans une direction, soit dans l'autre, mais jamais des deux côté à la fois. Or il s’agit de la même source S, et de la même lame semi-réfléchissante B. Le problème de la dualité onde-corpuscule est contenu dans le fait que, suivant le dispositif expérimental placé après B, les observations nous conduisent à nous représenter la lumière soit comme une onde qui se partage en deux, soit au contraire comme un flux de corpuscules qui ne se divisent pas mais vont aléatoirement d’un côté ou de l’autre.
Les deux descriptions ne peuvent pas être réconciliées. Il s'agit d'un des problèmes conceptuels de base de la mécanique quantique. Bien que le formalisme mathématique de la mécanique quantique rende compte sans difficulté de ce double comportement, il n'existe pas d'image classique qui puisse le représenter.
Ce problème a provoqué de nombreuses interrogations et des réticences sérieuses chez de grands physiciens. Ainsi, lorsqu’en 1913 les quatre grands savants Planck, Warburg, Nernst et Rubens écrivent une lettre pour soutenir la candidature d'Einstein à l'Académie des Sciences de Prusse, ils ne peuvent s’empêcher de faire part de leurs réserves : « Il n’y a quasiment aucun grand problème de la physique moderne auquel Einstein n’a pas apporté une contribution importante. Le fait qu’il se soit parfois fourvoyé, comme par exemple dans son hypothèse des quanta de lumière, ne saurait vraiment être retenu contre lui, car il n’est pas possible d’introduire des idées fondamentalement nouvelles, même dans les sciences les plus exactes, sans prendre occasionnellement un risque ». Il est amusant de constater que c’est précisément pour cette hypothèse jugée hasardeuse qu’Einstein allait recevoir le prix Nobel huit ans plus tard, après que Millikan ait confirmé expérimentalement la valeur de cette hypothèse pour comprendre l’effet photoélectrique. Que cette hypothèse corpusculaire ait été un véritable traumatisme, à la lumière de tout ce qu’on connaissait des phénomènes ondulatoires (interférences, diffraction...) est attesté par Millikan lui même, qui écrit dans ses mémoires, en 1949 : « Je passai dix ans de ma vie à tester cette équation d’Einstein de 1905, et, contre toutes mes attentes, je fus contraint en 1915 de reconnaître sa vérification expérimentale sans ambiguïté, en dépit de son caractère déraisonnable, car elle semblait violer tout ce que nous savions sur les interférences lumineuses... ». En 1932, dans les Procès verbaux des séances de la Société des Sciences Physiques et Naturelles de Bordeaux, le jeune Alfred Kastler (futur prix Nobel de Physique pour ses travaux en optique), ne se montre pas plus rassuré : « Les efforts de conciliation de Louis de Broglie ont abouti à l'admirable synthèse de la mécanique ondulatoire ou mécanique quantique. Mais [...] une telle synthèse [...] continue à inquiéter le physicien. Pour lui, la dualité entre les aspects ondulatoires et corpusculaires de la lumière reste un mystère non résolu. »
4
Le mystère est-il résolu aujourd'hui ? Nous nous sommes habitués à cette dualité, mais je suis toujours incapable de vous donner une image de quelque chose qui soit en même temps une onde et un corpuscule. Tout ce que je peux vous dire c’est que le formalisme mathématique, en ce qui le concerne, englobe de façon harmonieuse et cohérente les deux concepts. Pouvons nous nous en satisfaire ?
Les corrélations quantiques EPR (pour Einstein, Podolsky et Rosen) posent des questions sans doute encore plus troublantes. Le problème fut posé en 1935 au travers de ce qu’on appelle l’expérience de pensée EPR, que je vais vous décrire dans sa version moderne, celle qui est devenu une expérience réelle.
Commençons par expliquer ce qu'est la polarisation de la lumière. Un faisceau lumineux peut être polarisé rectilignement, c'est-à-dire que le champ électrique lumineux oscille dans un plan bien défini, vertical, ou horizontal, ou oblique. (La polarisation peut également être circulaire, elliptique,... mais ne compliquons pas). Un analyseur de polarisation, par exemple un prisme de Wollaston en spath d'Islande (ou le plus moderne séparateur de polarisation à couches diélectriques), permet de mesurer cette polarisation, car la lumière ne suivra pas le même trajet suivant qu’elle est polarisée dans un plan parallèle ou perpendiculaire à la direction d’analyse a que je suppose verticale (Figure 1). Dans le premier cas elle sort vers le haut (résultat +1), dans le deuxième elle sort vers le bas (résultat –1). Si des compteurs de photons disposés dans les voies de sortie montrent que tous les photons sortent dans la voie +1 , je peux en conclure que la polarisation est parallèle à a. S’ils sortent tous dans la voie –1, la polarisation est perpendiculaire à a. Dans les cas intermédiaires, les photons sont détectés aléatoirement dans l’un ou l’autre canal, et on ne peut conclure sur la polarisation qu’en tournant le polariseur pour chercher s’il existe une orientation a’ où tous les photons sortent dans la même voie.
Figure 4. Mesure de la polarisation de la lumière suivant la direction a . Si la lumière est polarisée parallèlement à a, tous les photons sont détectés dans la voie de sortie +1. S’ils sont polarisés perpendiculairement à a , ils sont détectés dans la voie –1. Pour une polarisation intermédiaire, ils sortent en +1 ou –1 avec des probabilités dépendant de la polarisation.
L'expérience d'Einstein-Podolsky-Rosen (Figure 5) suppose que les photons sont émis par paires, dans des directions opposées, dans une situation (appelée aujourd’hui état intriqué, ou état EPR), que nous ne savons décrire que par le formalisme de la mécanique quantique. Cet état est la superposition de deux situations faciles à décrire : dans la première (notée
b , b en mécanique quantique), les deux photons sont polarisés verticalement ; dans la deuxième (notée ↔, ↔ en mécanique quantique), les deux photons sont polarisés horizontalement. Mais pour l’état superposition, noté ( b ,b + ↔, ↔ ), je n’ai plus de mots :
les deux photons sont à la fois tous les deux verticaux et tous les deux horizontaux. Les deux photons sont liés de façon totalement indissoluble et seule la polarisation de l'ensemble, de la paire, a un sens. Dans un état intriqué, on ne peut pas parler des propriétés individuelles de
5
chacun des photons, bien qu'ils soient en train de s'éloigner l'un de l'autre et n'interagissent plus.
A quoi puis-je m’attendre si je mesure les polarisations de ces deux photons (Figure 5) ?. La mécanique quantique nous donne les moyens mathématiques de calculer, pour un état intriqué, les probabilités d'observer les différents résultats : premier photon dans le canal +1 ou -1 de l'analyseur I, deuxième photon dans le canal +1 ou -1 de analyseur II. On peut ainsi calculer les probabilités simples, ou conjointes. Commençons par les simples. On trouve par exemple que la probabilité de trouver +1 pour le premier photon est de 1/2, quelle que soit l’orientation a de l'analyseur ; la probabilité de trouver -1 est aussi de 1/2. On peut conclure que le premier photon n’a pas de polarisation définie, puisque le résultat de la mesure est totalement aléatoire quelle que soit la direction de mesure. Les mêmes résultats sont trouvés pour le deuxième photon, le résultat étant aléatoire quelle que soit la direction d’analyse b.
En fait la situation se révèle beaucoup plus intéressante quand on calcule la probabilité conjointe des résultats pour les deux photons. On peut par exemple calculer la probabilité de trouver +1 pour le premier photon et +1 pour le second, les analyseurs de polarisation étant respectivement dans les orientations a et b. Si les deux analyseurs sont parallèles, l'angle entre a et b est nul, et on trouve que cette probabilité est de 1/2. On peut en conclure que les résultats de mesures qui pris séparément semblent aléatoires, sont en fait totalement corrélés. En effet, si la probabilité de trouver +1 pour premier photon vaut 1/2, et que la probabilité conjointe de trouver +1 pour le premier et +1 pour le deuxième vaut également 1/2, alors la probabilité conditionnelle de trouver +1 pour le deuxième quand on a trouvé +1 pour le premier vaut 1. Une autre façon de présenter le résultat est la suivante : on a des probabilités égales de trouver +1 ou –1 pour le premier photon, et de même pour le deuxième. Mais si on trouve +1 pour le premier, alors on est certain de trouver +1 pour le deuxième. Et si on trouve –1 pour le premier, on est certain de trouver –1 pour le deuxième.
Figure 5. Expérience de pensée d'Einstein-Podolsky-Rosen, sur des photons ν1 et ν2, émis par paires dans des directions opposées. Pour des paires intriquées (états EPR), la mesure simple sur chaque photon donne un résultat +1 ou –1 avec la même probabilité 1/2. Mais la mesure conjointe sur ν1 et ν2 montre une corrélation qui est totale pour des analyseurs de polarisation parallèles (a parallèle à b). Dans ce cas, si on trouve +1 pour ν1, on est certain de trouver +1 pour ν2 ; mais si on trouve –1 pour ν1, on est certain de trouver -1 pour ν2.
Einstein-Podolsky-Rosen se sont demandé comment se représenter ces corrélations prédites par la Mécanique Quantique entre les résultats de deux mesures effectuées à des endroits différents mais à des instants quasiment identiques.
On peut essayer de construire une image à partir du formalisme quantique. En voici une, dans laquelle on suppose que le photon ν1 atteint le polariseur I en premier : le résultat de la mesure sur ν1 est alors aléatoire (+1 ou –1), mais aussitôt un résultat particulier obtenu, le postulat de réduction du paquet d’onde entraîne que le photon éloigné ν2 acquiert instantanément la polarisation (parallèle ou perpendiculaire à a) trouvée pour ν1. Ceci permet
6
de comprendre la corrélation, mais au prix d’une image inacceptable pour le père de la relativité : comment un événement situé au premier polariseur pourrait-il affecter instantanément le photon éloigné, s’il n’existe pas d’interaction se propageant plus vite que la lumière ?
En fait, on peut proposer une autre image dans l’esprit de la vision du monde défendue par Einstein, où les objets ont des propriétés physiques qui leur sont attachées, et où aucune interaction ne va plus vite que la lumière. Dans cette image, les corrélations entre les résultats de mesures en I et II sont dues à l’existence de propriétés identiques pour les deux membres de la paire. Plus précisément, on peut imaginer que lors de leur émission conjointe, les deux photons d’une même paire vont acquérir une même propriété de polarisation, qui prédétermine le résultat des mesures qui seront faites sur chaque photon. Il n’y a alors plus de difficulté à comprendre que les mesures soient corrélées. Si de plus cette propriété initiale commune fluctue aléatoirement d’une paire à l’autre, on rend compte sans problème du caractère aléatoire observé sur chaque mesure considérée séparément.
Cette image est extrêmement naturelle et raisonnable. Elle suit la démarche adoptée par des médecins qui, constatant que les jumeaux vrais sont touchés de façon corrélée par une certaine affection (les deux sont malades, ou les deux sont indemnes, mais on ne trouve jamais un jumeau malade et son frère indemne), en concluent que cette affection est de nature génétique, liée à l’existence d’un ou plusieurs chromosomes identiques.
Niels Bohr refusa immédiatement cette conclusion d’Einstein. En effet, le physicien Danois était convaincu que la mécanique quantique donnait la connaissance ultime des choses, et qu'il ne pouvait donc pas y avoir de connaissance plus complète. Or le formalisme quantique décrit toutes les paires EPR par le même état quantique (b,b + ↔,↔ ), tandis
que dans l'interprétation d'Einstein, les paires de photons ne sont pas toutes identiques, puisqu’il y a une caractéristique supplémentaire, cachée, qui distingue les paires : par exemple certaines sont b , b , et d’autres sont ↔, ↔ .
Le débat entre les deux géants de la physique dura vingt ans, jusqu’à leur mort. Il ne s’agissait pas d’une divergence sur les faits, mais d’un débat sur l’interprétation de la mécanique quantique. Einstein ne remettait pas en doute le résultat du calcul quantique prévoyant les corrélations EPR. Il pensait simplement que le formalisme quantique ne constituait pas la description ultime des paires de photons, qu’il devait être complété. L’analyse de la situation EPR l’avait conduit à la conclusion qu'il y a une réalité physique sous-jacente plus fine, et qu'il fallait trouver le bon formalisme pour la décrire. Mais Bohr pensait que cette quête était vouée à l’échec, et que notre connaissance était fondamentalement limitée, les relations de Heisenberg indiquant l’existence d’une telle limite. S’il était fondamental sur le plan des concepts, ce débat purement épistémologique semblait sans grandes conséquences pour la physique.
En 1965, le problème change de nature avec l’entrée en scène de John Bell (du CERN à Genève). Poussant au bout de leur logique les idées d'Einstein, il introduit explicitement des paramètres supplémentaires λ (aussi parfois appelés variables cachées) identiques pour les deux membres d’une même paire, et déterminant le résultat de la mesure sur chaque membre de la paire. Il existe donc une fonction A(λ,a) indiquant le résultat -1 ou +1 de la mesure au polariseur I (dans l’orientation a), pour un photon porteur du paramètre λ ; de façon analogue une fonction B(λ,b) indique le résultat au polariseur II. Dans la source, un processus aléatoire va déterminer le paramètre λ particulier pris par chaque paire, et on le caractérise par une densité de probabilité ρ(λ).
Une fois les quantités A(λ,a), B(λ,b), et ρ(λ) données (ce qui correspond à un modèle à paramètres supplémentaires particulier), on peut en déduire les probabilités des résultats de mesures, simples ou conjointes. Il est en particulier possible de calculer le coefficient de
7
corrélation de polarisation E(a,b) caractérisant le degré de corrélation entre les résultats de mesure, en fonction de l’angle (a,b) entre les polariseurs. L'espoir est alors de trouver un modèle particulier qui donne un coefficient de corrélation de polarisation E(a,b) identique à la prédiction EMQ(a,b) de la mécanique quantique. Dans ce cas les corrélations EPR pourraient être interprétées par une image « à la Einstein ».
La découverte de Bell, c’est que cet espoir est vain. Le théorème de Bell montre qu’il est impossible de reproduire avec un modèle de ce type, toutes les prédictions de la mécanique quantique, pour toutes les orientations possibles a et b des polariseurs. Plus précisément, il s'intéresse à une quantité S combinaison des 4 coefficients de corrélation associés à deux orientations a et a’ du polariseur I, et deux orientations b et b’ du polariseur II. Et il montre que si ces corrélations peuvent être décrites à partir de paramètres supplémentaires suivant le schéma ci-dessus, alors S ne peut valoir plus de 2, ni moins de –2. Or il est facile de trouver des combinaisons d’orientations (a,a’,b,b’) pour lesquelles le résultat du calcul quantique donne une quantité S nettement supérieure à 2 (par exemple on
peut avoir SMQ = 2 2 = 2.83..). Dans ces situations, la mécanique quantique viole les
inégalités de Bell : elle est donc incompatible avec les modèles à variables cachées. Contrairement à ce que pensait Einstein, on ne peut donc à la fois croire aux
prédictions quantiques pour les corrélations EPR, et vouloir décrire ces corrélations par ce modèle si naturel, dans le droit fil des idées d’Einstein, selon lequel les paires de photons possèdent dès le départ la propriété qui déterminera le résultat de la mesure ultérieure. A ce point, on pourrait penser que la Mécanique Quantique a été si souvent validée par les observations expérimentales que la cause est entendue, et qu’il faut renoncer aux modèles à paramètres supplémentaires. En fait, dans les années qui suivirent la parution de l’article de Bell, on s’aperçut que les situations d’intrication où l’incompatibilité apparaît sont extrêmement rares, et qu’il n’existait aucune donnée expérimentale permettant de trancher. Ne pouvait-on alors imaginer que le conflit entre prédictions quantiques et inégalités de Bell indiquait une frontière où la mécanique quantique atteindrait ses limites ? Pour le savoir, il fallait se tourner vers expériences nouvelles.
Une première série d'expériences fut conduite aux USA dans la première moitié des années 1970. Après quelques résultats contradictoires, ces expériences de première génération penchèrent en faveur de la mécanique quantique. Cependant, les schémas expérimentaux de l’époque ne suivaient pas vraiment le schéma idéal de la figure 5, et leur interprétation reposait sur un certain nombre d’hypothèses supplémentaires raisonnables certes, mais qui pouvaient être contestées par les partisans des variables cachées.
C’est pour se rapprocher du schéma idéal que nous avons construit à l’Institut d’Optique d’Orsay, au début des années 80, une expérience bénéficiant des énormes progrès dans le domaine des lasers, de l’optoélectronique, du pilotage des expériences par ordinateur... Nous avons d’abord construit, grâce à une excitation à deux photons par deux lasers, une source de paires de photons intriqués des milliers de fois plus efficace que les sources précédentes. De plus, les progrès dans les traitements multicouches diélectriques nous ont permis de construire de véritables analyseurs de polarisation. Finalement, nous avons emprunté à la physique nucléaire les techniques de détection en coïncidence à plus de deux détecteurs, et l’ensemble nous a permis de faire en 1982, avec Philippe Grangier et Gérard Roger, une expérience suivant très exactement le schéma de la figure 5. Un point remarquable est qu’en une seule acquisition de durée 100 secondes, on peut mesurer les 4 taux de coïncidences N++ , N+− , N−+ , et N−− relatifs à une orientation donnée (a,b) des polariseurs,
et en déduire le coefficient de corrélation E(a,b)mesuré pour cette orientation. En répétant la mesure pour trois autres orientations (a,b’), (a’,b) et (a’,b’), on en tire une valeur mesurée
Sexp (a,a',b,b') de la quantité soumise à l’inégalité de Bell. Pour un jeu d’orientations bien
8
9
choisies (celui où la mécanique quantique prédit la plus grande violation), on a trouvé
Sexp = 2, 697 ± 0, 015 ce qui viole manifestement très fortement l’inégalité de Bell S ≤ 2 et
qui est en excellent accord avec la prédiction quantique pour cette situation expérimentale. La cause était-elle définitivement entendue ?
En fait, dès le début de notre programme, nous souhaitions aller plus loin et approfondir une question soulevée par John Bell dès son article initial : celle de la localité. De quoi s’agit-il ? Si on reprend le formalisme conduisant aux inégalités de Bell, on constate qu’il contient de façon implicite l’hypothèse que le résultat de la mesure par le polariseur I ne dépend pas de l’orientation b choisie pour le polariseur éloigné II (car sinon on aurait écrit
A(λ,a,b) au lieu de A(λ,a) ). Il en est évidemment de même pour la réponse du polariseur II
que l’on suppose indépendante de l’orientation de I, et également pour la préparation des paires dans la source supposée indépendante des orientations a et b des polariseurs qui feront la mesure (puisqu’on l’écrit ρ(λ) et non ρ(λ,a,b) ). Cette hypothèse est indispensable pour
l’établissement des inégalités de Bell. Elle semble naturelle, mais comme l’a fait remarquer John Bell rien ne s’oppose, dans une expérience où les polariseurs sont statiques, à ce qu’une interaction entre les polariseurs, ou entre les polariseurs et la source, mette cette hypothèse en défaut. En revanche, si on pouvait réaliser une expérience dans laquelle les orientations des polariseurs seraient changées aléatoirement et très vite, avec des temps caractéristiques courts devant le temps de propagation de la lumière entre les polariseurs, alors l’hypothèse de localité deviendrait une conséquence immédiate du principe de causalité relativiste suivant lequel aucune interaction ne se propage plus vite que la lumière. On comprend que dans ce cas la façon dont une paire est préparée ne puisse dépendre des orientations a et b des polariseurs qui feront la mesure, puisque ces orientations seront choisies après l’émission des photons, pendant leur propagation vers les polariseurs. Une telle expérience mettrait donc encore mieux l’accent sur le conflit entre les conceptions d’Einstein et la Mécanique Quantique.
Dans notre expérience, nous utilisions des analyseurs de polarisation ayant une masse de plusieurs dizaines de kilogrammes, et il était hors de question de les tourner en quelques nanosecondes. Pourtant, nous avons réussi à faire la première expérience avec polariseurs variables, avec Jean Dalibard qui était venu rejoindre notre équipe. L'astuce consistait à utiliser un aiguillage optique de notre invention, un commutateur rapide capable d’envoyer le photon ν1 soit vers un polariseur I dans l’orientation a, soit vers un deuxième polariseur I’ dans l’orientation a’. L’ensemble est équivalent à un polariseur unique basculant rapidement entre les orientations a et a’. Un dispositif analogue permet d’analyser le photon ν2 soit suivant l’orientation b, soit suivant l’orientation b’. Les deux commutateurs rapides, placés à 12 mètres l’un de l’autre, étaient capables de basculer toutes les 10 nanosecondes, plus vite que le temps de propagation de la lumière entre eux (40 nanosecondes). Cette expérience était à limite de ce qu'il était possible de faire en 1982, et elle n’était pas idéale parce que le basculement des polariseurs n’était pas strictement aléatoire. On avait pourtant toutes les raisons de penser que si la mécanique quantique devait être mise en défaut dans une expérience de ce type, cela se manifesterait sur les signaux expérimentaux. Mais les résultats furent sans appel en faveur de la mécanique quantique, contre les théories locales à variables cachées.
En 1998, une deuxième expérience avec polariseurs variables a abouti à Innsbruck dans l'équipe d'Anton Zeilinger. Cette expérience a tiré profit de la mise au point depuis une dizaine d’années de sources de photons EPR de troisième génération. Un avantage crucial de ces sources et que les photons peuvent être injectés dans des fibres optiques, ce qui conduit à des résultats spectaculaires. Ainsi, en utilisant le réseau de fibres optiques du téléphone Suisse, Nicolas Gisin a pu éloigner ses polariseurs à 30 kilomètres de la source ! Dans
l’expérience d’Innsbruck, les photons se propagent dans 400 mètres de fibre optique seulement, mais ce délai est suffisant pour autoriser un basculement vraiment aléatoire des polariseurs. Cette expérience encore plus proche d’une expérience idéale a confirmé que même avec des polariseurs rapidement variables, on observe bien les corrélations quantiques, et on viole les inégalités de Bell.
Il faut se rendre à l’évidence : les photons intriqués ont un comportement « jumeau quantique » : les corrélations observées vont au delà de ce qui serait explicable en terme de propriété classique commune, analogue à un patrimoine génétique commun. Les corrélations quantiques sont d’une autre nature, et on peut le vérifier par l’expérience.
Que conclure ? Einstein, qui ne connaissait pas le théorème de Bell, avait envisagé comme une hypothèse absurde la possibilité que l’on soit contraint de renoncer à une explication des corrélations par un modèle où chacun des photons, une fois séparé de son jumeau, possède une réalité physique autonome, et où les corrélations sont dues aux éléments communs de ces réalités physiques séparées dans l’espace temps. Si on renonçait à une telle description–nous dit Einstein- alors il faudrait :
- soit laisser tomber l'exigence d'une existence autonome de la réalité physique présente en différentes portions de l'espace ;
- soit accepter que la mesure sur un système change (instantanément) la situation réelle de l’autre système éloigné.
La première option revient à considérer qu'une fois les deux photons séparés dans l’espace-temps, ils constituent deux entités indépendantes. Y renoncer conduit à admettre que deux particules intriquées, même éloignées, constituent un tout inséparable, qui ne peut être décrit que comme une entité globale. En fait le formalisme de la mécanique quantique (où une paire intriquée est décrite par un vecteur d’état global) suggère d’accepter cette conclusion.
La deuxième option revient à accepter que des influences se propagent plus vite que la lumière, au moins au niveau des réalités physiques des systèmes séparés dans l’espace temps. Notons ici que même si on l’acceptait, cette conclusion n’entraînerait pas pour autant la possibilité de transmettre plus vite que la lumière de vrais messages utilisables, dont on pourrait par exemple se servir pour déclencher le lancement d’un missile, ou pour passer un ordre à la bourse de Tokyo... ou qui nous permettrait d’assassiner nos parents avant qu’ils ne nous aient conçus !
En fait, je ne suis pas sûr que la deuxième option (il y a des influences instantanées entre les systèmes séparés) soit radicalement différente de la première (les photons intriqués constituent un tout inséparable). Comment imaginer que deux objets en interaction instantanée soient réellement séparés ? C’est pourquoi je préfère conclure que deux systèmes intriqués forment un tout inséparable dans l’espace-temps.
Pour conclure, je voudrais vous partager mon étonnement d’avoir vu ces discussions sur les fondements conceptuels de la Mécanique Quantique, a priori très formelles, déboucher ces dernières années sur des idées d’applications de l’intrication quantique. Certes il ne s’agit pas de télégraphier plus vite que la lumière. Mais en revanche la cryptographie quantique met à profit les propriétés des mesures quantiques (qui perturbent nécessairement l’état quantique du système mesuré) pour garantir qu’une communication n’a pas pu être interceptée. Vous avez aussi certainement entendu parler de téléportation quantique, expression utilisée à tort et à travers, mais phénomène qui laisse le physicien admiratif puisqu’il permet de faire une copie fidèle à distance d’un état quantique (en détruisant l’original) alors même que les lois fondamentales de la mécanique quantique nous interdisent de connaître la totalité de cet état. Quant à l’ordinateur quantique basé sur les états intriqués, il aurait une puissance de calcul formidablement plus grande que les ordinateurs actuels, à condition de savoir répondre à la question suivante (cf. la conférence de Serge Haroche) : ces phénomènes quantiques sont ils réservés à l’infiniment petit, ou peut-on les observer avec des objets macroscopiques, voire
10
vivants (comme le malheureux chat de Schrödinger) ? On sait aujourd’hui que les phénomènes de décohérence détruisent l’intrication quantique de façon d’autant plus efficace que les objets sont plus gros. Mais on n’a pas démontré l’impossibilité absolue de paires EPR avec des objets bien plus complexes que de simples photons. Il y a encore de beaux défis pour les expérimentateurs !
VIDEO CANAL U LIEN
|
|
|
|
|
|
|
CONDUCTIVITÉ ET SUPRACONDUCTIVITÉ |
|
|
|
|
|
CONDUCTIVITÉ ET SUPRACONDUCTIVITÉ
La matière est constituée d'atomes qui présentent beaucoup de points communs : un noyau, autour duquel des électrons gravitent. Dans ces conditions, pourquoi certains matériaux sont-ils isolants et empêchent le passage du courant électrique, alors que d'autres matériaux, laissant les électrons libres de se déplacer, sont conducteurs. Pourquoi un électron, initialement attaché à son noyau, décide-t-il de l'abandonner en se laissant entraîner par des attractions qu'il ressent pour d'autres ? Les électrons ont-ils si peu de principes qu'ils sont prêts à rejoindre le premier noyau qui les attire. Dans cette conférence, on montrera que les électrons, qui sont naturellement assez volages, respectent néanmoins un principe et que ceci explique la plupart des propriétés électriques de la matière. On abordera le cas des isolants, des conducteurs et des supraconducteurs. Ces derniers constituent une énigme non encore résolue. Leur maîtrise pourrait provoquer une révolution industrielle.
Texte de la 226e conférence de l’Université de tous les savoirs donnée le 13 août 2000.
Les propriétés électriques de la matière par Jacques Lewiner
L’observation
Chacun de nous a pu constater que certains matériaux transportent ou laissent passer l’électricité alors que d’autres l’arrêtent. Les fils électriques qui alimentent les nombreux appareils que nous utilisons comportent une partie métallique conductrice de l’électricité et une enveloppe extérieure isolante qui ne la laisse pas passer. Or, la matière est constituée d’atomes qui présentent beaucoup de points communs : un noyau autour duquel des électrons gravitent. Dans ces conditions, pourquoi certains matériaux sont-ils isolants et empêchent le passage du courant électrique alors que d’autres laissant les électrons libres de se déplacer sont des conducteurs ?
Pourquoi un électron initialement attaché à son noyau déciderait-il de l’abandonner en se laissant entraîner par des forces qui le sollicitent ? Les électrons ont-ils si peu de principes qu’ils seraient prêts à rejoindre le premier noyau qui les attire ?
Nous allons voir que les électrons qui sont naturellement assez volages respectent néanmoins un principe fort et que ceci explique la plupart des propriétés électriques de la matière.
On abordera ainsi le cas des isolants, des conducteurs et des supraconducteurs. Ces derniers, qui constituent encore une énigme majeure pourraient provoquer une révolution industrielle.
L’atome
Nous allons décrire la matière en utilisant comme composant élémentaire l’atome. Il comporte, comme montré sur la figure 1, un noyau chargé positivement, formé de neutrons et de protons autour duquel gravitent des électrons qui sont chargés négativement. La charge totale des électrons compensant la charge du noyau, l’atome est électriquement neutre. Si l’on applique un champ électrique à un tel atome les électrons sont soumis à une force dans le sens opposé à celui du champ alors que le noyau est soumis à une force dans le même sens.
Compte tenu des forces internes à l’atome, les électrons et le noyau ne s’écartent que très peu les uns des autres et les électrons restent attachés à leur noyau. Cette situation est celle que l’on trouve dans les gaz ou dans les systèmes dans lesquels les atomes sont assez distants les uns des autres.
Pour voir apparaître un courant électrique il faudrait arracher un ou plusieurs électrons de leur atome et pour cela leur fournir une énergie supérieure à celle qui les retient. En fait les électrons autour du noyau occupent des orbites caractérisées par des énergies très précises. Chaque orbite ne peut contenir qu’un nombre fini d’électrons. Pour passer d’une orbite à une autre ou pour arracher un électron de l’atome il faut donc lui fournir soit l’énergie qui sépare les deux niveaux dans le cas d’un changement de niveau, soit l’énergie d’attachement à l’atome, dans le cas d’un arrachement de l’électron.
La nature nous fournit de telles possibilités. Ainsi les rayons cosmiques qui nous viennent de l’espace sont porteurs d’une grande énergie susceptible d’arracher les électrons. La radioactivité naturelle a le même effet. On a affaire dans les deux cas à des rayons ionisants. Ils transforment un atome neutre en un atome dont on a arraché un ou plusieurs électrons que l’on appelle ion, et des électrons. On a donc créé deux charges électriques qui sont, chacune, susceptibles d’être entraînées dans des directions opposées par application d’un champ électrique. On peut ainsi observer un léger courant électrique. C’est ce principe qui est utilisé dans de très nombreux instruments de mesure des rayonnements ionisants. C’était la technique utilisée par Pierre et Marie Curie pour mesurer les premiers radioéléments, le radium, le polonium, etc.
Lorsque l’on approche les atomes les uns des autres jusqu’à constituer un solide comme montré sur la figure 2, les orbites électroniques sont du même ordre de grandeur que la distance qui sépare les atomes. La tentation peut donc devenir grande pour un électron d’abandonner son noyau pour rejoindre le noyau voisin et ainsi, pour peu qu’un champ électrique exerce une force sur cet électron, de passer d’atome en atome en adoptant un comportement d’électron « libre ».
Afin de minimiser les énergies, les atomes s’organisent en général de manière très régulière dans un arrangement périodique presque parfait au moins sur des distances courtes. Les électrons des couches profondes, les plus proches du noyau, sont fortement liés à leur atome. Au
2
contraire, les électrons dans la dernière couche habitée sont ceux qui sont le plus susceptibles de se déplacer.
Nous désignerons par cœur de l’atome l’ensemble constitué par le noyau et les électrons des couches profondes. De cette manière l’atome peut être décrit comme un ou plusieurs électrons négatifs relativement libres gravitant autour d’un cœur d’atome positif. L’arrangement régulier des atomes est donc associé à un arrangement régulier des cœurs d’atomes, positifs, qui créent un potentiel électrique ayant la même périodicité que celle de l’arrangement des atomes.
Les électrons des couches périphériques sont soumis à ce potentiel périodique. Cette périodicité conduit à imposer aux électrons des valeurs de l’énergie permises et des valeurs de l’énergie interdites. Cette loi générale de la physique, liée aux systèmes périodiques, est dans certains cas directement sensible à nos sens par exemple quand nous regardons la surface d’un CD. En observant la lumière réfléchie par une telle surface, nous voyons apparaître des couleurs ou irisations qui résultent de l’extinction de certaines bandes de fréquence dans la lumière reçue. Cette lumière qui arrivait « blanche » c’est-à-dire comportant toutes les longueurs d’ondes que l’œil est capable de détecter, après réflexion sur la structure périodique que constitue l’arrangement régulier de micro trous du CD, est devenue colorée pour l’œil. Certaines longueurs d’onde n’ont pu être réfléchies.
Les énergies permises pour les électrons d’un solide sont réparties de manière continue dans des bandes d’énergies permises, séparées les unes des autres par des zones d’énergies interdites que l’on appelle bandes interdites.
Les électrons doivent donc se répartir à l’intérieur des bandes d’énergies permises. Selon une loi générale de la nature ils vont chercher à se mettre dans les états d’énergie les plus faibles. Dans ces conditions pourquoi ne se regroupent-ils pas tous dans l’état d’énergie minimum? Car ils respectent un principe , le principe de Pauli, qui stipule que dans un état donné on ne peut mettre qu’un électron. La vie des électrons serait bien triste. Heureusement la nature leur a donné un mouvement de rotation sur eux-mêmes que l’on appelle spin. Or le spin de l’électron peut prendre deux valeurs, ce qui permet de créer deux petites maisons d’électrons à l’intérieur des états énergétiques tels que décrits précédemment. Grâce au spin on peut ainsi associer deux électrons sans s’opposer au principe de Pauli.
En respectant cette règle, les électrons de notre solide vont occuper progressivement tous les états permis en partant du plus profond. Ils vont ainsi remplir une première bande, puis lorsqu’elle sera pleine, la première bande libre au dessus et ainsi de suite jusqu’à ce que tous les électrons aient été placés. On symbolise sur la figure 3 le remplissage des bandes par des hachures. Deux situations sont donc possibles, telles qu’illustrées en a et b.
3
Soit la dernière énergie occupée par les électrons se trouve au sommet d’une bande permise (figure 3a), soit elle se trouve au milieu d’une telle bande (figure 3b). Cette différence apparemment minime a pourtant des conséquences considérables sur le comportement électrique du solide.
Les isolants
Considérons tout d’abord le cas présenté sur la figure 3a à savoir 2 bandes permises sont pleines et toutes les bandes permises au-dessus sont vides. Appliquons maintenant un champ électrique E en imposant par exemple une tension électrique aux bornes de notre matériau. Ce champ exerce une force F = qE où q est la charge de l’électron. On serait tenté de penser que les électrons soumis à cette force vont être entraînés dans un mouvement à accélération constante. En réalité, le mouvement n’est pas possible. Comme tous les états autorisés sont pleins, les électrons ne peuvent malgré la force qui les sollicite, se laisser entraîner.
Tout se passe comme si à l’heure de pointe dans un wagon de métro on apercevait à l’autre extrémité du wagon une personne vers laquelle ont aimerait aller (la force qui nous attire) mais on ne le peut car il n’y a pas de places libres par lesquelles on pourrait, par une succession de déplacements élémentaires, avancer. Cette absence de mouvement des électrons en présence d’un champ électrique permet d’interpréter un tel matériau comme un isolant de l’électricité.
Les isolants sont très utilisés dans les systèmes électriques pour séparer des conducteurs, pour nous protéger des dangers de l’électricité ou même pour transporter des informations comme dans les fibres optiques. Certains isolants possèdent en outre des propriétés tout à fait
4
étonnantes. Par exemple, il existe des matériaux dans lesquels l’application d’une contrainte mécanique se traduit par l’apparition de charges électriques. Ceci permet de transformer une action mécanique en un signal électrique. Le processus inverse existe par lequel l’application d’une tension ou d’un champ électrique engendre une déformation ou une contrainte mécanique des matériaux. De tels matériaux, très particuliers, sont dits piézoélectriques.. Ils ont révolutionné de nombreux domaines de notre vie courante : les télécommunications, la mesure du temps et bien d’autres. Le quartz, très connu, est utilisé pour stabiliser des fréquences ou mesurer avec précision des temps. Les montres à quartz sont des produits de grande consommation.
Les corps piézoélectriques sont utilisés également dans d’autres applications, par exemple en détection sous-marine. Le sonar, qui permet d’explorer sous l’eau la zone devant un bateau évite les accidents face à des écueils ou des icebergs. L’échographie médicale, maintenant largement répandue, par exemple en gynécologie, utilise des ondes ultrasonores produites et détectées par des transducteurs piézoélectriques.
D’autres isolants possèdent encore de nombreuses propriétés étonnantes. Ainsi certains corps, dits pyroélectriques, génèrent des charges électriques lorsqu’ ils sont soumis à un léger réchauffement. Le simple rayonnement émis par le corps humain sous forme d’ondes infrarouges permet de déclencher l’ouverture de portes automatiques ou de détecter des intrus dans un local surveillé. Peut-être ces matériaux pyroélectriques permettront-ils de détecter un jour, de manière précoce, les cancers du sein.
Les semi conducteurs
Supposons maintenant que l’écart entre la dernière bande pleine, dite bande de valence et la première bande vide, dite bande de conduction soit du même ordre de grandeur que l’énergie due à l’agitation thermique. Dans ce cas on peut imaginer, tout en respectant la conservation de l’énergie, que des grains d’énergie thermique sont absorbés par certains électrons qui sautent dans la bande de conduction. Un tel matériau possède des propriétés bien étranges. En le refroidissant on diminue la probabilité que de telles transitions se produisent alors qu’en augmentant la température on augmente cette probabilité. De cette manière, à basse température, on a des bandes pleines surmontées de bandes vides. C’est donc un isolant. Au contraire, à haute température lorsque des électrons sont envoyés de la bande de valence vers la bande de conduction, deux effets complémentaires apparaissent. Dans la bande de valence les absences d’électrons constituent des opportunités pour permettre à ceux qui sont restés de se déplacer sous l’effet du champ (le wagon de métro s’est partiellement vidé et le mouvement devient possible). On a donc un courant en présence d’un champ électrique appliqué.
Mais de la même manière les quelques électrons qui ont été envoyés dans la bande de conduction et qui sont entourés d’états libres peuvent très facilement se déplacer sous l’effet de la force due au champ appliqué. Ils produisent eux aussi un courant électrique. Ce matériau étrange, isolant à basse température et conducteur à température plus élevée est ce qu’on appelle un semi- conducteur intrinsèque. Ses propriétés électriques dépendent considérablement de la température ce qui le rend peu propice à être utilisé dans des applications industrielles. Qui accepterait d’avoir une télévision, une radio ou un téléphone qui ne fonctionnerait de manière satisfaisante qu’entre 20 et 21°C ? Pour cette raison, l’industrie des semi-conducteurs utilise un artifice : le dopage. Cette opération consiste à rajouter à la place de certains atomes constituant le matériau des atomes autres ne possédant pas le même nombre d’électrons. Ainsi en substituant à un atome possédant 4 électrons périphériques comme dans le cas du germanium, un atome d’arsenic possédant 5 électrons, on se trouve avec un électron supplémentaire sans avoir créé une absence d’électrons dans la bande de valence. On a affaire à un semi-conducteur extrinsèque. Ce type de
5
semi-conducteurs est tellement répandu qu’en général on n’ajoute même pas le mot
« extrinsèque » mais on utilise tout simplement l’appellation réduite de semi-conducteurs.
Les Photoconducteurs
Revenons à la Figure 3a dans laquelle la bande de valence est pleine et la bande de conduction vide. Au lieu d’utiliser l’énergie d’agitation thermique pour envoyer un électron d’une bande vers la bande de conduction on utilise maintenant l’énergie d’un rayonnement électromagnétique. Une telle énergie est constituée de grains élémentaires appelés photons. Dans ce cas l’absorption d’un photon permet, en respectant le principe de conservation de l’énergie, d’envoyer un électron de la bande de valence vers la bande de conduction. On se retrouve ainsi dans une situation comparable à celle précédemment décrite : le matériau est devenu conducteur. Ces matériaux possèdent l’étrange propriété d’être isolants dans le noir et conducteurs à la lumière. On les appelle des photoconducteurs.
Nous utilisons sans le savoir dans notre environnement quotidien de tels matériaux, par exemple dans les photocopieurs ou dans les imprimantes laser. Quel en est le principe ? Comme présenté sur la figure 4, un cylindre conducteur, tournant autour de son axe, est recouvert d’une couche photoconductrice. On dépose le long d’une ligne sur ce cylindre une couche uniforme de charges électriques supposées ici positives. Ces charges réparties à la surface du photoconducteur ne peuvent s’écouler compte tenu de la nature isolante de ce matériau maintenu dans le noir. Si on projette par un système d’optique classique l’image d’un document à reproduire, certaines zones éclairées deviennent conductrices alors que d’autres zones restent dans le noir correspondant respectivement aux zones blanche (éclairées) ou noires (écrites) du document d’origine. De cette manière on crée une répartition de charges électriques à la surface du photoconducteur qui reproduit exactement la répartition des zones noires sur le document d’origine. On a ainsi obtenu une image électrique. Reste à révéler cette image. Pour cela il suffit de projeter une poudre colorée, noire par exemple, qui va être attirée par les zones chargées électriquement et d’amener une feuille de papier en contact avec la surface du photoconducteur porteur de ces grains colorés pour les transférer sur le papier. Enfin, en chauffant vigoureusement et rapidement la feuille porteuse de ces grains on les fait fondre ce qui leur permet de pénétrer légèrement dans le papier. Notre photocopie est terminée.
6
Le même principe s’applique aux imprimantes laser, sauf qu’au lieu d’utiliser un système optique pour projeter, sur le photoconducteur, l’image du document à reproduire, on utilise une source de lumière, par exemple des diodes laser, qui éclairent sélectivement le photoconducteur en fonction d’instructions reçues d’un ordinateur, ou dans le cas des télécopies d’une ligne téléphonique.
Les conducteurs
Revenons maintenant à la situation décrite dans la figure 3b lorsque le niveau maximum de remplissage des électrons se situe à l’intérieur d’une bande d’énergie permise. Dans ce cas l’application d’un champ électrique et donc d’une force sur les électrons se traduit par un déplacement des électrons situés à la frontière entre les états occupés et les états libres. En effet, ces électrons, entourés d’états libre, peuvent se déplacer sous l’effet de ce champ. Un courant électrique s’établit. De tels matériaux sont des conducteurs de l’électricité, par exemple des métaux.
Les électrons d’un métal sont entraînés par le champ appliqué et soumis à un mouvement uniformément accéléré. Le courant devrait donc croître de manière ininterrompue or nous savons qu’il n’en est rien. Le courant se stabilise à une certaine valeur qui dépend de la résistance du conducteur utilisé.
D’où vient cette résistance ? Si le matériau était parfait, c’est-à-dire si le potentiel dans lequel navigue l’électron était strictement périodique, la trajectoire suivie ne serait pas perturbée. Dans la réalité, plusieurs phénomènes détruisent cette périodicité idéale. Les impuretés chimiques, tout comme les failles ou dislocations du matériau, se traduisent, en effet, par des ruptures locales de la périodicité.
Ces deux facteurs conduisent à limiter la distance que peut franchir un électron sans
« collision », distance que l’on appelle libre parcours moyen. Cette distance dépend de la pureté
7
chimique et de la qualité cristallographique. Ainsi du cuivre pur est beaucoup moins résistant que du cuivre pollué. D’où l’importance du raffinage du cuivre dans l’industrie des fils électriques.
Par ailleurs, l’agitation thermique qui fait vibrer les atomes autour de leur position d’équilibre conduit à des déformations du potentiel périodique et, donc, à une limitation du libre parcours moyen.. On voit donc apparaître un nouveau facteur influant la résistance électrique.
A haute température le libre parcours moyen des électrons est petit et la résistance est grande. En réduisant la température on augmente le libre parcours moyen, ce qui réduit la résistance comme indiqué sur la figure 5. Ainsi la résistance électrique du filament d’une ampoule à incandescence n’est pas la même selon que l’ampoule est allumée (chaude) ou éteinte (froide). En baissant la température d’un conducteur on réduit sa résistance jusqu’à ce que cette dernière soit conditionnée majoritairement par les collisions avec les impuretés chimiques ou les défauts cristallographiques et non par les défauts de périodicité engendrés par l’agitation thermique. Une telle situation correspondant sur la figure 5 au plateau horizontal dont le niveau caractérise la qualité du matériau.
Les supraconducteurs
Dans certains cas un phénomène étrange apparaît. En dessous d’une certaine température, dite température critique, la résistance électrique s’annule, et de nombreuses propriétés remarquables apparaissent, en particulier des propriétés magnétiques. Les matériaux qui présentent ce comportement sont dits supraconducteurs. Pourquoi ces matériaux ne sont-ils pas omniprésents dans notre vie quotidienne et dans l’industrie ? Pour une raison simple : la faible valeur de la température critique. Lors de leur découverte à Leiden en 1911, les températures critiques étaient de l’ordre de –269°C soit 4,2°K. L’intérêt scientifique et industriel pour les supraconducteurs a suscité des efforts considérables pour augmenter cette température. Jusqu’en 1986, que de travaux pour des résultats limités. En 75 ans ce sont environ 20 degrés qui sont gagnés en faisant passer de –269°C à environ –250°C. Une telle température est encore bien décourageante. Là encore, qui aimerait avoir une radio, une télévision ou un téléphone fonctionnant dans ces conditions ?
8
Quelques applications industrielles ont néanmoins vu le jour, en particulier pour créer de forts champs magnétiques avec ce que l’on appelle des bobines supraconductrices. Par exemple, dans les hôpitaux beaucoup d’imageurs par résonance magnétique nucléaire utilisent de tels systèmes.
Pourquoi les électrons dans les supraconducteurs n’obéissent-t-ils plus aux lois qui expliquaient les comportements classiquement observés. En dessous de la température critique les électrons se trouvent couplés par paires que l’on appelle des paires de Cooper. L’énergie d’une paire de Cooper est inférieure à la somme des énergies des deux électrons célibataires. Là encore, la nature va peupler rapidement ce niveau particulier d’énergie au détriment des états célibataires. car les paires de Cooper n’obéissent plus, contrairement aux électrons célibataires au principe de Pauli. Leur comportement est donc complètement différent.
En 1986 une révolution secoue la communauté scientifique internationale et par ondes successives le monde industriel puis le monde politique : deux chercheurs Bednoz et Muller gagnent quelques degrés et dans les semaines qui suivent une frénésie s’empare de tous les laboratoires du monde. La température critique monte à grande vitesse et dépasse bientôt 77°K (environ –200°C), température de l’azote liquide, produit industriel facile à obtenir et d’usage courant.
Ces découvertes ouvrent la voie à de nombreux travaux et suscitent d’immenses espoirs de pouvoir augmenter encore cette température.
Divers laboratoires dans le monde travaillent aujourd’hui sur ces phénomènes encore mal compris. Sur la figure 6 on voit un petit aimant magnétique en lévitation au dessus d’un supraconducteur plongé dans de l’azote liquide. C’est l’une des très nombreuses applications de ces effets. Certains envisagent même de créer ainsi des trains en sustentation magnétique.
La découverte des supraconducteurs à température ambiante est-elle un rêve ou une réalité de demain ? Nul ne peut le prédire aujourd’hui. Les espoirs et la curiosité motivent cependant de nombreux chercheurs de par le monde.
Conclusion
Nous avons vu comment des différences apparemment très minimes de la structure des solides peuvent donner des propriétés électriques totalement différentes. Nous sommes ainsi passés de matériaux très isolants s’opposant vigoureusement au passage de l’électricité aux matériaux supraconducteurs dans lesquels rien ne s’oppose au passage de l’électricité.
9
Ce grand domaine de la science a apporté de multiples applications dans notre vie quotidienne. La curiosité des scientifiques reste totale pour tenter de comprendre les nombreux mystères qui sont encore aujourd’hui inexpliqués.
Légendes
Figure 1 : Les électrons gravitent sur différentes orbites autour du noyau.
Figure 2 : Structure atomique d'un solide ; un électron « libre » peut passer d'un atome à l'autre.
Figure 3 : Bandes d'énergie des électrons. La dernière énergie occupée par les électrons est a) au sommet, b) au milieu d'une bande permise (les hachures indiquent les niveaux d'énergie occupés).
Figure 4 : Principe de fonctionnement d'un photocopieur.
Figure 5 : Variation de la résistivité d'un conducteur en fonction de la température. Dans le cas présenté on observe, en outre, l'existence d'une température critique Tc en dessous de laquelle le matériau est supraconducteur.
Figure 6 : Aimant en lévitation au-dessus d'un supraconducteur plongé dans l'azote liquide.
VIDEO CANAL U LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|