ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Repousser la limite de la conductance d’un matériau en contrôlant les interactions entre électrons

  initiation musicale

 

 

 

 

 

 

Repousser la limite de la conductance d’un matériau en contrôlant les interactions entre électrons

vendredi 15 juin 2018


Repousser la limite de la conductance d’un matériau en contrôlant les interactions entre électrons

Jusqu’où peut monter la conductance électrique ? A l’inverse de la résistance, cette quantité mesure la facilité avec laquelle passe le courant. En physique fondamentale, la conductance constitue un outil de caractérisation de tout premier plan. Dans les puces électroniques, augmenter la conductance de pistes permettrait de réduire le chauffage qui limite les performances.

La théorie standard du transport quantique prédit cependant une limite supérieure pour la conductance, même en l’absence de défauts. Cette limite reflète le fait que les électrons traversant un conducteur étroit doivent passer les uns à la suite des autres, avec chacun une extension minimale imposée par la mécanique quantique. Toutefois, lorsque les interactions sont très fortes, on ne peut plus considérer les électrons séparément. On se trouve alors dans un état intermédiaire, entre les électrons libres et la supraconductivité. Cette limite peut alors être dépassée par un effet d’entrainement qui s’apparente à un comportement visqueux du fluide électronique. Ce phénomène vient tout juste d’être mis en évidence dans le graphène, à l’université de Manchester.
Des chercheurs l’ont désormais observé dans un circuit quantique où l’amplitude du dépassement de la limite standard de conductance, ainsi que la gamme de température où il se produit, peuvent être contrôlés in situ. Pour ce faire, les physiciens du Centre de nanosciences et de nanotechnologies (C2N, CNRS/UPSud/Univ. Paris Diderot), en collaboration avec des théoriciens des universités College-Dublin, Paris-Sud et Paris Diderot, exploitent les corrélations électroniques qui se développent au voisinage d’une transition de phase quantique se produisant à quelques millièmes de degrés au-dessus du zéro absolu.

Au cœur du circuit quantique se trouve un îlot métallique réglé pour que l’augmentation de sa charge par un électron ne change pas son énergie. C’est fondamental, car ainsi le système ne gèlera dans aucun de ces deux états (avec une charge supplémentaire ou sans charge supplémentaire), même aux plus basses températures. Tandis que dans le cas contraire, le système se figerait dans l’état de plus basse énergie et l’on perdrait ce degré de liberté que constitue l’ajout d’une charge. Or, c’est le couplage de cette charge avec les électrons entrant et sortant de l’îlot par trois petits contacts individuellement ajustables qui génère de fortes corrélations entre ces électrons et l’apparition d’une transition de phase quantique. L’existence même et l’amplitude du dépassement de la limite standard de la conductance est alors contrôlé par le degré de symétrie entre les différents contacts.
Ce travail publié dans la revue Science ouvre un chemin de recherche pour l’électronique basse puissance. Le dispositif implémenté n’a pas d’applications mais constitue un système d’étude modèle. Plus généralement, ce travail s’inscrit dans l’exploration d’une large variété de phénomènes non-conventionnels associés aux transitions de phase quantiques.


Evolution en fonction de la température des conductances de 3 contacts quantiques connectés en parallèle à un petit îlot métallique. Chaque flèche colorée représente la variation de la conductance G2 d’un des contacts en fonction de la conductance des deux autres contacts (réglés tels que G1=G3) lorsque la température varie de 55 mK à 8 mK pour des configurations initiales différentes. La conductance G2 dépasse la limite quantique e2/h (e est la charge de l’électron et h la constante de Planck) dans la zone grisée en raison de fortes corrélations électroniques. Les lignes grises représentent les prédictions théoriques (NRG) pour une toute petite asymétrie. © C2N, CNRS/UPSud/Univ. Paris Diderot

Tunable quantum criticality and super-ballistic transport in a “charge” Kondo circuit
Z. Iftikhar, A. Anthore, A. K. Mitchell, F. D. Parmentier, U. Gennser, A. Ouerghi, A. Cavanna, C. Mora, P. Simon, F. Pierre
Science (2018), doi:10.1126/science.aan5592
Lire l’article sur la base d’archives ouvertes ArXiv

Contact chercheur

Frédéric Pierre, directeur de recherche CNRS
Informations complémentaires
Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud/ Univ. Paris Diderot)
Laboratoire Pierre Aigrain (LPA, CNRS/ENS Paris/Univ. Paris Diderot/Sorbonne Université)

Laboratoire de physique des solides (LPS, CNRS/Univ. Paris-Sud)
Université College Dublin (Irlande)
Contacts INP
Jean-Michel Courty
Marie Signoret
Marine Charlet-Lambert
inp.com cnrs.fr


  DOCUMENT         CNRS         LIEN   

 
 
 
initiation musicale toulon  

Nanomatériaux

  initiation musicale

 

 

 

 

 

 

Nanomatériaux

Construire des nanomatériaux aux propriétés nouvelles pour l’énergie, les transports et d’autres applications de la vie quotidienne est un enjeu stratégique.

Publié le 1 juillet 2012

L’observation des matériaux au microscope fait apparaître leur composition, leur structure, granulaire ou fibreuse, et leurs défauts. Elle révèle, par exemple, que les alliages métalliques sont constitués d’agrégats de grains de taille micrométrique.

INFLUENCE DE LA STRUCTURE
La structure détermine les propriétés optiques, mécaniques, électriques, magnétiques, thermiques… des matériaux. En faisant coïncider l’échelle d’homogénéité des matériaux avec l’échelle d’action de phénomènes physiques, on peut modifier certaines de leurs caractéristiques. Ainsi, un verre millistructuré est transparent mais pas superhydrophobe, tandis qu’un verre microstructuré est opaque mais toujours pas superhydrophobe. Seul un verre nanostructuré est transparent et superhydrophobe.
Les nanomatériaux sont donc volontairement façonnés à cette échelle : ils sont constitués d’éléments nanométriques qui vont leur conférer la propriété recherchée. Ils peuvent se présenter sous forme de nanopoudre ou comprennent des nanoparticules intégrées dans une matrice ordinaire (on parle alors de matériaux composites).
En diminuant la taille des grains, on obtient des matériaux plus légers et ayant de meilleures propriétés mécaniques, par exemple plus résistants. Les matériaux obtenus sont plus malléables car les grains glissent plus facilement les uns par rapport aux autres.


Plus un objet est petit, plus sa surface externe est importante par rapport à son volume. Les objets nanométriques sont caractérisés par un nombre d’atomes en surface identique au nombre d’atomes en volume. Les phénomènes de surface jouent donc un rôle désormais prédominant. Le monde naturel l’illustre bien : ainsi, un insecte peut marcher sur l’eau mais, grossi 500 fois jusqu’à la taille d’un éléphant, il n’en serait plus capable.
De plus, ce qui se passe à l’interface entre chaque élément constitutif est aussi très important. Plus il y a d’éléments, plus la surface d’échange augmente. Celle des objets nanométriques est par conséquent immense. Il est ainsi possible de modifier les propriétés d’un matériau en le façonnant à cette échelle. Par exemple, le cuivre formé de nanocristaux est trois fois plus résistant mécaniquement qu’en microcristaux. Une poussière de nanotubes « en vrac » a une immense surface d’échange avec son environnement : plusieurs centaines de mètres carrés par gramme. Cela permet notamment d’augmenter l’efficacité des catalyseurs de l’industrie chimique ou des pots d’échappements pour le même volume de matière.
Certains matériaux réémettent de la lumière visible quand ils sont éclairés : c’est le phénomène de photoluminescence. Sous des rayons ultraviolets, la couleur émise par des nanocristaux de séléniure de cadmium change en fonction de leur dimension, passant du bleu pour des grains de 2 nm au vert pour 3 nm, puis au rouge pour 5 nm. Dotés de cette propriété, les nanocristaux de semi-conducteurs, souvent appelés quantum dots, peuvent être utilisés dans le marquage moléculaire ou encore comme marqueurs d’objets précieux et de produits commerciaux.
On peut ainsi utiliser la réactivité ou les propriétés de certaines nanoparticules pour obtenir des surfaces fonctionnalisées : vitres autonettoyantes, miroirs antibuée, revêtements antibactériens et/ou fongicides… Pour cela, il faut déposer une couche de ces nanoparticules à la surface d’un objet en matériau ordinaire avec des procédés comme le sol-gel ou le dépôt en phase vapeur.

La nature inspiratrice
Le gecko, petit animal qui ressemble à un lézard, a la propriété étonnante de courir au plafond ! En examinant de très près la surface de ses pattes, on a découvert qu’elle est constituée d’un tapis de fibres très serrées qui lui donne cette superadhérence. Des chercheurs sont en train d’en copier la structure pour reproduire cet effet de nano-velcro…
La feuille de lotus, quant à elle, présente une propriété étonnante : elle est superhydrophobe. L’étude nanométrique de sa surface met en évidence une nanostructure qui fait glisser les gouttes, et permet de comprendre comment et pourquoi, même plongée dans l’eau, elle paraît toujours sèche. L’intérêt de cette recherche est de pouvoir fabriquer des verres hydrophobes qui pourraient équiper les véhicules et la lunetterie.
Les objets nanométriques « naturels » sont depuis toujours présents dans notre environnement. Les grains d’argent des émulsions photographiques, la poudre à base d’encre de Chine, les colorants des verres (de certaines cathédrales par exemple) contiennent des nanoparticules. Mais les objets dérivant des nanotechnologies ne sont fabriqués que depuis quelques années. Aujourd’hui, plus de 350 produits grand public sont commercialisés pour lesquels le constructeur mentionne au moins un élément dérivé des nanotechnologies. Parmi eux, on compte des cosmétiques, des systèmes électroniques et des produits ménagers et sportifs.
Pour beaucoup d’applications, des nanoparticules aux propriétés déterminées sont incluses dans une matrice, créant ainsi un matériau composite fonctionnel. Tout, ou presque, est envisageable : béton ultraléger, résistant et auto-cicatrisant, film de polyéthylène antibactérien (en incluant des nanoparticules d’argent) et imperméable aux rayons UV (grâce à des nanoparticules de dioxyde de titane), crèmes solaires incorporant, elles aussi, des nanograins de dioxyde de titane pour l’absorption des UV dangereux pour la peau, céramiques nanorenforcées rendues bio­compatibles, matières plastiques à base de polymères rendues conductrices, ininflammables ou plus résistantes…

DES NANOS AU SERVICE DE L'ÉNERGIE

L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur, en particulier dans les projets liés aux réacteurs de « Génération IV ».

En effet, qu'il s'agisse des nouveaux alliages métalliques renforcés par une dispersion très fine d’oxyde (aciers ODS) ou de composites à matrices céramiques (CMC), les performances de ces matériaux reposent sur leur nanostructuration. Elles permettent par exemple aux premiers de renforcer leur résistance lors de leur utilisation en environnement sévère ; aux seconds de présenter une conductivité thermique élevée. Le développement pour le nucléaire de ces matériaux nanostructurés permettra la diffusion de connaissances, de savoir-faire technologique et d’innovation dans d’autres secteurs industriels.
Les nouvelles technologies de l’énergie intègrent aussi ces recherches.
Premier exemple : les cellules photovoltaïques. Les dispositifs actuels en silicium cristallin convertissent au maximum 16 à 18 % de la puissance du Soleil en énergie électrique, mais la fabrication des cellules est coûteuse, complexe, et exige de grandes précautions. Les nanotechnologistes élaborent des structures photosensibles flexibles, à partir de plastiques conducteurs, actuellement en phase de test.


Préparation des cellules solaires photovoltaïques souples à l’Institut national de l’énergie solaire. © C.Dupont/CEA
L’apport des nanomatériaux et des matériaux nanostructurés est stratégique dans le domaine de l’énergie nucléaire du futur.

Pour les piles à combustible, le polymère des membranes a été rendu plus résistant mécaniquement, chimiquement et thermiquement. Les particules de platine, qui jouent le rôle de catalyseur, ont été remplacées par des nanoparticules, permettant ainsi d’économiser du métal précieux.
Le champ des possibles est immense. À l’évidence, des secteurs comme l’aéronautique et l’aérospatial, toujours à la recherche de matériaux légers et ultra-performants, seront de gros utilisateurs. Les moyens de transport terrestres, maritimes et aériens seront plus légers, emporteront plus de charge utile tout en consommant moins d’énergie et donc en polluant moins. L’industrie textile connaîtra aussi sans doute des bouleversements : de nombreux scientifiques travaillent déjà sur des tissus « intelligents ».

 

  DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

Le calcul et l'ordinateur quantiques

  initiation musicale


 

 

 

 

 

Le calcul et l'ordinateur quantiques


Publié le 18 mai 2021

Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

Qu'est-ce qu'un bit quantique ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.



Le fonctionnement d'un ordinateur quantique
    

Atouts et difficultés de la recherche sur le calcul quantique
La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.

L'intrication quantique
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.

Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.


L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.

Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.


QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*         Le Data mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*         L’optimisation de procédés de l’industrie du futur : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*         Enfin, le qubit photonique est, quant à lui, codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.

Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.
Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.
Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

Notions clés
*         Le bit quantique ou qubit est l'unité élémentaire pouvant porter une information quantique. Comme le 1 et le 0 sont les deux états d'un bit classique ordinaire, un qubit est la superposition cohérente d'au moins deux états de base quantiques, que l'on peut noter |0> et |1>.
*         Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
*         Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique.

 

  DOCUMENT     cea         LIEN
 

 
 
 
initiation musicale toulon  

Horloge nucléaire : la mesure du temps à partir du noyau d'un atome, une quête bientôt achevée ?

  initiation musicale


 

 

 

 

 

PARTICULES

Horloge nucléaire : la mesure du temps à partir du noyau d'un atome, une quête bientôt achevée ?

Par Marine Benoit le 13.11.2020 à 11h13
Lecture 6 min.


De nouveaux résultats mettent en lumière de belles avancées dans la course à l'"horloge nucléaire", un modèle d'horloge qui, s'il venait à être viable, offrirait une précision dans la mesure de temps dix fois plus élevée qu'une horloge atomique actuelle.  


PIOTR SIEDLECKI/CREATIVE COMMONS
Saviez-vous qu’une horloge atomique ralentirait de moins d'une seconde si on la laissait fonctionner pendant 15 milliards d'années, soit plus que l'âge de l'Univers ? Nos montres à quartz, elles, gagnent ou perdent en moyenne une seconde tous les deux mois ! C’est bien tout l’intérêt des horloges atomiques : mesurer le temps avec une précision extraordinaire, nécessaire au bon fonctionnement de nombreuses technologies de notre quotidien, du GPS au Web en passant par les logiciels de transaction bancaire.


En réalité, tout ce qui occasionne un mouvement répétitif peut servir d’horloge. Les atomes, qui ont une fréquence naturelle, tout particulièrement. Les premières horloges s’appuyant sur les transitions entre des niveaux d’énergie des atomes furent mises au point dans les années 1950. Convaincus par la précision et la stabilité inégalée de ces engins, le Bureau international des poids et mesures statua en 1967 sur sa définition de la seconde : elle correspond à "la durée de 9.192.631.770 périodes de la radiation correspondant à la transition entre les niveaux hyperfins F=3 et F=4 de l'état fondamental 6S½ de l'atome de césium 133". Pardon ?

Des électrons au noyau
Les choses peuvent bien sûr être présentées plus simplement : lorsqu’un atome de césium est bombardé d’énergie, par le biais d’un simple signal électromagnétique par exemple, il vibre. Dans un atome, l’énergie ne peut prendre que des valeurs discrètes (selon le modèle de Niels Bohr) appelées "niveaux d’énergie". Lorsqu'un atome de Césium-133 reçoit une onde électromagnétique à une certaine fréquence, il passe d'un état de basse énergie à un état de plus haute énergie, de l'état F=3 à l'état F=4. Puis il réémet l'énergie absorbée en précisément 1/9.192.631.770 seconde. On peut aussi voir les choses différemment : après avoir vibré 9.192.631.770, une seconde s’est écoulée !
Une horloge atomique fonctionnant sur les transitions régulières des électrons peut sembler fournir une précision largement suffisante. Pourtant, depuis de nombreuses années, les physiciens s’échinent à l’affiner toujours plus. L’une des méthodes pour parvenir à franchir un nouveau pallier consiste à s’appuyer non pas sur les transitions d’énergie qui s’effectuent au niveau des électrons, mais sur celles qui surviennent dans le noyau de l’atome. "La performance d'une horloge est déterminée par un 'facteur de qualité' de la transition utilisée. Ce dernier devrait être 10 fois plus élevé dans une horloge nucléaire que dans une horloge atomique comme on en a aujourd’hui", explique à Sciences et Avenir Thorsten Schumm, professeur spécialiste de la métrologie quantique à l’Université de Vienne, en Autriche, et co-auteur d’une étude parue le 28 septembre 2020 dans les Physical Review Letters. "Nous nous attendons aussi à ce que la transition nucléaire soit beaucoup plus résistante aux perturbations extérieures (champs électriques ou magnétiques ou température de l'appareil environnant). Car le noyau est plus petit que l'atome de quatre ordres de grandeur. Par conséquent, les moments nucléaires sont aussi plus petits et réagissent moins aux champs externes. Ces perturbations extérieures sont actuellement le principal facteur limitant dans les horloges atomiques 'classiques'."

  DOCUMENT   sciences et avenir.fr    LIEN

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google