initiation musicale toulon   LES TROUS NOIRS ET LA FORME DE L'ESPACE
  initiation musicale

 

 

 

 

 

 

LES TROUS NOIRS ET LA FORME DE L'ESPACE


La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.

Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet

Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.
Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.

Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.
Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.

Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !
Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.

La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.

Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.
- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.
Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.
Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !

La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.
Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.
Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.

Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.

Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.
Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).
Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.

Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.

Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.
Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.
COMMENTAIRES

AJOUTER UN COMMENTAIRE LIRE LES COMMENTAIRES
Alain MOCCHETTI 14/02/2018 00H09
QU'EST-CE QU’UN VORTEX ESPACE - TEMPS ET UN TROU DE VER ?
Un Vortex Espace – Temps ou Porte Spatio-Temporelle est un 4ème type de VORTEX qui permet de voyager à la fois dans l’Espace et dans le Temps :
- Voyager dans l’Espace en reliant un Univers Multiple à un autre,
- Voyager dans l’Espace en reliant un Univers Parallèle à un autre,
- Voyager dans l’Espace en reliant 2 points au sein du même Univers Multiple ou du même Univers Parallèle.
Il permet de voyager également dans le Temps :
- Du Futur vers le Passé,
- Du Passé vers le Futur.
Certains Vortex qui permettent de voyager dans l’Espace Temps sont appelés TROU DE VER.
Définition d’un Trou de Ver :
Un trou de ver est, en physique, un objet hypothétique qui relierait deux feuillets distincts ou deux régions distinctes de l'espace-temps et se manifesterait, d'un côté, comme un trou noir et, de l'autre côté, comme un trou blanc. Un trou de ver formerait un raccourci à travers l'espace-temps. Pour le représenter plus simplement, on peut se représenter l'espace-temps non en quatre dimensions mais en deux dimensions, à la manière d'un tapis ou d'une feuille de papier. La surface de cette feuille serait pliée sur elle-même dans un espace à trois dimensions. L'utilisation du raccourci « trou de ver » permettrait un voyage du point A directement au point B en un temps considérablement réduit par rapport au temps qu'il faudrait pour parcourir la distance séparant ces deux points de manière linéaire, à la surface de la feuille. Visuellement, il faut s'imaginer voyager non pas à la surface de la feuille de papier, mais à travers le trou de ver, la feuille étant repliée sur elle-même permet au point A de toucher directement le point B. La rencontre des deux points serait le trou de ver. L'utilisation d'un trou de ver permettrait le voyage d'un point de l'espace à un autre (déplacement dans l'espace), le voyage d'un point à l'autre du temps (déplacement dans le temps) et le voyage d'un point de l'espace-temps à un autre (déplacement à travers l'espace et en même temps à travers le temps). Les trous de ver sont des concepts purement théoriques : l'existence et la formation physique de tels objets dans l'Univers n'ont pas été vérifiées. Il ne faut pas les confondre avec les trous noirs, dont l'existence tend à être confirmée par de nombreuses observations, dont le champ gravitationnel est si intense qu’il empêche toute forme de matière de s'en échapper.
Alain Mocchetti
Ingénieur en Construction Mécanique & en Automatismes
Diplômé Bac + 5 Universitaire (1985)
UFR Sciences de Metz
alainmocchetti@sfr.fr
alainmocchetti@gmail.com
@AlainMocchetti

 

 VIDEO       CANAL  U         LIEN

 
 
 
initiation musicale toulon   Le renversement du temps en acoustique Par Mathias Fink
  initiation musicale

Texte de la 350e conférence de l’Université de tous les savoirs donnée le 15 décembre 2000.

Le renversement du temps en acoustique Par Mathias Fink


Nous vivons dans un environnement qui nous paraît pratiquement toujours
irréversible : Lorsqu’on fait tomber une goutte d'encre dans de l'eau, on voit le colorant diffuser et on ne voit jamais réapparaître au sein du liquide la goutte d’encre initiale. Cette apparente irréversibilité du monde macroscopique a toujours intrigué les physiciens dans la mesure où les équations de la physique microscopique et de la mécanique sont, elles, parfaitement réversibles. Il y a eu et il y a toujours de nombreux débats sur ce thème, et nous savons que, pour expliquer cette tendance vers l'irréversibilité, le physicien Ludwig Boltzman a introduit le concept d'entropie qui mesure en quelque sorte le désordre d’un système de particules Il a montré que lorsque l'on s’intéresse à un système de particules qui interagissent (de façon élastique) entre elles, et lorsque ce système est isolé du reste de l'univers, la tendance naturelle de l’ensemble des particules est d’évoluer vers le plus grand désordre c’est- à-dire vers une entropie maximale. Il faut remarquer cependant que cette croissance de l’entropie d’un système de particules n’est observée que dans les systèmes parfaitement isolés. Lorsqu’un système est en interaction avec l’extérieur et peut échanger aussi bien des particules que de l’énergie, on peut observer lorsque le système est maintenu hors d’équilibre une apparition d’ordre dans le système. Ce domaine a été exploré de façon très approfondie ces dernières décennies en physique non linéaire à la suite des travaux précurseurs de Ilya Prigogine. Le problème qui nous intéresse ici est différent, il s’agit de savoir s’il est possible d’exploiter la réversibilité qui existe à l’échelle microscopique pour réaliser en laboratoire des expériences macroscopiques que l’on fait évoluer dans les deux sens : de l’ordre vers le désordre et ensuite de façon parfaitement symétrique du désordre vers l’ordre. Quel dispositif doit entourer notre système de particules en interaction pour pouvoir inverser la dynamique de ces particules sur commande ?

Pour aborder ce problème il faut d’abord comprendre ce que signifie l’assertion : la physique microscopique est réversible ? Cette affirmation est fondamentalement liée au principe de la dynamique que Newton a énoncé et qui dit la chose suivante : Lorsque vous avez une particule d’une certaine masse qui est soumise à une force, cette particule va se déplacer avec une vitesse qui évoluera au cours du temps et son accélération (dérivée de la vitesse par rapport au temps c’est-à-dire taux de variation de la vitesse par unité de temps) sera proportionnelle à cette force. C’est bien l’accélération de la particule qui est proportionnelle à la force et non pas sa vitesse (comme on le pense souvent à tort). Or la vitesse d’une particule est elle-même la dérivée de la position de la particule par rapport au temps, ce qui implique que c’est la dérivée seconde par rapport au temps de la position de la particule (l’accélération) qui est proportionnelle à la force : F = mγ où γ est l'accélération. C'est ce fait relativement étrange qui implique que les lois de la mécanique sont réversibles. Si, par exemple, vous observez les trajectoires de deux boules de billard qui peuvent interagir, leurs positions au cours du temps vont respecter la loi de la dynamique. Ces deux boules peuvent se cogner ou peuvent interagir à travers différentes forces. Ce que dit l'équation de la dynamique sur la réversibilité de cette expérience, c'est la chose suivante : si deux physiciens très adroits étaient capables d’arrêter, à un instant donné, ces deux boules de billards tout en mesurant exactement leur vitesse (au moment où ils les arrêtent) et si, plus tard, ils étaient capables de les renvoyer, de façon parfaitement synchrone, en leur communiquant une vitesse opposée, et bien, ces deux boules n'auront pas d'autres possibilités que de revivre pas à pas leur vie passée, c'est-à-dire de parcourir leur trajectoire initiale en sens inverse (pour un
système de particules indestructibles, refaire leur trajectoire en sens inverse c’est revivre leur vie passée !).
On imagine aisément les difficultés expérimentales qui se posent pour réaliser ce genre d’expérience avec deux boules qui s’entrechoquent (il faudrait de remarquables joueurs de billard) et on peut légitimement se poser la question de la réalisation de telles expériences sur un système encore plus compliqué formé de milliers de boules qui s'entrechoquent. Théoriquement au moins, si on pouvait arrêter, mesurer et renvoyer l’ensemble des boules en marche arrière avec les bonnes vitesses : toutes les trajectoires se déroulerons en sens inverse et les mêmes collisions auront lieu dans une chronologie inversée comme si on passait un film à l’envers. Est-il possible de réaliser de telles expériences ? Avant de réaliser l’expérience, on peut au moins la simuler dans un ordinateur qui a été programmé pour effectuer les calculs des trajectoires de chaque particule en respectant scrupuleusement la loi de la dynamique. On part, par exemple de 1 000 boules en interactions et on suit à chaque instant la position et la vitesse de chaque boule. Puis, à un instant donné, on arrête le système de particules et on inverse toutes les vitesses afin de renvoyer les boules en marche arrière. On applique toujours la loi de la dynamique et on observe le système évoluer. Et bien la déception est de taille : ça ne marche pas ; au début, les boules repartent sur leur trajectoire initiale, mais après une dizaine de collisions effectuées exactement en marche arrière, le système se met à dégénérer, et on n'arrive pas à reconstituer le passé du système. Pourquoi ?
Parce qu'un ordinateur a une précision finie, et lorsqu’on mesure la position et la vitesse de chaque particule on obtient, dans la mémoire de l’ordinateur, des chiffres représentés avec une précision finie qui dépendent du nombre de bits sur lesquels on échantillonne le signal. On se heurte alors au problème fondamental de la physique classique : le chaos déterministe. La moindre erreur dans la mesure ou dans la préparation du système de particules va s'amplifier de façon exponentielle avec le temps. Typiquement une erreur de mesure de 10-15 suffit, sur une machine travaillant avec une précision de 64 bits, pour perdre l’évolution réversible après 10 collisions. L'erreur initiale est tellement amplifiée qu’après quelques collisions les particules ne retrouvent plus leurs anciens partenaires. Cette sensibilité exponentielle aux erreurs fixe les limites d’une telle expérience. C’est le même phénomène qui interdit aussi de prévoir le climat une semaine à l’avance. Devant une telle constatation et devant le succès des théories du chaos déterministe, il semble donc que bien que la physique microscopique soit réversible, on ne pourra jamais, avec nos moyens limités, renverser le temps dans une expérience de physique. Heureusement, ce qui vient d’être dit ne concerne que le monde des particules classiques (approximation du monde quantique). Si l’on s’intéresse à l’évolution d’une onde au cours du temps la situation est beaucoup plus sympathique, et les ondes se rencontrent dans tous les domaines de la physique depuis la mécanique quantique en passant par l’électromagnétisme ou par l’acoustique.
C’est dans ce dernier domaine typiquement macroscopique que des expériences de renversement du temps peuvent être réalisées relativement facilement. Les ondes acoustiques évoluent dans des systèmes de particules où le nombre des particules est extraordinairement grand, bien plus grand que les 1 000 particules dont nos parlions tout à l’heure. Les systèmes de particules (les molécules) qui nous intéressent en acoustique peuvent être des gaz, des liquides ou des solides. À coté des mouvements d’agitation désordonnés de chaque molécule qui existent à toutes les températures (différentes du zéro absolu), il existe des mouvements coordonnés de ces particules qui sont décrits par les ondes acoustiques. Lorsqu’une personne parle, le mouvement vibratoire de ses cordes vocales se répercute sur les molécules d’air et de proche en proche se répand un mouvement vibratoire des molécules d’air autour de leur position d’équilibre. Ce qui est important, c’est que ces mouvements sont des mouvements d’ensemble où toutes les molécules bougent en phase sur des distances qui sont caractérisées par la longueur d’onde de l’onde acoustique. Sur une échelle de l’ordre de la longueur d’onde
(ou plutôt du dixième de la longueur d’onde), c’est l’ensemble des particules qui bouge de façon coordonnée et non pas chaque particule qui bouge indépendamment les unes des autres.
Pour ces mouvements collectifs, qui respectent eux aussi les lois de la dynamique, et dont l’évolution dans le temps peut être très compliquée dans le cas de la propagation acoustique dans des milieux complexes (réfraction, réflexion, diffraction), les acousticiens ont la chance unique de disposer de deux instruments très performants qui peuvent être reproduits à des milliers d’exemplaires et qui sont le microphone et le haut-parleur.
Que fait un microphone ? Lorsqu’un microphone est positionné à un endroit où les particules sont mises en mouvement par le passage des ondes acoustique, le choc de ses particules sur la membrane du microphone génère un courant électrique proportionnel à la vitesse des particules. Un microphone mesure donc localement la vitesse des particules. Que fait un haut-parleur ? Lorsqu’on envoie un courant électrique dans un haut-parleur, la membrane du haut-parleur se met en mouvement à une vitesse proportionnelle à ce courant. Elle communique alors aux molécules d’air avec laquelle elle est en contact cette vitesse. Si on savait réaliser localement les deux fonctions microphone puis haut-parleur, on disposerait alors du physicien de base idéal pour réaliser une expérience de renversement du temps. Or, nous disposons dans le domaine de la physique de petits gadgets qu'on appelle des transducteurs piézo-électriques qui remplissent parfaitement cette double fonction (ce sont des transducteurs réversibles). La piézo-électricité propriété découverte par Pierre Curie est un phénomène réversible qui se manifeste dans certains cristaux pour lesquels une contrainte appliquée engendre l’apparition d’un courant électrique, et dans lesquels réciproquement l’injection d’un courant électrique déforme le cristal.
Fort de ces dispositifs une expérience de renversement du temps peut s’envisager en acoustique en réalisant ce que nous avons appelé une cavité à renversement temporel. Les parois de cette cavité sont tapissées de transducteurs piézo-électriques reliés chacun à une mémoire électronique de grande taille.
Quelque part au sein de la cavité, un cri est émis par une source quelconque (les cris dont nous parlons peuvent être sonores ou ultrasonores, et c'est dans le domaine des ultrasons que ces dispositifs ont d’abord été réalisé, les longueurs d’onde ultrasonores qui nous intéressent sont millimétriques, alors que les longueurs d’onde sonores sont plutôt décimétriques). Ce cri va mettre en vibration les molécules du milieu situées à l’intérieur de la cavité. Si par exemple la vitesse du son est constante dans la cavité et si le cri émis part dans toutes les directions (source omnidirectionnelle) l’onde acoustique se répandra de façon parfaitement symétrique dans l’espace (on parlera d’onde sphérique). Si par contre le milieu de propagation est complexe, par exemple, rempli de nombreux obstacles et de matériaux dans lesquels la vitesse du son change, le front d’onde se déformera et l’onde ne gardera plus son caractère sphérique et on verra apparaître de nombreux échos sur les obstacles qui briseront la symétrie spatiale de l’onde émise initialement. Le son perçu par un observateur pourra être différent du cri initial, les effets de réverbération et de déformation de l’onde pourront dans certain cas le rendre incompréhensible.

Dans une expérience de renversement du temps1, on tapisse les parois de la cavité de dispositifs réversibles qui jouent alternativement le rôle de microphones et de haut-parleurs (figure 1). Chaque microphone mesure l’onde acoustique qui l’atteint et tous les signaux électriques sont enregistrés dans des mémoires électroniques rapides, identiques à celles utilisées en informatique. On mesure ainsi au cours du temps la vitesse des particules qui cognent les microphones sur toute la surface de la cavité. Une fois que l’intérieur de la cavité est devenu parfaitement silencieux, quand toute l’énergie sonore a été convertie par les microphones en électricité, on passe à la phase de renversement du temps. Il s’agit alors de
1 M.Fink “Time reversed Acoustics” Physics Today, 20, p.34-40, Mars 97.
relire l’ensemble des mémoires électroniques en verlan. Plus exactement on inverse la chronologie des signaux sonores reçus par chaque microphone. Les signaux arrivés les derniers sont relus en premiers et vice versa. Chaque microphone passe alors en mode haut- parleur et est alimenté en verlan par les mémoires électroniques. L’ensemble de ces haut- parleurs émet alors en parallèle une gigantesque onde sonore suivant une chronologie inversée, et du fait de la réversibilité des lois de la dynamique, cette onde sonore n’a pas d’autre possibilité que de revivre pas à pas toutes les étapes de sa vie passée pour reconverger finalement très précisément sur la source sous la forme du cri initial prononcé en verlan.
Figure 1
Parmi les différents dispositifs que nous avons réalisés dans notre laboratoire, une cavité à retournement temporel fonctionne dans le domaine audible. Elle est formée de 70 couples de microphones-haut parleurs qui ceinturent une pièce de grande dimension. Une personne située dans la pièce dit « bonjour » et les 70 microphones fonctionnent en mode
« retournement temporel ». Ils génèrent alors une onde acoustique qui revient alors en marche arrière vers l’interlocuteur et converge vers sa tête sous la forme d’un signal qui ressemble à
« roujnob ». Si maintenant deux personnes parlent en même temps dans la pièce et prononcent, par exemple, pour l’un « bonjour » et pour l’autre « hello », une fois l’opération de retournement temporel effectuée, chacune des personnes recevra en verlan le message qu’elle a prononcé. On peut compliquer ce petit jeu et si dés le départ chaque personne parle en verlan, alors après la phase de renversement temporel, une personne entendra bonjour et l’autre hello. On peut ainsi au moyen des nombreux haut-parleurs situés dans la pièce envoyer en même temps différents messages aux différentes personnes d’une pièce. En utilisant le concept de renversement du temps le système apprend à réaliser le jeu d’interférences sonores optimal pour focaliser chaque message au bon endroit. Il faut aussi remarquer que tous les défauts de la pièce (réverbérations et diffraction par les obstacles) sont parfaitement corrigés.
Ces expériences de renversement du temps sont étonnamment robustes et permettent de corriger la propagation acoustique dans des milieux très complexes. C’est un problème qui se pose souvent dans le domaine des ultrasons qui sont utilisés pour faire l’image du corps humain, d’un moteur d’avion ou des fonds marins. En médecine, certain patient donne des images ultrasonores floues, il s’agit en général des patients obèses ou très musclés. En effet la technique de focalisation qui est utilisée en échographie pour donner des images nettes ne marche que si la vitesse des ultrasons est constante dans le corps humain, or les couches de graisse et les muscles ont des vitesses ultrasonores sensiblement différentes de celles des autres tissus et les ultrasons ne se propagent plus en ligne droite dans de tels milieux. Comment corriger la déformation des faisceaux ultrasonores dans ces milieux sans connaître la carte exacte des vitesses ultrasonores ? Les techniques de retournement temporel permettent de résoudre ce problème. Une expérience ultrasonore réalisé par Arnaud Derode dans un milieu particulièrement complexe2 illustre ce concept. On s’intéresse ici à la propagation d’une onde ultrasonore de fréquence 3 Mhz (c’est-à-dire 3 millions d’oscillation par seconde). C’est une fréquence typiquement utilisée en médecine auquel correspond une longueur d’onde de 0,5 mm dans l’eau ou dans le corps humain. On utilise ici non pas une cavité à retournement temporel qui nécessiterait des dizaines de milliers de transducteurs, mais un petit miroir à retournement temporel formé d'un réseau de 128 transducteurs répartis sur un rectangle de 4 cm. Il est immergé dans une cuve d’eau. Entre le miroir et une source
2 A. Derode, P. Roux et M. Fink “Robust Acoustic Time reversal with high order multiple scattering” Physical Review Letters , Décembre 1995, Vol 75, 23, p 4206-4209.
acoustique de très faible dimension, on a introduit un milieu très désordonné formé de 2 000 tiges de métal qui résonnent toutes à la fréquence de 3 Mhz. C’est un milieu particulièrement épouvantable pour les ultrasons (figure 2). Dans la première phase de l’expérience la source ponctuelle émet un signal ultrasonore très bref dont la durée est de 1 microseconde, soit trois périodes ultrasonores (figure 3a). Cette onde brève se propage à travers la forêt de tiges qui la modifie complètement. Seule une faible partie de l’onde initiale se propage en ligne droite, alors que la plus grande partie de l’énergie incidente va subir de très nombreuses collisions qui vont la rendre complètement aléatoire. L’onde initiale se divise en de très nombreuses ondelettes à chaque collision avec les tiges et le processus va se répéter avec, comme résultante, un signal ultrasonore très long (300 microsecondes) qui a l’allure d’un bruit complètement aléatoire qui est observé à la sortie du milieu. Les 128 transducteurs enregistrent ces signaux dont la durée typique est de l’ordre de 300 microsecondes (figure 3 b). Après renversement du temps dans les mémoires électroniques les 128 bruits acoustiques sont réémis dans le milieu. On observe alors le signal ultrasonore qui se repropage à travers l’ensemble des tiges et on constate qu’à l’emplacement exact de la source initiale le signal ultrasonore dure maintenant 1 microseconde c’est-à-dire. qu’il a exactement retrouvé sa durée initiale (figure 3c). Par ailleurs, en explorant latéralement le champ autour du point initial, on constate que l’onde est parfaitement focalisée sur celui ci.
Figure 2 : Dans un premier temps, une impulsion ultrasonore est émise par la source A. Le signal acoustique ayant traversé la forêt de tiges métalliques est capté en B par l’ensemble des transducteurs d’un réseau linéaire de 128 éléments. Dans une deuxième étape, les 128 signaux captés sont réémis vers la forêt de tiges après inversion de la chronologie temporelle, et on peut observer au point source le signal retourné temporellement.
Figure 3a : On observe sur cette figure une portion de 80 μs du signal capté par un des éléments de la barrette de transducteurs. La durée totale du signal est de plus de 300 μs, à comparer avec la durée du pulse initial de 1 μs.
Figure 3b : On retrouve au point A un signal dont la durée est pratiquement de 1 μs après l’opération de retournement temporel.

Cette expérience de recompression temporelle et spatiale d’un signal multidiffusé illustre bien l’efficacité étonnante du renversement temporel pour les ondes acoustiques. Elle montre aussi la très faible sensibilité aux conditions initiales de l’expérience. Les signaux enregistrés et retournés dans les mémoires sont échantillonnés par des convertisseurs analogiques/digitaux d’une dynamique de 8 bits fonctionnant à 20 Mhz de fréquence d’échantillonnage. Néanmoins la quantité d’information que nous avons captée et retournée est suffisante pour assurer une bonne propagation inverse à travers les 2 000 tiges. Curieusement, un petit miroir à retournement temporel, qui pourtant ne capte le champ ultrasonore que sur une faible ouverture angulaire (comparé à une cavité à retournement temporel) permet de réaliser une expérience de renversement du temps de très bonne qualité pourvu que le milieu traversé soit très hétérogène et très diffusant. Pourtant le milieu formé d’une répartition aléatoire de tiges, s’apparente en mécanique statistique à ce qu’on appelle un gaz de Lorentz, qui est un milieu chaotique. Le comportement dynamique d’une bille qui serait envoyé dans ce gaz est typiquement chaotique. Deux boules lancées au sein de ce système de tiges sur des trajectoires voisines suivent, après un certain nombres de rebonds, des trajectoires qui s’écartent l’une de l’autre suivant une loi exponentielle. Cette sensibilité aux conditions initiales interdit la réalisation d’une expérience de renversement du temps en
mécanique alors que la propagation des ondes dans un tel milieu est bien moins chatouilleuse et beaucoup plus robuste.

Plus étrange encore, on constate dans nos expériences que plus le milieu a un comportement chaotique, moins le nombre de transducteurs, nécessaires pour réaliser une expérience de renversement du temps sur un champ ondulatoire, est grand. Nous avons même montré qu’en utilisant un unique transducteur de très petite taille et réversible, on pouvait effectuer un renversement du temps quasi parfait en entourant le milieu de propagation par des bords parfaitement réfléchissants disposés suivant des géométries très particulières qui sont celles des billards chaotiques. La théorie de ces billards chaotiques a été élaborée par plusieurs mathématiciens russes (Sinai, Bunimovitch). L’idée qui nous guidait ici était que pour pouvoir capter toute l’information sur l’onde provenant d’une source omnidirectionnelle, plutôt que de mettre des transducteurs dans toutes les directions de l’espace, il était plus astucieux d’entourer la source de murs réfléchissant capable de rediriger vers un unique transducteur toutes les composantes de l’onde (tous les rayons). Certaines géométries de billard on cette propriété qui est qualifiée chez les physiciens d’ergodicité et les billards en forme de stade sont ergodiques. Chaque trajectoire de la bille passe en attendant suffisamment longtemps aussi près que l’on veut de tous les points du billard. Pour la propagation des ondes, cette notion est plus difficile à formuler, mais nous pouvons dire, qu’en chaque point du billard, l’évolution temporelle de l’onde élastique contient toute l’information sur le champ ondulatoire et sur la source qui lui a donné naissance. C’est cette propriété qui nous permet de n’utiliser qu’un unique point de mesure et de retournement temporel pour renverser le champ ondulatoire dans toute la cavité.
Pour réaliser cette expérience3, nous produisons une onde élastique à la surface d’une plaque de silicium qui à la forme d’un disque circulaire tronqué par deux segments parallèles (c’est notre stade chaotique). Cette géométrie assure l’érgodicité du billard. En un point A du billard, la pointe d’un cône d’aluminium solidaire d’un transducteur piézo-électrique est en contact avec la plaque de silicium. Elle oscille très brièvement et engendre des ondes de surface pendant une microseconde. La longueur d’onde de ces ondes est typiquement de 2,5 mm. Une seconde pointe couplée à un capteur piézo-électrique, placée en B, enregistre les oscillations produites par le passage de l’onde. Le signal observé et enregistré en ce point a une durée très longue (figure 4). Il est en effet formé d’un premier signal direct qui arrive du point A mais qui est suivi de très nombreuses répliques provenant des réflexions multiples de l’onde entre les bords du billard. Ces signaux se superposent pour donner un champ ondulatoire d’aspect complètement aléatoire. Durant le temps caractéristique de l’enregistrement (plusieurs dizaines de millisecondes) les ondes parcourent plusieurs centaines de mètres et elles traversent le billard des centaines de fois.
Figure 4 : Schéma de l’expérience de renversement du temps à l’intérieur d’ une cavité de géométrie ergodique. Les points A et B sont situés sur une plaque de silicium dont
les bords ont une géométrie chaotique.
Du signal enregistré au point B, nous extrayons une partie (deux millisecondes) que nous renvoyons du même point, selon une chronologie inversée. On utilise alors une sonde optique pour suivre la progression de l’onde de surface renversée temporellement. On constate qu’après quelques millisecondes, l’onde revient à son pont de départ, comme si nous passions le film de la propagation initiale à l’envers (figure 5). La focalisation de l’onde autour du point A est optimale à condition que le temps durant lequel l’onde est renvoyée soit au moins égal au temps de Poincaré ou temps d’ergodisation du billard, c’est-à-dire. le temps
3 Draeger, M. Fink “One channel time-reversal of elastic waves in a chaotic 2D-silicon cavity” Physical Review Letters , 79 (3), p.407-410, Juillet 1997.
nécessaire pour que toute l’information sur le champ ondulatoire atteigne B. La tache focale obtenue autour de la source à une symétrie circulaire et son diamètre a une dimension égale à la demi longueur d’onde utilisée. Nous avons constaté que l’expérience était très robuste et que de petites perturbations n’empêchaient pas la focalisation de se réaliser.
Figure 5 : On observe autour du point A , au moyen d’un interféromètre optique, la propagation de l’onde retourné temporellement au point B. On peut constater qu’au temps t = 0 μs, elle se concentre au point source sous la forme d’une tâche de diffraction très symétrique dont la largeur est égale à la demi longueur d’onde.

La conclusion de cette expérience est pour le moins curieuse, les ondes aiment les environnements chaotiques. Elles sont beaucoup plus faciles à manipuler dans ce contexte et le contrôle d’un champ ondulatoire nécessite beaucoup moins de sources dans ces géométries. Plus le milieu est complexe, plus l’onde acoustique retrouve facilement sa source. Renversement du temps ondulatoire et chaos se marient très bien.
Si les expériences décrites précédemment illustre l’intérêt des miroirs à retournement temporel sur le plan fondamental, c’est dans le domaine de l’échographie ultrasonore, que les applications de cette technique sont les plus prometteuses. On a alors une situation différente de celles décrites précédemment, car on ne dispose généralement pas d’une source acoustique active qui envoie une onde qu’on cherche à renverser temporellement. Le problème qui peut être résolu est celui de la détection ou de l’imagerie de cibles réfléchissantes situées derrière des milieux de propagation complexes. C’est un peu comme si on essayait de voir un obstacle derrière un verre dépoli ! Les milieux de propagation dans lesquels les ultrasons se propagent sont souvent hétérogènes et les faisceaux ultrasonores sont distordus au cours de la propagation. Dans le domaine médical, par exemple, une couche de graisse d'épaisseur variable, des tissus osseux ou certaines couches de tissus musculaires peuvent fortement perturber la propagation des ultrasons et les techniques de focalisation nécessaires pour obtenir de bonnes images ne fonctionnent pas correctement. Dans un autre domaine, celui du contrôle non destructif par ultrasons des objets solides (en aéronautique et dans l’industrie nucléaire), les pièces à contrôler sont généralement immergées. La forme de l’interface entre la pièce solide et le liquide de couplage complique la propagation ultrasonore et limite actuellement le niveau de détection des petits défauts. En acoustique sous-marine, la turbulence, les phénomènes de convection, les variations de la vitesse du son en fonction de la profondeur et la réverbération acoustique entre le fond et la surface de la mer sont aussi des sources très importantes de distorsion pour les sonars.
Comment, dans ces cas, exploiter le principe du retournement temporel pour détecter et focaliser sur une cible ? Il suffit pour cela d’utiliser le réseau de transducteurs formant le miroir à retournement temporel suivant la séquence suivante. Dans un premier temps, on illumine le milieu à explorer au moyen d'une impulsion ultrasonore brève. Dans le cas où le milieu contient une cible réfléchissante, on sélectionne l’écho réfléchi par cette cible au moyen d'une fenêtre temporelle et on renverse temporellement cet écho avant de la ré-émettre. La cible réfléchissante, une fois illuminée, se comporte comme une source acoustique secondaire sur laquelle le front d'onde réémis focalisera de façon optimale même à travers un milieu de propagation hétérogène (figure 6). En présence de plusieurs cibles, on peut montrer que l’itération du procédé permet de focaliser rapidement sur la cible la plus brillante.

Figure 6 : Un élément d’un réseau de transducteurs envoie une onde ultrasonore à travers un milieu, de célérité ultrasonore hétérogène, qui déforme le faisceau (phase a). En présence d’une cible réfléchissante (à droite de la figure), une onde réfléchie revient vers le réseau de
capteurs (phase b). Enfin les signaux échographiques sont retournés temporellement et renvoyés vers la cible de façon optimale (phase c).
La première application des miroirs à retournement temporel est la destruction précise des calculs rénaux et vésiculaires dans le corps humain. Dans les techniques actuelles de lithotritie la localisation du calcul est réalisée au moyen d'un imageur échographique ou d'une unité de visualisation à rayons X. Bien que la position du calcul puisse dans le cas de l'imagerie X être connue avec précision, la focalisation des ondes ultrasonores, destinées à la destruction, à travers des tissus hétérogènes reste délicate. Autre inconvénient encore plus important, le ou les calculs bougent lors de la respiration et sur des distances qui peuvent atteindre plusieurs centimètres. Or la destruction d'un calcul requiert plusieurs milliers de tirs focalisés sur une zone de quelques mm2 et il n'est pas possible actuellement de faire suivre mécaniquement à la sonde d'émission focalisée tous ces mouvements. On considère que dans les dispositifs piézo-électriques actuels plus de 70 % des tirs ultrasonores ratent le calcul. Le miroir à retournement temporel permet de résoudre ces problèmes. Pour repérer un calcul rénal dans son environnement (autres calculs et parois des organes), on illumine d'abord la zone à explorer. Les signaux réfléchis sont captés et retournés temporellement. Après plusieurs itérations du processus, le faisceau ultrasonore converge vers la zone la plus réfléchissante d'un des calculs. On peut alors, amplifier très fortement les derniers signaux de l'itération afin de détruire la lithiase. Nous avons réalisé et testé, avec l’aide de l’ANVAR un tel dispositif et une version compacte de cet appareil est en développement.
Un autre domaine d'applications des miroirs est celui du contrôle non destructif des matériaux, domaine dans lequel on cherche à détecter et à localiser la présence de petits défauts dans des matériaux solides4. Ce problème est particulièrement difficile à résoudre pour des matériaux hétérogènes et pour des pièces de forme géométrique complexe. La pièce à contrôler est généralement immergée dans une piscine dans laquelle un ensemble de transducteurs ultrasonores, fonctionnant en mode échographique, se déplace tout en émettant des faisceaux ultrasonores destinés à balayer et à pénétrer dans la zone d'intérêt. Ces faisceaux sont distordus au passage de l'interface entre l'eau et le matériau solide suivant les lois de la réfraction. L'utilisation d'un miroir à retournement temporel se révèle être une solution particulièrement élégante pour améliorer les performances de détection. Dans le cadre d’une importante collaboration avec la SNECMA, un miroir à retournement temporel formé de 128 voies fonctionnant en temps réel a été réalisé et testé dans notre laboratoire. En utilisant des techniques de retournement temporel itératives, nous avons pu montrer avec François Wu que l’on pouvait détecter des défauts de 0,4 mm à plus de 150 mm de profondeur dans les alliages de titane. C’est une performance bien meilleure que celle obtenue par les autres méthodes ultrasonores de CND. La possibilité de réaliser un véritable autofocus ultrasonore ouvre des perspectives très prometteuses dans le domaine du contrôle des matériaux. Une autre application médicale très prometteuse du retournement temporel est la thérapie du cerveau par hyperthermie ultrasonore. Il s’agit de focaliser des ultrasons à travers la boite crânienne en corrigeant les aberrations de la propagation par des techniques dérivées du retournement temporel. La technique que nous avons dernièrement développée avec M. Tanter et J.L Thomas, permet de compenser les effets de dissipation qui existent dans le crâne et qui brisent l’invariance par renversement du temps. Elle repose sur l’utilisation de techniques de retournement temporel couplées à la correction des effets de dissipation qui existent dans le crâne et qui brisent l’invariance par renversement du temps. Cette technique permet de compenser avec une grande précision les effets de réfraction, d’absorption et de réverbération de la boite crânienne. Un prototype complet formé de près de 200 transducteurs
4 M. Fink “Ultrasound puts materials to the test” Physics World, p.41-45, Février 1998.
de puissance est en cours de réalisation. La technique de focalisation ultrasonore que nous avons mise au point est très efficace, et son utilisation en imagerie ultrasonore du cerveau est aussi possible.
D'autres applications des miroirs à retournement temporel sont en test en détection et en télécommunications sous-marines. Une équipe de l’Université de San Diego (dirigée par le Prof. Kuperman) et l’OTAN ont testé en mer de très grandes antennes à retournement temporel (100m ) qui ont permis de focaliser des ondes acoustiques à des distances de 15 km sur des zones de l’ordre du mètre5. C’est la réverbération des ondes acoustiques entre le fond de la mer et la surface qui est exploitée pour obtenir des taches focales très fines. Le pilotage des petits robots téléguidés par retournement temporel acoustique permet d’atteindre des grands débits d’information et l’information n’est envoyé qu’au bon véhicule. De nombreuses applications sous-marines sont en test par plusieurs laboratoires au USA (SCRIPPS, University of Washington et M.I.T), aussi bien dans le domaine des télécommunications croisées et cryptées entre toute une flotte de navires de surface, de sous-marins et de robots sous-marins, que dans la mise au point de barrières acoustiques à retournement temporel, qui dans des chenaux sous-marins très réverbérants permettent de repérer le passage d’une cible de faible dimension (plongeur).
Enfin les techniques de retournement temporel des ondes peuvent aussi s’appliquer à d’autres types d’onde que les ondes acoustiques. En télécommunication par voie Hertzienne vers les téléphones mobiles, ou on utilise des ondes électromagnétiques à des fréquences de quelques GHz, la réverbération des ondes électromagnétique entre les structures d’une ville, limite fortement le débit d’information qui peut être envoyé entre l’antenne émettrice et les téléphones cellulaires. Les techniques de retournement temporel, en exploitant la réverbération en milieu urbain, comme dans le cas des expériences qui ont été faites dans des billards chaotiques, vont permettre de focaliser les messages de façon très précise sur chaque récepteur et le débit d’information pourra alors être augmenté d’une façon très importante. Cette technologie est plus difficile à mettre en œuvre qu’en acoustique du fait des fréquences utilisées qui sont 1000 fois supérieures à celles des ultrasons, mais les progrès de l’électronique rapide permettent maintenant de réaliser des miroirs électromagnétiques à retournement temporel.
Du chaos quantique, à la télécommunication à haut débit en ville, en passant par la thérapie, l’imagerie médicale, le contrôle non-destructif et l’acoustique sous-marine, l’invariance par renversement du temps des équations de la physique peut jouer un rôle important6. Contrairement, à l’intuition, la nature chaotique de la propagation dans la plupart des environnements réverbérants n’est pas une limite au contrôle des champs ondulatoires ; elle devient un énorme avantage lorsqu’on exploite astucieusement les symétries de la physique et les progrès vertigineux de l’électronique rendent désormais très accessibles la construction de miroirs à retournement temporel.
5 W.A. Kupperman, W.S. Hodgkiss, Hee C. Song, T. Akal, C. Ferla et D. Jackson “Phase conjugation in the ocean: Experimental demonstration of an acoustic time reversal mirror” J .Acoust. Soc. Am, 103, 25-40
(1998).
6 M. Fink, D. Cassereau A. Derode, C. Prada, P. Roux, M. Tanter, J-L Thomas et F. Wu « Time-
reversed acoustics » Reports on Progress in Physics, Topical review, 63, 12 p 1933-1995, Dec 2000.
transducteurs
p(r,t)
(a)
Source acoustique
p(r,-t)
(b)
FIG. 1
(A)
(A)
x axis
(B)
(étape 1)
(étape 2)
Fig. 2 : Dans un premier temps, une impulsion ultrasonore est émise par la source A. Le signal acoustique ayant traversé la forêt de tiges métalliques est capté en B par l’ensemble des transducteurs d’un réseau linéaire de 128 éléments.
Dans une deuxième étape, les 128 signaux captés sont réémis vers la forêt de tiges après inversion de la chronologie temporelle, et on peut observer au point source le signal retourné temporellement .
(B)
80 μs
240 248 256 264 272 280 288 296 304 312 temps (μs)
Fig 3a - On observe sur cette figure une portion de 80 μs du signal capté par un des éléments de la barrette de transducteurs. La durée totale du signal est de plus de 300 μs, à comparer avec la durée du pulse initial de 1 μs.
297 301 305 309 313 317 321 325 329 333 337 341 345 temps (μs)
Fig 3b - On retrouve au point A un signal dont la durée est pratiquement de 1 μs après l’opération de retournement temporel.

Figure 4 : Schéma de l’expérience de renversement du temps à l’intérieur d’ une cavité de géométrie ergodique. Les points A et B sont situés sur une plaque de silicium dont les bords ont une géométrie chaotique.

 

  VIDEO       CANAL  U         LIEN

 

  VIDEO       CANAL  U         LIEN  ( vidéo )
 

 
 
 
initiation musicale toulon   LES ÉTATS DE LA MATIÈRE
  initiation musicale



 

 

 

 

 

état
(latin status, de stare, se tenir)

Consulter aussi dans le dictionnaire : état
Cet article fait partie du dossier consacré à la matière.
Nature sous laquelle se présente un corps.

PHYSIQUE
Introduction

La matière est le premier concept physique, le plus concret, et apparemment le plus simple. Pourtant, au-delà de cette apparence, les hommes se sont toujours interrogés sur la nature de la matière, et les théories les plus évoluées n'ont fait que renforcer son caractère étrange.
Parmi les descriptions de la matière, la théorie quantique est, dans l'état actuel des connaissances, l'outil le plus rigoureux pour décrire les propriétés physiques et chimiques de la matière. Elle bouleverse cependant les images intuitives à travers lesquelles nous percevons la matière. Il n'est heureusement pas nécessaire de réconcilier l'intuition avec la théorie quantique pour parvenir à décrire les différents états de la matière.


En effet, si le formalisme quantique est indispensable pour rendre compte de la structure interne des atomes, une description très simple des atomes suffit en général pour représenter les états de la matière. Ces derniers sont déterminés par deux types de propriétés : la nature des états de liaison entre les atomes constituant le matériau considéré, et le type et le degré d'organisation spatiale et temporelle des atomes entre eux.

De la notion au concept
Historiquement, les Grecs furent les premiers à tenter une classification de la multitude des objets matériels qui se présentaient à eux. Ils fondèrent cette classification sur les états dans lesquels apparaît la matière (solide, liquide, gazeux) et sur certaines de ses propriétés. Pour Aristote, il existait quatre éléments essentiels : la terre, l'eau, l'air et le feu. Les Grecs se sont interrogés également sur la nature de la matière. Est-elle indéfiniment sécable en parties qui conservent les mêmes propriétés ? Ou bien est-elle constituée de petits grains insécables, littéralement des « atomes » ? DémocriteDémocrite d'Abdère défendra, quatre siècles avant notre ère, l'image d'une matière constituée d'atomes en mouvement : selon lui, la diversité des états et des formes de la matière est simplement due à la multiplicité des combinaisons possibles de position et de mouvement de ces atomes, particules matérielles immuables et indivisibles. Cette image mécaniste du monde – selon laquelle la matière a des propriétés essentiellement géométriques et mécaniques – marquera en profondeur les sciences physiques aux xixe et xxe s.
Aristote avait proposé une autre description de la matière, dans laquelle priment les formes qui lui sont conférées… par la nature, par Dieu, ou par l'homme : une table est, par exemple, de la matière bois, sculptée ; si l'on s'intéresse au bois, il est constitué de matière cellulaire agencée sous forme de fibres agrégées, plus ou moins desséchées, etc. La notion de matière recule ainsi à l'infini, tel un ultime noyau caché à l'intérieur de formes qui s'emboîteraient indéfiniment les unes dans les autres, comme des poupées russes.

La genèse de la classification périodique
L'influence de la conception aristotélicienne de la matière va perdurer pendant deux millénaires. Cependant, les alchimistes essaieront de découvrir la matière fondamentale, celle qui serait à l'origine de tout : ils réalisent ainsi les premiers essais d'analyse et de synthèse, et certaines propriétés chimiques et physiques de différents corps sont découvertes et classées.
Les savants du xviie et du xviiie s. reprennent cet héritage, en introduisant de nouvelles méthodes de travail ; ils entreprennent une étude systématique des propriétés chimiques des différents corps, qui conduit à la notion d'élément chimique.
Antoine Laurent de Lavoisier, par exemple, montre que l'eau est composée de deux éléments, l'hydrogène et l'oxygène, impossibles à obtenir eux-mêmes par une combinaison d'autres éléments : ce sont des éléments de base. Quelques dizaines d'éléments sont ainsi identifiés, dont les propriétés chimiques peuvent être classées par référence à leur affinité pour l'oxygène : éléments oxydables, éléments oxydants.
Dimitri Ivanovitch Mendeleïev propose, en 1869, une classification systématique des éléments qui repose sur une périodicité approximative de l'affinité de certains éléments pour l'oxygène en fonction de leur masse. Le succès de cette classification est immense, car elle prévoit l'existence d'éléments, alors inconnus, de masse déterminée et devant présenter un type précis de propriétés chimiques ; ces éléments sont découverts quelques années plus tard, avec les propriétés prévues par cette classification ! Le tableau de Mendeleïev est ensuite interprété comme le reflet de la structure électronique de chaque élément : passer d'un élément à l'élément suivant signifie ajouter un électron à l'atome.

La description quantique
En 1897, sir Joseph John Thomson découvre l'électron, et Ernest Rutherford démontre en 1907 qu'un atome est constitué d'un noyau qui contient deux types de particules, les neutrons – sans charge électrique – et les protons – porteurs d'une charge opposée à celle de l'électron. Ensuite, les travaux d'Einstein sur l'émission photoélectrique et ceux de Max Planck sur le rayonnement du corps noir mettent en évidence les propriétés quantiques, c'est-à-dire particulaires, de la lumière. C'est une première grande brèche dans la physique classique, qui repose notamment sur l'image ondulatoire de la lumière, description bien assise grâce au formalisme des équations de James Clerk Maxwell.
Les physiciens découvrent que la lumière peut se comporter, suivant la situation expérimentale, soit comme une onde, soit comme un ensemble de particules. En 1927, Clinton J. Davisson et Lester H. Germer démontrent expérimentalement l'existence d'interférences dans un faisceau d'électrons réfléchi par un cristal de nickel : le comportement ondulatoire des électrons est établi sans ambiguïté, la matière – comme la lumière – se révèle tantôt particulaire, tantôt ondulatoire, suivant la situation expérimentale. Depuis, des progrès considérables ont été effectués dans la compréhension de la structure de la matière à l'échelle infra-atomique, par exemple par l'introduction des quarks, particules fondamentales constitutives du proton et du neutron. Cependant, la description des propriétés « courantes » de la matière (mécaniques, optiques, électriques…) repose sur les propriétés du cortège électronique de l'atome, elles-mêmes établies par la théorie quantique au cours du premier quart du xxe s.
La thermodynamique : « deus ex machina »
Parallèlement à ce travail sur les propriétés chimiques des éléments débutent, au cours du xixe s., des études approfondies sur les états de la matière. L'état gazeux est particulièrement bien compris, car il est le plus simple ; il devient le fondement de la science thermodynamique, qui décrit les échanges énergétiques au sein de la matière. Les travaux de Sadi Carnot, puis ceux de Ludwig Boltzmann posent les bases théoriques de la thermodynamique, et permettent ainsi de décrire les changements d'état de la matière. Au xxe s., les contributions des physiciens Lev D. Landau, Ilya Prigogine et Kenneth Wilson affinent considérablement la description des changements d'état de la matière, nommés également transitions de phase. La vision d'Aristote d'une matière informe sculptée par la nature est ainsi relayée par le deuxième principe de la thermodynamique. Selon les physiciens, le premier des mécanismes qui sculptent la matière est la tendance de l'Univers à augmenter son désordre : son entropie.

Les outils de description
La théorie quantique est le premier outil de description de la matière ; très puissant, cet outil exige cependant l'utilisation d'un formalisme pesant. Il permet un calcul rigoureux des états fondamentaux, c'est-à-dire des états au repos de systèmes microscopiques – ne comportant que quelques atomes, voire quelques dizaines d'atomes –, mais au prix d'un travail laborieux sur des ordinateurs puissants. Une telle description est rapidement impraticable si l'on s'intéresse à l'évolution de ces systèmes dans le temps et dans l'espace sous l'effet d'un apport d'énergie lumineuse, électrique, mécanique, magnétique ou chimique. Il est actuellement impensable d'effectuer le calcul rigoureux de l'état de systèmes contenant une quantité d'atomes de l'ordre du nombre d'Avogadro, c'est-à-dire de taille macroscopique, de l'ordre du centimètre cube, à partir de la théorie quantique. Fort heureusement, les résultats décisifs peuvent le plus souvent être caractérisés principalement par quelques types de liaisons interatomiques : il est alors possible d'appliquer une description classique à l'ensemble des atomes, reliés entre eux par des « liaisons » que caractérisent quelques propriétés simples.

Les différents types de liaisons chimiques
Deux atomes qui s’attirent peuvent former une liaison chimique : ils gagnent, à être proches l'un de l'autre, une quantité d'énergie potentielle. On distingue ainsi les liaisons fortes, dont l'énergie associée est de l'ordre de 1 eV ou supérieure. Dans ce cas, la paire d'atomes en interaction fait apparaître des états électroniques complètement nouveaux pour les électrons ; ainsi, dans les liaisons ioniques, un ou plusieurs électrons d'un atome sont cédés à l'autre atome. Ce type de liaison se rencontre, par exemple, dans des sels tels que le chlorure de sodium (NaCl). Un autre type de liaison forte caractéristique est la liaison covalente, dans laquelle des électrons isolés de chacun des atomes s'associent pour former des paires d'électrons fortement liées. Les liaisons covalentes, contrairement aux liaisons ioniques, sont en général anisotropes, c'est-à-dire qu'elles tendent à s'orienter dans des directions particulières de l'espace.
Par opposition, les liaisons d'énergie inférieure ou de l'ordre de 0,1 eV sont nommées liaisons faibles. Les états électroniques des atomes isolés sont peu modifiés par l'interaction. C'est le cas des forces d'attraction dites de Van der Waals, que l'on rencontre dans le processus d'adhérence des molécules en longues chaînes, les polymères, utilisés par exemple pour les rubans adhésifs.

L'organisation spatiale d'un grand nombre d'atomes : ordre et désordre
La taille du nombre d'Avogadro étant considérable, la matière semble continue à notre échelle : le déplacement d'un seul atome n'est pas perceptible. Mais elle peut prendre des formes et des textures très diverses, suivant son état ; elle peut aussi présenter des orientations préférentielles, parallèlement à une direction ou à une surface. Ces états sont généralement caractérisés par une (ou des) longueur(s) associée(s) à des propriétés bien précises.
L'utilisation des méthodes statistiques (emploi de la mécanique statistique, ou physique statistique), lorsqu'une multitude d'atomes sont mis en jeu dans une quantité macroscopique de matière, permet d'obtenir des résultats remarquables.
Cette approche de l'organisation spatiale des atomes rejoint les résultats de la thermodynamique, fondée sur les deux principes suivants : selon le premier, l'énergie de l'Univers peut changer de forme à condition de se conserver globalement ; selon le second, le désordre doit être maximal dans un système physique isolé. La thermodynamique est, en quelque sorte, une économie de l'énergie dans les systèmes physiques. Elle permet en principe de déterminer quels sont les états d'équilibre d'un système en postulant que le désordre de l'Univers entier (considéré comme un système isolé) est maximal : une quantité de matière isolée du reste de l'Univers tend ainsi vers un maximum d'entropie. Si l'on tient compte des échanges d'énergie, d'espace ou de matière avec le reste de l'Univers, la conséquence des principes de la thermodynamique est alors, en général, que le système étudié s'ordonne à basse température, et qu'il adopte un état désordonné à haute température. Ces transitions ordre/désordre apparaissent dans des systèmes physiques très variés.

L'organisation temporelle et les propriétés de transport
Les mouvements des atomes au sein de la matière peuvent être complètement désordonnés au niveau microscopique et ne correspondre à aucun mouvement à notre échelle. C'est le cas des mouvements des atomes ou des molécules dans un gaz ou dans un liquide, c'est aussi le cas des vibrations des atomes dans un solide, qui sont ordonnées à courte distance mais en général désordonnées à l'échelle macroscopique. La facilité, ou la difficulté, à faire circuler un courant électrique ou un flux de matière dépend fortement des caractéristiques de l'état dans lequel se trouve la matière. Le diamant et le graphite sont, par exemple, deux formes cristallines du carbone pur : le diamant est un très bon isolant électrique, tandis que le graphite est conducteur.

Les états structurés à courte distance
La notion d'ordre est le fil directeur de cette exploration des états de la matière. Certains états ne présentent cependant pas d'organisation régulière au-delà de l'échelle microscopique. Ce sont les états gazeux et liquide, que l'on regroupe sous le nom d'état fluide. C'est aussi le cas des solides désordonnés, dits solides amorphes. Enfin, dans l'état de plasma, où la température dépasse le million de degrés, la matière présente un comportement fort complexe.

Les fluides
Une propriété macroscopique simple caractérise l'état fluide : un fluide s'écoule et se déforme sous l'effet de forces très faibles. De façon plus précise, on dit que les fluides ne présentent pas de résistance au cisaillement.
À l'échelle microscopique, les fluides – à l'exception des cristaux liquides – ne sont pas organisés sur de grandes distances. L'agitation des atomes entraîne un brassage permanent de leurs positions. Deux états fluides qui nous sont familiers, le gaz et le liquide, se distinguent par des propriétés différentes : les gaz sont mille fois moins denses que les liquides, et sont compressibles alors que les liquides le sont très peu.
À l'échelle atomique, la différence est également remarquable. Les molécules d'un gaz ont peu d'interactions sur la plus grande partie de leur trajectoire (99,9 %), elles sont isolées dans le vide, et les collisions n'affectent que 0,1 % de celles-ci. Le désordre, c'est-à-dire l'entropie, associé à leur position est important. Les molécules d'un liquide sont, au contraire, en interaction permanente avec leurs voisines, et bénéficient ainsi de l'abaissement de leur énergie potentielle dû à l'attraction mutuelle. L'entropie associée au désordre de leur position est cependant plus faible que dans un gaz ; mais, à la température d'ébullition, les états gazeux et liquide d'un même corps coexistent en équilibre. Dans un gaz, l'énergie cinétique des molécules est élevée, et l'entropie (Sg) est également plus élevée que celle du liquide (Sl), car le désordre des positions y est plus grand. Dans un liquide, l'énergie totale des molécules est plus faible que dans un gaz, et ce en raison de l'énergie d'attraction gagnée et cédée au reste de l'Univers ; cette énergie cédée au reste de l'Univers en augmente l'entropie. L'état gazeux et l'état liquide contribuent donc tous deux à augmenter l'entropie de l'Univers. Dans les conditions de l'ébullition, le produit du gain d'entropie ΔS = Sg – Sl associé au désordre des positions atomiques par la température absolue T est juste équilibré par l'énergie potentielle liée à l'attraction mutuelle de ses molécules au sein du liquide. Ce produit L = T . ΔS est la chaleur latente qu'il faut fournir au liquide pour le vaporiser.

Au point critique, la matière hésite
L'un des résultats de la physique classique est que ΔS doit être supérieur à la constante de Boltzmann (k) pour que l'état gazeux et l'état liquide soient clairement différents. Pour un corps donné, il n'existe plus de frontière nette entre l'état liquide et l'état gazeux au-delà d'une température dite critique, telle que ΔS est de l'ordre de k. L'état du fluide hypercritique, lorsque ΔS est inférieur à k, est toujours homogène quelles que soient la pression et la densité : il n'y a plus ni gaz ni liquide mais un seul fluide qui n'est ni l'un ni l'autre.
Au point critique, c'est-à-dire au voisinage de la température critique et de la pression critique, les propriétés du fluide sont particulièrement intéressantes. En effet, le gain entropique dans le gaz équilibre exactement le gain d'énergie potentielle dans le liquide, comme au point d'ébullition, mais au point critique ces quantités sont également du même ordre que l'énergie caractéristique kT reçue de l'agitation thermique. Il en résulte un comportement d'« hésitation » de la matière entre l'état liquide et l'état gazeux, qui se traduit par l'apparition de régions très étendues de type liquide alternées avec des régions de type gaz. Ces régions, nommées fluctuations critiques, peuvent s'étendre sur plusieurs microns et produisent le phénomène bien visible et spectaculaire d'opalescence critique.
La notion de fluide est toute relative : à une échelle ou à une autre, la matière est toujours susceptible de s'écouler. Ainsi, à l'échelle de la Terre et des temps géologiques, une partie du manteau terrestre (l'asthénosphère), située entre 70 et 100 km de profondeur, se comporte comme un fluide. Ce niveau « plastique » permet à la croûte terrestre et à la partie du manteau située au-dessous (cet ensemble constitue la lithosphère), dont le comportement est plus rigide, de se déplacer par l'intermédiaire de plaques. La dérive des continents, qui renouvelle complètement la géographie continentale tous les 200 millions d'années, n'est ainsi que le fait de courants de convection dans le manteau terrestre.

Le gaz parfait, état de référence
L'état gazeux occupe une place particulière parmi les différents états de la matière en raison des faibles interactions de ses molécules. Les physiciens ont élaboré un modèle simplifié qui sert de référence, le gaz parfait. Ce modèle est très efficace, bien qu'il soit intrinsèquement contradictoire! Il suppose en effet que les atomes du gaz parfait présentent simultanément deux propriétés :
– ils n'interagissent pratiquement pas, au sens où leurs interactions représentent une énergie négligeable par rapport à leur énergie cinétique ;
– ils interagissent fortement, au sens où l'on peut considérer le gaz comme étant au point d'équilibre à chaque instant.
Moyennant cette « pirouette conceptuelle », ce modèle constitue la base de la description thermodynamique de tous les états de la matière où l'énergie associée aux interactions est faible. Dans de nombreuses situations – celles des gaz réels et des solutions diluées –, la matière se comporte presque comme le prévoit le modèle du gaz parfait.
Longueurs caractéristiques dans les fluides
Dans un assemblage désordonné d'atomes de diamètre a, deux distances caractéristiques sont importantes.
Tout d'abord la distance moyenne d entre les atomes. Il est relativement facile de la relier au nombre n de molécules par unité de volume en exprimant que chaque atome occupe en moyenne un volume d3. Une unité de volume est donc remplie par n petits volumes d3, soit n   d3 = 1. La distance moyenne d varie ainsi comme la racine cubique de l'inverse de n.
Une seconde longueur, L, nommée libre parcours moyen, est la distance moyenne que parcourt un atome sans entrer en collision avec un autre atome. On schématise une collision par le fait que la distance entre les centres de deux atomes devient égale ou inférieure à 2a. Une telle collision se produit si, durant le mouvement d'un atome le long d'une direction, le centre d'un autre atome se trouve à l'intérieur du cylindre de rayon 2a axé selon cette direction. Dans un cylindre de longueur L, un seul centre d'atome est présent en moyenne. Le volume du cylindre est donc le volume moyen occupé par un atome : π (2a)2 . L = 1/n. La longueur L est donc inversement proportionnelle au nombre n d'atomes par unité de volume.
Dans un liquide, les atomes sont au contact les uns des autres dans un assemblage mouvant mais compact. Les trois longueurs a, d et L sont du même ordre, c'est-à-dire comprises entre 0,1 et 1 nm.
Dans un gaz à la pression atmosphérique, la masse volumique typique est de 1 kg/m3, soit mille fois moins que celle des liquides. Dans un liquide, le nombre d'atomes par centimètre cube est de l'ordre de 1022, tandis que dans un gaz il est de l'ordre de 10−9. La distance moyenne d entre deux atomes dans le gaz est typiquement de 3 nm, alors que le libre parcours moyen L est cent fois plus grand, soit environ 0,3 μm.

Les solides désordonnés à l'échelle atomique
Lorsqu'un fluide est suffisamment refroidi, il se condense sous forme solide. On connaît une seule exception à cette règle, l'hélium : il reste liquide même à très basse température. Suivant la vitesse de refroidissement, les atomes et molécules du liquide ont ou n'ont pas le temps de s'organiser au moment de la solidification. Si l'on opère très rapidement, le solide peut conserver un état désordonné, dit état amorphe, qui ressemble à un liquide figé. Cependant, certains mélanges d'atomes ne cristallisent pas, même s'ils sont refroidis lentement ; ils forment alors des verres, après être passés par un état pâteux lors du refroidissement. L'étude expérimentale et théorique des solides désordonnés est plus délicate que celle des solides cristallins. Le désordre apparent de ces structures cache en général une organisation plus fine et plus difficile à évaluer, qui entraîne des propriétés subtiles. Dans certaines régions volcaniques, on trouve des verres naturels (l'obsidienne), dont la formation est due à la trempe rapide d'un magma riche en silice arrivant en surface.
Un solide dans l'état amorphe présente des propriétés particulières, souvent bien différentes de celles du solide cristallin correspondant. La tenue mécanique d'un matériau amorphe est en général meilleure que celle des cristaux, et la conductivité électrique est bien différente. Ainsi, les propriétés supraconductrices du molybdène amorphe sont bien meilleures que celles du molybdène cristallin, ce qui signifie que le désordre dans la position des noyaux atomiques favorise, paradoxalement, l'apparition de l'ordre électronique lié à l'état supraconducteur. C'est un effet indirect de la suppression de l'ordre magnétique existant dans le molybdène cristallin, qui disparaît au profit de l'ordre supraconducteur dans le molybdène amorphe : l'état magnétique est plus stable que l'état supraconducteur, mais il est moins robuste face au désordre cristallin.
Une autre différence importante entre les solides cristallisés et les solides amorphes est la faible sensibilité de ces derniers aux impuretés et aux défauts. Le silicium utilisé pour réaliser les circuits électroniques des ordinateurs, par exemple, contient des impuretés volontairement ajoutées au cristal pour ajuster sa conductivité électrique : 1 atome de bore pour 100 millions d'atomes de silicium suffit à régler la conductivité du canal du transistor. En revanche, dans le silicium amorphe, il faut une proportion relativement importante d'impuretés pour modifier sensiblement la conductivité électrique. Cette propriété caractéristique des verres est exploitée lorsque l'on souhaite réaliser des composants électroniques d'une grande robustesse pouvant résister à un rayonnement ionisant.

Un état complexe : le plasma
Un plasma est un gaz d'atomes ou de molécules partiellement ou totalement ionisés. Des plasmas se produisent dans les étincelles ou dans les éclairs d'orage ; ils sont aussi la source de lumière dans les tubes au néon. En général, ils sont composés d'un mélange d'ions positifs et d'électrons, mais il existe aussi des plasmas d'ions négatifs. Les plasmas occupent une place d'exception dans les états de la matière : ils sont éloignés de l'équilibre thermodynamique, gardent longtemps la trace de leur états successifs et présentent des évolutions difficilement prévisibles. Leur comportement irrégulier et instable s'explique par les fortes interactions à longue distance des particules chargées.
Ce sont par ailleurs des états où la température de la matière peut dépasser plusieurs millions de degrés. Lorsque cette température est de l'ordre de 100 millions de degrés, l'état de plasma est sur le chemin de la fusion nucléaire. En effet, l'énergie cinétique des ions est suffisante pour que les noyaux interagissent fortement durant les collisions et induisent des réactions nucléaires, de fission ou de fusion. Si les gaz du plasma sont des atomes légers, il peut résulter de ces réactions que les noyaux produits par la fusion développent une grande énergie cinétique : ceux-ci peuvent alors échauffer le plasma, renforcer les réactions de fusion, et ainsi de suite. La réaction est alors divergente et peut produire une explosion : c'est le principe de la bombe H (à fusion d'hydrogène). Si cette réaction est contrôlée, la fusion nucléaire peut devenir une source d'énergie exploitable à grande échelle. Pour contrôler la production d'énergie, il faut connaître le comportement des plasmas à haute température et à forte densité. L'exploration de cet état de la matière depuis plus d’un demi-siècle a révélé une grande variété d'instabilités dans les plasmas à mesure que leur température augmente.
Il faut signaler l'étude récente des microplasmas constitués de quelques centaines à quelques milliers d'ions confinés par un champ électromagnétique. La température de tels plasmas peut être abaissée au voisinage du zéro absolu. Ces plasmas se comportent comme des solides ou comme des liquides, alors que la distance entre les ions est de plusieurs dizaines de microns, soit 100 000 fois plus que dans les solides ou liquides ordinaires. À la différence des plasmas, les microplasmas n'ont pour l'instant aucune autre application que l'étude de la matière.

Les états ordonnés à grande distance
Un solide est le plus souvent cristallisé, c'est-à-dire que ses atomes sont parfaitement rangés sur de grandes distances. Il n'y a pas de frontière nette entre ordre dit à courte distance et ordre dit à grande distance : l'un s'arrête à quelques distances atomiques, tandis que l'autre peut se propager sur des millions de distances atomiques. Selon la thermodynamique, le désordre tend à augmenter, et il semble étonnant que la matière s'ordonne spontanément dans certains cas. En fait, l'ordre, qui permet de diminuer l'énergie potentielle de la matière, s'installe à basse température, là où les bénéfices thermodynamiques de l'augmentation de l'entropie sont plus faibles. Les innombrables situations physiques où la matière s'ordonne sont définies par la géométrie de l'espace occupé par la matière et par le nombre de degrés de liberté de la quantité physique qui s'ordonne. Il est ainsi possible d'appliquer la même description, dite universelle, à des situations physiques aussi différentes que les aimants, les mélanges liquide-vapeur, les supraconducteurs ou les étoiles à neutrons.

Le magnétisme, un modèle pour la matière organisée
Les aimants, ou matériaux ferromagnétiques, perdent leur aimantation lorsqu'ils sont portés à une température supérieure à la température de Curie. Cette propriété, connue depuis la Renaissance, a été étudiée en détail par Pierre Curie dans sa thèse, en 1895. Dans la première moitié du xxe s., des physiciens comme Paul Langevin, Heike Kamerlingh Onnes, Pierre Weiss, Paul Ehrenfest, Louis Néel, Ernest Ising, Lars Onsager ou encore Lev Landau ont décrit les propriétés magnétiques de la matière afin de les relier à sa structure microscopique. Il s'agissait de décrire la façon dont l'aimantation varie en fonction de la température et du champ magnétique extérieur. L'étude de ces situations a débouché sur une description beaucoup plus générale des états ordonnés de la matière.

L'ordre spatial d'un ensemble d'objets microscopiques en interaction, selon Ernest Ising
Ernest Ising propose, en 1920, un modèle simple pour décrire les mécanismes microscopiques de l'aimantation d'un solide. Selon ce modèle, l'aimantation du solide est la somme vectorielle des aimantations locales dues aux spins des électrons. Les atomes constituant le solide sont situés aux nœuds d'un réseau cristallin de dimension d : sur une ligne d = 1, dans un plan d = 2, dans l'espace d = 3. Sur chacun des sites du réseau cristallin se trouve un spin qui se comporte comme un petit aimant, ou moment magnétique. Le calcul de l'aimantation est effectué dans le cadre de deux hypothèses.
Selon la première, les moments magnétiques sont tous identiques en module et s'orientent dans des directions cristallines privilégiées. Ising suppose que les moments magnétiques sont tous parallèles à une direction et que seul leur signe les différencie d'un site à l'autre, mais on peut aussi étudier les situations où les moments magnétiques ont des composantes dans deux ou trois directions. L'aimantation ou, plus généralement, une grandeur physique nommée paramètre d'ordre, qui permet de mesurer l'ordre, présente un nombre n de composantes (n = 1, 2 ou 3).
Selon la seconde hypothèse par le calcul de l'aimantation, deux moments magnétiques Si et Sj situés sur des sites voisins présentent une énergie d'interaction proportionnelle à leur produit Si . Sj. Il faut ensuite appliquer les principes de la thermodynamique pour calculer l'état d'équilibre d'un tel système en fonction de la température et du champ magnétique. On s'attend à ce que le diagramme de phase magnétique de ce système présente des propriétés universelles dépendant essentiellement des valeurs de d et de n. On peut ainsi associer à chaque système physique une « classe d'universalité » (d, n).

L’évolution du modèle d’Ising
Le modèle d’Ising, bien qu'il corresponde à une très grande simplification de la situation physique réelle, se révèle ardu à résoudre ; des solutions rigoureuses ne sont obtenues que dans des cas très simples. C'est ainsi que Lev Landau établit qu'il ne peut apparaître un ordre à grande distance sur un réseau à une seule dimension (d = 1). Lars Onsager calcule en 1944 l'aimantation du modèle d'Ising dans un plan (d = 2 et n = 1) au moyen d'une méthode mathématique complexe ; mais une approche générale n'est proposée qu'en 1972, par Kenneth Wilson, qui obtient le prix Nobel de physique en 1982 pour son travail sur la méthode dite du « groupe de renormalisation ». Il montre que le comportement de l'ordre est le même dans des systèmes aussi différents que les matériaux magnétiques, les mélanges liquide-gaz ou les cristaux liquides. C'est une confirmation remarquable de la justesse de l'approche proposée par Ising : les objets microscopiques peuvent être décrits de façon rudimentaire, car c'est la géométrie du système qui détermine seule les propriétés essentielles du diagramme de phase.

L'ordre cristallin
La plupart des corps purs adoptent un état cristallin à basse température. Les atomes sont disposés dans le cristal en un motif qui est répété périodiquement ; cette disposition parfaitement régulière détermine des propriétés électroniques, optiques et mécaniques bien précises. En raison de la périodicité des cristaux, il est possible de prévoir ces propriétés grâce aux outils théoriques de la physique des solides, mis en œuvre dès les années 1930. De nombreuses applications en électronique sont issues de ces travaux. Un domaine particulièrement notable est celui des semi-conducteurs : une page de notre civilisation est tournée avec la publication du principe du transistor à pointes par John Bardeen et Walter H. Brattain en 1948, qui reçoivent avec William B. Shockley le prix Nobel de physique en 1956 pour la réalisation, en 1951, du premier transistor à jonctions.
Les molécules peuvent également former des cristaux moléculaires en obéissant à des règles de compacité maximale. Cette possibilité de cristalliser permet de connaître la structure des molécules biologiques : c'est, par exemple, en étudiant aux rayons X des cristaux constitués de molécules d'ADN que James D. Watson et Francis C. Crick réussissent en 1953 à déterminer la structure en double hélice de ces longues chaînes qui portent le code génétique des êtres vivants.

Les cristaux liquides
Les cristaux liquides combinent certaines propriétés des liquides et certaines propriétés des solides cristallins : ce sont des liquides constitués de molécules organiques de forme particulière et qui peuvent adopter une orientation bien précise (les mousses de savon et certaines membranes cellulaires sont des cristaux liquides). L'orientation des molécules n'est pas aussi parfaite que dans un solide cristallin, mais elle suffit pour conférer au liquide des propriétés optiques utilisables pour les affichages.
Il existe une grande variété de familles de cristaux liquides. La famille des nématiques, constitués de molécules allongées en forme de bâtonnets, est généralement utilisée pour les écrans. Le principe d'affichage repose sur la possibilité de commander par une tension électrique le passage de l'état orienté polarisant la lumière à l'état désorganisé de liquide ordinaire non polarisant. Le prix Nobel a été attribué en 1991 au physicien Pierre-Gilles de Gennes pour ses travaux sur les cristaux liquides.

Une exception : supraconductivité et superfluidité
Une magnifique exception dans cette présentation des états ordonnés est constituée par les états superfluides : la supraconductivité et la superfluidité. Il s'agit là d'une des rares manifestations d'un effet quantique à l'échelle macroscopique.

L'état supraconducteur
Les propriétés des supraconducteurs sont spectaculaires : disparition totale de la résistance au passage du courant électrique, accompagnée par une expulsion du flux magnétique, et ce au-dessous d'une température critique qui dépend du matériau. Cette propriété n'est pas exceptionnelle : depuis la découverte en 1911 de la supraconductivité du mercure par Kamerlingh Onnes et Gilles Holst, des centaines de matériaux supraconducteurs ont été synthétisés. Mais elle heurte l'intuition des physiciens, car elle semble contraire au principe d'impossibilité du mouvement perpétuel : un courant installé dans un anneau supraconducteur peut s'y maintenir pendant des milliards d'années. Aucune description du mécanisme microscopique de la supraconductivité ne fut proposée avant qu'en 1956 John Bardeen, Leon N. Cooper et John Robert Schrieffer n'élaborent enfin une théorie de la supraconductivité (nommée théorie BCS), rapidement corroborée et adoptée par la communauté des physiciens.
Selon cette théorie, certains électrons forment des paires, les paires de Cooper, sous l'effet d'une force d'attraction, laquelle correspond dans le formalisme quantique à l'émission et à l'absorption par les électrons de vibrations des ions du réseau cristallin. Les paires d'électrons, contrairement aux électrons isolés, ont la faculté de participer collectivement à une onde quantique qui peut s'étendre sur des distances macroscopiques. Cette onde, qui peut transporter un courant électrique sans qu'il rencontre de résistance, est assez robuste ; elle résiste ainsi à la chaleur, tant que la température reste inférieure à la valeur critique ; elle résiste aussi au champ magnétique et aux défauts cristallins : des matériaux amorphes ou liquides peuvent être supraconducteurs.
La théorie BCS a entraîné de nombreux progrès théoriques et expérimentaux, mais l'état supraconducteur n'était observé qu'à très basse température. Dans les années 1970, le matériau supraconducteur présentant la température critique la plus haute (23 K) était le composé Nb3Ge. L'opinion générale des physiciens était alors que, pour des raisons fondamentales, la température critique de l'état supraconducteur ne pouvait probablement pas dépasser 30 K. En 1986, Georg Bednorz et Alexander Müller atteignent précisément cette température avec le composé LaBaCuO ; un an plus tard est synthétisé YBa2Cu3O7, qui atteint 92 K ; et, en 1988, Tl2Ba2Cu3O10, un matériau de la même famille des cuprates, avec une température critique de 125 K. Actuellement, il semble que la substitution du mercure dans ce composé permettrait d'atteindre 135 K, et que des cuprates supraconducteurs fabriqués couche atomique par couche atomique pourraient atteindre – et peut-être dépasser – une température critique de 250 K.

La superfluidité
L'hélium est le seul fluide qui ne se solidifie pas à basse température. L'hélium liquide présente alors la propriété étonnante de pouvoir s'écouler sans viscosité, donc sans le moindre frottement. La superfluidité, comme la supraconductivité, semble permettre un mouvement perpétuel « interdit » par la physique. Les deux phénomènes physiques sont décrits par le même mécanisme, qui s'applique cette fois aux noyaux d'hélium et non plus aux électrons. Les analogies sont ainsi nombreuses entre supraconducteurs et superfluides.

Les défauts
Les propriétés de la matière ordonnée sont souvent déterminées par les défauts de l'ordre, dont la grande variété interdit une présentation complète de leurs effets. Les trois cas suivants montrent les effets des impuretés dans les semi-conducteurs, des lignes de dislocation dans les solides et des parois dans les matériaux magnétiques. Nous avons déjà mentionné l'effet d'une très faible concentration d'impuretés (un atome étranger pour 100 millions d'atomes) sur la conductivité d'un semi-conducteur. Un atome étranger est un défaut ponctuel, mais on peut observer également des défauts sous forme de lignes ou de parois. Une ligne de dislocation est réalisée par l'interruption brutale d'un plan atomique dans un cristal ; grâce à la présence des dislocations, les cristaux de métal sont étonnamment malléables tant qu'ils n'ont pas été fortement déformés ; au contraire, après des déformations importantes, les dislocations sont enchevêtrées et ne peuvent plus se déplacer : on dit que le matériau est écroui. De même, l'aimantation macroscopique d'un métal comme le fer peut varier très facilement par le mouvement de parois qui séparent des domaines d'aimantations opposées ; une façon d'obtenir des aimants puissants et stables est d'agréger de petits grains magnétiques ne contenant qu'un seul domaine : ces matériaux sont les ferrites, couramment utilisées pour les fermetures de portes.
Cependant, les états de la matière étendue, homogène et en équilibre thermodynamique n'ont pas la diversité des états de la matière hors de ces conditions. La matière sous la forme d'objets de petite taille présente en effet des états différents de ceux de la matière étendue : par exemple, les quasi-cristaux à symétrie pentagonale ou bien les petits grains qui sont constitués d'un seul domaine magnétique. La matière peut aussi se présenter sous la forme de minces films, comme les bulles de savon, ou de fibres aux propriétés physiques très différentes de celles qu'elle possède lorsqu'elle se présente comme un volume.

La matière hétérogène
Une infinie variété d'états naturels et artificiels
Les combinaisons de ces formes (bulle, graine, fibre, lamelle…) dans des mélanges désordonnés ou bien des structures ordonnées conduisent à une infinie variété d'états de la matière hétérogène. L'hétérogénéité peut être liée à l'histoire du matériau (roches poreuses, boues, ciments, matériaux composites…) ou à un état d'équilibre (microémulsions, supraconducteurs contenant des fluxons magnétiques…). La structure géométrique des systèmes hétérogènes est aussi importante que la structure microscopique de l'ordre dans la matière homogène. Les systèmes granulaires présentent des comportements complexes particulièrement utiles à décrire pour prévoir le comportement des sols, éventuellement des avalanches. La matière fibrée, feuilletée, poreuse, les suspensions et les gels dans les liquides… illustrent des états et des comportements qui montrent l'imagination sans mesure de la nature, ou celle des hommes lorsque ces matériaux sont artificiels.

L'état vivant : structuration spontanée de systèmes ouverts ?
La matière se trouve souvent dans un état déterminé par son histoire ou par des conditions thermodynamiques hors de l'équilibre. La dynamique des changements d'état et les mécanismes de la croissance de l'ordre cristallin conduisent à des formations caractéristiques telles que des dendrites, des précipités, des agrégats de forme fractale, etc. Une autre caractéristique des états où la matière n'est pas au point d'équilibre est qu'elle s'organise et se structure spontanément. Dans les systèmes qui consomment de l'énergie (systèmes ouverts), le deuxième principe de la thermodynamique se traduit en effet par une tendance à réduire au minimum la production de désordre (entropie) par unité de temps, comme cela a été démontré de façon générale par Ilya Prigogine. Ce mécanisme est, entre autres, à l'origine de certaines formations nuageuses que l'on peut parfois observer (rouleaux régulièrement disposés parallèlement les uns aux autres). Il résout également le paradoxe – apparent – de la possibilité que présentent les systèmes vivants d'augmenter la complexité de leur organisation au cours du temps. Le paradoxe n'en est en fait pas un : les systèmes vivants ne sont pas contraints d'augmenter leur entropie, car ils ne sont pas isolés (si on isole un système vivant, il est bien connu qu'il finit par se dégrader irréversiblement). Les organismes vivants sont des systèmes ouverts, qui consomment de l'énergie en permanence. S'ils peuvent ainsi se structurer spontanément, d'après les résultats obtenus par Ilya Prigogine, il est difficile de savoir si ce mécanisme suffit à rendre compte de l'apparition de la vie sur notre planète, comme le suggèrent certains.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon   PHYSIQUE ET MÉCANIQUE
  initiation musicale

 

 

 

 

 

 

PHYSIQUE ET MÉCANIQUE

Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever dans le futur. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, en passant par l'exploitation de l'imagerie bi voire tridimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges. Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolu, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, …).

Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet
2005
Par Stéphane ROUX[1] : Physique et Mécanique
Résumé :
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.
Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).
Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.

1 Introduction

Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.
Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.
Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :

*         Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
*         Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
*         Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
*         Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.

2 Enjeu de connaissance fondamentale
La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :

*         Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
*         Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
*         Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
*         Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
*         Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.

2.1 Savoir imbriquer les échelles de description
Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.
Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.
Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.

2.2 Non-linéarité et hétérogénéité : Physique statistique
Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.
Pour des rhéologies plus complexes, l'essentiel reste à construire :
Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.
L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).
Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.

3 Enjeu des nouvelles techniques d'analyse
Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.

3.1 Nouvelles imageries
Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.
La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.
A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.
Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.
De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.

3.2 Que faire avec ces informations ?
Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.
Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :

*         Fracture de matériaux vitreux imagée par AFM

En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.

*         Comportement plastique de la silice amorphe

La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.

*         Détection de fissures et mesure de leur ténacité

Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.

*         Comportement de polymères micro-structurés

Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.

4 Enjeu des nouveaux matériaux
Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.

4.1 Matériaux composites et nano-matériaux
L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).
Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).

4.2 Matériaux fibreux/Milieux enchevêtrés
Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.

4.3 Couches minces : Tribologie Frottement adhésion
La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.
Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.

4.4 Couplages multiphysiques
La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.

4.5 Vieillissement
La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.

4.6 Bio-matériaux/bio-mimétisme
La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.

4.7 Mécanique biologique
Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.

5 Enjeu des nouvelles demandes/ nouveaux besoins
Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.

5.1 Essais virtuels
Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.

5.2 Sûreté des prédictions
Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.

5.3 Variabilité Fiabilité
La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.
Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.
5.4 Optimisation
Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.

5.5 Contrôle
Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.

6 Conclusions
Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.

7 Références
Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.



[1] E-mail : stephane.roux@saint-gobain.com

 

 VIDEO     canal U       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 ] - Suivante
 
 
 
Google