|
|
|
|
|
|
PHYSIQUE ET SCIENCES DU GLOBE |
|
|
|
|
|
Transcription[1]revue et corrigée par l'auteurde la 591ème conférencede l'Universitéde tous les savoirs prononcée le 13 juillet 2005
La physique des ondes sismiques.
Par Michel Campillo
Le but de cet exposé est de mettre en évidence un certain nombre de problèmes physiques qui se posent pour la compréhension de la Terre solide. La sismologie y joue un rôle important, car les ondes sismiques, qui sont des ondes élastiques, sont les seules capables de pénétrer profondément à l'intérieur de notre planète, nous permettant de réaliser des images de couches internes, à la manière de l'imagerie médicale bien connue de tous.
Cette présentation va se faire en deux parties ; un premier temps sera consacré à la présentation de la sismologie moderne et des problèmes que rencontrent les géophysiciens, physiciens et géologues qui travaillent sur la structure interne de la Terre. Puis nous verrons des notions de physique mésoscopique et leurs utilisations en sismologie pour obtenir des nouvelles images de l'intérieur de la Terre.
Le sismogramme
Le sismogramme est à la base de tout le travail du sismologue. Depuis quelques années nous pouvons enregistrer le mouvement du sol de manière continue. On mesure le déplacement du sol en fonction du temps, qui consiste en général en une agitation permanente que l'on nomme le bruit sismique ou microsismique' jusqu'à ce qu'un séisme se produise et engendre les ondes élastiques qui nous permettront d'étudier la Terre. Ces ondes sont celles qui sont ressenties par l'homme lors des grands séismes mais que les appareils de mesure peuvent détecter avec des amplitudes qui sont bien inférieures à ce que nous sommes capables de percevoir. Les instruments modernes sont suffisamment sensibles pour que nous puissions mesurer très précisément les temps d'arrivées des ondes aux stations. C'est essentiellement cette information qui est utilisée pour faire des images de la structure interne de la Terre car, comme nous le verrons, nous connaissons aujourd'hui les trajets parcourus en profondeur par les différentes ondes qui sont observées. La première partie de l'exposé va leur être consacrée. Mais nous pouvons aussi étudier le bruit sismique, c'est-à-dire le signal qui ne peut être associé à un trajet particulier que ce soit celui qui suit un tremblement de terre (la coda) ou celui qui est du à l'agitation permanente de la surface de la Terre sous l'effet de l'atmosphère et des océans.
Mais avant de se lancer dans l'interprétation des sismogrammes, il faut rappeler ce qu'est un sismomètre. Il s'agit d'un pendule, c'est à dire une masse qui est maintenue en équilibre par un système de ressort, et lorsque le sol bouge, par le principe d'inertie on mesure le mouvement relatif de la masse et du sol. Cette idée a été mise en Suvre dès le 19ème siècle. Les capteurs actuels nous permettent de faire des mesures très précises du champ de déplacement, ceci grâce à leur petite taille en comparaison de la longueur d'onde des ondes sismiques.
Malgré leurs efforts, les sismologues ne connaissent peut-être pas très bien la Terre, ils ne connaissent pas bien non plus les tremblements de Terre d'ailleurs, mais armés de ces instruments, ils connaissent très bien les mouvements du sol et font des mesures quasi exactes du champ de déplacement. Ceci concerne des ondes avec des périodes allant de plusieurs centaines de secondes jusqu'à un centième de seconde, c'est-à-dire 100 Hz. On enregistre donc des ondes dans une gamme de fréquence très variable, mais aussi avec des amplitudes variables. En effet on mesure avec la même exactitude le bruit sismique, bien au dessous de notre seuil de perception et les mouvements du sol lors de grands tremblements de Terre destructeurs. Sur un exemple de sismogramme suivant un séisme on peut noter des arrivées individualisées d'énergie. Parlons maintenant de l'interprétation de ces sismogrammes en commençant par présenter les différents types d'ondes.
Les ondes sismiques
La première onde que l'on observe est l'onde P, c'est l'onde qui se propage le plus vite dans la Terre, à des vitesses de l'ordre de 5 ou 6 km/sec à quelques kilomètres sous nos pieds. C'est une onde de compression comparable aux ondes acoustiques que l'on produit dans l'air.
Puis arrivent les ondes S, elles sont un peu plus lentes que les ondes P, de l'ordre de 3,5 km/s à quelques kilomètres de profondeur, et ne provoquent pas une compression de la roche mais un cisaillement. Il n'existe pas d'équivalent à ces ondes dans les fluides.
Tous les séismes génèrent ces deux grands types d'onde, qui vont se propager dans la Terre profonde et qu'on appelle donc « ondes de volume ». Pour les décrire facilement, on peut les associer à des rayons lumineux se propageant à l'intérieur de la Terre. On peut alors leur appliquer la loi de Descartes et les principes de la réflexion et la réfraction de la lumière.
Mais toutes nos observations sont réalisées à la surface de la Terre ; et à la surface d'un corps élastique il existe un troisième type d'ondes. C'est l'onde de Rayleigh, qui est spécifique des corps élastiques et dont l'existence est confinée près de la surface. Ces ondes dites de surface, produisent des mouvements qui ressemblent à ceux engendrés par la houle sur la mer, c'est-à-dire qu'un point de la surface de Terre décrit une ellipse lors du passage de l'onde. Ces ondes de surface se propagent à des vitesses plus faibles et forment l'arrivée tardive de grande amplitude sur notre exemple de sismogramme. Les sismogrammes nous permettent donc d'observer des ondes de volume qui pénètrent l'intérieur de la Terre et dont on peut suivre les trajets comme des rayons lumineux et des ondes de surface qui elles, sont confinées près de la surface. Mais il faut être prudent lorsque l'on parle d'ondes superficielles car avec des périodes de 300 secondes, elles pénètrent quand même jusqu'à plusieurs centaines de km de profondeur. Cependant elles se propagent toujours parallèlement à la surface de la Terre et on les différencie bien de la catégorie des ondes de volume. Les ondes de surface jouent un rôle très important en sismologie car une part importante de l'énergie produite par les séismes superficiels est transmise sous cette forme.
Modèle global
Le fait que l'on dispose aujourd'hui d'une très grande collection de sismogrammes fait suite à un effort international considérable sur un réseau de stations sismiques qui couvre la quasi-totalité de la planète. Ce qui est le plus important, c'est que depuis à peu près un siècle, l'échange de données est organisé au niveau international. Les chercheurs de différents pays se sont transmis leurs informations, et à partir de ces données cumulées globales on a pu dévoiler la structure interne de la Terre. Par exemple la France y contribue par ses stations locales et par le réseau Geoscope qui s'étend à l'échelle globale.
Dès la mise en place des premiers réseaux à la fin du 19ème siècle, les chercheurs ont commencé à accumuler des observations de temps d'arrivées qu'ils ont reportés sur des diagrammes en fonction de la distance épicentrale. L'accumulation de ces observations individuelles a permis de décrire des courbes continues qui seront associées à des trajets spécifiques. La première grande découverte a été faite dès 1906 par un sismologue britannique, Oldham, qui à partir de ces observations a découvert l'existence d'une zone d'ombre dont il a déduit la présence d'un corps interne dont les propriétés provoquent une forte réfraction des ondes sismiques. Oldham a ainsi démontré l'existence d'un noyau plus lent, et il a pu calculer son rayon. C'était le premier élément qui allait permettre de construire progressivement un modèle complet de Terre. Aujourd'hui bien sûr le modèle s'est raffiné et de nombreux trajets ont été identifiés et nommés suivant une codification rationnelle. On dispose d'un modèle global moyen pour lequel on peut évaluer les temps de parcours de nombreuses arrivées correspondant à des trajets bien identifiés. Les différentes couches constituant la Terre sont reconnues et leurs propriétés moyennes précisément évaluées. En termes de temps de parcours des ondes, les différences entre ce modèle et la structure réelle sont très faibles. Ce modèle moyen est très important car il fait le lien entre les sismogrammes et les structures internes de la Terre.
Ce diagramme a été construit à partir des ondes que l'on peut identifier directement, mais quand se produit un séisme extrêmement fort, comme le séisme de Sumatra récemment, la Terre vibre globalement. Bien sur, les ondes de volume vont se propager dans la Terre, les ondes P par exemple mettent 20 minutes pour aller d'un point à son antipode. Toutes les ondes dont nous avons parlé vont interférer entre elles et donner lieu à une résonance globale. La Terre se met à vibrer comme une cloche. On appelle ces vibrations les modes propres de la Terre. Dans les signaux produits, on peut identifier tout un ensemble de fréquences discrètes, chacune correspondant à un mode propre de vibrations qui a pu être identifié. D'une manière similaire à ce que nous avons vu pour les ondes de volume, ces collections d'observations contribuent à construire un modèle global. Par exemple, il existe des modes que l'on appelle toroïdaux; ce sont des modes de torsion. En effet, si on imagine que l'on fait tourner l'hémisphère sud dans un sens et l'hémisphère nord dans l'autre sens, puis on lâche, la Terre va se mettre à osciller de part et d'autre de l'équateur. Ce mode possède une fréquence particulière, et donc lorsque l'on voit un pic d'amplitude à cette fréquence on identifie aussitôt le mode de torsion.
Cependant, on sait depuis longtemps que les pics de fréquences de résonance sont constitués d'une série de contributions de fréquences très proches. Mais ces multiplets sont très difficiles à analyser avec des données sismologiques classiques. Cependant, les sismologues ont de nouveaux appareils de mesure à leur disposition, et notamment les gravimètres absolus. C'est un appareil complexe qui permet de faire des mesures d'accélération du sol d'une précision de 10-12 fois l'accélération de pesanteur. Après le séisme de Sumatra, le premier séisme géant' depuis la mise en place de ses appareils, on dispose de données d'une précision nouvelle pour étudier la structure de la Terre, mais aussi sur la source du séisme.
Donc lorsque l'on regroupe toutes ces données, que ce soit les courbes distance épicentrale/temps de trajet, les diagrammes amplitude/fréquence (résonance simple et multiplets), on obtient un modèle de Terre globale sur les grandes lignes duquel tous les chercheurs sont d'accord, bien sûr dans le détail il y a des différences d'appréciation.
A la surface de la Terre, on a une croûte soit océanique, quelques km d'épaisseur, soit continentale, d'une quarantaine de km d'épaisseur en moyenne. Puis en dessous on a une grande zone que l'on appelle le manteau, cette zone se divise en deux : le manteau supérieur et le manteau inférieur. Le manteau est globalement composé d'un matériau solide possédant à peu près la même composition partout, la subdivision du manteau est liée à un changement de phase des cristaux et notamment de l'olivine. Près de la surface les pressions ne sont pas très fortes puis lorsque l'on va en profondeur la pression augmente, les réseaux cristallins se réorganisent, provoquant un changement de vitesse de propagation des ondes. C'est l'étude de la réfraction/réflexion des ondes qui nous a permis d'identifier cette transition entre manteau inférieur et manteau supérieur. En allant en profondeur on traverse donc une couche solide, (croûte + manteau), puis on va rencontrer l'interface manteau/noyau (imagée par Oldham en 1906). L'étude des ondes sismiques, une fois de plus, nous a permis de déterminer l'état du noyau externe. Les ondes S ne se propageant pas dans le noyau externe, on en a déduit que ce dernier était composé de métal liquide. Puis vers la fin des années 1930, une sismologue danoise Mme Lehman, a découvert le noyau interne, que l'on nomme aussi la « graine ». La graine est la partie solide du noyau, qui s'est formée par cristallisation du noyau externe lors du refroidissement de la Terre.
Ce modèle simple de Terre pose de nombreux problèmes physiques :
- Une des données observables sur Terre est le champ magnétique, et ce champ magnétique est un des mystères de la géophysique. On sait aujourd'hui qu'il trouve sa source dans le noyau liquide, mais on ne sait pas le reproduire dans un laboratoire, que ce soit par des méthodes analogiques (crée un champ magnétique dans une sphère et qui reste stable) ou par des méthodes numériques. Ce champ magnétique possède un certain nombre de particularités, par exemple, il confirme la présence d'un noyau liquide en mouvement puis on sait qu'au cours des temps géologiques le champ magnétique a déjà changé de sens plusieurs fois. D'ailleurs ce sont ces changements de polarité du champ magnétique qui ont été les premiers arguments de la tectonique des plaques, en effet au niveau des rides océaniques lorsque les roches se cristallisent elles enregistrent le champ magnétique. Or les paléomagnéticiens ont vu une alternance de polarités, ce qui confirmait l'idée de la création progressive des plaques sur les rides, enregistrant les alternances de polarité, puis l'expansion des fonds océaniques.
- Une autre découverte faite sur le noyau est qu'il change aussi très vite. En effet on possède des séries de données depuis le 17ème siècle, et on a remarqué qu'en l'espace de quelques siècles la structure du champ magnétique terrestre a beaucoup changé. Pour la géophysique interne c'est une découverte assez exceptionnelle, en effet les échelles de temps en géologie sont souvent très grandes, bien au-delà de la durée de nos vies ; alors qu'à l'intérieur du noyau il y a des mouvements de fluide avec une vitesse de l'ordre du km/an.
Le but de la sismologie est d'arriver un jour à mesurer ces mouvements en cours dans le noyau, ce n'est pas encore le cas pour l'instant. Mais des résultats ont été obtenus, en effet on a remarqué que les ondes qui se sont propagées dans la graine en passant par l'axe de rotation, qui est proche de l'axe du champ magnétique, n'ont pas la même vitesse que les ondes qui ont traversées la graine par le plan équatorial, il semble qu'il y ait là une signature sismologique du champ magnétique.
- Les mystères ne concernent pas uniquement le noyau. Le manteau est un solide, mais un solide qui convecte, c'est-à-dire que sur des temps très longs, le million d'années, le manteau se comporte comme un fluide très visqueux avec des vitesses qui cette fois sont de l'ordre du cm/an. L'évidence de cette convection en surface est la tectonique des plaques, en effet les matériaux froids (les plaques océaniques anciennes) ont tendance à plonger dans le manteau, tirant sur le reste de la plaque, il se forme alors des rides océaniques où le matériau chaud remonte des profondeurs et vient cristalliser en surface.
L'apport de la sismologie provient cette fois de l'image tomographique que l'on peut obtenir du manteau, en effet les ondes ne se propagent pas de la même façon dans un matériau froid que dans un matériel chaud. Lorsque les ondes traversent un matériel chaud leur vitesse diminue, et inversement. En surface on s'aperçoit que les océans jeunes sont plutôt chauds, alors que les plaques continentales anciennes sont plus froides. Mais le plus intéressant vient lorsque l'on regarde plus en profondeur, le manteau devient homogène : le contraste de vitesse diminue. Les images obtenues ne correspondent pas aux modèles anciens de la tectonique des plaques dans lesquels on avait de grandes cellules de convection qui prenaient tout le manteau, qui étaient régulièrement espacées. On a donc du développer de nouveaux modèles numériques pour prendre en compte ces nouvelles observations, ces modèles sont beaucoup plus compliqués avec des plaques qui plongent et des panaches de manteau chaud qui remontent dans une répartition complexe. Les géologues ont découvert des traces en surface de ces panaches, ils seraient associés aux zones dites de point chaud. Un exemple est le panache qui a créé la région volcanique du Décan en Inde. Les plaques se sont déplacées et le panache toujours actif a créé les volcans des Maldives, et aujourd'hui ce même panache se situerait sous l'île de la réunion.
La sismologie peut nous aider à comprendre comment se font les échanges thermiques à l'intérieur de la Terre, pour cela il nous faudrait arriver à imager ces panaches. On commence à le faire, par exemple sous l'Islande. L'origine du point chaud se trouve à plusieurs centaines de km de profondeur, ce qui est cohérent avec l'existence d'un panache mantellique. Un autre exemple est la zone des Afars où une anomalie thermique profonde a pu être décelée.
Alors pourquoi a-t-on du mal à imager l'intérieur de la Terre ?
Cela vient du fait que pour faire cette imagerie on utilise les ondes produites lors des grands tremblements de Terre et, heureusement pour l'homme, ces phénomènes sont rares, et on dispose donc d'assez peu de données pour imager les couches profondes.
De plus, l'utilisation des tremblements de Terre pose un autre problème, si on étudie les séismes de magnitude supérieure à 5 de ces vingt dernières années, on s'aperçoit qu'ils se situent tous aux mêmes endroits : au niveau des grandes frontières de plaques. La couverture spatiale de la planète est imparfaite, il y a des endroits sur Terre où malgré les efforts d'instrumentalisation, on n'enregistra jamais de gros séismes.
Ensuite, on est aussi limité par des soucis techniques, en effet il est facile d'installer des stations sur terre mais installer des stations dans les grands fonds océaniques est extrêmement difficile et coûteux. Donc pour le moment, hormis sur les îles il y a très peu de sites de mesures, donc c'est un des enjeux de la sismologie instrumentale dans le futur.
Les grands séismes nous ont permis, grâce à l'étude des ondes de volume et de surface, d'obtenir un modèle global de la Terre ; mais on enregistre d'autres ondes et notamment du bruit sismique. Après un grand séisme, on enregistre un long signal tardif dans lequel on ne peut identifier d'arrivées correspondant à des trajets individuels. C'est ce que l'on appelle la « coda ». On enregistre aussi une agitation permanente de la surface, dont l'origine n'est pas totalement connue et que l'on nomme le bruit sismique. Quel est l'intérêt d'étudier ces ondes ? Tout simplement, pour l'instant on a représenté la Terre de manière globale comme un milieu simple fait de couches homogènes sur lequel les chercheurs pouvaient se mettre d'accord ; mais en réalité la Terre est bien plus complexe que cela.
En effet, il suffit de regarder le paysage, les cartes de géologie pour s'apercevoir que la Terre est un objet complexe à différentes échelles avec des failles, des blocs de matière différenciés, etc. Il nous faut donc trouver une autre approche que la théorie des rais utilisée précédemment. On va donc se tourner vers la physique. Au cours de ces dix dernières années les physiciens ont beaucoup étudié les milieux complexes, et va appliquer les mêmes approches.
Je vais illustrer mes propos par un exemple simple : un milieu contenant des impuretés, des petites zones avec des vitesses différentes. Si on place une source dans ce milieu, au début on va voir notre front d'onde qui se propage simplement, puis cette onde va se diffracter dans toutes les directions, le champ d'onde va devenir de plus en plus complexe, jusqu'à être un champ diffus. Ce phénomène de champ diffus se rencontre aussi en optique ; les jours de grand beau temps, on voit les rayons du soleil et les ombres que projettent les objets sur le sol. Les jours de brouillard, les gouttelettes d'eau vont jouer le rôle de diffracteurs, la vision devient diffuse, on ne voit plus d'où viennent les ondes lumineuses avec précision et par exemple on ne voit plus d'ombre.
Sur nos sismogrammes, on voit au début les ondes directes, puis des ondes qui se sont réfléchies sur des interfaces dont on peut encore identifier le parcours, c'est ce que l'on nomme la diffraction simple. Puis les ondes suivent des chemins de plus en plus complexes. Par exemple si un tremblement de Terre se produit à 30 km d'un récepteur, ce récepteur enregistrera des ondes qui ont parcouru 1000 km et suivant des trajets très complexes après avoir subi des diffractions multiples.
Les outils de la physique
Pour étudier ce champ diffus, on utilise des outils de la physique, qui ont été développés pour l'étude des ondes électromagnétiques, notamment le principe d'équipartition. Pour l'illustrer, considérons une onde plane qui va se propager dans une direction définie, puis lorsqu'elle va rencontrer un diffracteur, elle va engendrer des ondes planes dans plusieurs directions qui vont à leur tour se diffracter. Si on attend assez longtemps, on rentre dans un état d'équilibre où toutes les ondes planes, dans toutes les directions, vont être présentes de la même façon. Toutes les directions sont statistiquement représentées de la même façon : c'est l'équipartition. Comment peut-on être sûr que cet équilibre existe dans la Terre ? En théorie il existe un coefficient universel de proportionnalité entre l'énergie des ondes P et celles des ondes S quand l'équipartition dans un corps élastique est atteinte. En pratique, on a pu vérifier que, quelque soit le tremblement de Terre que l'on considère, quelque soit la distance épicentrale, si l'on attend assez longtemps, le rapport d'énergie se stabilise pour une valeur prédite théoriquement pour les ondes diffuses.
Je ne vais pas vous présenter les autres outils de la physique que l'on peut utiliser pour étudier ce champ diffus, mais juste vous montrer que les ondes en régime diffus gardent leurs propriétés ondulatoires, en particulier leurs phases. On rentre dans un régime dit mésoscopique, c'est-à-dire pour nous que l'on peut décrire l'évolution de l'énergie par un processus de diffusion macroscopique alors que simultanément des propriétés microscopiques des ondes élémentaires sont observables. Un exemple de propriété microscopique est la propriété de réciprocité que vérifient les équations d'onde, c'est-à-dire que si on intervertit la position du récepteur et de la source, on obtient le même signal, en faisant attention à la polarisation. Quel est l'intérêt de cette propriété pour l'étude du champ diffus ? Un signal diffus est composé dun grand nombre d'ondes avec des trajets compliqués. Si on considère une de ces ondes en particulier, le principe de réciprocité doit s'appliquer et indique que le trajet entre le premier et dernier diffracteur parcouru en sens inverse doit exister. Cependant quand la source et le récepteur sont en des points éloignés les 2 ondes n'arrivent pas en même temps et elles contribuent au champ diffus de manière dite incohérente. Sauf dans un cas : lorsque la source et le récepteur se situent au même point. L'onde et sa réciproque vont alors emprunter exactement le même trajet complet et donc elles vont interférer de manière constructive. Cela implique que près de la source, on, observera une zone dans laquelle l'intensité des ondes sera plus forte, et ce même bien après que les ondes directes sont propagées au loin.. Il est possible de réaliser des expériences simples pour illustrer ce principe. Je vais vous en présenter une. On a installé une ligne de capteurs au dessus d'un milieu très diffractant, ici un volcan en Auvergne actif encore il y a quelques dizaines de milliers d'années, et que on tape sur le sol avec une masse. On enregistre les ondes et on voit arriver en premier les ondes directes puis plus tard la coda.Si on trace l'énergie présente dans le début de la coda en fonction de la distance source/récepteur, on s'aperçoit que l'énergie est répartie de manière à peu près constante, ce qui est ce que l'on attend intuitivement. En revanche si on laisse encore le temps s'écouler et que l'on refait le même tracé, alors on voit apparaître un pic d'énergie d'amplitude relative 2 au niveau de la source comme le principe de la réciprocité le prédit C'est la rétrodiffusion cohérente, appelée aussi localisation faible'. Donc, dans la nature, malgré les phénomènes d'absorption et de diffraction multiples, nos enregistrements conservent des propriétés fondamentales des équations d'onde dont on va tirer profit pour utiliser les champs diffus.
La corrélation
On a vu que les champs diffus conservaient l'information transportée par les ondes qui les composent. On va donc essayer de voir comment extraire cette information. Peut-on directement retrouver les composantes de nos sismogrammes, c'est à dire des signaux correspondant à des trajets physiques dans la Terre, sans avoir à passer par la mise en Suvre de sources, ni à faire de lourds calculs numériques ? Avec d'autres mots, peut-on reconstruire des sismogrammes entre 2 points sans utiliser de source mais en tirant partie des propriétés des champs diffus enregistrés à ces 2 points ? La fonction de corrélation va permettre d'atteindre ce résultat. La valeur de la fonction de corrélation au temps t est obtenue, et consiste à décaler un signal de t puis a multiplier les 2 signaux et enfin à calculer la somme du résultat. Par exemple, si on enregistre le passage d'une onde à deux endroits différents, les deux sismogrammes seront identiques mais décalés d'un certain temps dt. Si maintenant on corrèle ces deux signaux, tant que les signaux ne seront pas en phase la multiplication de nos deux signaux vaudra zéro, puis lorsque l'on aura décalé le deuxième signal de dt, les signaux seront l'un en face de l'autre, et la fonction de corrélation sera maximale. On peut donc grâce à la fonction de corrélation connaître la différence de temps de parcours entre deux stations. Si on fait cette expérience avec une série de sources qui entourent les 2 stations on peut remarquer que la somme des corrélations correspond essentiellement aux contributions des sources qui sont alignées avec les stations et donne donc exactement le temps de parcours. C'est un exemple d'application du théorème de la phase stationnaire. On peut tester cette approche sur des données réelles. On considère plusieurs enregistrements de séismes à différentes stations et on corrèle les codas entre elles. Si on représente la fonction de corrélation on peut voir qu'elle a beaucoup de similitude avec la réponse du milieu à une source à une des stations. On peut identifier et suivre l'onde de Rayleigh jusqu'à plus de 200 km de distance. Cela signifie, que lorsque l'on étudie les ondes diffuses à des stations distantes de 200 km de l'épicentre, et même si on a l'impression qu'elles sont rendues aléatoires, en réalité elles sont corrélées, et la fonction de corrélation contient la réponse impulsionnelle du milieu.
Ce principe s'appuie sur, le théorème de la fluctuation-dissipation. Il faut supposer que la Terre est soumise à une fluctuation aléatoire la corrélation de ces fluctuations à 2 points donne la réponse déterministe entre ces 2 points. Dans notre cas, le traitement de données à réaliser est un peu compliqué : il faut sélectionner des trajets et vérifier que l'on se situe en champ diffus. Cependant, si on revient à la source de ce théorème, il a été écrit pour le bruit thermique. Or en sismologie, on a vu que les jours sans tremblement de Terre, on enregistre aussi du bruit. Cela suggère d'essayer d'utiliser cette agitation permanente de la surface de la Terre. Cette agitation est principalement contrôlée par les interactions entre les océans et la Terre solide. La première de ces interactions ce sont les vagues et la houle sur les côtes. Une autre indication de l'interaction océan/Terre solide est l'aspect variable du bruit sismique, en effet lorsqu'une dépression se forme sur l'océan et se rapproche des côtes on voit le bruit sismique augmenter énormément. Le bruit sismique a donc une origine océanique, même si on ne comprend pas très bien les mécanismes de couplage pour beaucoup de gammes de fréquence.
Prenons un exemple en Californie où l'on a sélectionné un séisme qui s'est produit juste sous une station. On a enregistré pendant un an le bruit sismique à cette station et à une deuxième qui avait enregistré le séisme. On a ainsi pu comparer la corrélation moyenne dans le bruit et le sismogramme directement produit par le séisme et constater leur similitude avec en particulier une parfaire identité des ondes de Rayleigh. C'est le fait que, considéré sur une période de temps longue, le bruit soit aléatoire qui permet de reconstruire le signal car on se rapproche alors des propriétés fondamentales requises pour appliquer notre théorème. Paradoxalement, c'est exactement ce même argument qui a poussé les sismologues a ne pas utiliser ces signaux dans le passé.
En Californie, un réseau de 70 stations sismiques de très bonne qualité distantes d'une trentaine de km a été installé. En utilisant les enregistrements continus du bruit, on a pu calculer la réponse impulsionnelle du milieu entre chaque couple de capteur. Cela a permis d'obtenir un grand nombre de trajets qui servent de base à une tomographie avec une très bonne résolution. En utilisant des ondes d'une période centrale de 7,5 sec, on peut imager la croûte superficielle de la Californie, et comparer nos résultats avec les cartes géologiques de la région. Les résultats obtenus sont en très bon accord avec nos connaissances de cette région. Plus intéressant bien sûr, on peut, en changeant de gamme de fréquence, cartographier des zones plus profondes, comme la croûte moyenne. On peut ainsi identifier les racines profondes des structures géologiques majeures et déterminer précisément leurs extensions.
Exemple sur la lune
Pour conclure, on peut se demander si le bruit que nous observons a des caractéristiques très spécifiques qui permettent à cette technique de fonctionner sur la Terre. Pour répondre à cette question on va s'intéresser à la Lune. En effet, durant la mission Appolo 17 en 1976, un petit réseau de capteurs a été installé pour étudier les couches superficielles de la Lune. Le bruit lunaire a été enregistré en continu dans de bonnes conditions. On a donc pu utiliser ce bruit lunaire pour faire des corrélations entre les différents capteurs et voir là aussi émerger la réponse élastique entre les capteurs.
On enregistre du bruit sismique sur la lune, mais quelle en est l'origine sans atmosphère ni océan ? Les très fortes variations de température entre le jour et la nuit sont à l'origine d'effets de dilatation et de fissuration très marqués qui produisent un bruit' dont la périodicité est clairement visible sur les enregistrements. On a donc une structure du bruit très différente de celle de la Terre, et malgré tout on peut utiliser les principes vus précédemment qui paraissent donc très robustes. Ceci est très intéressant pour l'exploration à long terme des planètes, car ces méthodes passives ne nécessitent pas de transporter de source.
[1] Transcription réalisée par Soline Hallier
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
|
|
PHYSIQUE QUANTIQUE |
|
|
|
|
|
LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE
Depuis son émergence dans les années 1920, la Mécanique Quantique n'a cessé d'interpeller les physiciens par le caractère non intuitif de nombre de ses prédictions. On connaît l'intensité du débat entre Bohr et Einstein sur cette question. Le caractère incontournable de la Mécanique quantique au niveau microscopique est très vite apparu évident, puisque cette théorie fournit une description cohérente de la structure de la matière. En revanche, un doute pouvait subsister sur la validité au niveau macroscopique de prédictions étonnantes comme la dualité onde particule, ou les corrélations à distance entre particules intriquées. Après la publication des inégalités de Bell, en 1965, on a réalisé que les prédictions de la Mécanique quantique sur ces corrélations à distance étaient en contradiction avec la vision du monde (réalisme local) défendue par Einstein, et qu'il devenait possible de trancher ce conflit par des tests expérimentaux. Les expériences réalisées depuis plus de deux décennies avec des paires de photons corrélés ont confirmé de façon indubitable la justesse des prédictions quantiques, et donc la nécessité de renoncer à certaines images plus intuitives défendues par Einstein. Ces travaux très fondamentaux débouchent aujourd'hui sur des applications inattendues : cryptographie quantique, ordinateur quantique...
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)
|
|
|
|
|
|
|
MOLÉCULES PHOTOVOLTAIQUES |
|
|
|
|
|
Paris, 17 juin 2013
De nouvelles molécules photovoltaïques minimalistes et efficaces
Quelle est la molécule la plus simple capable de transformer l'énergie solaire en électricité ? Telle est la question que s'est posée une équipe de l'Institut des sciences et technologies moléculaires d'Angers (Moltech-Anjou, CNRS/Université d'Angers). Les chercheurs ont montré que des molécules extrêmement simples, produites en peu d'étapes avec de très bons rendements de synthèse, peuvent devenir des alternatives crédibles aux molécules plus complexes et aux polymères utilisés pour la fabrication de cellules solaires organiques. Leurs travaux, publiés en ligne dans Advanced Functional Materials et Chemistry : A European Journal, ont permis d'obtenir des molécules de faible poids moléculaire ayant un rendement électrique supérieur à 4 %. Ils montrent ainsi que grâce à l'optimisation de molécules simples on pourra passer de la recherche fondamentale à la production industrielle de dispositifs solaires fabriqués à partir de molécules organiques.
Depuis les années deux mille, une intense compétition internationale vise à produire, à partir de molécules organiques, des cellules solaires aux performances comparables à celles des cellules en silicium des panneaux solaires commercialisés aujourd'hui. En effet, les cellules photovoltaïques organiques devraient être moins chères à produire, et pourraient en outre ouvrir de nouvelles applications.
Deux voies sont actuellement à l'étude dans le photovoltaïque organique : la plus répandue repose sur l'utilisation de polymères. Cependant, ces matériaux sont composés de chaînes macromoléculaires de différentes longueurs ce qui peut engendrer des problèmes de reproductibilité de leurs propriétés électroniques. Une autre voie ouverte par la même équipe de l'Institut Moltech-Anjou en 2005 et reprise depuis par de nombreux laboratoires, consiste à utiliser des molécules organiques solubles de structure parfaitement définie. Cette voie a permis d'obtenir récemment des rendements de conversion électrique de plus de 7 %, proches de ceux des cellules à base de polymères (8-9 %).
Cependant, ces molécules relativement complexes sont difficiles à produire : les plus performantes nécessitent jusqu'à 12 étapes de synthèse avec un rendement global inférieur à 0,10 % difficilement compatible avec une production à l'échelle industrielle. Voilà pourquoi les chercheurs de l'Institut Moltech-Anjou ont décidé d'intégrer dans la conception de nouvelles molécules, les contraintes propres à l'industrie, en termes de rendement de synthèse, de coût, et de respect de l'environnement.
Le premier pas de leur démarche a consisté à rechercher les molécules les plus simples présentant un effet photovoltaïque intéressant. Ils ont ainsi choisi de travailler sur une famille de molécules à base de triarylamines, qui peuvent être synthétisées en peu d'étapes. Ils ont ensuite cherché à optimiser certaines propriétés de ces molécules : capacité d'absorption de la lumière, niveaux d'énergie, stabilité ou encore mobilité des charges électriques. A partir de ces structures minimalistes, ils ont réalisé un travail d'ingénierie moléculaire en ajoutant, selon les besoins, certains types de liaisons ou de groupements chimiques.
Ils ont ainsi développé des molécules de faible masse moléculaire dont le rendement de conversion électrique est d'environ 4 %. C'est l'un des rendements les plus élevés obtenus avec des molécules de structure aussi simple. Ces molécules peuvent être synthétisées avec d'excellents rendements. Ces recherches qui bénéficient du soutien de groupes industriels se poursuivent afin d'améliorer à la fois les performances des cellules photovoltaïques et les procédés de synthèse. L'un des objectifs est de limiter l'utilisation de réactifs ou de solvants toxiques et de catalyseurs coûteux afin que ces molécules puissent s'intégrer à des dispositifs photovoltaïques pouvant être fabriqués à grande échelle.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
LE LÉVITON |
|
|
|
|
|
Paris, 28 octobre 2013
Le « leviton », une onde électronique silencieuse
Des physiciens du CEA et du CNRS1 ont réussi à injecter quelques électrons dans un conducteur sans que ceux-ci y apportent de perturbation. Ce résultat a été possible grâce à la génération d'impulsions électriques à profil temporel « lorentzien » ultra-court. L'onde quantique électronique obtenue, baptisée par les chercheurs « leviton », se propage sans bruit et sans déformation comme le font certaines ondes solitaires optiques ou hydrodynamiques connues (solitons). Ces travaux ouvrent la voie à l'utilisation de sources d'électrons « à la demande », simples et fiables, utiles à terme pour des applications en physique et en information quantique.
Ces résultats2 sont publiés le 31 octobre dans l'édition papier de la revue Nature.
DOCUMENT CNRS LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|