ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

PHYSIQUE ET MÉCANIQUE

  initiation musicale

 

 

 

 

 

 

PHYSIQUE ET MÉCANIQUE

Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever dans le futur. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, en passant par l'exploitation de l'imagerie bi voire tridimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges. Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolu, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, …).

Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet
2005
Par Stéphane ROUX[1] : Physique et Mécanique
Résumé :
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.
Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).
Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.

1 Introduction

Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.
Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.
Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :

*         Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
*         Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
*         Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
*         Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.

2 Enjeu de connaissance fondamentale
La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :

*         Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
*         Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
*         Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
*         Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
*         Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.

2.1 Savoir imbriquer les échelles de description
Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.
Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.
Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.

2.2 Non-linéarité et hétérogénéité : Physique statistique
Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.
Pour des rhéologies plus complexes, l'essentiel reste à construire :
Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.
L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).
Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.

3 Enjeu des nouvelles techniques d'analyse
Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.

3.1 Nouvelles imageries
Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.
La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.
A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.
Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.
De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.

3.2 Que faire avec ces informations ?
Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.
Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :

*         Fracture de matériaux vitreux imagée par AFM

En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.

*         Comportement plastique de la silice amorphe

La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.

*         Détection de fissures et mesure de leur ténacité

Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.

*         Comportement de polymères micro-structurés

Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.

4 Enjeu des nouveaux matériaux
Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.

4.1 Matériaux composites et nano-matériaux
L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).
Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).

4.2 Matériaux fibreux/Milieux enchevêtrés
Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.

4.3 Couches minces : Tribologie Frottement adhésion
La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.
Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.

4.4 Couplages multiphysiques
La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.

4.5 Vieillissement
La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.

4.6 Bio-matériaux/bio-mimétisme
La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.

4.7 Mécanique biologique
Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.

5 Enjeu des nouvelles demandes/ nouveaux besoins
Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.

5.1 Essais virtuels
Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.

5.2 Sûreté des prédictions
Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.

5.3 Variabilité Fiabilité
La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.
Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.
5.4 Optimisation
Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.

5.5 Contrôle
Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.

6 Conclusions
Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.

7 Références
Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.



[1] E-mail : stephane.roux@saint-gobain.com

 

 VIDEO     canal U       LIEN

 
 
 
initiation musicale toulon  

LE MÉCANISME DE REPLIEMENT DES MOLÉCULES

  initiation musicale

 

 

 

 

 

 

LE MÉCANISME DE REPLIEMENT DES MOLÉCULES


Ce terme désigne le mécanisme par lequel une macromolécule linéaire (par macromolécule on entend un enchaînement linéaire de motifs moléculaires) acquiert une structure tridimensionnelle. Un tel mécanisme est particulièrement important dans le domaine du vivant car une fois synthétisées c'est par ce processus que les protéines acquièrent la structure qui va leur permettre de remplir une fonction précise au sein de la cellule. Ce mécanisme a attiré l'attention de nombreux chercheurs du fait de son importance cruciale en biologie mais aussi du fait du formidable problème computationnelle que représente la prédiction de la structure tridimensionnelle de ces objets à partir de leur structure chimique linéaire. Nous rappellerons les notions essentielles nécessaires à la compréhension de ce mécanisme (atomes, liaisons chimiques, molécules, macromolécules) ainsi que les principaux mécanismes biologiques mis en jeu lors de la synthèse d'une protéine. Nous passerons ensuite en revue les principales forces mises en jeu lors du repliement (essentiellement les forces électrostatiques, l'effet hydrophobe, la liaison hydrogène) puis nous décrirons les principaux outils expérimentaux permettant d'aborder l'étude de ce phénomène. Quelques expériences seront présentées ainsi que la situation actuelle du problème.

Textede la 595ème conférencede l'Universitéde tous les savoirs prononcée le 17 juillet 2005
ParDidier Chatenay: « Le mécanisme de repliement des molécules »
Le thème de cette conférence vous fera voyager aux confins de plusieurs sciences : physique, chimie et biologie bien évidemment puisque les macromolécules dont nous parlerons sont des objets biologiques : des protéines.
Le plan de cet exposé sera le suivant :
- Quelques rappels sur la structure de la matière (atomes, liaisons chimiques, molécules, macromolécules).
- Qu'est-ce qu'une protéine (la nature chimique de ces macromolécules, leur mode de synthèse, leurs structures et leurs fonctions biologiques) ?
- Le problème du repliement (d'où vient le problème, paradoxe de Levinthal).
- Résolution du paradoxe et interactions inter intra moléculaires (échelles des énergies mises en jeu).
Rappels sur la structure de la matière.
La matière est constituée d'atomes eux-mêmes étant constitués d'un noyau (composé de particules lourdes : protons, chargés positivement, et neutrons non chargé) entouré d'un nuage de particules légères : les électrons chargés négativement. La taille caractéristique d'un atome est de 1 Angström (1 Angström est la dix milliardième partie d'un mètre ; pour comparaison si je prends un objet de 1 millimètre au centre d'une pièce, une distance dix milliards de fois plus grande représente 10 fois la distance Brest-Strasbourg).
Dans les objets (les molécules biologiques) que nous discuterons par la suite quelques atomes sont particulièrement importants.
Par ordre de taille croissante on trouve tout d'abord l'atome d'hydrogène (le plus petit des atomes) qui est le constituant le plus abondant de l'univers (on le trouve par exemple dans le combustible des fusées). L'atome suivant est le carbone ; cet atome est très abondant dans l'univers (on le trouve dans le soleil, les étoiles, l'atmosphère de la plupart des planètes. Il s'agit d'un élément essentiel comme source d'énergie des organismes vivants sous forme de carbohydrates). On trouve ensuite l'azote, constituant essentiel de l'air que nous respirons. L'atome suivant est l'oxygène, également constituant essentiel de l'air que nous respirons, élément le plus abondant du soleil et essentiel au phénomène de combustion. Le dernier atome que nous rencontrerons est le souffre que l'on trouve dans de nombreux minéraux, météorites et très abondants dans les volcans.
Les atomes peuvent interagir entre eux pour former des objets plus complexes. Ces interactions sont de nature diverse et donnent naissance à divers types de liaisons entre les atomes. Nous trouverons ainsi :
- La liaison ionique qui résulte d'interactions électrostatiques entre atomes de charges opposées (c'est par exemple ce type de liaison, qu'on rencontre dans le chlorure de sodium, le sel de table). Il s'agit d'une liaison essentielle pour la plupart des minéraux sur terre, comme par exemple dans le cas des silicates, famille à laquelle appartient le quartz.
- Un autre type de liaison est la liaison covalente. Cette liaison résulte de la mise en commun entre 2 atomes d'un électron ou d'une paire d'électrons. Cette liaison est extrêmement solide. Ce type de liaison est à l'origine de toute la chimie et permet de former des molécules (l'eau, le glucose, les acides aminés). Ces acides aminés sont constitués de carbone, d'azote, d'hydrogène et d'oxygène. Dans ces molécules on retrouve un squelette qu'on retrouve dans tous les acides aminés constitué d'un groupement NH2 d'un côté et COOH de l'autre ; la partie variable est un groupement latéral appelé résidu. Un exemple d'acide aminé est constitué par la méthionine qui d'ailleurs contient dans son résidu un atome de soufre. La taille caractéristique des distances mises en jeu dans ce type de liaison n'est pas très différente de la taille des atomes eux-mêmes et est de l'ordre de l'angström (1.5 Angström pour la liaison C-C, 1 Angström pour une liaison C-H).




Ces liaisons ne sont pas figées et présentent une dynamique ; cette dynamique est associée aux degrés de libertés de ces liaisons tels que par exemple un degré de liberté de rotation autour de l'axe d'une liaison C-C. Ces liaisons chimiques ont donc une certaine flexibilité et aux mouvements possibles de ces liaisons sont associés des temps caractéristiques de l'ordre de la picoseconde (mille milliardième partie de seconde) ; il s'agit de temps très rapides associés aux mouvements moléculaires.
A ce stade nous avons 2 échelles caractéristiques importantes :
- 1 échelle de taille : l'angström
- 1 échelle de temps : la picoseconde.
C'est à partir de cette liaison covalente et de petites molécules que nous fabriquerons des macromolécules. Un motif moléculaire, le monomère, peut être associé par liaison covalente à un autre motif moléculaire ; en répétant cette opération on obtiendra une chaîne constituée de multiples monomères, cette chaîne est une macromolécule. Ce type d'objets est courant dans la vie quotidienne, ce sont les polymères tels que par exemple :
- le polychlorure de vinyle (matériau des disques d'antan)
- le polytétrafluoroéthylène (le téflon des poêles)
- le polyméthacrylate de méthyl (le plexiglas)
- les polyamides (les nylons)
Quelle est la forme d'un objet de ce type ? Elle résulte des mouvements associés aux degrés de libertés discutés plus haut ; une chaîne peut adopter un grand nombre de conformations résultant de ces degrés de liberté et aucune conformation n'est privilégiée. On parle d'une marche aléatoire ou pelote statistique.
Les protéines
Quelles sont ces macromolécules qui nous intéressent particulièrement ici ? Ce sont les protéines qui ne sont rien d'autre qu'une macromolécule (ou polymère) particulière car fabriquée à partir d'acides aminés. Rappelons que ces acides aminés présentent 2 groupes présents dans toute cette famille : un groupe amine (NH2) et un groupe carboxyle (COOH) ; les acides aminés diffèrent les uns des autres par la présence d'un groupe latéral (le résidu). A partir de ces acides aminés on peut former un polymère grâce à une réaction chimique donnant naissance à la liaison peptidique : le groupement carboxyle d'un premier acide aminé réagit sur le groupement amine d'un deuxième acide aminé pour former cette liaison peptidique. En répétant cette réaction il est possible de former une longue chaîne linéaire.



Comme nous l'avons dit les acides amines diffèrent par leurs groupes latéraux (les résidus) qui sont au nombre de 20. On verra par la suite que ces 20 résidus peuvent être regroupés en familles. Pour l'instant il suffit de considérer ces 20 résidus comme un alphabet qui peut donner naissance à une extraordinaire variété de chaînes linéaires. On peut considérer un exemple particulier : le lysozyme constitué d'un enchaînement spécifique de 129 acides aminés. Une telle chaîne comporte toujours 2 extrémités précises : une extrémité amine et une extrémité carboxyle, qui résultent de la réaction chimique qui a donné naissance à cet enchaînement d'acides aminés. Il y a donc une directionnalité associée à une telle chaîne. La succession des acides aminés constituant cette chaîne est appelée la structure primaire. La structure primaire d'une protéine n'est rien d'autre que la liste des acides aminés la constituant. Pour revenir au lysozyme il s'agit d'une protéine présente dans de nombreux organismes vivants en particulier chez l'homme où on trouve cette protéine dans les larmes, les sécrétions. C'est une protéine qui agit contre les bactéries en dégradant les parois bactériennes. Pour la petite histoire, Fleming qui a découvert les antibiotiques, qui sont des antibactériens, avait dans un premier temps découvert l'action antibactérienne du lysozyme ; mais il y a une grosse différence entre un antibiotique et le lysozyme. Cette molécule est une protéine qu'il est difficile de transformer en médicament du fait de sa fragilité alors que les antibiotiques sont de petites molécules beaucoup plus aptes à être utilisées comme médicament.
Pour en revenir au lysozyme, présent donc dans les organismes vivants, on peut se poser la question de savoir comment un tel objet peut être fabriqué par ces organismes. En fait, l'information à la fabrication d'un tel objet est contenue dans le génome des organismes sous la forme d'une séquence d'acide désoxyribonucléique (ADN) constituant le gène codant pour cette protéine. Pour fabriquer une protéine on commence par lire l'information contenue dans la séquence d'ADN pour fabriquer une molécule intermédiaire : l'ARN messager, lui-même traduit par la suite en une protéine. Il s'agit donc d'un processus en 2 étapes :
- Une étape de transcription, qui fait passer de l'ADN à l'ARN messager,
- Une étape de traduction, qui fait passer de l'ARN messager à la protéine.
Ces objets, ADN et ARN, sont, d'un point de vue chimique, très différents des protéines. Ce sont eux-mêmes des macromolécules mais dont les briques de base sont des nucléotides au lieu d'acides aminés.
Ces 2 étapes font intervenir des protéines ; l'ARN polymérase pour la transcription et le ribosome pour la traduction. En ce qui concerne la transcription l'ARN polymérase se fixe sur l'ADN, se déplace le long de celui-ci tout en synthétisant l'ARN messager. Une fois cet ARN messager fabriqué un autre système protéique, le ribosome, se fixe sur cet ARN messager, se déplace le long de cet ARN tout en fabriquant une chaîne polypeptidique qui formera la protéine. Il s'agit d'un ensemble de mécanismes complexes se produisant en permanence dans les organismes vivants pour produire les protéines.
Ces protéines sont produites pour assurer un certain nombre de fonctions. Parmi ces fonctions, certaines sont essentielles pour la duplication de l'ADN et permettre la reproduction (assure la transmission à la descendance du patrimoine génétique). Par ailleurs ce sont des protéines (polymérases, ribosomes) qui assurent la production de l'ensemble des protéines. Mais les protéines assurent bien d'autres fonctions telles que :
- Des fonctions de structure (la kératine dans les poils, les cheveux ; le collagène pour former des tissus),
- Des fonctions de moteurs moléculaires (telles que celles assurées par la myosine dans les muscles) ; de telles protéines sont des usines de conversion d'énergie chimique en énergie mécanique.
- Des fonctions enzymatiques. Les protéines de ce type sont des enzymes et elles interviennent dans toutes les réactions chimiques se déroulant dans un organisme et qui participent au métabolisme ; c'est par exemple le cas du mécanisme de digestion permettant de transformer des éléments ingérés pour les transformer en molécules utilisables par l'organisme.
Pour faire bref toutes les fonctions essentielles des organismes vivants (la respiration, la digestion, le déplacement) sont assurés par des protéines.
A ce stade nous avons donc introduit les objets essentiels de cet exposé que sont les protéines. Pour être complet signalons que la taille de ces protéines est très variable ; nous avons vu le lysozyme constitué d'une centaine d'acides aminés mais certaines protéines sont plus petites et certaines peuvent être beaucoup plus grosses.
Nous allons maintenant pouvoir aborder le problème de la structure et du repliement de ces objets.
La structured'une protéine
Tout d'abord quels sont les outils disponibles pour étudier la structure de ces objets. Un des outils essentiels est la diffraction des rayons X. L'utilisation de cet outil repose sur 2 étapes. La première (pas toujours la plus facile) consiste à obtenir des cristaux de protéines. Ces protéines, souvent solubles dans l'eau, doivent être mises dans des conditions qui vont leur permettre de s'arranger sous la forme d'un arrangement régulier : un cristal. C'est ce cristal qui sera utilisé pour analyser la structure des protéines qui le composent par diffraction des rayons X. A partir du diagramme de diffraction (composé de multiples tâches) il sera possible de remonter à la position des atomes qui constituent les protéines. Un des outils essentiels à l'heure actuelle pour ce type d'expérience est le rayonnement synchrotron (SOLEIL, ESRF).
Il existe d'autres outils telle que la résonance magnétique nucléaire qui présente l'avantage de ne pas nécessiter l'obtention de cristaux mais qui reste limitée à l'heure actuelle à des protéines de petite taille.
Finalement à quoi ressemble une protéine ? Dans le cas du lysozyme on obtient une image de cette protéine où tous les atomes sont positionnés dans l'espace de taille typique environ 50 Angströms. Il s'agit d'un cas idéal car souvent on n'obtient qu'une image de basse résolution de la protéine dans laquelle on n'arrive pas à localiser précisément tous les atomes qui la constituent. Très souvent cette mauvaise résolution est liée à la mauvaise qualité des cristaux. C'est l'exemple donné ici d'une polymérase à ARN. Néanmoins on peut obtenir des structures très précises même dans de le cas de gros objets.


Repliement,dénaturation et paradoxede Levinthal
Très clairement on voit sur ces structures que les protéines sont beaucoup plus compactes que les chaînes désordonnées mentionnées au début. Cette structure résulte du repliement vers un état compact replié sur lui-même et c'est cet état qui est l'état fonctionnel. C'est ce qui fait que le repliement est un mécanisme extrêmement important puisque c'est ce mécanisme qui fait passer de l'état de chaîne linéaire déplié à un état replié fonctionnel. L'importance de ce repliement peut être illustrée dans le cas d'un enzyme qui permet d'accélérer une réaction chimique entre 2 objets A et B ; ces 2 objets peuvent se lier à l'enzyme, ce qui permet de les approcher l'un de l'autre dans une disposition où une liaison chimique entre A et B peut être formée grâce à l'environnement créé par l'enzyme. Tout ceci ne peut se produire que si les sites de fixation de A et B sont correctement formés par le repliement de la longue chaîne peptidique. C'est la conformation tridimensionnelle de la chaîne linéaire qui produit ces sites de fixation.



Il y a une notion associée au repliement qui est la dénaturation. Nous venons de voir que le repliement est le mécanisme qui fait passer de la forme dépliée inactive à la forme repliée active ; la dénaturation consiste à passer de cette forme active repliée à la forme inactive dépliée sous l'influence de facteurs aussi variés que la température, le pH, la présence d'agents dénaturants tels que l'urée.

La grande question du repliement c'est la cinétique de ce phénomène. Pour la plupart des protéines où des expériences de repliement-dénaturation ont été effectuées le temps caractéristique de ces phénomènes est de l'ordre de la seconde. Comment donc une protéine peut trouver sa conformation active en un temps de l'ordre de la seconde ?
Une approche simple consiste à développer une approche simplifiée sur réseau ce qui permet de limiter le nombre de degrés de liberté à traiter ; on peut par exemple considérer une protéine (hypothétique) placée sur un réseau cubique. On peut considérer le cas d'une protéine à 27 acides aminés. On peut alors compter le nombre de conformations possibles de telles protéines ; à chaque acide aminé on compte le nombre de directions pour positionner le suivant. Sur un réseau cubique à chaque étape nous avons 6 possibilités ce qui fera pour une chaîne de 27 acides aminés 627 possibilités. Cela n'est vrai qu'à condition d'accepter de pouvoir occuper 2 fois le même site du réseau ce qui, bien sur, n'est pas vrai dans la réalité ; si on tient compte de cela on arrive en fait à diminuer quelque peu ce nombre qui sera en fait 4,727. Plus généralement pour une chaîne de N acides aminés on obtiendra 4,7N possibilités. Si on part d'une chaîne dépliée on peut alors se dire que pour trouver le « bon état replié » il suffit d'essayer toutes les conformations possibles. Cela va s'arrêter lorsqu'on aura trouvé une conformation stable, c'est-à-dire une conformation énergétiquement favorable. Pour passer d'une conformation à une autre il faut au moins un mouvement moléculaire élémentaire dont nous avons vu que l'échelle de temps caractéristique est la picoseconde (10-12 seconde). I faut donc un temps total (afin d'explorer toutes les conformations) :
Trepliement= 4,7N * Tmoléculaire.
Si on prend N=100, Tmoléculaire= 1picoseconde=10-12seconde, alors :

Trepliement= 1055 secondes !!!
C'est beaucoup car on cherche 1 seconde et on trouve quelque chose de beaucoup plus grand que l'âge de l'univers (de l'ordre de 1027 secondes). Avec cette approche il faut plus de temps à une protéine pour se replier et met plus de temps que l'âge de l'univers.
C'est le paradoxe de Levinthal.
Comment s'en sortir ?
Il faut revenir aux acides aminés et en particulier aux résidus qui permettent de différencier les 20 acides aminés. Ces 20 acides aminés peuvent se regrouper en famille selon la nature de ce résidu.


Une première famille est constituée par les acides aminés hydrophobes. Qu'est ce qu'un acide aminé hydrophobe ou l'effet hydrophobe ? Il s'agit de l'effet qui fait que l'eau et l'huile ne se mélangent pas. Si sur une chaîne on dispose des acides aminés hydrophobes alors ceux-ci vont faire « collapser » la chaîne afin de se regrouper et de se « protéger » de l'eau, tout comme l'eau et l'huile ont tendance à ne pas se mélanger. Ce mécanisme tend à créer ainsi une poche hydrophobe qui permet à ces acides aminés d'éviter l'eau. On commence ainsi à avoir une amorce de solution au paradoxe de Levinthal : la protéine ne va essayer que toutes les conformations, elle va commencer à utiliser dans un premier temps ce mécanisme qui à lui seul va éliminer un grand nombre de conformations possibles.





Mais il y a d'autres familles d'acides aminés et parmi celles-ci celle des acides aminés chargés (+ ou -) qui vont être soumis aux interactions électrostatiques classiques (les charges de même signe se repoussent, les charges de signe contraire s'attirent). Ainsi, si le long de la chaîne nous avons 2 acides aminés de signe opposé ils vont avoir tendance à s'attirer ; cet effet a là encore tendance à diminuer le nombre de conformations possibles pour la chaîne.
Dernière famille, un peu plus complexe mais au sein de laquelle les interactions sont de même nature que pour les acides aminés chargés, à savoir des interactions de type électrostatique. Cette famille est constituée par les acides aminés polaires qui ne portent pas de charge globale mais au sein desquels la distribution des électrons est telle qu'il apparaît une distribution non uniforme de charges ; cette asymétrie dans la répartition des charges va permettre par exemple de créer des liaisons hydrogènes entre molécules d'eau (interactions qui donnent à l'eau des propriétés particulières par rapport à la plupart des autres liquides).
Au total l'image initiale que nous avions des chaînes polypeptidiques doit être un peu repensée et l'on doit abandonner l'idée d'une marche au hasard permettant d'explorer toutes les conformations possibles puisque les briques de base de ces chaînes interagissent fortement les unes avec les autres. On peut ainsi récapituler l'ensemble des interactions au sein d'une chaîne (effet hydrophobe, liaison ionique, liaison hydrogène, sans oublier un mécanisme un peu particulier faisant intervenir des acides aminés soufrés qui peuvent former un pont disulfure ; il s'agit néanmoins d'une liaison un peu moins générale que les précédentes et qui par ailleurs est beaucoup plus solide).
La structure globale de nos protéines résulte de la présence de toutes ces interactions entre les acides aminés présents le long de la chaîne. Lorsque l'on regarde attentivement de telles structures on observe la présence d'éléments répétitifs assez réguliers : hélices, feuillets. Ces feuillets sont des structures locales au sein desquelles la chaîne est organisée dans un plan au sein duquel la chaîne s'organise. Ces éléments de régularité résultent des interactions entre acides aminés et pour la plupart il s'agit des fameuses liaisons hydrogènes entre atomes spécifiques. Bien évidemment certaines régions sont moins organisées et on retrouve localement des structures de type marche au hasard.






Si on récapitule ce que nous avons vu concernant la structure des protéines, nous avons introduit la notion de structure primaire qui n'est rien d'autre que l'enchaînement linéaire des acides aminés. Nous venons de voir qu'il existait des éléments de structure locale (hélices, feuillets) que nous appellerons structure secondaire. Et ces éléments associés aux uns aux autres forment la structure globale tridimensionnelle de la protéine que nous appellerons structure tertiaire.

Il faut noter que cette structure des protéines résulte d'interactions entre acides aminés et il est intéressant de connaître les ordres de grandeur des énergies d'interactions mises en jeu. Ces énergies sont en fait faibles et sont de l'ordre de grandeur de l'énergie thermique (kBT). C'est le même ordre de grandeur que les énergies d'interaction entre molécules au sein d'un liquide comme l'eau ; on peut s'attendre donc à ce que de tels objets ne soient pas rigides ou totalement fixes. Ces mouvements demeurent faibles car il y a une forme de coopérativité (au sens ou plusieurs acides aminés coopèrent pour assurer une stabilité des structures observées) qui permet néanmoins d'observer une vraie structure tridimensionnelle. Ainsi, au sein d'un feuillet ou d'une hélice, plusieurs liaisons sont mises en jeu et à partir de plusieurs éléments interagissant faiblement, on peut obtenir une structure relativement stable de type feuillet ou hélice ; il suffit néanmoins de peu de chose pour détruire ces structures, par exemple chauffer un peu.
Si on revient au mécanisme de repliement on doit abandonner notre idée initiale de recherche au hasard de la bonne conformation. Si on part d'un état initial déplié, un premier phénomène a lieu (essentiellement lié à l'effet hydrophobe, qui vise à regrouper les acides aminés hydrophobes) qui fait rapidement collapser la chaîne sur elle-même. D'autres phénomènes vont alors se mettre en route comme la nucléation locale de structures secondaires de type hélices ou feuillets qui vont s'étendre rapidement le long de la chaîne. Le processus de Levinthal est donc complètement faux et l'image correcte est beaucoup plus celle donnée ici de collapse essentiellement lié à l'effet hydrophobe et de nucléation locale de structures secondaires.

Les protéines n'essaient donc pas d'explorer l'ensemble des conformations possibles pour trouver la bonne solution mais plutôt utiliser les interactions entre acides aminés pour piloter le mécanisme de repliement.
En fait la composition chimique de la chaîne contient une forme de programme qui lui permet de se replier correctement et rapidement.
Au sein des organismes vivants il y a donc plusieurs programmes ; un programme au sein du génome qui permet la synthèse chimique des protéines et un programme de dynamique intramoléculaire interne à la chaîne protéique qui lui permet d'adopter rapidement la bonne conformation lui permettant d'assurer sa fonction.
Il faut noter qu'il existe d'autres façons de s'assurer que les protéines se replient correctement qui font intervenir d'autres protéines (les chaperons).
Notons enfin les tentatives effectuées à l'heure actuelle de modélisation réaliste sur ordinateurs.

 

 VIDEO       CANAL  U         LIEN

 
 
 
initiation musicale toulon  

Les lois de la naissance des étoiles remises en question

  initiation musicale

 

 

 

 

 

 

Les lois de la naissance des étoiles remises en question

lundi 30 avril 2018

Une équipe internationale menée par des chercheurs du CNRS, de l'Université Grenoble Alpes et du CEA vient bouleverser l'idée que l'on se faisait de la formation des étoiles. La précision des observations offertes par le Grand réseau d'antennes millimétrique/submillimétrique de l'Atacama (ALMA) a permis de mesurer la quantité de cœurs massifs progéniteurs d'étoiles au sein d'une région lointaine très active de notre galaxie, et ainsi de montrer que leur proportion y est plus élevée que celle attendue. Publiés dans Nature Astronomy , ces résultats pourraient remettre en cause l'idée largement partagée selon laquelle la distribution en masse d'une population de cœurs progéniteurs d'étoiles serait identique à celle de sa descendance.
Dans l'espace, derrière le voile des nébuleuses, des nuages de gaz s'agglomèrent et s'effondrent sur eux-mêmes pour former les structures mères des étoiles : les cœurs progéniteurs. Ils évoluent en groupes, accumulent de la matière et se fragmentent jusqu'à ce que naisse un amas de jeunes étoiles de masses diverses dont la distribution a été décrite par Edwin Salpeter sous la forme d'une loi astrophysique en 1955.

Les astronomes avaient observé que la proportion entre les objets massifs et non massifs était la même dans les groupes de cœurs progéniteurs et ceux d'étoiles nouvellement formées. Cela laissait donc penser que la distribution en masse des étoiles à leur naissance, appelée IMF1, découlait simplement de la distribution en masse des cœurs qui leur donnent naissance, dite CMF2. Mais cette conclusion est le fruit de l'étude des nuages moléculaires les plus proches de notre système solaire, peu denses donc peu représentatifs de la diversité des nuages de notre galaxie. La relation entre CMF et IMF est-elle universelle ? Qu'observe-t-on en s'intéressant à des nuages plus denses, plus lointains ?

Ce sont les questions que se sont posées les chercheurs de l'Institut de planétologie et d'astrophysique de Grenoble (CNRS/Université Grenoble Alpes) et du laboratoire Astrophysique, instrumentation, modélisation (CNRS/CEA/Université Paris Diderot)3 lorsqu'ils se sont penchés sur l'amas de cœurs progéniteurs W43-MM1 dont la structure est beaucoup plus typique des nuages moléculaires de notre galaxie que ceux observés auparavant. Grâce à la sensibilité et à la résolution spatiale uniques du réseau d'antennes ALMA installé au Chili, les chercheurs ont établi une distribution des cœurs statistiquement robuste sur une gamme de masse inégalée, allant des étoiles de type solaire aux étoiles 100 fois plus massives. Surprise : cette distribution ne suit pas la loi de 1955 !

En effet, dans le nuage W43-MM1 les cœurs massifs se sont révélés surabondants et les cœurs peu massifs sous-représentés. Ces résultats remettent en question la relation entre CMF et IMF, voire même l'universalité supposée de l'IMF. Il est possible que la répartition en masse des jeunes étoiles ne soit pas la même en tout point de notre galaxie, contrairement à ce que l'on admet encore. Si tel est le cas, la communauté scientifique devra revoir ses calculs portant sur la formation des étoiles et à terme toutes les estimations dépendant du nombre d'étoiles massives : enrichissement chimique du milieu interstellaire, nombre de trous noirs et de supernovæ…

Les équipes vont poursuivre ces travaux avec ALMA au sein d'un consortium regroupant une quarantaine de chercheurs. Leur objectif : étudier 15 régions similaires à W43-MM1 pour comparer leur CMF et évaluer si les caractéristiques de ce nuage sont généralisables.


L'amas d'étoiles en formation W43-MM1, tel qu'observé avec le plus grand interféromètre millimétrique au monde, ALMA. Les très nombreux sites de formation d'étoiles, appelés cœurs et identifiés ici par des ellipses, témoignent de la forte activité de formation d'étoiles de cette région.


Télécharger le communiqué de presse :


Notes :
1 Pour “Initial Mass Function”
2 Pour “Core Mass Function”
3 Ont également collaboré des chercheurs de l'Observatoire aquitain des sciences de l'univers (CNRS/Université Bordeaux), du Laboratoire d'études du rayonnement et de la matière en astrophysique et atmosphères (CNRS/Observatoire de Paris/Sorbonne Université) et de l'Institut de radioastronomie millimétrique
Références :
The unexpectedly large proportion of high-mass star-forming cores in a Galactic mini-starburst. F. Motte, T. Nony, F. Louvet, K. A. Marsh, S. Bontemps, A. P. Whitworth, A. Men'shchikov, Q. Nguyen Luong, T. Csengeri, A. J. Maury, A. Gusdorf, E. Chapillon, V. K̈önyves, P.Schilke, A. Duarte-Cabral, P. Didelon and M. Gaudel. Nature Astronomy, le 30 avril 2018.
DOI 10.1038/s41550-018-0452-x
Contacts :
Chercheuse CNRS l Frédérique Motte l T 04 56 52 08 96 l frederique.motte@univ-grenoble-alpes.fr
Chercheur UGA l Thomas Nony l T 04 76 63 58 39 l thomas.nony@univ-grenoble-alpes.fr

Presse CNRS l François Maginiot l T 01 44 96 43 09 l francois.maginiot@cnrs.fr

 

 DOCUMENT       cnrs     LIEN

 
 
 
initiation musicale toulon  

Secouer le vide pour créer de la lumière

  initiation musicale

 

 

 

 

 

 

Secouer le vide pour créer de la lumière

Astrid Lambrecht dans mensuel 295
daté février 1997 -

Des calculs théoriques montrent que la mise en vibration, dans le vide, d'une cavité formée de deux miroirs permet de produire un rayonnement. Un effet quantique qui remet en question un principe de la relativité générale d'Einstein.

L'absence de toute matière ou de toute particule dans une certaine région de l'espace ne signifie pas que rien ne s'y passe. Témoin, cet effet curieux que prédit en 1948 le chercheur hollandais Hendrik Casimir : deux miroirs parallèles et placés dans le vide s'attirent faiblement1. Très faiblement : pour des miroirs de 1 cm2, espacés de 0,5 micromètre, la force d'attraction correspond au poids d'une masse de 0,2 milligramme. Il n'empêche que l'effet Casimir a été vérifié dès 1958 par un autre physicien hollandais, Marcus Sparnaay, qui a pu mettre en évidence à la fois l'existence de la force d'attraction et sa dépendance vis-à-vis de l'écart entre les plaques.

D'où provient l'effet Casimir ? La réponse fait intervenir le mariage entre les lois de l'électromagnétisme et celles de la physique quantique. Quand on calcule, par les lois quantiques, l'énergie minimale du champ électromagnétique, on s'aperçoit qu'elle n'est pas nulle. Le résultat peut être interprété par l'existence de fluctuations spontanées du champ. En d'autres termes : bien qu'en moyenne la valeur du champ électromagnétique soit nulle dans cet état d'énergie minimale qu'est le « vide », elle fluctue continuellement et aléatoirement autour de zéro, en positif comme en négatif. Ces fluctuations baignent tout l'espace et donnent lieu à une certaine énergie appelée « énergie de point zéro ». Il se trouve que sa valeur est infinie, ce qui a bien sûr soulevé une difficulté ; mais les physiciens la surmontent en faisant remarquer que l'énergie de point zéro, même infinie, n'est pas observable : seules les différences d'énergie le sont.
Dans le cas des deux miroirs envisagé par Casimir, ces objets modifient, par leur présence même, les fluctuations spontanées du champ électromagnétique. En effet, la valeur du champ électrique doit être nulle au niveau d'une surface parfaitement conductrice de l'électricité ce qu'est un miroir parfait. Les fluctuations du champ qui règnent à l'intérieur de la cavité doivent ainsi obéir à certaines « conditions aux limites ». La situation est analogue à celle d'une corde attachée par ses deux extrémités à des points fixes : l'amplitude de ses vibrations doit être nulle aux points d'attache, ce qui restreint les modes de vibration possibles. De ce fait, les fluctuations, qui sévissent spontanément à toutes les longueurs d'onde ou fréquences, sont amplifiées ou diminuées suivant que leur longueur d'onde s'accorde ou non avec la longueur de la cavité. Ces contraintes sur les fluctuations du champ à l'intérieur de la cavité formée par les deux miroirs ont pour résultat de modifier l'énergie du vide. La différence d'énergie, qui est calculable, est à l'origine de la force d'attraction présente dans l'effet Casimir.

Le vide n'avait cependant pas fini de surprendre. Dans les années 1970, plusieurs chercheurs ont commencé à s'intéresser aux conséquences des fluctuations affectant le vide sur des objets en mouvement. Les calculs montrent que, pour un miroir unique se déplaçant à vitesse uniforme, le mouvement ne perturbe aucunement le vide. Un résultat tout à fait conforme à une idée bien établie en rapport avec la théorie de la relativité d'Einstein : le vide est un état invariant, il demeure inchangé que l'observateur soit immobile ou qu'il soit animé d'une vitesse constante.
Les choses se sont singulièrement compliquées avec la prise en compte de mouvements accélérés. Par exemple, en 1968, le célèbre Andrej Sakharov suggère que la gravitation pourrait être un effet des fluctuations du vide2. Dans la même veine, les Russes Yaakov Zel'dovich et Lev Pitaevskii montrent en 1971 que le vide est modifié par la présence d'une courbure de l'espace-temps c'est-à-dire d'un champ de gravitation, selon la relativité générale3. L'astrophysicien britannique Stephen Hawking aboutit ensuite à la conclusion qu'un trou noir émet du rayonnement, en diffusant les fluctuations du vide4.
En recherchant un modèle pour décrire le rayonnement d'un trou noir, le physicien canadien William Unruh prédit en 1976 que les fluctuations du vide, vues par un observateur en mouvement uniformément accéléré, apparaissent comme des fluctuations thermiques5. Autrement dit, pour un tel observateur, le vide équivaut à l'intérieur d'un four chauffé à une température absolue différente de 0. En revanche, à la même époque, l'Australien Paul Davies et l'Anglais Stephen Fulling calculent le rayonnement dû à un miroir en mouvement dans le vide et concluent qu'il n'y a pas de rayonnement si l'accélération est uniforme constante en intensité et en direction6.
Les résultats de Davies et Fulling ne semblent pas compatibles avec ceux d'Unruh ; cette contradiction suscite, aujourd'hui encore, des controverses parmi les physiciens. Quoi qu'il en soit, ce qui nous intéresse ici est le cas d'une accélération non constante du miroir, une situation réalisée par exemple par une vibration. Les prédictions sont au moins aussi surprenantes que celles qui avaient annoncé l'effet Casimir. Les calculs de Davies et Fulling montrent que des photons sont émis dans le vide. La question naturelle à ce stade est : d'où vient l'énergie rayonnée ? Il n'y a pas de mystère, et le principe de conservation de l'énergie n'est pas en cause. Puisque le vide ne peut pas fournir d'énergie, celle-ci doit provenir du mouvement mécanique. Le miroir, responsable du rayonnement, perd de l'énergie et se voit donc freiné. On peut ainsi dire que le vide s'oppose aux mouvements des objets à accélération non uniforme.
Le rayonnement dû au mouvement du miroir est néanmoins très faible et il faudrait pouvoir provoquer des changements d'accélération incroyablement violents pour créer des photons en nombre détectable. L'observation de cette émission ne semble pas réaliste. Or le phénomène soulève des questions délicates et importantes concernant la notion de mouvement relatif et absolu. Il semble impliquer que le vide « s'aperçoit » d'un mouvement non-uniformément accéléré, tandis qu'un mouvement à accélération uniforme passe inaperçu. Le vide définit ainsi des référentiels préférés, privilégiant certains mouvements par rapport à d'autres. Cela apparaît contraire à l'enseignement de la relativité d'Einstein, pour laquelle « tout mouvement est relatif ».

La détection de ce rayonnement induit par un mouvement non-uniformément accéléré est donc un objectif très intéressant, car elle renseignerait directement sur la relation entre le vide quantique et la théorie de la relativité générale. Comment rendre les chiffres expérimentaux plus réalistes ? On peut imaginer non pas un miroir unique, mais une cavité constituée de deux miroirs et oscillant dans le vide. L'intérêt provient des effets de résonance optique : si les ondes qui font des allers et retours entre les miroirs ont une longueur d'onde compatible avec la longueur de la cavité, elles peuvent être amplifiées, tandis que les autres longueurs d'onde seront atténuées.
De nombreux calculs de l'énergie accumulée à l'intérieur d'une cavité en mouvement non-uniformément accéléré ont été effectués dans le passé, notamment par Davies et Fulling. Ces calculs ont porté sur des miroirs parfaitement réfléchissants. La cavité qu'ils forment est alors un système complètement fermé, duquel les photons du rayonnement ne peuvent s'échapper on ne s'intéresse ici qu'aux photons se propageant d'un miroir à l'autre, c'est-à-dire à ceux qui interagissent effectivement avec la cavité. Or de tels miroirs idéaux n'existent pas dans la réalité. Par ailleurs, ils mènent à des difficultés conceptuelles dans la mesure où, en l'absence de toute perte, le nombre de photons accumulés dans la cavité deviendrait infiniment grand au cours du temps.

Détecter le rayonnement induit par l'oscillation d'une cavité : une expérience difficile mais pas utopique
Récemment, Marc-Thierry Jaekel, Serge Reynaud et moi-même avons effectué des calculs pour des miroirs réalistes, dont le pouvoir de transmission est petit mais non nul7. Cela permet en particulier d'évaluer de manière quantitative l'influence de la « finesse »* de la cavité. Par rapport au cas d'un miroir unique oscillant dans le vide, le flux de photons produit par le mouvement des miroirs est amplifié par un facteur de l'ordre de la finesse de la cavité. Et il n'y a pas seulement amplification. Quand la fréquence de l'oscillation des miroirs est un multiple entier de la fréquence de résonance de la cavité, le gros du rayonnement est concentré à certaines fréquences lumineuses, qui sont également des multiples de la fréquence de résonance.
Comment mettre en évidence le rayonnement induit par le mouvement de la cavité ? L'expérience serait diffi-cile mais pas impossible. On pourrait imaginer l'utilisation d'une cavité constituée de miroirs supraconducteurs, de façon à assurer un très haut pouvoir réfléchissant et une finesse de l'ordre de 109. Si l'on arrivait à faire vibrer cette cavité à la fréquence de 1 gigahertz avec une amplitude de 1 nanomètre Ñ des valeurs qui ne sont pas irréalistes Ñ, on obtiendrait un flux d'environ dix photons par seconde transmis à travers les miroirs. Un tel flux, bien que faible, est mesurable. On pourrait également envisager de faire passer, à travers la cavité, des atomes très excités atomes dits de Rydberg. Ces atomes sont extrêmement sensibles aux champs électromagnétiques ; en mesurant leur état d'excitation à la sortie de la cavité, on pourrait déduire le nombre de photons qui se trouvent à l'intérieur.
Des précautions seront indispensables. Ainsi, pour éviter toute perturbation due aux rayonnements engendrés par l'agitation thermique, les expériences devront être réalisées à une température très basse, de l'ordre de quelques dizaines de millikelvins. Les techniques nécessaires sont de nos jours bien maîtrisées. Ainsi, grâce à l'amplification par la résonance optique, la détection du rayonnement induit par le mouvement paraît pour la première fois possible. Reste à réaliser l'expérience...

Pour mieux comprendre sa portée conceptuelle, remarquons que dans une configuration où les deux miroirs oscillent, les vibrations peuvent être en phase, de sorte que la longueur de la cavité reste constante. Or même dans ce cas, on prédit un rayonnement. Cela peut se comprendre : au cours du mouvement des deux miroirs, le champ continue à se propager dans la cavité. La longueur de la cavité vue par le champ change donc périodiquement même si sa longueur géométrique reste constante. Néanmoins, l'émission de photons dans cette situation paraît paradoxale : la cavité se déplace dans le vide, et ce mouvement n'a aucune autre référence que le vide lui-même. Comme avec un seul miroir, le vide semble établir une distinction entre les mouvements non-uniformément accélérés et les mouvements à vitesse ou accélération uniformes.
Or selon la relativité générale d'Einstein, il n'existe aucun référentiel privilégié : les lois de la physique doivent être les mêmes quel que soit le mouvement de l'observateur. Les propriétés quantiques du vide ouvrent apparemment une brèche dans ce principe ; à travers elles, c'est la question fondamentale de la relation entre la physique quantique et la théorie de la relativité générale qui est poséei.
1 H.B.G. Casimir, Proc. K. Ned. Akad. Wet., 51 , 793, 1948.
2 A.D. Sakharov, Soviet Physics- Doklady, 12 , 1040, 1968.
3 Ya. B. Zel'dovich et L.P. Pitaevskii, Comm. Math. Phys., 23 , 185, 1971.
4 S.W. Hawking, Comm. Math. Phys., 43 , 199, 1975.
5 W.G. Unruh, Phys. Rev. D, 14 , 870, 1976.
6 S.A. Fulling et P.C.W. Davies, Proc. R. Soc. Lond., A 348 , 393, 1976.
7 A. Lambrecht, M.-T. Jaekel et S. Reynaud, Phys. Rev. Lett., 77 , 615, 1996.

NOTES
*FINESSE D'UNE CAVITÉ La finesse d'une cavité mesure le nombre moyen d'allers et retours que fait un photon avant de traverser l'un des miroirs. La finesse dépend bien sûr du pouvoir réfléchissant des deux miroirs.

 

DOCUMENT      larecherche        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google