ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Perte de poids et maladie : comment le cerveau réduit-il l’appétit et le stockage énergétique ?

  initiation musicale


 

 

 

 

 

Perte de poids et maladie : comment le cerveau réduit-il l’appétit et le stockage énergétique ?


01 septembre 2016    RÉSULTATS SCIENTIFIQUES

Comment lier un état inflammatoire aigu à la perte d’appétit et de poids? Une équipe de l’Institut de pharmacologie moléculaire et cellulaire, en concertation avec deux autres groupes, met en évidence une nouvelle voie de contrôle reliant l’induction d’un choc inflammatoire, la production cérébrale de la chimiokine CCL2, et l’inhibition des neurones produisant la « Melanin concentrating hormone » dans l’hypothalamus, une zone du cerveau contrôlant notre balance énergétique. Cette étude pionnière sur les signaux neuro-immunologiques contrôlant notre poids est publiée dans la revue EMBO Reports.

Chacun l'a expérimenté ou l'expérimentera : atteints d'une maladie générant un état  inflammatoire plus ou moins fort, nous perdons l'appétit et en conséquence, nous perdons du poids.Afin de mieux comprendre la relation entre inflammation et perte de poids, les chercheurs reproduisent un état inflammatoire déclenché par une infection bactérienne, en injectant chez la souris un composant de la paroi de la bactérie, le lipopolysaccharide (LPS). L’injection de LPS chez la souris induit de facto une inflammation aiguë, identifiable par la surexpression de divers médiateurs inflammatoires, comme les cytokines et chimiokines. Elle est aussi associée à une fièvre et une perte de poids transitoires chez les animaux.

De nombreuses molécules inflammatoires, comme les cytokines Il1 béta, IL6 ou TNF alpha, ont été caractérisées et leurs effets démontrés dans la mise en place de ce qui est communément appelé le « comportement de maladie ». Cependant la correspondance entre la surexpression intracérébrale de ces médiateurs et leurs modes d’action sur les réseaux neuronaux impliqués dans de contrôle de l’appétit et du poids corporel restait mal définie.
Dans ce contexte, Carole Rovère et ses collaborateurs, au sein de l’équipe Génomique et Evolution en Neuro-endocrinologie dirigée par Jean-Louis Nahon, en concertation étroite avec le groupe de Nicolas Blondeau dans l’équipe de Catherine Heurteaux (IPMC/ CNRS/ UCA) et l’équipe de Serge Luquet, au laboratoire « Biologie fonctionnelle et adaptative » (CNRS/Université Paris Diderot) ont identifié une molécule inflammatoire particulière, la CCL2, comme un élément clé dans la cascade de signalisation initiée par l’administration du LPS et aboutissant  à la chute d’appétit et de poids. Cette protéine appartient à la famille des chimiokines, connues pour attirer les cellules inflammatoires au site lésé et auxquelles des études scientifiques récentes ont attribué la capacité de moduler l'activité neuronale. Elle est impliquée de fait dans certaines pathologies neurologiques.
En empêchant CCL2 de jouer son rôle par des d’agents pharmacologiques ou en utilisant des modèles d’animaux transgéniques, les chercheurs ont montré que l’effet amaigrissant associé à l’inflammation induite par le LPS était notablement diminué.
Les effets du LPS, qui entraîne une perte d’appétit, une augmentation de la consommation des réserves énergétiques contenues dans la masse grasse et donc une perte de poids, sont quant à eux retrouvés lors de l’injection intracérébrale de CCL2, confirmant ainsi le rôle central de CCL2 dans l’adaptation métabolique à l’inflammation chez la souris.

Les chercheurs ont ensuite identifié la cible de CCL2 dans l’hypothalamus, une zone du cerveau décrite comme le chef d’orchestre du comportement alimentaire. L’hypothalamus est une région complexe, abritant différents types de neurones produisant des molécules capables de moduler positivement ou négativement la prise alimentaire et les dépenses énergétiques. Parmi ceux-ci se trouvent les neurones produisant la « Melanin concentrating hormone » (MCH), un peptide connu pour favoriser la prise alimentaire et réduire les dépenses énergétiques.
En approfondissant leur recherche, les chercheurs ont montré que CCL2 peut agir directement sur les neurones, en se liant à son récepteur CCR2, et diminuer leur activité ainsi que leur capacité à sécréter le peptide MCH. Ainsi, l’action de CCL2 sur les neurones synthétisant la MCH pourrait expliquer en partie la perte d’appétit, l’augmentation des dépenses énergétiques et la perte de poids associées à un état d’inflammation. Cependant d’autres réseaux hypothalamiques, voire cérébraux, seraient la cible de cette chimiokine. Par ailleurs, l’expression d’autres chimiokines et facteurs inflammatoires apparait modifiée après une injection de LPS. Ce sont autant de cibles moléculaires prometteuses pour établir de nouvelles thérapies dans le contexte d’une perte de poids non-consécutive à un régime amaigrissant ou une anorexie mentale.
En conclusion, cette étude, combinant de multiples échelles d’investigation, représente l’exemple le plus détaillé de l’identification d’un mécanisme neuro-immunologique qui pourrait être commun à de nombreuses pathologies inflammatoires. De fait, nous ne sommes qu’aux prémices de l’exploration fonctionnelle des molécules inflammatoires cérébrales responsables des changements comportementaux observés lors d’une stimulation de la réponse immunologique.
 

Figure : Mode d’action de la voie de signalisation CCL2/CCR2 sur les neurones à « Melanin concentrating hormone » (MCH) dans un modèle de perte de poids induite par une injection de LPS provoquant un état inflammatoire. La chimiokine CCL2, produite lors d’une inflammation de l’hypothalamus, peut agir directement sur les neurones à MCH, en se liant à son récepteur CCR2, et diminuer leur activité ainsi que leur capacité à sécréter le peptide MCH. Ainsi, l’action de CCL2 sur les neurones synthétisant la MCH pourrait expliquer en partie la perte d’appétit, l’augmentation des dépenses énergétiques et la perte de poids associées à un état d’inflammation.

© Franck Aguila
 
 
En savoir plus
*         Central CCL2 signaling onto MCH neurons mediates metabolic and behavioral adaptation to inflammation.
Le Thuc O, Cansell C, Bourourou M, Denis RG, Stobbe K, Devaux N, Guyon A, Cazareth J, Heurteaux C, Rostène W, Luquet S, Blondeau N, Nahon JL, Rovère C.
EMBO Rep. 2016 Oct 12. pii: e201541499.
Contact
Carole Rovère
Chercheur
Jean-Louis Nahon

04 93 95 77 41/54

 

 DOCUMENT         CNRS         LIEN

 

 

 
 
 
initiation musicale toulon  

Une génétique bien gênante

  initiation musicale

 

 

 

 

 

 

Une génétique bien gênante
Alan J. Gray dans mensuel 333
daté juillet-août 2000 -

Une population trop réduite est confrontée à divers mécanismes qui peuvent accroître encore la fragilité du groupe. On parle de spirale de l'extinction. L'importance, voire la réalité, des facteurs génétiques qui entrent en jeu est très controversée.

La plupart des études portant sur la biodiversité abordent la question soit à l'échelle de l'espèce, soit à celle des écosystèmes, mais une troisième approche s'intéresse à la biodiversité intraspécifique, c'est-à-dire la diversité génétique. Son importance dans la biologie de la conservation est controversée. Certains la considèrent comme absolument fondamentale, et tiennent son maintien comme un objectif majeur de la conservation. Ils prétendent que la perte de diversité génétique, liée à la réduction de la taille d'une population, est l'une des causes principales des extinctions. D'autres, au contraire, insistent sur les nombreux exemples d'animaux ou de plantes possédant peu de variété génétique sans que cela semble leur nuire le moins du monde. Pour eux, l'extinction est essentiellement un processus démographique qui survient au hasard dans de petites populations.
Avant d'entrer plus avant dans la polémique, il faut signaler qu'il est en fait difficile de s'accorder sur une définition de la diversité génétique, ce qui n'est pas sans compliquer les débats. Selon l'union mondiale pour la nature IUCN, il s'agit de l' « ensemble des matériaux génétiques présents dans les organismes de la planète » - une définition à peu près équivalente à celle de la biodiversité. Les généticiens préfèrent utiliser le terme dans un sens plus étroit, et l'appliquent à une espèce ou à des groupes au sein d'une espèce - des populations - en en réduisant encore l'objet, le terme pourrait même être utilisé par référence à une séquence particulière d'ADN. Ayant ainsi délimité des sous-ensembles, il devient possible de comparer leur diversité génétique. De fait, le concept de diversité n'a probablement de sens qu'au travers de telles comparaisons. Cependant, mesurer ces différences ou ces similitudes n'est pas une mince affaire. Aussi devons-nous restreindre encore notre définition de la variabilité génétique à la seule variabilité mesurable.
Les premiers travaux qui mirent en évidence une variabilité intraspécifique datent de 1966. Ils furent réalisés par Richard Lewontin et J.L. Hubby chez la drosophile, et par Harris chez l'Homme1. Avant l'arrivée des techniques de biologie moléculaire, il s'agissait de séparer différentes formes d'une même protéine en l'occurrence, une enzyme, et à en inférer des différences de gènes. Ces études sur les protéines ne sont plus très à la mode aujourd'hui, d'autant plus qu'elles possèdent de nombreux inconvénients, le principal étant qu'elles ne permettent d'étudier qu'une petite partie des variations totales, peut-être moins d'un tiers. L'image que nous possédons aujourd'hui n'est ainsi peut-être qu'un reflet flou, ou même distordu, de la variété génétique réelle. Cependant, ces études sont très faciles à réaliser et peu coûteuses. Elles ont permis de calculer pour de nombreuses espèces les paramètres clés de la génétique de la diversité, appelés A, P et H.

Le premier d'entre eux, A, est le nombre moyen de formes différentes pour un gène particulier. Dans un exemple très théorique, la couleur d'une fleur pourrait être contrôlée par trois gènes différents, existant chacun sous 1, 6 et 2 formes, respectivement. La variabilité moyenne A est égale à trois. Le vocabulaire technique utilise le terme de locus pluriel loci à la place de gène pour signifier justement que plusieurs formes du gène sont envisageables. Ces différentes formes d'un même gène sont appelées allèles. Le second paramètre, P, est la proportion de loci qui sont variables on dit polymorphiques. Dans notre exemple, P est égal à 2/3. Enfin, H est la proportion de loci hétérozygotes en moyenne chez un individu. Tout individu reçoit de chacun de ses deux parents un exemplaire de chacun de ses chromosomes. Si les gènes apportés par le père et la mère sont identiques, on parle d'homozygotes, et s'ils sont différents, d'hétérozygotes.

Après trente-cinq ans, une énorme accumulation de données a donc été obtenue chez des espèces extrêmement diverses, essentiellement au moyen des méthodes de séparation des protéines. Ces données montrent une très grande variété dans la variété. A tel point qu'il est quelque peu trompeur de parler de moyenne. Si nous le faisons néanmoins, sur les sites détectables par cette technique, entre un quart et un tiers de tous les loci sont polymorphiques P avoisine 25 %, et 10 % environ hétérozygotes valeur de H. Les organismes les plus variables sont les invertébrés, puis viennent les plantes, et enfin les vertébrés les bactéries ont deux ou trois fois plus de variations. Au sein des plantes, les gymnospermes comme les pins et les monocotylédones comme les lys possèdent généralement une plus grande diversité que les dicotylédones comme les roses ; les espèces cosmopolites et très répandues de plantes ou d'animaux ont généralement plus de diversité que celles qui sont endémiques ; les mammifères qui vivent au-dessus du sol plus que les souterrains...
Au-delà de ces généralités, ces études ont posé une première question fondamentale du point de vue de la biologie de la conservation : de quelle manière la diversité génétique est-elle distribuée entre différentes populations d'une même espèce, c'est-à-dire entre différentes communautés relativement indépendantes démographiquement ? De cette question en découlent d'autres, dont les réponses sont essentielles aux gestionnaires dans leurs projets de conservation. Quelle part de la diversité totale contient une population donnée ? Combien de populations doit-on échantillonner pour être sûr de conserver, disons, 90 % de la diversité ?

Prenons l'exemple de l'enzyme GOT glutamate oxalocetic transaminase présente chez deux espèces d'herbe, réparties à peu près sur le même territoire du sud-ouest de l'Angleterre. Les deux espèces possèdent trois allèles pour l'enzyme. Chez le gastridium ventru Gastridium ventricosum, une plante annuelle, chacune des dix populations étudiées ne possède qu'un seul allèle dans huit cas sur dix, c'est le même. Tandis que pour l'agrosti à soie Agrostis curtisii, une fleur pérenne, les trois allèles sont présents dans chaque population, mais dans des proportions différentes voir fig. 1.
Si pour une quelconque raison on cherchait à préserver la diversité du locus GOT, une population unique de A. curtisii pourrait suffire. En revanche, pour G. ventricosum, même en connaissant la distribution allélique à l'avance, il faudrait au moins trois populations.
La différence entre ces deux espèces d'herbe correspond à une distinction importante entre deux groupes de plantes, séparés selon leur mode de fécondation : les autogames et les allogames. Chez les premières, comme G. ventricosum, les fleurs hermaphrodites sont fécondées par leur propre pollen ; les secondes, comme A. curtisii, pollinisent grâce au vent ou aux insectes, par exemple. En considérant le paramètre H la proportion d'hétérozygotes, on observe que les secondes, appelées aussi plantes à fécondation croisée, sont bien plus diversifiées que les premières. A première vue, cela semble tout à fait logique : si les individus se reproduisent avec des partenaires plus variés, la diversité génétique de l'espèce est plus grande. Les gènes des espèces allogames diffusent plus facilement dans toutes les populations de l'espèce.

Inversement, les gènes d'une espèce autogame ont plus de difficulté à se répandre. Chaque population peut développer des particularités qu'elle sera seule à posséder. James Hamrick et Michael Godt ont ainsi montré en 1989 que, sur 450 espèces de plantes répertoriées, moins de 10 % de la diversité des allogames était répartie parmi les différentes populations c'est-à-dire qu'une population unique possède à elle seule 90 % de la diversité d'une espèce, tandis que les autogames avaient en moyenne 50 % de leur diversité répartie parmi les différentes populations2. Toutes choses restant égales par ailleurs, un conservateur serait ainsi avisé de faire plus d'efforts pour prévenir la perte d'une population d'un autogame plutôt que d'un allogame.

Mais la question essentielle qui agite aujourd'hui les généticiens de la conservation est celle-ci : la baisse de la diversité génétique d'une espèce peut-elle induire, par elle-même, une extinction ? D'un point de vue théorique, on peut imaginer deux raisons à une baisse de la variabilité, toutes deux liées à une diminution de la taille de la population.
La première est la consanguinité. On a tous à l'esprit les effets néfastes qu'elle peut avoir chez l'Homme. Elle augmente fortement le risque de contracter les maladies génétiques. En effet, la plupart de ces maladies ne s'expriment pas lorsqu'une seule copie du gène déficient est présente donc sous forme hétérozygote. Or, la conséquence majeure de la consanguinité est la baisse de l'hétérozygotie ou paramètre H. Dans les formes les plus sévères de consanguinité, des calculs théoriques montrent qu'en partant de 100 % d'hétérozygotes on passe en sept générations à seulement un hétérozygote pour 255 homozygotes.
Comparant les performances de plantes produites par autofertilisation, avec celles produites par fertilisation croisée avec d'autres individus, Charles Darwin observa une diminution des premières. Ce phénomène est appelé de nos jours « dépression consanguine » et peut s'observer à tous les niveaux du cycle vital chez différentes espèces, du taux de fertilité des graines à la germination, à la survie des jeunes pousses et à la fécondité des individus. Des expériences de reproduction consanguine peuvent faire surgir les plus étranges mutants, y compris des mutants albinos incapables de synthétiser la chlorophylle, et donc à la durée de vie extrêmement réduite !

Ce phénomène est à rapprocher d'un autre, appelé hétérosis ou vigueur des hybrides, bien connu des agriculteurs. Les plantes croisées, celles qui possèdent donc une plus grande diversité, sont plus vigoureuses. Mais les bases génétiques précises de ce phénomène restent très mal comprises. D'un autre côté, dans certains cas, cette diminution de l'hétérozygotie peut aussi être l'occasion d'éliminer les gènes défectueux : les individus mutés meurent, et donc cessent de se reproduire et de transmettre le gène défectueux à leur descendance. La consanguinité peut ainsi dans certains cas renforcer la résistance de certains organismes, et cette voie a été utilisée pour des programmes de reproduction en captivité, comme pour les gazelles de Speke3.
Il existe d'autres contre-exemples. Ainsi, dans certaines populations extrêmement adaptées à leur environnement, un croisement amène une diminution de la survie des individus. On parle alors de « dépression de croisement ». Une manière d'expliquer ce phénomène serait de supposer que la population est tellement adaptée à son environnement qu'un apport génétique extérieur amène une diminution de son adéquation avec le milieu. Dans certains cas, les résultats diffèrent d'une souche à une autre. Ainsi, dans une série d'expériences chez la souris, R.C. Lacy a montré que les effets de la consanguinité variaient selon les populations4. La plupart des groupes souffraient d'une dépression consanguine, mais deux, au contraire, montrèrent une meilleure survie des nouveau-nés. En conclusion, les conséquences génétiques d'une augmentation de la consanguinité ne sont pas faciles à prédire. La plupart du temps, elles amènent une dépression, mais ce n'est pas toujours le cas.

La deuxième conséquence de la diminution de la taille d'une population est la perte aléatoire de certains allèles, un phénomène appelé « dérive génétique ». Imaginons une population de plusieurs milliers d'individus. Si elle se réduit brusquement, comme ce fut le cas des lions d'Asie de la forêt de Gir, en Inde, tombés à moins de vingt individus au début du XXe siècle, ou de l'éléphant de mer septentrional chassé quasiment jusqu'à extinction, alors il est probable que simplement par le fait du hasard, seuls certains allèles de la population générale seront présents chez les survivants. Les autres seront perdus. On parle de goulot d'étranglement génétique. La sélection aléatoire de certains allèles amène une différenciation génétique de la petite population vis-à-vis de son groupe d'origine, un phénomène associé à la spéciation, c'est-à-dire l'apparition de nouvelles espèces.
A l'encontre de la plupart des idées reçues, les études de polymorphisme ont dévoilé, souvent par hasard, que certaines espèces possédaient remarquablement peu de diversité génétique. Certaines semblaient même n'en présenter aucune ! voir tableau p. 105. Cette observation est d'autant plus étonnante que dans tous les cas, ces espèces possèdent des parents proches, parfois des congénères ou des sous-espèces, qui semblent détenir des niveaux « normaux » de diversité génétique. Par ailleurs, cette absence de diversité est parfois en contraste frappant avec des variations morphologiques visibles. Cette quasi absence de diversité a suscité une vive discussion parmi les généticiens de la conservation.

C'est dans ce contexte, en 1981, qu'Otto Frankel et Michael Soulé publièrent leur livre Conservation et évolution, qui devint rapidement un élément essentiel du débat5. Frankel s'inquiétait de la diminution des ressources génétiques dans les grandes cultures. Quant à Soulé, il s'intéressait à des questions plus larges telles les implications d'une diminution de l'hétérozygotie dans les petites populations, en particulier sur la survie et l'évolution d'une espèce.
Ce livre consacra la « loi empirique du 50/500 », que Frankel avait développé avec Wilcox6. Le premier nombre 50 représente le nombre minimal d'individus d'une population pour lesquels un niveau acceptable de consanguinité survient sans affecter sérieusement la survie de l'espèce. Le second 500 correspond au nombre minimal d'individus nécessaire pour prévenir l'érosion graduelle du patrimoine génétique d'une population, et permettre une future adaptation et un changement évolutif.

La validité universelle de cette loi du 50/500 a souvent été remise en question, en particulier pour la gestion concrète des populations à protéger. Néanmoins, elle a consacré l'enjeu et la préoccupation majeure de Soulé et de Frankel : le fait que l'activité humaine a mené à une diminution de la taille des populations de certaines espèces, ce qui représente une menace à la fois sur les performances et sur les capacités à évoluer. Ils décrivirent la génétique de la conservation comme la génétique de la pénurie, et à partir de ce moment, cette discipline s'est concentrée sur les petites populations et les espèces rares, et sur les menaces qu'elles encourent.

En particulier, ils critiquèrent un point de vue qu'ils appelèrent « optimisme phylogénétique », et selon lequel il existerait assez de variations génétiques dans la plupart des espèces pour leur permettre de s'adapter à des changements environnementaux : la sélection naturelle serait suffisamment puissante et universelle pour surmonter une dérive génétique et permettre une adaptation rapide. Il existe certes quelques exemples d'évolution rapide consécutive à un changement environnemental brusque comme l'apparition de la tolérance aux métaux lourds chez certaines plantes. Mais d'autres organismes, en particulier les grands animaux, se reproduisent trop lentement, vivent en trop petits groupes, trop dispersés et sans la possibilité de coloniser de nouveaux habitats. Aussi, en particulier pour les vertébrés, la taille des réserves naturelles est souvent trop petite, et donc celle des populations. Exposée à la consanguinité et à la dérive génétique, la variété génétique réduite des animaux ne leur permet probablement pas de continuer à évoluer pour faire face aux changements du milieu.
Bien que les idées de Frankel et Soulé soient bien plus subtiles et complexes qu'il n'est possible de l'expliquer ici, deux ensembles d'arguments leur ont été opposés.
Le premier a été avancé dès 1988 par Russell Lande7. Selon lui, la démographie est plus importante que la génétique. Quand les populations deviennent trop petites, il devient impossible d'assurer une défense de groupe efficace ou de trouver un partenaire sexuel ; la taille réduite des familles empêche le déroulement d'un certain nombre d'activités. Autant de raisons possibles à une extinction, qui n'ont rien à voir avec la génétique.

Le second ensemble d'arguments conteste toute importance accordée à la diversité génétique. Comme nous l'avons vu, il existe en effet différentes espèces relativement répandues, et qui semblent bien se porter malgré le fait qu'elles sont génétiquement appauvries. A cette idée, on a souvent opposé comme contre-exemple le cas des guépards, qui ne possèdent qu'une très faible diversité génétique et souffrent d'une forte mortalité infantile. Mais depuis 1994 T.M. Caro et M.K. Lorenson ont montré que la consanguinité n'était pas responsable de ces décès : les causes en sont la prédation par les lions et les hyènes, les accidents ou les abandons8.
De plus, dans les cas où la faible biodiversité était causée par un effet de « goulet », il existe de nombreux exemples dans lesquels les populations se sont remarquablement bien remises, et souvent rapidement, pour retrouver des effectifs plus importants dans le cas des éléphants de mer, des daims et de l'herbe spartina .

Pour conclure, si on admet la possibilité d'un effet de la dérive génétique et la consanguinité, il est probable qu'il s'ajoute aux difficultés démographiques, qui elles-mêmes pourraient aggraver les problèmes génétiques, et ainsi de suite. Un phénomène appelé « spirale de l'extinction ».
Dès lors, la question essentielle devient celle de déterminer à partir de quel effectif cette spirale commence à agir. Cela peut être une taille inférieure à 50, ou peut-être pas, mais il est probable que ce nombre varie selon les espèces et qu'il faille raisonner au cas par cas. Une situation à laquelle les biologistes risquent d'être réduits encore longtemps, tant que des divergences aussi profondes existeront quant à l'importance réelle de la diversité génétique.

1 R.C. Lewontin et J.L. Hubby, Genetics, 54 , 595, 1966.
2 J.L. Hamrick et M.J.W. Godt, in Plant P opulaiton G enetics, ßreeding and G enetic R essources , A.H.D. Brown et al. Ed, Sinauer Ass., 1989.
3 A.R. Templeton et B.Read, Zoo. Biol., 3 , 177, 1984
4 R.C. Lacy, in Conservation ßiology , P.L Fielder et S.K. Jain Ed, Chapman & Hall, 1992.
5 O.H. Frankel et M.E. Soulé, Conservation and E volution , Cambridge University Press, 1981.
6 M.E. Soulé et B.A. Wilcox Ed, Conservation ßiology : an E volutionary- E cological P erspective , Sinauer Ass. 1980.
7 R.C. Lande, Science, 241 , 1455, 1988.
8 T.M. Caro et M.K. Laurenson, Science, 263 , 485, 1994.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
initiation musicale toulon  

LA DYNAMIQUE DU GLOBE CONTRÔLE-T-ELLE L'ÉVOLUTION DES ESPÈCES ?

  initiation musicale

 

 

 

 

 

 

LA DYNAMIQUE DU GLOBE CONTRÔLE-T-ELLE L'ÉVOLUTION DES ESPÈCES ?


La Terre est une planète vivante, aussi bien d'un point de vue biologique que géologique. La dynamique interne du globe est à l'origine de bouleversements gigantesques à la surface. Ainsi, la vie eut-elle à subir de nombreuses agressions provoquées par la tectonique, la séparations des continents et les éruptions volcaniques de plusieurs milliers d'années. L'existence de ses gigantesques éruptions permet de fournir une hypothèse aux extinctions de masse qui ponctuèrent l'évolution des espèces.

Texte de la 12ème conférence de l'Université de tous les savoirs réalisée le 12 janvier 2000 par Vincent Courtillot
La dynamique du globe contrôle-t-elle l’évolution des espèces ?
Il y a soixante-cinq millions d’années, les dinosaures occupaient toutes les niches
écologiques : l’air, les mers, les terres ; il y en avait des petits, des gros, des végétariens, des carnivores, ils étaient merveilleusement adaptés à ce monde de l’ère secondaire. Et un beau jour, il y a environ soixante-cinq millions d’années, ils ont disparu. Les théories proposées par les chercheurs depuis une centaine d’années pour expliquer ces disparitions sont extrêmement nombreuses et la plus populaire d’entre elles, qui a fait florès depuis 1980, veut qu’un jour (instantanément à l’échelle des temps géologiques), un essaim de comètes ou une grosse météorite soit tombé sur la Terre, cet impact envoyant dans l’atmosphère des quantités extraordinaires de poussières et d’aérosols qui auraient modifié le climat : une longue nuit, un hiver planétaire, suivis d’une période d’effet de serre encore plus longue. De ce passage froid/chaud, de nombreuses espèces ne seraient pas relevées. L’impact aurait interrompu les chaînes alimentaires et aurait fait disparaître de la surface de la Terre, non seulement la totalité des dinosaures, mais aussi de nombreuses autres espèces de plus petite taille .
Tout ce que les paléontologues reconstituent de la vie passée du globe est basé sur l’analyse des restes fossiles que l’on retrouve dans les roches. Pour une espèce donnée, rares sont les individus qui sont bien préservés ; l’enregistrement que nous avons de la vie sur Terre à travers ces fossiles est très incomplet. Toute théorie que l’on va construire en se basant sur ces observations est fonction du degré de complétude de cet enregistrement.
La pensée des évolutionnistes et des géologues a été dominée au XIXème et au début du XXème siècles par l’idéologie de l’uniformitarisme : au cours des temps géologiques, il ne se serait jamais passé d’événement fondamentalement différent de ce qui se passe aujourd’hui ; les transformations, les évolutions que l’on observe dans les roches ne seraient dues qu’à l‘extraordinaire longueur des temps géologiques. Les uniformitaristes refusent que l’on invoque une quelconque catastrophe pour expliquer les observations des géologues. Encore faut-il savoir ce que l’on entend par le terme de catastrophe.
Sur Terre, à cause de l’eau, de l’érosion, des climats, de la tectonique des plaques, la surface est sans cesse rajeunie et les impacts anciens de météorites, les cratères, ont très peu de chance d’être préservés. La Lune en revanche a enregistré l’histoire du début du système solaire ; astre inactif, elle a conservé, figé, l’état des lieux d’il y a trois à trois à quatre milliards d’années, et on y observe grand nombre de gigantesques cratères. Il n’y a aucune raison de penser qu’à cette époque la Terre n’ait pas subi d’impacts de même importance. La question est de savoir de quand datent les derniers très grands impacts.
Depuis 1980, l’hypothèse de la disparition des dinosaures par un grand impact de météorite domine la scène. De nombreuses autres hypothèses ont été formulées. L’une d’entre elles, dont j’ai été, avec d’autres collègues, l’un des auteurs, propose une catastrophe climatique, mais d’origine interne, qui trouverait sa source dans le volcanisme. Un volcanisme qui naturellement devrait avoir été beaucoup plus intense et volumineux que tout ce que l’on a observé de mémoire humaine. Imaginez une très longue fissure de plusieurs centaines de kilomètres de longueur, d’immenses fontaines de lave injectant dans l’atmosphère des poussières, des aérosols, des gaz (chlorhydrique, carbonique, sulfureux) qui ont la possibilité de modifier durablement le climat. Nous savons, depuis une quinzaine d’années environ,

depuis l’éruption d’El-Chichon, et plus récemment du Pinatubo, que le soufre injecté par un volcan dans l’atmosphère peut être responsable d’une évolution climatique significative. La température moyenne de l’hémisphère nord a ainsi chuté de façon mesurable pendant quelques années à la suite de l’éruption du Pinatubo, de quelques fractions de degrés Celsius, ce qui, à l’échelle de la température moyenne d’un hémisphère, est loin d’être négligeable. Ce n’est pas pour autant que dans les 15 dernières années, les espèces se soient éteintes en
masse ! Si le volcanisme doit expliquer l’extinction des espèces, c’est à une autre échelle qu’il a dû se manifester : encore faut-il le démontrer.
Qu’il faille invoquer un impact de météorite, qui ne dure qu’une fraction de seconde, ou une éruption volcanique qui s’étagerait sur quelques dizaines à quelques centaines de milliers d’années, on a là des événements très brefs en regard des temps géologiques, qui se chiffrent, eux, en millions, en dizaines de millions, voire en milliards d’années.
Il faut noter que quelques scientifiques ont fait l’hypothèse qu’il ne s’était en fait rien passé de brutal au moment de la disparition des dinosaures ; la mauvaise qualité de l’enregistrement de ces événements par les fossiles donnerait cette impression de brutalité, mais en fait, les choses se seraient passées de façon calme et régulière, sur des dizaines de millions d’années : on constate, il y a 65 millions d’années, , un vaste mouvement de régression et de retour des mers étagé sur une quinzaine de millions d’années, qui a entraîné un vaste changement de la géographie du monde.
Pour faire justice à toutes les théories existantes, une autre école pense que les extinctions ont certes été rapides, mais que c’est la dynamique interne des relations entre les espèces qui aurait conduit à une disparition en masse d’espèces. Des relations non linéaires entre les paramètres d’un système dynamique peuvent on le sait conduire à des évolutions extrêmement brutales : c’est la théorie du chaos déterministe.
A côté de ces quatre familles de théories sur la disparition des dinosaures, il en existe bien une centaine qui ont été proposées depuis un siècle. On a ainsi suggéré que leur régime alimentaire ayant changé, ils pondaient des œufs dont la coquille était fragile et qu’ils les écrasaient quand ils les couvaient...
Des données rassemblées depuis vingt ans par les géologues, les géophysiciens, les géochimistes, des spécialistes de plus d’une vingtaine de spécialités et de sous-spécialités différentes ont renouvelé l’approche de ce problème. La figure 1 montre un affleurement de calcaires au nord de la ville de Gubbio, en Ombrie, en Italie. Les calcaires en bas à droite, gris-bleu, se sont déposés dans un milieu semi-tropical à quelques centaines de mètres de fond, dans une mer assez chaude. Quand on en observe un petit morceau au microscope, on trouve des fossiles d’animaux petits et nombreux, des foraminifères. Ces animaux caractérisent l’âge des couches dans lesquelles ils sont enfermés, le Crétacé, la dernière partie de l’ère secondaire. En bas à droite de la séquence, nous sommes aux environs de moins soixante-six millions d’années. En biais au milieu de la photographie, une petite couche de deux ou trois centimètres d’épaisseur, marron foncé, faite d’argile sombre, sépare les bancs calcaires clairs de bancs calcaires plus rosâtres ; manifestement le contenu en oxyde de fer y est différent. Ce sont des calcaires qui témoignent à peu près du même milieu de dépôt ; lorsqu’on regarde au microscope une lame mince de cette roche, on s’aperçoit que, dans les premiers centimètres, elle ne contient plus de fossiles. On a l’impression que le monde s’est vidé. Puis, quand on remonte de quelques centimètres vers le haut, on observe des foraminifères pour la plupart assez différents des espèces que l’on trouvait en dessous : plus

petites, moins fines et moins décorées, ces premières espèces marines datent du début de l’ère tertiaire, il y a moins 65 millions d’années : on a traversé la fameuse limite entre ère secondaire et ère tertiaire, la limite Crétacé-Tertiaire. Depuis une vingtaine d’années les chercheurs se demandent ce qui a bien pu se passer. Quelle est la durée, la portion de mémoire de la Terre renfermée dans ce centimètre et demi d’argile noirâtre ? Un certain nombre de chercheurs américains et italiens, en particulier Walter Alvarez, ont prélevé des échantillons de ces argiles et de ces calcaires de part et d’autre de l’argile et ont analysé leur composition chimique. Surprise ! L’argile est très enrichie en iridium, un métal très rare dans la croûte terrestre. mais relativement abondant dans certains types de météorites : une telle météorite se serait vaporisée au moment de l’impact et ses produits se seraient redéposés à la surface du globe entraînant partout cette concentration anormale d’iridium. Nous sommes en 1980, l’hypothèse de la météorite est née.
Dans les années qui suivirent, les chercheurs se précipitèrent sur les coupes de la limite Crétacé-Tertiaire, partout là où elles affleuraient. La figure 2 montre ainsi un objet trouvé dans l’une de ces coupes, un tout petit grain de quartz, de un millimètre de diamètre, regardé à travers un microscope, en lumière polarisée analysée. Ce grain est traversé de familles de petits traits noirs, parallèles les uns aux autres, qui forment deux familles avec des angles très caractéristiques. Les spécialistes sont capables, en orientant ce cristal, de dire exactement à quel plan cristallin correspondent ses défauts. On ne peut produire ce type de structure qu’en faisant passer à travers un cristal de quartz une onde de choc phénoménale. Cette onde de choc désorganise le réseau cristallin et laisse derrière elle ces dislocations, ces limites entre domaines cristallographiques différents. Les grès à proximité de l’impact de la météorite de Canon Diablo en Arizona, ou les échantillons de roches provenant des sites d’explosion atomique présentent les mêmes structures. C’est un argument très fort en faveur de la météorite. Ces grains de quartz choqués ne se trouvent que dans la couche d’argile riche en iridium, mais ni au-dessus ni au-dessous.


Enfin, on a découvert la présence d’un énorme impact de météorite dans le Yucatan (au Mexique), en utilisant des mesures indirectes faites en déplaçant à la surface du sol un gravimètre (qui mesure la pesanteur). Au début des années 1970, les pétroliers ont trouvé au fond de forages effectués dans cette même région des roches qui pourraient être des restes de croûte fondue par la chaleur dégagée au moment de l’impact. Ces échantillons ont exactement soixante-cinq millions d’années, c’est-à-dire l’âge de la limite Crétacé-Tertiaire. Le cratère de Chicxulub semble bien correspondre au point d’impact de la météorite d’Alvarez.
L’iridium, les quartz choqués, la trace de l’impact au Mexique, un énorme impact qui a à peu près la bonne taille (pour une météorite qui devait faire dix kilomètres de diamètre à peu près). Le scénario en faveur de l’impact de l’astéroïde, développé entre 1980 et 1990, doit aujourd’hui être accepté.
Au début des années 1980, je me trouvais, avec mon équipe, à ramasser des cailloux quelque part entre le Tibet et l’Inde. Nous mesurions la dérive des continents. Nous avons ainsi décidé d’étudier une énorme formation volcanique, pas très loin de Bombay. On appelle cette formation géologique "les trapps du Deccan" : deux milles mètres d’épaisseur de lave affleurant sur cinq cent milles kilomètres carrés de surface. C’est donc un objet de plus d’un million de kilomètres cubes de laves empilées couche après couche, dont certaines font cent mètres d’épaisseur. On n’a jamais vu de mémoire d’homme d’éruption de cette dimension. Le travail que nous avons mené a consisté à essayer de caractériser ces roches, de les dater, en utilisant diverses techniques.
Nous avons rapporté au laboratoire des échantillons de ces basaltes du Deccan, et nous en avons mesuré l’aimantation. La plupart des roches naturelles renferment une très petite quantité d’oxydes de fer magnétiques, en général de la magnétite ou l’hématite. Nous sommes capables de mesurer la direction de cette aimantation, qui a été figée au moment où la roche s’est formée. Nous obtenons ainsi une photographie de la direction du champ magnétique terrestre ancien. Les roches naturelles se comportent donc, en gros, comme des boussoles qui ont gardé la mémoire de la direction du champ magnétique terrestre, à la fois dans le plan horizontal et dans le plan vertical, parfois depuis des centaines de millions d’années.
Nous avons par ailleurs mis en oeuvre des techniques de datation qui utilisent la décroissance naturelle des isotopes radioactifs, dont la plus connue est la méthode du carbone 14. Il existe d’autres couples d’atomes exploitables, le potassium et l’argon, le rubidium et le strontium, l’uranium, le thorium et le plomb. La géochronologie permet ainsi de dater les roches très loin dans le passé, jusqu’à l’origine du système solaire, pour peu qu’elles contiennent une quantité suffisante de ces isotopes. En utilisant l’une de ces méthodes, la méthode des isotopes de l’argon 39 et 40, nous avons montré que, du bas au haut de la falaise, les laves indiennes se sont mises en place en très peu de temps, il y a 65 à 66 millions d’années. Nous sommes capables de dire, grâce au magnétisme que cette durée n’a sans doute pas en fait excédé un demi million d’années.
Aucune des techniques que je viens de décrire ne permet à elle seule d’apporter la réponse au problème. Le magnétisme dit : « très court ». La méthode argon-argon, dit : « vers soixante- cinq millions d’années », mais même avec ces deux informations plusieurs scénarios restent envisageables. Nous avons heureusement retrouvé, « sandwichés » entre les coulées de lave, des sédiments accumulés dans un lac qui avait dû se mettre en place pendant une accalmie des éruptions. Dans ces sédiments, de tout petits restes de fossiles témoins de la toute dernière époque de l’ère secondaire. Avec l’ensemble des résultats de la géochronologie, du paléomagnétisme et de la paléontologie, il ne reste plus qu’un seul scénario possible : les gigantesques éruptions du Deccan datent bien précisément de la fameuse limite entre les ères secondaire et tertiaire.
La courbe de la figure 3 montre l’évolution dans le temps du nombre d’espèces marines fossiles découvertes par les paléontologues. On y voit la dernière et célèbre grande extinction qui, il y a soixante-cinq millions d’années, marque cette limite entre ère secondaire (ou Mésozoïque) et ère tertiaire (ou Cénozoïque). Le nombre des espèces, la diversité de la Vie sur Terre, a énormément augmenté au cours des temps géologiques, mais pas de manière uniforme. A l’ère primaire (ou Paléozoïque), après un début foudroyant (« l’explosion cambrienne »), la diversité se fixe à une valeur relativement constante, pendant des centaines de millions d’années. Et puis, il y a quelque deux cent cinquante millions d’années, s’est produite une énorme extinction en masse d’espèces. Puis la Vie a repris, a connu quelques rechutes, a repris à nouveau. Le dernier grand accident, c’est la fameuse limite Crétacé- Tertiaire.


Lors d’une pareille catastrophe, non seulement des espèces disparaissent entièrement, c’est-à- dire que tous les individus de ces espèces meurent, mais les espèces qui survivent peuvent perdre de très nombreux individus. A la limite entre les ères primaire et secondaire, il y a deux cent cinquante millions d’années, 99 % au moins de tous les individus de toutes les
espèces qui vivaient sur Terre ont disparu. C’est à peine imaginable, en termes de disparition de biomasse et en termes de catastrophe planétaire.
Retrouvons-nous pour les autres catastrophes, et en particulier, pour la grande d’il y a deux cent cinquante millions d’années, les mêmes scénarii que pour la crise Crétacé-Tertiaire ? Retrouvons-nous des traces d’impact d’astéroïde, des volcans, de grandes régressions marines ?
À travers le monde entier, plusieurs équipes se sont attachées non seulement à regarder, plus en détail, la période de la disparition des dinosaures, mais aussi toutes les autres extinctions. En même temps, les géophysiciens se sont intéressés à chercher s’il y avait d’autres endroits que l’Inde où l’on observait ces épanchements volcaniques extraordinaires. Il y a en fait une dizaine de grands « pâtés » volcaniques qui font au moins 1 million de km3 en volume, répartis à la surface de la Terre. Pour chacun d’entre eux, les chercheurs se sont livrés aux mêmes analyses que nous avions faites en Inde ; le résultat est que la quasi-totalité des formations volcaniques coïncide avec la quasi-totalité des grandes extinctions. En particulier, la grande catastrophe d’il y a deux cent cinquante millions d’années, à la fin du primaire, correspond à une énorme formation volcanique, les «trapps de Sibérie », bien connue des géologues et des économistes, parce que l’on y trouve des richesses minérales considérables, d’ailleurs liées au volcanisme.
À la question posée dans le titre de cette contribution, « La dynamique du globe contrôle-t- elle l’évolution des espèces ? », j’ai surtout tenté de répondre en parlant de l’expression du volcanisme à la surface de la Terre. Le travail du géologue et du géophysicien, c’est d’essayer de comprendre ce qui est à l’origine de ces énormes objets que sont les grandes trapps. Que s’est-il passé à l’intérieur de la Terre, sous la croûte, dans le manteau terrestre, qui a conduit à de pareils événements ? La dernière fois que s’est produite pareille monstruosité à la surface de la Terre, c’était il y a trente millions d’années. Le volcanisme correspondant forme le haut plateau éthiopien. Ce plateau volcanique, sur lequel est construit Adis Abeba, à deux mille mètres d’altitude (et dont on retrouve un fragment détaché au sud de l’Arabie, au Yémen) est un énorme volcan, formé il y a trente millions d’années, non pas au moment d’une grande disparition d’espèces, mais au moment d’une des principales crises climatiques de l’ère tertiaire. Cela correspond, en particulier, à la véritable apparition des glaciations dans l’Antarctique. Il semble qu’il y ait une relation entre le volcanisme des « trapps d’Ethiopie » et l’établissement de ce régime froid, glaciaire particulier, dans lequel nous sommes encore (même si ce moment de notre histoire est plutôt une confortable phase interglaciaire qu’une phase glaciaire à proprement parler).
Peu après la mise en place des « trapps d’Ethiopie », une déchirure est venue les traverser. Il y a donc manifestement une relation entre l’arrivée de ces bulles magmatiques à la surface et les grands moments où se déchirent les continents à la surface du globe, où s’ouvrent les bassins océaniques. Ainsi, la naissance des trois grands bassins (nord, central et sud) de l’océan Atlantique correspond-elle à l’apparition de trois points chauds et à la mise en place concomitante de trois grands trapps (Groëland-Nord des îles anglo-irlandaises, côtes est- américaine et marocaine, bassin du Parana en Amérique du Sud et d’Etendeka en Afrique).
Géophysicien, j’applique les méthodes de la physique à l’étude de la Terre pour tenter d’en comprendre la dynamique interne. Je voudrais donc vous entraîner dans un voyage difficile à imaginer : produire des images réalistes de l’intérieur de la Terre, où règnent des températures élevées, des densités fortes, une obscurité totale, n’est pas facile. D’ailleurs, les films qui ont tenté d’évoquer un voyage à l’intérieur de la Terre sont la plupart du temps assez décevants.
7
Nous allons cependant par la pensée nous enfoncer jusqu’à six mille quatre cent kilomètres sous le sol, jusqu’au centre de la terre.
Le champ magnétique oriente les boussoles à la surface de la Terre. Une petite masselotte empêche l’aiguille de la boussole de piquer du nez : le champ magnétique terrestre tend en effet non seulement à l’orienter vers le nord, mais aussi à la faire plonger – à Paris par exemple de 64° en dessous de l’horizontale. Or il existe une relation mathématique simple entre le plongement du champ magnétique et la latitude où l’on se trouve. C’est cette propriété qui permet de mesurer la dérive des continents. Quand le champ fossilisé par une roche provenant d’Inde est typique de ce qui se passe à 30° de latitude sud, alors qu’aujourd’hui cette roche est à 30° de latitude nord, je déduis que le sous-continent a parcouru 60° de latitude, c’est-à-dire près de sept mille kilomètres de dérive du Sud vers le Nord. Voilà comment on utilise l’aimantation fossilisée dans les roches.
Au milieu des océans arrive en permanence, par les déchirures que l’on appelle les dorsales, de la lave qui se refroidit et qui elle aussi fige la direction du champ magnétique terrestre. Si on déplace au fond des océans un magnétomètre, celui-ci révèle des alternances magnétiques, dans un sens et dans l’autre, qui témoignent que le champ magnétique de la Terre n’a pas toujours pointé vers le Nord. Le champ magnétique de la Terre s’est inversé des centaines de fois au cours de l’histoire de la Terre. La dernière fois, c’était il y a sept cent quatre-vingt milles ans. L’intensité du champ magnétique, depuis l’époque des Romains, s’est affaissée en Europe d’un facteur 2. Certains se demandent si le champ magnétique de la Terre ne va pas s’inverser dans deux milles ans. Or, c’est lui qui nous protège des rayons cosmiques. Est-ce quand le champ s’inverse que les espèces s’éteignent ?
Ces inversions successives sont peintes sur le plancher océanique, il est possible de les dater. Aujourd’hui, le champ s’inverse assez fréquemment, avec quelques inversions par million d’années. Mais, le champ ne s’est pas inversé pendant près de trente millions d’années, au cours du Crétacé.
La variation de la fréquence des inversions est très irrégulière et de longues périodes sans inversion alternent avec des périodes plus instables. Cette alternance semble se répéter au bout de deux cents millions d’années. La dernière période « immobile » a duré de moins de cent vingt à moins quatre-vingt millions d’années ; la précédente de moins trois cent vingt à moins deux cent soixante millions d’années. Il est frappant de voir que deux très gros trapps (Inde et Sibérie) et les deux plus grandes extinctions d’espèce ont suivi de peu ces périodes de grand calme magnétique. Le noyau de la Terre participerait-il au déclenchement de ces gigantesques catastrophes qui conduisent aux extinctions en masse ?
Le noyau de fer liquide de la Terre, qui fabrique le champ magnétique, a sa dynamique propre ; est-il couplé d’une certaine façon, à travers le manteau, avec la surface de la Terre ? Comment un tel couplage est-il possible?
Les sismologues, qui enregistrent en permanence les tremblements à la surface de la Terre et qui utilisent les ondes de ces tremblements de terre pour scruter, comme avec des rayons X, l’intérieur, sont capables de réaliser une tomographie du manteau. Ce manteau n’est pas homogène, comme on le croyait, mais formé de grandes masses un peu informes, plus lourdes et plus froides, qui sont sans doute des morceaux de plaques lithosphériques réinjectées à l’intérieur de la Terre. On savait depuis longtemps que ces plaques pouvaient descendre jusqu’à 700 km de profondeur ; on s’aperçoit qu’elles peuvent en fait parfois plonger jusqu’à
8
la base du manteau, s’empiler sous forme de véritables cimetières : des cimetières de plaques océaniques à 2900km sous nos pieds. Cette énorme masse froide et lourde vient se poser à la surface du noyau, dans lequel se fabrique le champ magnétique.
La Terre est un objet en train de se refroidir ; sa façon normale de se refroidir, c’est la convection d’ensemble du manteau, qu’accompagne la dérive des continents : la formation de la croûte, le flux de chaleur, les tremblements de terre, les éruptions volcaniques sont l’expression de ce refroidissement. Apparemment, ce système ne parvient pas ainsi à se débarrasser de la chaleur de manière suffisamment efficace. De temps en temps, un autre mode de convection de la matière conduit à la formation de ces énormes instabilités qui très rapidement vont emmener une part importante de matière et avec elle, une quantité importante de chaleur, jusqu’à la surface.
Le noyau essaie de se débarrasser de sa chaleur et un isolant vient l’en empêcher. Les hétérogénéités du manteau inférieur se réchauffent alors, s’allègent et peuvent de temps en temps devenir instables et remonter. Malheureusement, la sismologie ne nous permet pas encore de voir ces instabilités. La figure 4 représente une coupe de l’intérieur de la Terre. On y voit, à la base du manteau, ces instabilités formées de matériaux légers qui, peut-être, peuvent atteindre la surface, déclencher les éruptions des trapps et provoquer nos fameuses extinctions. Tout le système « Terre » (manteau, descentes de plaques froides, remontées d’instabilités chaudes, volcanisme catastrophique, évolution des espèces biologiques) formerait alors un grand ensemble couplé.
9
10
À défaut de pouvoir voir l’intérieur de la Terre, nous sommes capables, aujourd’hui, de le modéliser soit numériquement, sur les ordinateurs, soit dans des expériences analogiques en laboratoire. On mélange ainsi des fluides qui permettent de reproduire, en modèle réduit, ce qui se passe à l’intérieur de la Terre. On observe, sous certaines conditions, qu’un liquide
léger, donc instable, placé à la base d’un liquide dense donne naissance à des instabilités en forme de champignon, avec une tête volumineuse et une tige longue et mince [figure 4].
Si l’on imagine qu’une plaque, l’Inde par exemple, dérive au-dessus d’une telle instabilité, au moment où la bulle arrive en surface, elle va former des « trapps ». Mais, quand la bulle se sera vidée, la plaque qui a dérivé se trouvera au-dessus de la tige du « champignon » qui pourra continuer, comme un chalumeau, à percer sa surface, mais avec un volume et une intensité beaucoup plus faibles. C’est bien ce qu’on observe dans l’Océan Indien [figure 5] : l’Inde, les « trapps du Deccan » en noir, vieux de soixante cinq millions d’années, puis en gris des archipels d’îles qui parfois émergent, parfois sont sous marines, les îles Chagos, Laccadives, Maldives. En allant du nord vers le sud elles sont datées de soixante millions à cinquante-cinq millions d’années, puis quarante-huit, trente-cinq, sept millions d’années à l’île Maurice ; l’île de la Réunion, elle, se forme depuis deux millions d’années. Ces archipels constituent tout simplement la trace de la brûlure laissée par la queue du panache qui, en démarrant, a créé les « trapps du Deccan ». On retrouve donc, à la surface de la Terre, l’histoire d’une ascension qui vient probablement près de trois milles kilomètres de profondeur à l’intérieur du manteau. Partis des observations du terrain pour construire un modèle, nous avons tiré de ce modèle des prédictions que le retour à l’observation valide.


En quoi la connaissance du passé peut-elle servir à une meilleure compréhension des futurs possibles? On enseigne souvent aux jeunes géologues à se servir du présent pour comprendre le passé ; ce guide est utilisé depuis plus de cent cinquante ans. Mais, nous n’avons pas, pendant l’histoire de l’humanité, échantillonné toutes les possibilités de l’histoire de la Terre, sous toutes leurs formes et sous toutes leurs amplitudes. Notre espèce n’existe pas depuis assez longtemps pour que nous soyons certains d’avoir « échantillonné » (ou subi) l’ensemble des phénomènes naturels au maximum de leur intensité. Lors de la dernière grande éruption d’un trapp, il y a trente millions d’années, l’espèce humaine n’existait pas encore. Depuis trente millions d’années la Terre n’a pas connu d’événement d’ampleur semblable. Et nous ne
savons pas quand se produira le prochain, dans quelques millions ou quelques dizaines de millions d’années, bien qu’il soit presque certain. On dit d’autre part que l’espèce humaine est en train de préparer la prochaine grande catastrophe écologique, que peut-être la sixième grande extinction a commencé, que (et peut-être n’est-ce pas depuis seulement le siècle de l’industrie, mais depuis le dernier cycle glaciaire) les hommes, en chassant les grands mammifères, les ont fait disparaître, qu’aujourd’hui, ils font disparaître, de nombreuses espèces avant même qu’on ait eu le temps de les identifier, qu’ ils exploitent trop rapidement la forêt tropicale... Comment modéliser le devenir de notre planète face à ces « agressions » ? Les géologues fournissent les scenarii passés de catastrophes au cours desquelles la nature a engendré des évènements qui, peut-être, sont de la même ampleur que ce que l’homme est en train de faire subir à sa planète. Ils fournissent aussi aux climatologues des moyens de tester leurs modèles, naturellement très incertains, en s’appuyant, de façon rétroprédictive, sur des situations qui se sont réellement produites, à ces quelques moments pendant lesquels l’évolution de la Vie sur Terre a été entièrement et définitivement réorientée par les grands soubresauts des rythmes internes de la planète.
Légendes :
Figure 1 : Affleurement de calcaires au nord de la ville de Gubbio, Ombrie, Italie. Figure 2 : Quartz choqué de Frenchman Valley (Canada, Saskatchewan), microscopie électronique en transmission x 35.000 lumière polarisée analysée.
Figure 3 : Courbe de l’évolution dans le temps du nombre d’espèces marines fossiles. Figure 4 : Coupe schématique de l’intérieur de la Terre.
Figure 5 : Trapps du Deccan.


 VIDEO     canal U       LIEN 
 

 
 
 
initiation musicale toulon  

Une nouvelle molécule gélifiante pour la culture de neurones en 3D

 

 

 

 

 

 

 

Une nouvelle molécule gélifiante pour la culture de neurones en 3D

COMMUNIQUÉ | 14 MAI 2018 - 23H00 | PAR INSERM (SALLE DE PRESSE)

TECHNOLOGIE POUR LA SANTE


Une équipe pluridisciplinaire de chercheurs du CNRS, de l’Inserm et de l’Université Toulouse III – Paul Sabatier a mis au point un hydrogel permettant de cultiver des cellules souches neurales, les faire se développer et se différencier. Ce biomatériau pourrait apporter de nouvelles perspectives pour l’élaboration de modèles cellulaires du tissu cérébral in vitro ou la reconstruction tissulaire in vivo. Ces travaux sont publiés dans la revue

ACS Applied Materials & Interfaces le 14 mai 2018.
Bien que la culture de cellules soit aujourd’hui bien maîtrisée sur une surface en deux dimensions, cela n’est pas représentatif de l’environnement réel des cellules dans un organisme vivant. En effet, dans le tissu cérébral, les cellules sont organisées et interagissent en trois dimensions dans une structure souple. Ainsi, l’objectif principal pour les chercheurs était d’imiter au mieux ce tissu. Ils ont donc mis au point un hydrogel répondant à des critères de perméabilité, de rigidité et de biocompatibilité adaptés et sur lequel ils ont cultivé des cellules souches neurales humaines 1 .

La N-heptyl-galactonamide est une molécule nouvellement synthétisée par ces scientifiques et fait partie d’une famille de gélifiants habituellement connue pour donner des gels instables. Biocompatible, de structure très simple et rapide à produire, cette molécule présente de nombreux avantages. En travaillant sur les paramètres de formation du gel, les chercheurs des laboratoires Interactions moléculaires et réactivité chimique et photochimique (CNRS/Université Toulouse III-Paul Sabatier), Toulouse Neuro Imaging Center (Inserm/Université Toulouse III-Paul Sabatier) et du Laboratoire d’analyse et d’architecture des systèmes du CNRS ont obtenu un hydrogel stable, très peu dense et de très faible rigidité. Il permet ainsi aux cellules souches neurales d’y pénétrer et de s’y développer en trois dimensions.

L’hydrogel présente également un maillage composé de différents types de fibres, les unes droites et rigides ; les autres courbes et flexibles. Cette diversité permet aux neurones de développer un réseau d’interconnexions à courtes et longues distances telles qu’elles sont observées dans le tissu cérébral.

Ce nouveau biomatériau pourrait donc permettre de développer des modèles de tissu cérébral en trois dimensions dont le fonctionnement se rapprocherait des conditions in vivo. À terme, il pourrait être utilisé pour évaluer l’effet d’un médicament ou permettre la transplantation de cellules avec leur matrice dans le cadre de réparations de lésions cérébrales.
 
 1 Les cellules souches neurales sont issues de biopsies de patients (CHU de Toulouse – Pôle Neurosciences). Ces cellules sont capables de se différencier en neurones et en cellules gliales, les principaux types cellulaires du tissu cérébral.

 

  DOCUMENT      inserm     LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google