ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

GENETIQUE

 

Paris, 28 septembre 2011

Identification d'un gène associant agressivité et audace chez un poisson modèle
Un gène responsable du comportement agressif et audacieux vient d'être identifié chez le poisson zèbre par une équipe du Laboratoire neurobiologie et développement du CNRS. Caractérisé par trois composantes : témérité, tempérament explorateur et agressivité, cette association comportementale spécifique est décrite chez de nombreuses espèces animales. Chez le poisson zèbre, elle serait due à l'action d'un seul gène (fgfr-1) via sa régulation du taux d'histamine dans le cerveau, neurotransmetteur impliqué dans de nombreux comportements. Ces résultats sont publiés dans The Journal of Neuroscience le 28 septembre 2011.
Le comportement d'« agressivité et audace » est bien connu des spécialistes et associe trois composantes : une témérité, une agressivité et un tempérament explorateur sensiblement au-dessus de la moyenne. Ce comportement, appelé aussi proactif, a été décrit chez de nombreuses espèces de poissons, oiseaux et mammifères. Les chercheurs du Laboratoire neurobiologie et développement du CNRS ont choisi de l'étudier chez le poisson zèbre, un modèle animal de plus en plus apprécié des généticiens et des neurobiologistes. Pour cela, ils ont tout d'abord mis au point des tests comportementaux permettant de mesurer quantitativement les trois facettes de ce comportement agressif et audacieux. Ils ont ensuite identifié une souche de poisson zèbre, appelée spiegel, dont le caractère proactif sort clairement de la norme. Les tests ont montré que ces poissons étaient particulièrement agressifs envers leurs congénères, peu intimidés par les leurres simulant des prédateurs et plus aventureux pour explorer de nouveaux environnements.

La souche spiegel possède une mutation dans le gène fgfr-1 codant pour un récepteur membranaire sensible au FGF, un facteur de croissance très important pour le développement des vertébrés, en particulier pour la croissance du cerveau. La mutation du récepteur Fgfr1 présente chez spiegel réduit l'activation des signaux intracellulaires normalement déclenchée par le FGF. Conséquence de cette mutation, les poissons spiegel présentent un faible taux cérébral d'histamine, un neurotransmetteur connu pour réguler l'appétit, le sommeil et l'attention. C'est ce faible taux d'histamine qui est responsable du comportement anormal du poisson. En effet : un simple traitement pharmacologique visant à augmenter le taux d'histamine a permis aux chercheurs de rendre aux poissons portant la mutation spiegel un comportement normal, c'est-à-dire un comportement similaire à la moyenne des poissons zèbre.

Ces travaux montrent que l'association des trois aspects qui définissent le comportement d'agressivité et d'audace dépend de l'action d'un gène unique que possèdent tous les vertébrés. Les facteurs environnementaux (physico-chimie, densité d'animaux, nourriture…) influent certainement aussi sur le comportement mais le gène fgfr-1 semble régler le niveau de base de proactivité. Ces résultats offrent une meilleure compréhension moléculaire et neurophysiologique de ce comportement spécifique. Néanmoins, des études ultérieures devront élucider les mécanismes moléculaires qui lient le gène fgfr-1 au taux d'histamine et la production d'histamine au comportement des animaux.

DOCUMENT         CNRS        LIEN

 
 
 
initiation musicale toulon  

LA P 53 , GARDIENNE DU GENOME

 

La p53, gardienne du génome.


Les recherches sur p53 ont récemment pris une ampleur extraordinaire en cancérologie. La protéine p53 fonctionne normalement comme un frein de la prolifération cellulaire, permettant de maintenir la croissance cellulaire à un niveau normal et assurant de ce fait une protection contre le cancer. Une défaillance de cette protéine causée par une mutation (altération du gène et de son produit) constitue une étape presque universelle dans le déclenchement ou la progression d'un cancer. La protéine p53 a été découverte en 1979 par P. May et son équipe (M. Kress, E. May, R. Cassingena et P. May, 1979) à un moment où des chercheurs britanniques et américains parvenaient au même résultat. Par la suite, le groupe de P. May n'a cessé d'apporter de nouvelles contributions dans ce domaine. En 1987, il a montré que des anticorps contre la protéine p53 étaient présents dans les sérums de malades ayant des cancers de différents types. C'était une première indication que p53 pouvait être impliquée dans le développement d'une tumeur maligne (Caron de Fromentel, May-Lévin, Mouriesse, Lemerle, Chandrasekaran et May, 1987). Une étude comparative de la structure de la protéine p53 au cours de l'évolution des espèces a permis à P. May et son groupe d'identifier des régions de haute conservation, alternant avec des régions peu conservées et d'établir un modèle d'organisation structure-fonction de la protéine p53 qui a été largement confirmé et développé par la suite. Ces découvertes ont permis aux biologistes et aux cancérologues de mieux comprendre le rôle très important de certaines régions de la protéine p53 dans le fonctionnement normal de cette protéine et dans son dysfonctionnement associé aux mutations observées dans des cancers humains. (Soussi, Caron de Fromentel, Méchali, May et Kress, 1987; Soussi, Caron de Fromentel et May, 1990; Soussi et May, 1996; P. May et E. May, 1999). On peut raisonnablement espérer que les connaissances acquises dans ce domaine pourront conduire à une approche thérapeutique permettant de remédier aux défauts que le gène p53 présente dans un grand nombre de cancers.

CONFERENCE        CANAL  U        LIEN

 
 
 
initiation musicale toulon  

LA MODELISATION DES MOLECULES DE LA VIE

 

La modélisation des molécules de la vie


Il y a plus de cent ans, les chimistes ont commencé à exploiter des modèles pour visualiser les molécules qu'ils manipulaient dans leurs tubes à essais. Les modèles physiques permettent de mieux comprendre la forme et la flexibilité des molécules, mais ils sont longs à construire, souvent chers, et ils ne donnent qu'une vue très approximative des molécules. De surcroît, ils sont peu adaptés à la représentation des grandes molécules qui caractérisent la vie et qui contiennent des milliers, voire des centaines de milliers, d'atomes. Depuis environ quarante ans, les ordinateurs offrent une alternative aux modèles physiques. Ils permettent de décrire les molécules (et les macromolécules) d'une façon beaucoup plus réaliste en tenant compte de l'ensemble des interactions qui peuvent avoir lieu entre ces espèces. Ils permettent non seulement de visualiser les molécules, mais aussi d'étudier leur dynamique et leurs interactions. La modélisation ne remplace pas l'expérimentation, mais elle aide à analyser des résultats et surtout à formuler de nouvelles hypothèses. J'illustrerai ces développements avec des exemples portant sur les acides nucléiques, et, en particulier, la double hélice d'ADN, sur les protéines et sur les complexes formés entre ces macromolécules. Je montrerai comment on peut approcher les molécules avec l'oeil de l'ingénieur civil, et comment les molécules sondent leurs propres propriétés mécaniques pour se reconnaître. Je parlerai aussi de la modélisation au service des physiciens qui ont appris à manipuler les molécules une à une, ou au service du biologiste "seigneur des anneaux". Je terminerai en parlant de l'avenir de la modélisation: est-ce que nous pouvons commencer déjà à simuler non seulement une ou deux molécules, mais plutôt les systèmes moléculaires organisés qui animent nos cellules ?

CONFERENCE       CANAL  U        LIEN

 

DOCUMENT   PEDAGOGIQUE

La modélisation des molécules de la vieIl y a plus de cent ans, les chimistes ont commencé à exploiter des modèles pour visualiser les molécules qu'ils manipulaient dans leurs tubes à essais. Les modèles physiques permettent de mieux comprendre la forme et la flexibilité des molécules, mais ils sont longs à construire, souvent chers, et ils ne donnent qu'une vue très approximative des molécules. De surcroît, ils sont peu adaptés à la représentation des grandes molécules qui caractérisent la vie et qui contiennent des milliers, voire des centaines de milliers, d'atomes. Depuis environ quarante ans, les ordinateurs offrent une alternative aux modèles physiques. Ils permettent de décrire les molécules (et les macromolécules) d'une façon beaucoup plus réaliste en tenant compte de l'ensemble des interactions qui peuvent avoir lieu entre ces espèces. Ils permettent non seulement de visualiser les molécules, mais aussi d'étudier leur dynamique et leurs interactions. La modélisation ne remplace pas l'expérimentation, mais elle aide à analyser des résultats et surtout à formuler de nouvelles hypothèses. J'illustrerai ces développements avec des exemples portant sur les acides nucléiques, et, en particulier, la double hélice d'ADN, sur les protéines et sur les complexes formés entre ces macromolécules. Je montrerai comment on peut approcher les molécules avec l'oeil de l'ingénieur civil, et comment les molécules sondent leurs propres propriétés mécaniques pour se reconnaître. Je parlerai aussi de la modélisation au service des physiciens qui ont appris à manipuler les molécules une à une, ou au service du biologiste "seigneur des anneaux". Je terminerai en parlant de l'avenir de la modélisation: est-ce que nous pouvons commencer déjà à simuler non seulement une ou deux molécules, mais plutôt les systèmes moléculaires organisés qui animent nos cellules ?
Date de réalisation : 21/06/2006
Durée du programme : 68 minute(s) et 24 secondes
Classification Dewey : Sciences de la vie. Biologie, Chimie et sciences connexes, Simulation informatique
Catégorie : Conférences
Niveau : Tous publics / hors niveau
Disciplines : Outils, méthode et techniques scientifiques, Chimie moléculaire et organique, Outils, méthodes et techniques scientifiques, Sciences du vivant, Chimie
Fiche LOM-FR : Obtenir la fiche
Langue : Français

Générique :
Producteur(s) :
UTLS - la suite Réalisateur(s) :
UTLS - la suite

LAVERY Richard  StatutChimiste
Directeur de recherche au Laboratoire de Biochimie Théorique de l'Institut de Biologie Physico-Chimique de Paris
Diplômes1983 Doctorat d'état ès Sciences en biophysique à l'Université Paris 6
ParcoursDe 1982 à 1987 Chargé de recherches au CNRS
De 1988 à aujourd'hui Directeur de recherches au CNRS
PrixEn 1997, il a reçu le prix Philip Morris en biophysique
En 1999, il a reçu la Médaille d'argent du CNRS
En 2003, Fellow of Churchill College, Cambridge
SpécialitésSes intérêts portent aujourd'hui sur la modélisation de plusieurs aspects de la reconnaissance macromoléculaire avec des applications allant de la formation des gros complexes biologiques à l'analyse des régions non codantes des génomes.
ParticularitésIl a écrit 152 articles dans les revues nationales et internationales et 34 chapitres de livre et actes de colloques

Liste des documents disponibles :La conférence du 21/06/06 en mp3

Le texte de la conférence du 21/06/06 en pdf


Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006

Richard Lavery : « La modélisation des molécules de la vie »

Le besoin de modèles
Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].

C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.

L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.

Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].

La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.

L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.

En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.

Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.

D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.

Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].

Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.

Partir des ponts pour arriver aux protéines

Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.

Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.
Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.

L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.
Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.

Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.

 

 

 
 
 
initiation musicale toulon  

LA NOTION D'EVOLUTION

 

La notion d'évolution


« Rien n'a de sens en biologie si ce n'est à la lumière de l'évolution ». Cet adage célèbre de Th Dobzhansky prend encore plus de valeur quand on se rend compte à quel point la notion d'évolution a été difficile à faire émerger. En effet, au 18ème siècle, de nombreuses idées fausses, comme le créationnisme, l'échelle des êtres, les métamorphoses, la génération spontanée, empêchaient la constitution d'une biologie cohérente. Pas à pas, principalement par la réfutation de ces dernières, un environnement propice à l'apparition du transformisme s'est constitué. Avec Charles Darwin, au milieu du 19ème siècle, un cadre théorique cohérent se met en place à partir des deux concepts-clés que sont la descendance avec modification et la sélection naturelle. Mais il faudra attendre presque un demi-siècle pour que la génétique puisse asseoir une théorie que l'on baptisera du terme de « théorie synthétique » à l'aube de la Seconde Guerre Mondiale. Ce cadre conceptuel va connaître diverses révolutions qui vont susciter de vastes discussions, parfois houleuses. Avec la cladistique, la classification se trouve bouleversée ; le gradualisme est remis en cause par le concept d'équilibre ponctué et le renouveau du catastrophisme en paléontologie ; l'accès au génome permet de mieux comprendre ce qu'est la nouveauté génétique, en particulier au niveau des gènes de développement ; on se rend compte que la sélection ne joue pas sur tous les caractères… C'est donc une notion de l'évolution, complexe mais cohérente, qui émerge à la fin du 20ème siècle. Les implications philosophiques sont importantes. Mais peut-être que l'une des idées les plus fortes consiste à comprendre que l'originalité géologique de la planète Terre est continuellement sous la dépendance du vivant. Hervé Le Guyader, Professeur à l'Université P. & M. Curie

CONFERENCE         CANAL  U          LIEN

 

DOCUMENT   PEDAGOGIQUE

 

La notion d'évolution« Rien n'a de sens en biologie si ce n'est à la lumière de l'évolution ». Cet adage célèbre de Th Dobzhansky prend encore plus de valeur quand on se rend compte à quel point la notion d'évolution a été difficile à faire émerger. En effet, au 18ème siècle, de nombreuses idées fausses, comme le créationnisme, l'échelle des êtres, les métamorphoses, la génération spontanée, empêchaient la constitution d'une biologie cohérente. Pas à pas, principalement par la réfutation de ces dernières, un environnement propice à l'apparition du transformisme s'est constitué. Avec Charles Darwin, au milieu du 19ème siècle, un cadre théorique cohérent se met en place à partir des deux concepts-clés que sont la descendance avec modification et la sélection naturelle. Mais il faudra attendre presque un demi-siècle pour que la génétique puisse asseoir une théorie que l'on baptisera du terme de « théorie synthétique » à l'aube de la Seconde Guerre Mondiale. Ce cadre conceptuel va connaître diverses révolutions qui vont susciter de vastes discussions, parfois houleuses. Avec la cladistique, la classification se trouve bouleversée ; le gradualisme est remis en cause par le concept d'équilibre ponctué et le renouveau du catastrophisme en paléontologie ; l'accès au génome permet de mieux comprendre ce qu'est la nouveauté génétique, en particulier au niveau des gènes de développement ; on se rend compte que la sélection ne joue pas sur tous les caractères… C'est donc une notion de l'évolution, complexe mais cohérente, qui émerge à la fin du 20ème siècle. Les implications philosophiques sont importantes. Mais peut-être que l'une des idées les plus fortes consiste à comprendre que l'originalité géologique de la planète Terre est continuellement sous la dépendance du vivant. Hervé Le Guyader, Professeur à l'Université P. & M. Curie
Date de réalisation : 07/07/2002
Durée du programme : 93 minute(s) et 18 secondes
Classification Dewey : Evolution
Catégorie : Conférences
Niveau : Tous publics / hors niveau
Disciplines : Evolution, Sciences du vivant
Fiche LOM-FR : Obtenir la fiche
Langue : Français

Générique :
Producteur(s) :
UTLS - la suite Réalisateur(s) :
UTLS - la suite

LE GUYADER Hervé StatutDoctorat d'État
Professeur à l'Université Pierre et Marie Curie, Paris-6
Parcours1982 - 1986 Chercheur au Centre d'Etudes Nucléaires de Saclay
1986 - 1991 Chargé de Recherche au CNRS.
1991 - 2000 Professeur à l'Université Paris 11
1993-1994 Président du de Biologie et Physiologie animales de l'Université Paris 11
1995- Responsable du DEA Biodiversité : Génétique, Histoire, Mécanismes de l'Évolution
1995-1996 Président de la Commission Scientifique et Technique (CST) de l'Action Concertée Coordonnée Sciences de la Vie n°7 (ACC-SV7) « Systématique et Biodiversité »
1995-1996 Membre du Conseil Scientifique du Réseau National de Systématique (1995 – 1996)
2000 - Professeur à l'Université Paris 6.
2000- Membre du Comité d'Ethique et de Précaution (COMEPRA) de l'INRA
ParticularitésMembre fondateur de la Société Française de Systématique et de la Société d'Histoire et d'Epistémologie des Sciences de la Vie
Hervé Le Guyader a participé à la rénovation de La Galerie de zoologie du Muséum National d'Histoire Naturelle, réouverte sous le nom de Grande Galerie de l'Évolution.
Hervé Le Guyader a publié de nombreux articles dans des revues spécialisées nationales et internationales. Il publie également régulièrement des articles dans des mensuels comme Pour La Science.
Il est l'auteur de plusieurs livres :
Le Guyader H. (sous la dir. de) (1998). L'évolution, Belin, Bibliothèque Pour la Science, 192 p.
Lecointre G. & Le Guyader H. (2001). Classification phylogénétique du vivant, Belin, 545 p.
Le Guyader H (1998). Étienne Geoffroy Saint-Hilaire (1772-1844), un naturaliste visionnaire. Belin, 352 p. (traduction anglaise à paraître chez University of Chicago Press).

Liste des documents disponibles :Le texte de la conférence du 07/07/2002 en pdf

 

Texte de la 429e conférence de l'Université de tous les savoirs, donnée le 7 juillet 2002


Hervé Le Guyader, "La notion d'évolution"


Pour présenter la notion d'évolution, j'ai choisi d'adopter une démarche historique, en singularisant différents points autour de périodes clés.

Premièrement, je présenterai quelques éléments importants des XVIIe et XVIIIe siècles qui permettent d'arriver à la conception d'un individu clé, Lamarck, date clé : 1829, publication de sa Philosophie zoologique. Le deuxième individu important est Darwin, date clé : 1859, publication de l' Origine des espèces. La troisième date clé se situe aux alentours de 1940, quand la Théorie synthétique de l'évolution est développée. Enfin, j'exposerai quelques éléments de l'après guerre, qui, à mon sens, montrent comment tout ce qui gravite autour des théories de l'évolution se met en place.

En introduction, j'attire votre attention sur cette citation d'Ernst Mayr qui compare les biologistes et les physiciens : « Au lieu de créer et de donner des lois comme le font les physiciens, les biologistes interprètent leurs données dans un cadre conceptuel »

Ce cadre conceptuel, c'est la notion d'évolution, qui se construit pas à pas, à force de discussions, controverses, voire même d'altercations, de progrès conceptuels ou expérimentaux.

Actuellement, ce cadre conceptuel devient extrêmement compliqué. Néanmoins, il s'en dégage quelques idées directrices.

I. L'apparition du transformisme

Je vous présente tout d'abord comment l'idée, non pas d'évolution, mais de transformisme, est apparue.

En premier lieu, je tiens à insister sur un point. En histoire, on montre souvent l'apparition de concepts « nouveaux » - sous entendu : avant, il n'existait rien. De plus, on attache souvent l'apparition d'un concept à un individu clé, considéré comme un génie. En réalité, ce génie, cet individu clé, ne représente la plupart du temps que le courant de l'époque, et ne fait « que » cristalliser une idée, qui existe néanmoins chez ses contemporains.

Pour que l'idée du transformisme apparaisse, deux mouvements se sont produits en même temps. La première avancée concerne la réfutation d'idées erronées. Ces idées, tant qu'elles n'étaient pas réfutées, empêchaient l'émergence de la notion de transformisme. Concomitamment, de nouveaux concepts apparaissent.

A. Les obstacles au transformisme

1. La métamorphose

Parmi les concepts erronés, celui de métamorphose est l'un des plus importants. Une planche extraite d'un livre d'Ulisse Aldrovandi (1522 - 1605) (fig.1), édité en 1606, illustre cette idée. Elle représente des crustacés, qui appartiennent à la classe des cirripèdes : des anatifes, crustacés fixés par un pédoncule, et dont le corps est contenu dans une sorte de coquille formée de plaques calcaires.

Cette planche montre comment on concevait le devenir de ces coquillages : selon Aldrovandi, les anatifes peuvent se transformer en canards ! Les cirres devenaient les plumes, le pédoncule, le cou, et la tête du canard correspond à l'endroit de fixation. J'aurais pu vous citer bien d'autres exemples de la sorte... D'ailleurs, ceux qui ont fait du latin reconnaîtront peut-être dans le terme actuel pour désigner une de ces espèces, Lepas anatifera, le terme anatifera qui signifie « qui porte des canards ».

Ainsi, dans les esprits d'alors, les animaux pouvaient se transformer les uns en les autres, un crustacé en canard, parmi une foultitude d'exemples. On concevait également des passages du monde végétal au monde animal... Tout était imaginable !

Dans ces conditions, il était impossible que l'idée d'un processus historique puisse apparaître. Ces exemples de métamorphose sont rencontrés jusqu'au milieu du XVIIIe siècle. Puis chacun des exemples de métamorphose est tour à tour réfuté. La notion-même devient progressivement la notion biologique actuelle - la métamorphose par mues des insectes et le passage têtard-adulte des batraciens.

2. La génération spontanée

La deuxième idée, la notion de génération spontanée, n'est pas caractéristique des XVIIe et XVIIIe siècles. Il faudra attendre Louis Pasteur (1822 - 1895) pour qu'elle soit complètement anéantie. En termes actuels, la notion de génération spontanée consiste en ce que de la « matière inanimée » puisse s'animer et produire des êtres vivants. L'abbé Lazzaro Spallanzani (1729-1799) est un homme clé parmi ceux qui ont démontré que la génération spontanée n'existe pas, du moins au niveau des organismes de grandes tailles : souris, insectes... etc. Cependant, il faudra attendre la controverse de 1862 entre Pasteur et Pouchet pour que cette notion disparaisse également au niveau des microorganismes. Retenons qu'au XVIIIe siècle cette notion ne persistera qu'à l'égard des « animalcules », les petits organismes.

3. L'Echelle des Êtres

La notion d'Echelle des Êtres existe déjà chez Aristote. Cette notion traverse tout le Moyen- Age, puis est remise en valeur par Gottfried Leibniz (1646-1716) et reprise par le biologiste Charles Bonnet (1720-1793).

La planche (fig 2) figure cette conception du monde : au bas de l'échelle, se situent les quatre éléments : feu, air, terre, eau. Des terres, on monte vers les cristaux et les métaux. Ensuite, on progresse vers le corail, les polypes, les champignons, jusqu'aux végétaux, insectes et coquillages. Certaines hiérarchies peuvent paraître étranges : les serpents d'abord, les poissons ensuite. Plus haut encore, les poissons, dominés par les poissons volants, qui conduisent aux oiseaux (!) ; puis des oiseaux, on parvient aux quadrupèdes et, qui se situe au sommet de l'échelle ? Bien naturellement : l'homme.

Ce concept était très ancré avant la Révolution. Un extrait d'un poème d'Ecouchard le Brun (1760) illustre comment les lettrés concevaient les relations entre êtres vivants :

« Tous les corps sont liés dans la chaîne de l'Être.

La nature partout se précède et se suit.

[...]

Dans un ordre constant ses pas développés

Ne s'emportant jamais à des bonds escarpés.

De l'homme aux animaux rapprochant la distance,

Voyez l'homme du Bois lier leur existence.

Du corail incertain, ni plante, ni minéral,

Revenez au Polype, insecte végétal. »


Tout était mêlé, avec une notion de progrès. Cette échelle des Êtres vivants est un concept qu'il a fallu discuter longuement, avant qu'il ne soit réfuté.

Cette notion d'Echelle des Êtres, il faut le souligner, est une notion quasi intuitive que tout individu développe. Il ne faut pas se focaliser sur son aspect historique ou archaïque. Chacun, de façon « naturelle », s'imagine être au sommet d'une Echelle des Êtres et conçoit une hiérarchie qui le lie à des subordonnés.

4. L'échelle de temps

Dernière conception à réfuter, la notion de temps. Avant la Révolution, l'échelle des temps reste une échelle biblique. Différents théologiens anglicans ont longuement calculé le temps qui les séparait de la création du monde, à partir des généalogies bibliques. Ils n'étaient pas tous d'accord, à une centaine d'années près, mais s'accordaient autour de 6 000 ans. Comment une idée d'évolution aurait-elle pu germer dans les esprits avec une marge de temps aussi courte ?

L'un de ceux qui réfutent cette idée, c'est Georges Buffon (1707-1788). Il propose une dizaine de milliers d'années, puis une centaine de milliers d'années. Enfin, dans sa correspondance, il émet l'idée que, peut être, la vie serait apparue il y a plusieurs millions d'années. C'est donc à cette époque que naît l'idée d'un temps long, en lien avec le développement de la géologie de l'époque.

B. Les nouvelles idées

A présent, quelles sont les nouvelles propositions ? Trois notions sont essentielles pour que les concepts de transformisme et d'évolution puissent apparaître.

1. L'unicité de la classification naturelle

Depuis Aristote au moins, les hommes ont voulu classer les organismes. Initialement, cette classification a principalement occupé les botanistes.

Aux XVe et XVIe siècles, on se retrouve avec une multitude de systèmes et de méthodes de classification. La bibliothèque du Muséum d'Histoire Naturelle en conserve une centaine dans ses vieux livres. S'il en reste tant actuellement, il en existait au minimum 500 à 600 en Europe, à cette époque.

Carl von Linné (1707-1778), comme les savants de cette époque, est un grand lecteur : il connaît toutes les tentatives réalisées par ses contemporains. Brusquement, il lui apparaît quelque chose d'assez extraordinaire. En effet, lorsque le travail de classification est mené correctement, en bonne logique, d'après de bons caractères, à chaque fois les grandes familles de la botanique ressortent : liliacées, orchidacées, rosacées... etc. Linné remarque que ces multiples tentatives conduisent à une même classification, un même ordonnancement. Tout se passe comme s'il existait une unité qui représente un ordre de la Nature. L'objectif est désormais de décrire cet ordre par une classification naturelle. Cette classification est nécessairement unique, car il n'y a qu'un ordre dans la Nature. Dans le contexte judéo-chrétien de l'époque, Linné imaginait que cette classification naturelle représentait l'ordre de la création.


Cette unicité de la classification est une idée extrêmement forte, comme on le verra avec Darwin. Elle change le sens de la classification - non plus seulement ranger les organismes, mais trouver une unité au monde du vivant.

2. Le concept d'homologie

Le concept d'homologie est mis au point par Etienne Geoffroy St Hilaire (1772-1844). Il utilise des travaux de botanique et bâtit un concept repris par Cuvier quasi en même temps : le concept de plan d'organisation. Cette idée de plan d'organisation, bien antérieure à Geoffroy St Hilaire, est fondamentale. Elle met en évidence que certains êtres vivants sont organisés de la même façon. Cuvier présente quatre plans d'organisation différents pour l'ensemble du règne animal - par exemple, le plan d'organisation des vertébrés.

A partir de ces plans d'organisation, Geoffroy St Hilaire construit un outil très performant pour l'anatomie comparée. Il crée, bien que ce ne soit pas le terme qu'il emploie, le concept d'homologie. Il affirme la nécessité, si on souhaite comparer les organismes, de savoir quels sont les "bons" organes que l'on compare : comment savoir si on compare les « mêmes » organes chez deux organismes différents ? Geoffroy Saint-Hilaire essaie, tout simplement, de trouver des organes qui occupent la même situation dans un plan d'organisation. Par exemple, en observant les membres antérieurs de vertébrés quadrupèdes (fig 3), on remarque qu'à chaque fois, le cubitus, entre autres, se trouve au même endroit dans le membre, même si la forme, la fonction de ce membre changent entre ces animaux.

Ce concept d'homologie permet de comparer de façon pertinente les organismes, ce qui est la condition pour proposer une bonne systématique.

3. La mort des espèces

En plus du concept d'homologie, George Cuvier (1769-1832) apporte une autre notion, qui a un impact considérable. Il démontre, par la paléontologie, que les espèces meurent. Grâce à des fossiles de vertébrés, en particulier ceux du gypse de Montmartre, il prouve qu'il existait des animaux qui n'existent plus actuellement dans le monde, c'est-à-dire que les espèces disparaissent.

Ce concept de mort des espèces a été une révolution extrêmement importante à l'époque, au tout début du XVIIIesiècle. Cet extrait de La peau de chagrin, de Balzac, illustre la portée de ce concept dans le monde des lettres :

« Cuvier n'est-il pas le plus grand poète de notre siècle. Notre immortel naturaliste a reconstruit des mondes avec des os blanchis. Il fouille une parcelle de gypse, y perçoit une empreinte et vous crie : « Voyez ! ». Soudain, les marbres s'animalisent, la mort se vivifie, le monde se déroule »

Brusquement, l'idée apparaît que des mondes, qui n'existent plus, existaient; le monde « se déroule » ; on verra qu'il « évolue ».

C. Lamarck et le transformisme

1. Logique et transformisme

Pour résumer, si vous réfutez les métamorphoses, si vous abandonnez le concept de génération spontanée, si vous allongez l'échelle de temps, si vous relativisez l'Echelle des Êtres, si vous imaginez une unité de classification, si vous concevez les concepts d'homologie et de plan d'organisation et si vous acceptez l'idée de mort des espèces, vous ne pouvez que suivre Jean-Baptiste Lamarck (1744-1829), puis proposer de conserver avec lui la notion de transformisme.

Pourquoi ? Très brièvement, si on suit un raisonnement logique, il ne reste que deux possibilités pour réunir ces idées. Soit on reste créationniste : il faut alors nécessairement imaginer des créations multiples. Or, cela ne figure pas dans la Bible, qui ne mentionne qu'une seule création. Soit, on opte pour une seconde possibilité : les espèces se transforment les unes en les autres. Une troisième possibilité a été retenue par quelques théologiens : le stock des espèces allait en s'amenuisant - ce qui, d'après eux, n'était pas important, puisque seul l'homme a une valeur. Cette dernière théorie a eu très peu d'impact.

2. La théorie de Lamarck

Lamarck présente une classification. Il a l'idée remarquable, même si elle a été réfutée plus tard, de séparer vertébrés et invertébrés. Au niveau des animaux, il construit ce qui reste une échelle des Êtres. Il classe les animaux en trois catégories : les animaux apathiques, les animaux sensibles, les animaux intelligents. Cette vision demeure hiérarchisée.

Il imagine une transformation des organismes les uns en les autres (fig 4). Un premier point est fondamental, novateur : Lamarck présente des bifurcations, c'est-à-dire qu'il construit un arbre, une arborescence. A ma connaissance, c'est la première représentation qui rompt ainsi la linéarité de l'échelle des Êtres. Deuxième innovation, les espèces sont reliées par des points (actuellement ce serait symbolisé par des flèches), qui désignent les transformations possibles : les vers en insectes, les poissons en reptiles ou en amphibiens. La limite de la vision de Lamarck se situe à la base de ce réseau de transformations : la génération spontanée alimente le stock des organismes les plus simples - les vers -. Pour expliquer ce schéma, on a utilisé l'image de l'escalier roulant, qui, avec ses arrêts, ses paliers, paraît particulièrement pertinente : elle montre que Lamarck n'a pas une vision historique. Par exemple, au niveau des oiseaux, certains viennent de prendre l'escalier roulant - ils viennent de se transformer -, tandis que d'autres sont là depuis longtemps. Cela signifie que les animaux semblables ne résultent pas d'une même transformation, qui serait survenue à une même date dans le cours de l'histoire.

Il faut retenir, dans la pensée de Lamarck, cette notion de transformation, d'arbre, nourri continuellement par la génération spontanée.

II. Darwin

Sans entrer dans les détails de la vie de Charles Darwin (1809-1882), un élément important pour le développement de sa vision scientifique et pour l'élaboration de l' Origine des espèces (1859) réside dans un tour du monde de presque cinq ans, effectué entre 1831 et 1836. Non seulement Darwin est un très bon naturaliste et un très bon géologue, mais il possède également des notions d'anatomie et d'embryologie comparées.

A. La théorie de L'Origine des Espèces

Pour illustrer la difficulté de recevabilité que rencontra le livre de Darwin à sa publication, voilà le sous- titre donné dans la traduction française. Le titre original anglais est "Origin of species - by means of natural selection" , qui se traduit par : « L'origine des espèces - par les moyens de la sélection naturelle ». Or, dans l'édition française de 1862, ce titre est « traduit » de manière erronée en : « De l'origine des espèces ou des lois du progrès chez les êtres organisés ». Ce sous-titre montre combien la notion de progrès - et d"échelle des espèces" implicite - était profondément ancrée.

La meilleure solution pour exprimer l'idée clé de L'Origine des espèces, c'est d'examiner un extrait qui traduit de manière essentielle le sens que donne Darwin à la notion de classification :

«Le système naturel, c'est-à-dire la classification naturelle, est fondé sur le concept de descendance avec modification... »

Ce concept de «descendance avec modification » est essentiel pour comprendre la pensée de Darwin. Pourtant, si on interroge quelqu'un sur ce qu'a apporté Darwin, il répondra sans doute « la sélection naturelle "». En réalité, il a proposé ces deux idées, liées : sélection naturelle et descendance avec modification. A mon sens, c'est cette dernière idée qui est la plus importante.

« ... sur le concept de descendance avec modification, c'est-à-dire que les caractères que les naturalistes décrivent comme montrant de réelles affinités entre deux ou plusieurs espèces sont ceux qui ont été hérités d'un parent commun. »

Ces caractères auxquels Darwin fait référence, ce sont les caractères homologues de Geoffroy St Hilaire. Ce que propose Darwin, c'est une réponse à la question : pourquoi ces caractères sont-ils homologues ? Parce qu'ils ont été hérités d'un parent commun. Darwin interprète la notion de ressemblance, très prégnante depuis Geoffroy St Hilaire, comme une notion d'héritage de caractères. Il ne remet pas en cause le travail de ces prédécesseurs : il lui donne « seulement » un autre sens.

« Et par conséquent, toute vraie classification est généalogique... »

Enfin, Darwin plonge ce travail dans un continuum temporel. Cette notion de généalogie bouleverse le sens des classifications : désormais, on recherche des relations de parenté :

« ... c'est-à-dire que la communauté de descendance est le lien caché que les naturalistes ont cherché inconsciemment et non quelque plan inconnu de création. »

A l'époque, cette dernière phrase a représenté une provocation extraordinaire !


Pour éclairer le propos de Darwin, voilà la seule illustration présente dans L'Origine des Espèces (fig 5). Premièrement, cette planche dévoile une vision historique : les lignes horizontales représentent des horizons temporels. Cette figure comprend trois concepts importants :

1) des espèces disparaissent - l'idée de Cuvier ;

2) au cours du temps, les espèces peuvent se transformer - l'idée de Lamarck ;

3) des espèces peuvent donner naissance à plusieurs autres espèces.

Si on considère deux espèces après un embranchement, Darwin considère qu'il faut les rapprocher parce qu'elles partagent un ancêtre commun. Or les espèces partagent toujours un ancêtre commun. La différence réside dans la plus ou moins grande proximité de ces ancêtres. Pour Darwin, les organismes se ressemblent beaucoup car ils partagent un ancêtre commun récent. Les organismes très différents partagent un ancêtre commun lointain, à partir duquel il y a eu énormément de temps pour diverger.

B. La première « généalogie » des organismes

Ces concepts proposés par Darwin sont immédiatement repris par un biologiste allemand, Ernst Haeckel (1834 - 1919). Haeckel poursuit ces idées, en les exagérant même un peu.

Il utilise un arbre pour représenter sa classification. Il propose trois règnes : aux deux règnes animal et végétal classiques, il ajoute les protistes (organismes unicellulaires). Son apport fondamental se situe à la base de l'arbre. Pour chacun des règnes, il situe un ancêtre commun hypothétique, et surtout, il met en place un tronc avec une seule racine commune à l'ensemble des êtres vivants-un ancêtre commun à l'ensemble des organismes.

Cette proposition, en 1866, est le premier arbre dit « phylogénétique »- terme créé par Haeckel. Bien que discutée à ses débuts, l'idée essentielle d'origine commune est conservée - elle contient également l'idée d'origine de la vie sur terre -. Le mouvement est lancé : depuis Haeckel, les chercheurs vont « se contenter » de corriger cet arbre. Seules les logiques pour inférer les relations de parenté sont modifiées et améliorées.

C. Les difficultés de Darwin

Il manque des éléments à Darwin pour expliquer les mécanismes soutenant ce double concept de descendance avec modification. Elle contient premièrement l'idée de descendance entre espèces. Darwin n'utilise pas d'échelle des temps. Entre les lignes horizontales de son schéma, il ne s'agit pas d'années, ni de millions d'années : il s'agit de nombres de générations. Selon Darwin, ce qui rythme la vie des organismes, c'est la reproduction sexuée, à l'origine du concept de descendance. Deuxièmement, Darwin suppose que les caractères héréditaires, transmis via la reproduction sexuée, se « transforment »- mais il ignore comment.

Les deux disciplines qui lui manquent sont d'une part la génétique, et d'autre part, l'embryologie.

III. La Théorie synthétique de l'évolution

A. Les bases de la théorie

Un événement scientifique se produit au début du XXe siècle : la redécouverte des lois de Gregor Mendel (1822 - 1884), indépendamment par trois chercheurs : le hollandais Hugo De Vries (1848 - 1935), l'allemand Carl Correns (1864 - 1933), et l'autrichien Erich von Tschermak (1871 - 1962). Redécouverte, certes, mais enrichie d'un nouveau concept essentiel, celui de mutation. Cette idée de mutation permet de concevoir comment les caractères sont à la fois héréditaires et changeants.


A partir de 1905 jusqu'à 1930, se produit un difficile rapprochement entre deux disciplines : la génétique dite « des populations » (l'étude du devenir des fréquences de gènes dans les populations au cours du temps), se rapproche du darwinisme, par l'intermédiaire de la sélection naturelle. Ce rapprochement conduit à la Théorie synthétique de l'évolution. Signalons que cette traduction mot à mot de l'anglais introduit une connotation étrange en français - c'est plutôt une théorie qui fait une synthèse -.

Cinq biologistes de renom participent à cette nouvelle vision de l'évolution. Le premier individu clé est Theodosius Dobzhansky (1900 - 1975), d'origine russe, immigré aux États-Unis. Comme quasi tous les autres protagonistes de cette théorie, il appartient à l'Université de Columbia, à New York. Dobzhansky publie en 1937 un ouvrage intitulé : Genetics and Origin of Species. Cette référence explicite à Darwin traduit bien sa volonté de démontrer, par la génétique, que Darwin avait raison.

Les autres chercheurs impliqués dans cette vision nouvelle sont :

- Julian S. Huxley (1887-1975), généticien ;

- Ernst Mayr, zoologiste, ornithologue, théoricien de la spéciation ;

- George G. Simpson (1902-1984), géologue et paléontologue ;

- Ledyard G. Stebbins, qui travaille sur la spéciation en biologie végétale.


J'ai repris à partir d'un article récent d'Ernst Mayr les principes de base de cette théorie :

Premier principe : l'hérédité est particulaire et d'origine exclusivement génétique. Cela signifie que l'hérédité est portée par des particules-les gènes-qui ne se mélangent pas. En insistant sur l'origine exclusivement génétique, ce principe nie l'idée d'hérédité des caractères acquis, une forme de lamarckisme en vogue à l'époque.

Second principe : il existe une énorme variabilité dans les populations naturelles. Les organismes présentent une grande variabilité des différents gènes, des différents caractères. Cette variabilité intraspécifique permet l'apparition de nouvelles espèces à partir d'une espèce donnée.

Troisième principe : l'évolution se déroule dans des populations distribuées géographiquement. Un des moteurs les plus importants de la spéciation est l'isolement reproducteur. Les populations peuvent se retrouver séparées par des barrières géographiques, de comportement... etc. A partir du moment où une barrière de reproduction apparaît, des populations isolées peuvent donner naissance à des espèces distinctes.

Quatrième principe : l'évolution procède par modification graduelle des populations. L'évolution se fait pas à pas suivant un gradualisme quasi linéaire en fonction du temps. Autrement dit, le taux d'évolution est toujours considéré comme à peu près constant par unité de temps.

Cinquième principe : les changements dans les populations sont le résultat de la sélection naturelle. Les changements de fréquence des gènes et de caractères dans les populations sont provoqués par la sélection naturelle. Cette idée sera remise en question plus tard : la sélection naturelle existe, certes, mais d'autres moteurs de changement seront avancés.

Dernier principe : la macro-évolution n'est que le prolongement dans le temps de ces processus. La macro-évolution désigne les changements importants, les grands bouleversements, en particulier au niveau des animaux - changements de plans d'organisation, etc. Cette macro-évolution n'est considérée ici que comme le prolongement de la micro-évolution - les changements graduels. La macro-évolution n'est que le résultat de petits changements accumulés pendant des dizaines ou des centaines de millions d'années.


La théorie synthétique de l'évolution contredit la notion fondamentale de finalité : elle affirme que l'évolution ne poursuit aucun but. Tout se passe pas à pas, dans un affrontement continuel, au présent, des organismes avec leur environnement, et les uns par rapport aux autres, et non en fonction d'un but précis.

B. La rupture de la cladistique

Cette théorie synthétique de l'évolution a été un nouveau point de départ. Dans les années 1950, plusieurs aspects sont discutés pour parvenir à la vision actuelle.


Premier point clé : cette nouvelle vision modifie la manière de traiter les fossiles en particulier, et l'histoire de la vie sur Terre, en général. Deux éléments illustrent cette notion. Le premier est révélé par un schéma de Simpson, qui, représente par une arborescence les différentes classes de vertébrés, les mammifères, les oiseaux, les reptiles et les poissons. Malgré Darwin, cet arbre traduit, non pas une recherche de parenté, mais de descendance, de généalogie. Par exemple, l' Ichthyostega est placé de telle sorte qu'on puisse penser qu'il est l'ancêtre de l'ensemble des organismes qui le suivent.

Cette représentation illustre un problème clé : comment retracer les relations de parenté ? Comment se servir des fossiles ? A ces questions, le zoologiste allemand Willy Hennig (1913-1976) propose une nouvelle méthode : la cladistique.

Hennig pense qu'il faut rechercher, non pas des relations de descendance, mais de parenté-les relations de cousinage, en quelque sorte-, et positionner des ancêtres hypothétiques. Pour mettre à jour ces relations de parenté, il faut, parmi les caractères homologues (hérités d'un ancêtre commun), considérer ceux qui correspondent à des innovations. Ces caractères novateurs permettent de rassembler les organismes.

En considérant ces organismes (fig 6), des oiseaux et des reptiles (tortues, lézards et crocodiles), une des innovations héritées d'un ancêtre commun hypothétique est la plume, partagée par l'ensemble des oiseaux. La plume résulte de la transformation de l'écaille épidermique existant chez les organismes reptiliens, à la suite d'un processus évolutif particulier.

Cette démarche, fondée non pas sur un mais plusieurs caractères, permet de construire des arbres phylogénétiques. La méthode consiste à définir des groupes monophylétiques, pas à pas, à partir d'ancêtres hypothétiques communs. Un groupe monophylétique est un groupe qui rassemble un ancêtre et l'ensemble de ses descendants. A l'opposé, un groupe paraphylétique correspond à un ancêtre et une partie de ses descendants.

Pour éclairer ces concepts, considérons cet arbre, relativement juste - relativement car encore sujet de controverse. Cet arbre met évidence un groupe monophylétique, les sauropsides, groupant les oiseaux, les crocodiles, les lézards, les serpents et les tortues. Or, dans la classification "traditionnelle", les reptiles (serpents, lézards, tortues) figurent d'un côté, les oiseaux de l'autre. Cela revient à présenter un groupe monophylétique (les oiseaux) et un groupe paraphylétique (les serpents, les oiseaux et les tortues). Cette dichotomie se fonde sur un ensemble de particularités des oiseaux qui les mettaient, intuitivement, "à part" : la capacité de voler, le plumage... Dans ce cas-là, on occulte la relation de parenté extrêmement importante entre les crocodiles et les oiseaux. Dans le cas contraire, on explicite un groupe monophylétique clé : les archosauriens (crocodiles et oiseaux), ce qui modifie la conception évolutive intuitive.

On aurait "naturellement" tendance à penser que les crocodiles ressemblent plus aux varans ou aux lézards qu'aux oiseaux. Cette méthode met en pièce le concept de ressemblance - en trouvant des caractères (moléculaires ou morpho-anatomiques) qui permettent de positionner des ancêtres hypothétiques communs qui ont apporté des innovations. Dans ce cas particulier, l'innovation est la présence d'un gésier. Ce gésier, connu chez les oiseaux, moins chez les crocodiles, n'est pas présent chez les autres reptiles.


Examinons à présent cet arbre (fig 7), qui représente les archosaures. Deux groupes d'animaux vivent actuellement : les oiseaux et les crocodiliens (ici l'alligator), aux deux extrémités du graphe. D'autres branches sont importantes :

- la branche des ptérosauriens - les « dinosaures » volants ;

- le groupe des dinosaures, divisés en deux branches : ornitischiens et saurischiens ;

- les théropodes.

Contrairement à la figure précédente (fig 6), les fossiles ne figurent pas en tant qu'ancêtres. Ils sont représentés comme apparentés aux autres organismes. Des ancêtres hypothétiques communs sont positionnés. A leur niveau, on fait apparaître les innovations. De cette manière, l'histoire de ces innovations est retracée : à partir d'organismes de "type" dinosaure, on voit l'évolution des différents caractères (tels que la plume, l'évolution des membres, mâchoires...etc.), jusqu'aux oiseaux actuels.

Parmi ces archosaures, seuls existent encore les crocodiles et les oiseaux. Entre ces deux groupes se trouvent tous les dinosaures. Les oiseaux partagent des ancêtres hypothétiques avec quantité de ces dinosaures. On croit que les dinosaures ont disparu. Et bien non ! Quand vous croiserez une volée de pigeons dans les rues de Paris, vous pourrez dire : "nous sommes envahis par les dinosaures !" Tous les oiseaux sont des dinosaures : cette méthode change considérablement la vision intuitive des choses, n'est ce pas ?


Je conclus cet exposé en présentant ce à quoi vous avez échappé :

- Tout d'abord, à la phylogénie moléculaire. Actuellement, tous les organismes de la diversité du vivant peuvent apparaître sur un même arbre : bactérie, animaux, plantes... Cet arbre commence à représenter une bonne vision synthétique du monde vivant.

- Ensuite, à l'évolution du génome. On commence à comprendre comment les innovations, les mutations surviennent au niveau du génome. Elles se produisent principalement par duplication des gènes : des motifs de l'ADN se dupliquent et ces gènes dupliqués peuvent acquérir de nouvelles fonctions. La mise en évidence de ces phénomènes permet de mieux comprendre comment la descendance avec modification se produit. Ce ne sont pas de petites modifications ponctuelles comme on le pensait auparavant.

- Troisième point : la sélection n'agit pas exclusivement au niveau des organismes. Elle opère à tous les niveaux d'organisation. Un exemple très simple est la présence, dans les génomes, de petites unités appelées transposons. Ces transposons se répliquent, indépendamment, envahissent le génome, peuvent passer d'un chromosome à l'autre. Ces transposons participent certainement à la fluidité du génome. Le pourcentage de ces transposons dans le génome est considérable : 40 % du génome humain est composé de ces séquences - des unités « parasites "» puisqu'elles ne participent ni à la construction, ni au fonctionnement de notre organisme. Au niveau végétal, ce chiffre est encore plus important : jusqu'à 75 % du génome de certaines plantes serait envahi de transposons.

- Avant dernier point : l'évolution n'est pas si graduelle, elle se fait souvent par crises. La vitesse d'évolution change. Des crises se sont produites, extrêmement importantes dans l'histoire géologique de la Terre. L'une des plus belles crises est celle du Permien, au cours de laquelle 80 % des espèces auraient disparu. Ces crises d'extinctions ont été suivies de radiations, où des innovations très importantes se produisent.

- Enfin, dernier point qui m'est cher. La notion de progrès devient complètement relative. Les innovations se font sur toutes les branches : il n'existe pas d'organisme plus évolué qu'un autre. Tous les organismes ont parcouru le même temps d'évolution. Seulement, ils n'ont pas évolué dans les mêmes directions, en raison de contraintes différentes, de milieu et de choix de stratégies différentes.

Si on prétend dans un style « d'Echelle des Êtres », qu'il existe de « meilleurs » organismes, c'est qu'on met en exergue un ou plusieurs caractères. Ce n'est pas de la biologie. La biologie considère tous les caractères au même niveau et que la biodiversité est structurée par cette évolution. Dans ces conditions, chaque organisme vaut par lui-même.

 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google