|
|
|
|
|
|
OBSERVER EN TEMPS RÉEL LA RÉPARATION DE L'ADN |
|
|
|
|
|
Paris, 7 septembre 2012
Observer en temps réel la réparation d'une seule molécule d'ADN
L'ADN est sans cesse endommagé par des agents environnementaux tels que les rayons ultra-violets ou certaines molécules de la fumée de cigarette. Sans arrêt, les cellules mettent en œuvre des mécanismes de réparation de cet ADN d'une efficacité redoutable. Une équipe de l'Institut Jacques Monod (CNRS/Université Paris Diderot), en collaboration avec des chercheurs des universités de Bristol en Angleterre et Rockefeller aux Etats-Unis, est parvenue à suivre en direct, pour la première fois, les étapes initiales de l'un de ces systèmes de réparation de l'ADN encore peu connu. Grâce à une technique inédite appliquée à une molécule unique d'ADN sur un modèle bactérien, les chercheurs ont compris comment plusieurs acteurs interagissent pour réparer l'ADN avec une grande fiabilité. Publiés dans Nature le 9 septembre 2012, leurs travaux visent à mieux comprendre l'apparition de cancers et comment ils deviennent résistants aux chimiothérapies.
Les rayons ultra-violets, la fumée de tabac ou encore les benzopyrènes contenus dans la viande trop cuite provoquent des altérations au niveau de l'ADN de nos cellules qui peuvent conduire à l'apparition de cancers. Ces agents environnementaux détériorent la structure même de l'ADN, entraînant notamment des dégâts dits « encombrants » (comme la formation de ponts chimiques entre les bases de l'ADN). Pour identifier et réparer ce type de dégâts, la cellule dispose de plusieurs systèmes, comme la « réparation transcriptionellement-couplée » (ou TCR pour Transcription-coupled repair system) dont le mécanisme d'action complexe reste encore aujourd'hui peu connu. Des anomalies dans ce mécanisme TCR, qui permet une surveillance permanente du génome, sont à l'origine de certaines maladies héréditaires comme le Xeroderma pigmentosum qui touche les « enfants de la Lune », hypersensibles aux rayons ultra-violets du Soleil.
Pour la première fois, une équipe de l'Institut Jacques Monod (CNRS/Université Paris Diderot), en collaboration avec des chercheurs des universités de Bristol en Angleterre et Rockefeller aux Etats-Unis, a réussi à observer les étapes initiales du mécanisme de réparation TCR sur un modèle bactérien. Pour y parvenir, les chercheurs ont employé une technique inédite de nanomanipulation de molécule individuelle(1) qui leur a permis de détecter et suivre en temps réel les interactions entre les molécules en jeu sur une seule molécule d'ADN endommagée. Ils ont élucidé les interactions entre les différents acteurs dans les premières étapes de ce processus TCR. Une première protéine, l'ARN polymérase(2), parcourt normalement l'ADN sans encombre mais se trouve bloquée lorsqu'elle rencontre un dégât encombrant, (tel un train immobilisé sur les rails par une chute de pierres). Une deuxième protéine, Mfd, se fixe à l'ARN polymérase bloquée et la chasse du rail endommagé afin de pouvoir ensuite y diriger les autres protéines de réparation nécessaires à la réparation du dégât. Les mesures de vitesses de réaction ont permis de constater que Mfd agit particulièrement lentement sur l'ARN polymérase : elle fait bouger la polymérase en une vingtaine de secondes. De plus, Mfd déplace bien l'ARN polymérase bloquée mais reste elle-même ensuite associée à l'ADN pendant des temps longs (de l'ordre de cinq minutes), lui permettant de coordonner l'arrivée d'autres protéines de réparation au site lésé.
Si les chercheurs ont expliqué comment ce système parvient à une fiabilité de presque 100%, une meilleure compréhension de ces processus de réparation est par ailleurs essentielle pour savoir comment apparaissent les cancers et comment ils deviennent résistants aux chimiothérapies.
DOCUMENT CNRS LIEN |
|
|
|
|
|
|
LA MODÉLISATION DES MOLÉCULES DE LA VIE |
|
|
|
|
|
Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006
Richard Lavery : « La modélisation des molécules de la vie »
Le besoin de modèles
Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].
C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.
L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.
Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].
La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.
L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.
En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.
Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.
D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.
Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].
Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.
Partir des ponts pour arriver aux protéines
Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.
Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.
Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.
L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.
Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.
Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
|
|
LA NOTION D'ÉVOLUTION |
|
|
|
|
|
Texte de la 429e conférence de l'Université de tous les savoirs, donnée le 7 juillet 2002
Hervé Le Guyader, "La notion d'évolution"
Pour présenter la notion d'évolution, j'ai choisi d'adopter une démarche historique, en singularisant différents points autour de périodes clés.
Premièrement, je présenterai quelques éléments importants des XVIIe et XVIIIe siècles qui permettent d'arriver à la conception d'un individu clé, Lamarck, date clé : 1829, publication de sa Philosophie zoologique. Le deuxième individu important est Darwin, date clé : 1859, publication de l' Origine des espèces. La troisième date clé se situe aux alentours de 1940, quand la Théorie synthétique de l'évolution est développée. Enfin, j'exposerai quelques éléments de l'après guerre, qui, à mon sens, montrent comment tout ce qui gravite autour des théories de l'évolution se met en place.
En introduction, j'attire votre attention sur cette citation d'Ernst Mayr qui compare les biologistes et les physiciens : « Au lieu de créer et de donner des lois comme le font les physiciens, les biologistes interprètent leurs données dans un cadre conceptuel »
Ce cadre conceptuel, c'est la notion d'évolution, qui se construit pas à pas, à force de discussions, controverses, voire même d'altercations, de progrès conceptuels ou expérimentaux.
Actuellement, ce cadre conceptuel devient extrêmement compliqué. Néanmoins, il s'en dégage quelques idées directrices.
I. L'apparition du transformisme
Je vous présente tout d'abord comment l'idée, non pas d'évolution, mais de transformisme, est apparue.
En premier lieu, je tiens à insister sur un point. En histoire, on montre souvent l'apparition de concepts « nouveaux » - sous entendu : avant, il n'existait rien. De plus, on attache souvent l'apparition d'un concept à un individu clé, considéré comme un génie. En réalité, ce génie, cet individu clé, ne représente la plupart du temps que le courant de l'époque, et ne fait « que » cristalliser une idée, qui existe néanmoins chez ses contemporains.
Pour que l'idée du transformisme apparaisse, deux mouvements se sont produits en même temps. La première avancée concerne la réfutation d'idées erronées. Ces idées, tant qu'elles n'étaient pas réfutées, empêchaient l'émergence de la notion de transformisme. Concomitamment, de nouveaux concepts apparaissent.
A. Les obstacles au transformisme
1. La métamorphose
Parmi les concepts erronés, celui de métamorphose est l'un des plus importants. Une planche extraite d'un livre d'Ulisse Aldrovandi (1522 - 1605) (fig.1), édité en 1606, illustre cette idée. Elle représente des crustacés, qui appartiennent à la classe des cirripèdes : des anatifes, crustacés fixés par un pédoncule, et dont le corps est contenu dans une sorte de coquille formée de plaques calcaires.
Cette planche montre comment on concevait le devenir de ces coquillages : selon Aldrovandi, les anatifes peuvent se transformer en canards ! Les cirres devenaient les plumes, le pédoncule, le cou, et la tête du canard correspond à l'endroit de fixation. J'aurais pu vous citer bien d'autres exemples de la sorte... D'ailleurs, ceux qui ont fait du latin reconnaîtront peut-être dans le terme actuel pour désigner une de ces espèces, Lepas anatifera, le terme anatifera qui signifie « qui porte des canards ».
Ainsi, dans les esprits d'alors, les animaux pouvaient se transformer les uns en les autres, un crustacé en canard, parmi une foultitude d'exemples. On concevait également des passages du monde végétal au monde animal... Tout était imaginable !
Dans ces conditions, il était impossible que l'idée d'un processus historique puisse apparaître. Ces exemples de métamorphose sont rencontrés jusqu'au milieu du XVIIIe siècle. Puis chacun des exemples de métamorphose est tour à tour réfuté. La notion-même devient progressivement la notion biologique actuelle - la métamorphose par mues des insectes et le passage têtard-adulte des batraciens.
2. La génération spontanée
La deuxième idée, la notion de génération spontanée, n'est pas caractéristique des XVIIe et XVIIIe siècles. Il faudra attendre Louis Pasteur (1822 - 1895) pour qu'elle soit complètement anéantie. En termes actuels, la notion de génération spontanée consiste en ce que de la « matière inanimée » puisse s'animer et produire des êtres vivants. L'abbé Lazzaro Spallanzani (1729-1799) est un homme clé parmi ceux qui ont démontré que la génération spontanée n'existe pas, du moins au niveau des organismes de grandes tailles : souris, insectes... etc. Cependant, il faudra attendre la controverse de 1862 entre Pasteur et Pouchet pour que cette notion disparaisse également au niveau des microorganismes. Retenons qu'au XVIIIe siècle cette notion ne persistera qu'à l'égard des « animalcules », les petits organismes.
3. L'Echelle des Êtres
La notion d'Echelle des Êtres existe déjà chez Aristote. Cette notion traverse tout le Moyen- Age, puis est remise en valeur par Gottfried Leibniz (1646-1716) et reprise par le biologiste Charles Bonnet (1720-1793).
La planche (fig 2) figure cette conception du monde : au bas de l'échelle, se situent les quatre éléments : feu, air, terre, eau. Des terres, on monte vers les cristaux et les métaux. Ensuite, on progresse vers le corail, les polypes, les champignons, jusqu'aux végétaux, insectes et coquillages. Certaines hiérarchies peuvent paraître étranges : les serpents d'abord, les poissons ensuite. Plus haut encore, les poissons, dominés par les poissons volants, qui conduisent aux oiseaux (!) ; puis des oiseaux, on parvient aux quadrupèdes et, qui se situe au sommet de l'échelle ? Bien naturellement : l'homme.
Ce concept était très ancré avant la Révolution. Un extrait d'un poème d'Ecouchard le Brun (1760) illustre comment les lettrés concevaient les relations entre êtres vivants :
« Tous les corps sont liés dans la chaîne de l'Être.
La nature partout se précède et se suit.
[...]
Dans un ordre constant ses pas développés
Ne s'emportant jamais à des bonds escarpés.
De l'homme aux animaux rapprochant la distance,
Voyez l'homme du Bois lier leur existence.
Du corail incertain, ni plante, ni minéral,
Revenez au Polype, insecte végétal. »
Tout était mêlé, avec une notion de progrès. Cette échelle des Êtres vivants est un concept qu'il a fallu discuter longuement, avant qu'il ne soit réfuté.
Cette notion d'Echelle des Êtres, il faut le souligner, est une notion quasi intuitive que tout individu développe. Il ne faut pas se focaliser sur son aspect historique ou archaïque. Chacun, de façon « naturelle », s'imagine être au sommet d'une Echelle des Êtres et conçoit une hiérarchie qui le lie à des subordonnés.
4. L'échelle de temps
Dernière conception à réfuter, la notion de temps. Avant la Révolution, l'échelle des temps reste une échelle biblique. Différents théologiens anglicans ont longuement calculé le temps qui les séparait de la création du monde, à partir des généalogies bibliques. Ils n'étaient pas tous d'accord, à une centaine d'années près, mais s'accordaient autour de 6 000 ans. Comment une idée d'évolution aurait-elle pu germer dans les esprits avec une marge de temps aussi courte ?
L'un de ceux qui réfutent cette idée, c'est Georges Buffon (1707-1788). Il propose une dizaine de milliers d'années, puis une centaine de milliers d'années. Enfin, dans sa correspondance, il émet l'idée que, peut être, la vie serait apparue il y a plusieurs millions d'années. C'est donc à cette époque que naît l'idée d'un temps long, en lien avec le développement de la géologie de l'époque.
B. Les nouvelles idées
A présent, quelles sont les nouvelles propositions ? Trois notions sont essentielles pour que les concepts de transformisme et d'évolution puissent apparaître.
1. L'unicité de la classification naturelle
Depuis Aristote au moins, les hommes ont voulu classer les organismes. Initialement, cette classification a principalement occupé les botanistes.
Aux XVe et XVIe siècles, on se retrouve avec une multitude de systèmes et de méthodes de classification. La bibliothèque du Muséum d'Histoire Naturelle en conserve une centaine dans ses vieux livres. S'il en reste tant actuellement, il en existait au minimum 500 à 600 en Europe, à cette époque.
Carl von Linné (1707-1778), comme les savants de cette époque, est un grand lecteur : il connaît toutes les tentatives réalisées par ses contemporains. Brusquement, il lui apparaît quelque chose d'assez extraordinaire. En effet, lorsque le travail de classification est mené correctement, en bonne logique, d'après de bons caractères, à chaque fois les grandes familles de la botanique ressortent : liliacées, orchidacées, rosacées... etc. Linné remarque que ces multiples tentatives conduisent à une même classification, un même ordonnancement. Tout se passe comme s'il existait une unité qui représente un ordre de la Nature. L'objectif est désormais de décrire cet ordre par une classification naturelle. Cette classification est nécessairement unique, car il n'y a qu'un ordre dans la Nature. Dans le contexte judéo-chrétien de l'époque, Linné imaginait que cette classification naturelle représentait l'ordre de la création.
Cette unicité de la classification est une idée extrêmement forte, comme on le verra avec Darwin. Elle change le sens de la classification - non plus seulement ranger les organismes, mais trouver une unité au monde du vivant.
2. Le concept d'homologie
Le concept d'homologie est mis au point par Etienne Geoffroy St Hilaire (1772-1844). Il utilise des travaux de botanique et bâtit un concept repris par Cuvier quasi en même temps : le concept de plan d'organisation. Cette idée de plan d'organisation, bien antérieure à Geoffroy St Hilaire, est fondamentale. Elle met en évidence que certains êtres vivants sont organisés de la même façon. Cuvier présente quatre plans d'organisation différents pour l'ensemble du règne animal - par exemple, le plan d'organisation des vertébrés.
A partir de ces plans d'organisation, Geoffroy St Hilaire construit un outil très performant pour l'anatomie comparée. Il crée, bien que ce ne soit pas le terme qu'il emploie, le concept d'homologie. Il affirme la nécessité, si on souhaite comparer les organismes, de savoir quels sont les "bons" organes que l'on compare : comment savoir si on compare les « mêmes » organes chez deux organismes différents ? Geoffroy Saint-Hilaire essaie, tout simplement, de trouver des organes qui occupent la même situation dans un plan d'organisation. Par exemple, en observant les membres antérieurs de vertébrés quadrupèdes (fig 3), on remarque qu'à chaque fois, le cubitus, entre autres, se trouve au même endroit dans le membre, même si la forme, la fonction de ce membre changent entre ces animaux.
Ce concept d'homologie permet de comparer de façon pertinente les organismes, ce qui est la condition pour proposer une bonne systématique.
3. La mort des espèces
En plus du concept d'homologie, George Cuvier (1769-1832) apporte une autre notion, qui a un impact considérable. Il démontre, par la paléontologie, que les espèces meurent. Grâce à des fossiles de vertébrés, en particulier ceux du gypse de Montmartre, il prouve qu'il existait des animaux qui n'existent plus actuellement dans le monde, c'est-à-dire que les espèces disparaissent.
Ce concept de mort des espèces a été une révolution extrêmement importante à l'époque, au tout début du XVIIIesiècle. Cet extrait de La peau de chagrin, de Balzac, illustre la portée de ce concept dans le monde des lettres :
« Cuvier n'est-il pas le plus grand poète de notre siècle. Notre immortel naturaliste a reconstruit des mondes avec des os blanchis. Il fouille une parcelle de gypse, y perçoit une empreinte et vous crie : « Voyez ! ». Soudain, les marbres s'animalisent, la mort se vivifie, le monde se déroule »
Brusquement, l'idée apparaît que des mondes, qui n'existent plus, existaient; le monde « se déroule » ; on verra qu'il « évolue ».
C. Lamarck et le transformisme
1. Logique et transformisme
Pour résumer, si vous réfutez les métamorphoses, si vous abandonnez le concept de génération spontanée, si vous allongez l'échelle de temps, si vous relativisez l'Echelle des Êtres, si vous imaginez une unité de classification, si vous concevez les concepts d'homologie et de plan d'organisation et si vous acceptez l'idée de mort des espèces, vous ne pouvez que suivre Jean-Baptiste Lamarck (1744-1829), puis proposer de conserver avec lui la notion de transformisme.
Pourquoi ? Très brièvement, si on suit un raisonnement logique, il ne reste que deux possibilités pour réunir ces idées. Soit on reste créationniste : il faut alors nécessairement imaginer des créations multiples. Or, cela ne figure pas dans la Bible, qui ne mentionne qu'une seule création. Soit, on opte pour une seconde possibilité : les espèces se transforment les unes en les autres. Une troisième possibilité a été retenue par quelques théologiens : le stock des espèces allait en s'amenuisant - ce qui, d'après eux, n'était pas important, puisque seul l'homme a une valeur. Cette dernière théorie a eu très peu d'impact.
2. La théorie de Lamarck
Lamarck présente une classification. Il a l'idée remarquable, même si elle a été réfutée plus tard, de séparer vertébrés et invertébrés. Au niveau des animaux, il construit ce qui reste une échelle des Êtres. Il classe les animaux en trois catégories : les animaux apathiques, les animaux sensibles, les animaux intelligents. Cette vision demeure hiérarchisée.
Il imagine une transformation des organismes les uns en les autres (fig 4). Un premier point est fondamental, novateur : Lamarck présente des bifurcations, c'est-à-dire qu'il construit un arbre, une arborescence. A ma connaissance, c'est la première représentation qui rompt ainsi la linéarité de l'échelle des Êtres. Deuxième innovation, les espèces sont reliées par des points (actuellement ce serait symbolisé par des flèches), qui désignent les transformations possibles : les vers en insectes, les poissons en reptiles ou en amphibiens. La limite de la vision de Lamarck se situe à la base de ce réseau de transformations : la génération spontanée alimente le stock des organismes les plus simples - les vers -. Pour expliquer ce schéma, on a utilisé l'image de l'escalier roulant, qui, avec ses arrêts, ses paliers, paraît particulièrement pertinente : elle montre que Lamarck n'a pas une vision historique. Par exemple, au niveau des oiseaux, certains viennent de prendre l'escalier roulant - ils viennent de se transformer -, tandis que d'autres sont là depuis longtemps. Cela signifie que les animaux semblables ne résultent pas d'une même transformation, qui serait survenue à une même date dans le cours de l'histoire.
Il faut retenir, dans la pensée de Lamarck, cette notion de transformation, d'arbre, nourri continuellement par la génération spontanée.
II. Darwin
Sans entrer dans les détails de la vie de Charles Darwin (1809-1882), un élément important pour le développement de sa vision scientifique et pour l'élaboration de l' Origine des espèces (1859) réside dans un tour du monde de presque cinq ans, effectué entre 1831 et 1836. Non seulement Darwin est un très bon naturaliste et un très bon géologue, mais il possède également des notions d'anatomie et d'embryologie comparées.
A. La théorie de L'Origine des Espèces
Pour illustrer la difficulté de recevabilité que rencontra le livre de Darwin à sa publication, voilà le sous- titre donné dans la traduction française. Le titre original anglais est "Origin of species - by means of natural selection" , qui se traduit par : « L'origine des espèces - par les moyens de la sélection naturelle ». Or, dans l'édition française de 1862, ce titre est « traduit » de manière erronée en : « De l'origine des espèces ou des lois du progrès chez les êtres organisés ». Ce sous-titre montre combien la notion de progrès - et d"échelle des espèces" implicite - était profondément ancrée.
La meilleure solution pour exprimer l'idée clé de L'Origine des espèces, c'est d'examiner un extrait qui traduit de manière essentielle le sens que donne Darwin à la notion de classification :
«Le système naturel, c'est-à-dire la classification naturelle, est fondé sur le concept de descendance avec modification... »
Ce concept de «descendance avec modification » est essentiel pour comprendre la pensée de Darwin. Pourtant, si on interroge quelqu'un sur ce qu'a apporté Darwin, il répondra sans doute « la sélection naturelle "». En réalité, il a proposé ces deux idées, liées : sélection naturelle et descendance avec modification. A mon sens, c'est cette dernière idée qui est la plus importante.
« ... sur le concept de descendance avec modification, c'est-à-dire que les caractères que les naturalistes décrivent comme montrant de réelles affinités entre deux ou plusieurs espèces sont ceux qui ont été hérités d'un parent commun. »
Ces caractères auxquels Darwin fait référence, ce sont les caractères homologues de Geoffroy St Hilaire. Ce que propose Darwin, c'est une réponse à la question : pourquoi ces caractères sont-ils homologues ? Parce qu'ils ont été hérités d'un parent commun. Darwin interprète la notion de ressemblance, très prégnante depuis Geoffroy St Hilaire, comme une notion d'héritage de caractères. Il ne remet pas en cause le travail de ces prédécesseurs : il lui donne « seulement » un autre sens.
« Et par conséquent, toute vraie classification est généalogique... »
Enfin, Darwin plonge ce travail dans un continuum temporel. Cette notion de généalogie bouleverse le sens des classifications : désormais, on recherche des relations de parenté :
« ... c'est-à-dire que la communauté de descendance est le lien caché que les naturalistes ont cherché inconsciemment et non quelque plan inconnu de création. »
A l'époque, cette dernière phrase a représenté une provocation extraordinaire !
Pour éclairer le propos de Darwin, voilà la seule illustration présente dans L'Origine des Espèces (fig 5). Premièrement, cette planche dévoile une vision historique : les lignes horizontales représentent des horizons temporels. Cette figure comprend trois concepts importants :
1) des espèces disparaissent - l'idée de Cuvier ;
2) au cours du temps, les espèces peuvent se transformer - l'idée de Lamarck ;
3) des espèces peuvent donner naissance à plusieurs autres espèces.
Si on considère deux espèces après un embranchement, Darwin considère qu'il faut les rapprocher parce qu'elles partagent un ancêtre commun. Or les espèces partagent toujours un ancêtre commun. La différence réside dans la plus ou moins grande proximité de ces ancêtres. Pour Darwin, les organismes se ressemblent beaucoup car ils partagent un ancêtre commun récent. Les organismes très différents partagent un ancêtre commun lointain, à partir duquel il y a eu énormément de temps pour diverger.
B. La première « généalogie » des organismes
Ces concepts proposés par Darwin sont immédiatement repris par un biologiste allemand, Ernst Haeckel (1834 - 1919). Haeckel poursuit ces idées, en les exagérant même un peu.
Il utilise un arbre pour représenter sa classification. Il propose trois règnes : aux deux règnes animal et végétal classiques, il ajoute les protistes (organismes unicellulaires). Son apport fondamental se situe à la base de l'arbre. Pour chacun des règnes, il situe un ancêtre commun hypothétique, et surtout, il met en place un tronc avec une seule racine commune à l'ensemble des êtres vivants-un ancêtre commun à l'ensemble des organismes.
Cette proposition, en 1866, est le premier arbre dit « phylogénétique »- terme créé par Haeckel. Bien que discutée à ses débuts, l'idée essentielle d'origine commune est conservée - elle contient également l'idée d'origine de la vie sur terre -. Le mouvement est lancé : depuis Haeckel, les chercheurs vont « se contenter » de corriger cet arbre. Seules les logiques pour inférer les relations de parenté sont modifiées et améliorées.
C. Les difficultés de Darwin
Il manque des éléments à Darwin pour expliquer les mécanismes soutenant ce double concept de descendance avec modification. Elle contient premièrement l'idée de descendance entre espèces. Darwin n'utilise pas d'échelle des temps. Entre les lignes horizontales de son schéma, il ne s'agit pas d'années, ni de millions d'années : il s'agit de nombres de générations. Selon Darwin, ce qui rythme la vie des organismes, c'est la reproduction sexuée, à l'origine du concept de descendance. Deuxièmement, Darwin suppose que les caractères héréditaires, transmis via la reproduction sexuée, se « transforment »- mais il ignore comment.
Les deux disciplines qui lui manquent sont d'une part la génétique, et d'autre part, l'embryologie.
III. La Théorie synthétique de l'évolution
A. Les bases de la théorie
Un événement scientifique se produit au début du XXe siècle : la redécouverte des lois de Gregor Mendel (1822 - 1884), indépendamment par trois chercheurs : le hollandais Hugo De Vries (1848 - 1935), l'allemand Carl Correns (1864 - 1933), et l'autrichien Erich von Tschermak (1871 - 1962). Redécouverte, certes, mais enrichie d'un nouveau concept essentiel, celui de mutation. Cette idée de mutation permet de concevoir comment les caractères sont à la fois héréditaires et changeants.
A partir de 1905 jusqu'à 1930, se produit un difficile rapprochement entre deux disciplines : la génétique dite « des populations » (l'étude du devenir des fréquences de gènes dans les populations au cours du temps), se rapproche du darwinisme, par l'intermédiaire de la sélection naturelle. Ce rapprochement conduit à la Théorie synthétique de l'évolution. Signalons que cette traduction mot à mot de l'anglais introduit une connotation étrange en français - c'est plutôt une théorie qui fait une synthèse -.
Cinq biologistes de renom participent à cette nouvelle vision de l'évolution. Le premier individu clé est Theodosius Dobzhansky (1900 - 1975), d'origine russe, immigré aux États-Unis. Comme quasi tous les autres protagonistes de cette théorie, il appartient à l'Université de Columbia, à New York. Dobzhansky publie en 1937 un ouvrage intitulé : Genetics and Origin of Species. Cette référence explicite à Darwin traduit bien sa volonté de démontrer, par la génétique, que Darwin avait raison.
Les autres chercheurs impliqués dans cette vision nouvelle sont :
- Julian S. Huxley (1887-1975), généticien ;
- Ernst Mayr, zoologiste, ornithologue, théoricien de la spéciation ;
- George G. Simpson (1902-1984), géologue et paléontologue ;
- Ledyard G. Stebbins, qui travaille sur la spéciation en biologie végétale.
J'ai repris à partir d'un article récent d'Ernst Mayr les principes de base de cette théorie :
Premier principe : l'hérédité est particulaire et d'origine exclusivement génétique. Cela signifie que l'hérédité est portée par des particules-les gènes-qui ne se mélangent pas. En insistant sur l'origine exclusivement génétique, ce principe nie l'idée d'hérédité des caractères acquis, une forme de lamarckisme en vogue à l'époque.
Second principe : il existe une énorme variabilité dans les populations naturelles. Les organismes présentent une grande variabilité des différents gènes, des différents caractères. Cette variabilité intraspécifique permet l'apparition de nouvelles espèces à partir d'une espèce donnée.
Troisième principe : l'évolution se déroule dans des populations distribuées géographiquement. Un des moteurs les plus importants de la spéciation est l'isolement reproducteur. Les populations peuvent se retrouver séparées par des barrières géographiques, de comportement... etc. A partir du moment où une barrière de reproduction apparaît, des populations isolées peuvent donner naissance à des espèces distinctes.
Quatrième principe : l'évolution procède par modification graduelle des populations. L'évolution se fait pas à pas suivant un gradualisme quasi linéaire en fonction du temps. Autrement dit, le taux d'évolution est toujours considéré comme à peu près constant par unité de temps.
Cinquième principe : les changements dans les populations sont le résultat de la sélection naturelle. Les changements de fréquence des gènes et de caractères dans les populations sont provoqués par la sélection naturelle. Cette idée sera remise en question plus tard : la sélection naturelle existe, certes, mais d'autres moteurs de changement seront avancés.
Dernier principe : la macro-évolution n'est que le prolongement dans le temps de ces processus. La macro-évolution désigne les changements importants, les grands bouleversements, en particulier au niveau des animaux - changements de plans d'organisation, etc. Cette macro-évolution n'est considérée ici que comme le prolongement de la micro-évolution - les changements graduels. La macro-évolution n'est que le résultat de petits changements accumulés pendant des dizaines ou des centaines de millions d'années.
La théorie synthétique de l'évolution contredit la notion fondamentale de finalité : elle affirme que l'évolution ne poursuit aucun but. Tout se passe pas à pas, dans un affrontement continuel, au présent, des organismes avec leur environnement, et les uns par rapport aux autres, et non en fonction d'un but précis.
B. La rupture de la cladistique
Cette théorie synthétique de l'évolution a été un nouveau point de départ. Dans les années 1950, plusieurs aspects sont discutés pour parvenir à la vision actuelle.
Premier point clé : cette nouvelle vision modifie la manière de traiter les fossiles en particulier, et l'histoire de la vie sur Terre, en général. Deux éléments illustrent cette notion. Le premier est révélé par un schéma de Simpson, qui, représente par une arborescence les différentes classes de vertébrés, les mammifères, les oiseaux, les reptiles et les poissons. Malgré Darwin, cet arbre traduit, non pas une recherche de parenté, mais de descendance, de généalogie. Par exemple, l' Ichthyostega est placé de telle sorte qu'on puisse penser qu'il est l'ancêtre de l'ensemble des organismes qui le suivent.
Cette représentation illustre un problème clé : comment retracer les relations de parenté ? Comment se servir des fossiles ? A ces questions, le zoologiste allemand Willy Hennig (1913-1976) propose une nouvelle méthode : la cladistique.
Hennig pense qu'il faut rechercher, non pas des relations de descendance, mais de parenté-les relations de cousinage, en quelque sorte-, et positionner des ancêtres hypothétiques. Pour mettre à jour ces relations de parenté, il faut, parmi les caractères homologues (hérités d'un ancêtre commun), considérer ceux qui correspondent à des innovations. Ces caractères novateurs permettent de rassembler les organismes.
En considérant ces organismes (fig 6), des oiseaux et des reptiles (tortues, lézards et crocodiles), une des innovations héritées d'un ancêtre commun hypothétique est la plume, partagée par l'ensemble des oiseaux. La plume résulte de la transformation de l'écaille épidermique existant chez les organismes reptiliens, à la suite d'un processus évolutif particulier.
Cette démarche, fondée non pas sur un mais plusieurs caractères, permet de construire des arbres phylogénétiques. La méthode consiste à définir des groupes monophylétiques, pas à pas, à partir d'ancêtres hypothétiques communs. Un groupe monophylétique est un groupe qui rassemble un ancêtre et l'ensemble de ses descendants. A l'opposé, un groupe paraphylétique correspond à un ancêtre et une partie de ses descendants.
Pour éclairer ces concepts, considérons cet arbre, relativement juste - relativement car encore sujet de controverse. Cet arbre met évidence un groupe monophylétique, les sauropsides, groupant les oiseaux, les crocodiles, les lézards, les serpents et les tortues. Or, dans la classification "traditionnelle", les reptiles (serpents, lézards, tortues) figurent d'un côté, les oiseaux de l'autre. Cela revient à présenter un groupe monophylétique (les oiseaux) et un groupe paraphylétique (les serpents, les oiseaux et les tortues). Cette dichotomie se fonde sur un ensemble de particularités des oiseaux qui les mettaient, intuitivement, "à part" : la capacité de voler, le plumage... Dans ce cas-là, on occulte la relation de parenté extrêmement importante entre les crocodiles et les oiseaux. Dans le cas contraire, on explicite un groupe monophylétique clé : les archosauriens (crocodiles et oiseaux), ce qui modifie la conception évolutive intuitive.
On aurait "naturellement" tendance à penser que les crocodiles ressemblent plus aux varans ou aux lézards qu'aux oiseaux. Cette méthode met en pièce le concept de ressemblance - en trouvant des caractères (moléculaires ou morpho-anatomiques) qui permettent de positionner des ancêtres hypothétiques communs qui ont apporté des innovations. Dans ce cas particulier, l'innovation est la présence d'un gésier. Ce gésier, connu chez les oiseaux, moins chez les crocodiles, n'est pas présent chez les autres reptiles.
Examinons à présent cet arbre (fig 7), qui représente les archosaures. Deux groupes d'animaux vivent actuellement : les oiseaux et les crocodiliens (ici l'alligator), aux deux extrémités du graphe. D'autres branches sont importantes :
- la branche des ptérosauriens - les « dinosaures » volants ;
- le groupe des dinosaures, divisés en deux branches : ornitischiens et saurischiens ;
- les théropodes.
Contrairement à la figure précédente (fig 6), les fossiles ne figurent pas en tant qu'ancêtres. Ils sont représentés comme apparentés aux autres organismes. Des ancêtres hypothétiques communs sont positionnés. A leur niveau, on fait apparaître les innovations. De cette manière, l'histoire de ces innovations est retracée : à partir d'organismes de "type" dinosaure, on voit l'évolution des différents caractères (tels que la plume, l'évolution des membres, mâchoires...etc.), jusqu'aux oiseaux actuels.
Parmi ces archosaures, seuls existent encore les crocodiles et les oiseaux. Entre ces deux groupes se trouvent tous les dinosaures. Les oiseaux partagent des ancêtres hypothétiques avec quantité de ces dinosaures. On croit que les dinosaures ont disparu. Et bien non ! Quand vous croiserez une volée de pigeons dans les rues de Paris, vous pourrez dire : "nous sommes envahis par les dinosaures !" Tous les oiseaux sont des dinosaures : cette méthode change considérablement la vision intuitive des choses, n'est ce pas ?
Je conclus cet exposé en présentant ce à quoi vous avez échappé :
- Tout d'abord, à la phylogénie moléculaire. Actuellement, tous les organismes de la diversité du vivant peuvent apparaître sur un même arbre : bactérie, animaux, plantes... Cet arbre commence à représenter une bonne vision synthétique du monde vivant.
- Ensuite, à l'évolution du génome. On commence à comprendre comment les innovations, les mutations surviennent au niveau du génome. Elles se produisent principalement par duplication des gènes : des motifs de l'ADN se dupliquent et ces gènes dupliqués peuvent acquérir de nouvelles fonctions. La mise en évidence de ces phénomènes permet de mieux comprendre comment la descendance avec modification se produit. Ce ne sont pas de petites modifications ponctuelles comme on le pensait auparavant.
- Troisième point : la sélection n'agit pas exclusivement au niveau des organismes. Elle opère à tous les niveaux d'organisation. Un exemple très simple est la présence, dans les génomes, de petites unités appelées transposons. Ces transposons se répliquent, indépendamment, envahissent le génome, peuvent passer d'un chromosome à l'autre. Ces transposons participent certainement à la fluidité du génome. Le pourcentage de ces transposons dans le génome est considérable : 40 % du génome humain est composé de ces séquences - des unités « parasites "» puisqu'elles ne participent ni à la construction, ni au fonctionnement de notre organisme. Au niveau végétal, ce chiffre est encore plus important : jusqu'à 75 % du génome de certaines plantes serait envahi de transposons.
- Avant dernier point : l'évolution n'est pas si graduelle, elle se fait souvent par crises. La vitesse d'évolution change. Des crises se sont produites, extrêmement importantes dans l'histoire géologique de la Terre. L'une des plus belles crises est celle du Permien, au cours de laquelle 80 % des espèces auraient disparu. Ces crises d'extinctions ont été suivies de radiations, où des innovations très importantes se produisent.
- Enfin, dernier point qui m'est cher. La notion de progrès devient complètement relative. Les innovations se font sur toutes les branches : il n'existe pas d'organisme plus évolué qu'un autre. Tous les organismes ont parcouru le même temps d'évolution. Seulement, ils n'ont pas évolué dans les mêmes directions, en raison de contraintes différentes, de milieu et de choix de stratégies différentes.
Si on prétend dans un style « d'Echelle des Êtres », qu'il existe de « meilleurs » organismes, c'est qu'on met en exergue un ou plusieurs caractères. Ce n'est pas de la biologie. La biologie considère tous les caractères au même niveau et que la biodiversité est structurée par cette évolution. Dans ces conditions, chaque organisme vaut par lui-même.
VIDEO CANAL U LIEN
(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.) |
|
|
|
|
|
|
LIGNÉE HUMAINE |
|
|
|
|
|
Paris, 27 janvier 2011
Lignée humaine : le métissage entre Homo sapiens et espèces plus archaïques n'est pas la seule explication aux données génétiques
Y a-t-il eu métissage entre Homo Sapiens et les populations d'Homo archaïques qu'il a remplacées en Europe (l'homme de Néanderthal) et en Asie (Homo Erectus, l'homme de Denisova) ? Pas forcément, répondent deux bio-informaticiens, l'un du CNRS (1) et l'autre de l'Université d'Uppsala (Suède). Leurs simulations numériques montrent que d'autres événements démographiques pourraient rendre compte de la diversité génétique de notre espèce. Ce travail est publié dans la revue Molecular Biology and Evolution du mois de février 2011.
Depuis que l'on sait séquencer l'ADN, généticiens et bio-informaticiens s'intéressent de plus en plus aux origines de l'homme. Ils ont montré que l'« Eve mitochondriale » (la femme qui portait le dernier ancêtre commun des mitochondries (2) présentes dans la population actuelle) vivait il y a moins de 200 000 ans, de même que l'« Adam Y » (l'homme qui portait le dernier ancêtre commun des chromosomes Y actuels). Ensuite, ils ont voulu déterminer les âges des derniers ancêtres communs sur le chromosome X et les chromosomes non sexuels, mais jusqu'à présent, aucun consensus n'avait été atteint sur ce sujet. Certains parlaient d'1 à 1,5 million d'années tandis que d'autres pensaient qu'ils étaient contemporains de l'Eve mitochondriale et de l'Adam Y. L'idée prévalant était que, si les âges anciens des derniers ancêtres communs sur le chromosome X et les chromosomes non sexuels était confirmé, cela impliquait un métissage d'Homo Sapiens avec des hommes plus archaïques (repoussant le dernier ancêtre commun à l'époque où les populations archaïques se sont séparées).
Deux chercheurs, l'un au laboratoire « Techniques de l'ingénierie médicale et de la complexité - Informatique, Mathématiques et applications » de Grenoble (3) et l'autre à l'Université d'Uppsala, ont analysé une base publique de données d'ADN, pour calculer les âges des ancêtres communs sur le chromosome X et sur les chromosomes non sexuels. Ils ont trouvé respectivement 1 million et 1,5 million d'années, confirmant l'ancienneté de ces ancêtres.
Dès lors, ils ont voulu savoir si cela impliquait un métissage. Ils ont réalisé des simulations numériques du devenir du patrimoine génétique des populations humaines selon les deux scénarios classiques habituellement envisagés : dans le premier, après être apparu en Afrique, Homo Sapiens aurait ensuite remplacé les espèces archaïques qui vivaient sur les autres continents. Dans le second, il se serait métissé avec ces populations (en Europe avec l'homme de Neandertal, en Asie avec Homo Erectus, l'homme de Denisova…). Ces simulations aboutissent à un écart entre l'âge de l'Eve mitochondriale et celui de l'ancêtre commun des chromosomes non sexuels qui présente un rapport de 1 à 4. Or le rapport est en fait de 1 à 8. Ni l'un, ni l'autre des deux scénarios ne peut donc rendre compte, à eux seuls, des données de la génétique.
En revanche, deux hypothèses pourraient expliquer cet écart. Première hypothèse : avant la migration hors d'Afrique et depuis des centaines de milliers d'années, la population africaine a été morcelée en plusieurs groupes séparés par des barrières géographiques empêchant le brassage des gènes. Les ancêtres commun du chromosome X et les chromosomes non-sexuels dateraient alors d'avant l'isolement des différents groupes. Deuxième hypothèse : un « goulot d'étranglement démographique » a eu lieu il y a environ 150 000 ans, pendant l'avant-dernière glaciation. La rigueur du climat aurait alors provoqué une diminution de la taille de la population africaine. Les gènes présents sur les chromosomes non sexuels auraient franchi ce goulot d'étranglement, c'est-à-dire qu'ils auraient persisté dans la population après le goulot, contrairement aux gènes de l'ADN mitochondrial, qui eux, ne l'auraient pas passé (4).
En conclusion, ce travail montre que l'âge ancien des derniers ancêtres des chromosomes X et non-sexuels n'implique pas forcément un métissage de notre lignée, comme on le pensait jusqu'à présent. En effet, le scénario sans métissage peut également rendre compte, par le biais de l'une ou l'autre des hypothèses des chercheurs (fragmentation ancestrale ou goulot d'étranglement pendant l'avant-dernière glaciation) des résultats obtenus sur les âges des derniers ancêtres communs. A l'avenir, le séquençage de génomes entiers, en particulier celui de fossiles humains, permettra de tester ces hypothèses. Plus généralement, l'arrivée massive de génomes entiers va nous offrir une occasion sans précédent de mieux appréhender la paléogéographie humaine, et de mieux comprendre comment s'est façonnée la diversité génétique de notre espèce.
DOCUMENT CNRS LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|