|
|
|
|
 |
|
LA NOTION D'ÉVOLUTION |
|
|
|
|
|
Texte de la 429e conférence de l'Université de tous les savoirs, donnée le 7 juillet 2002
Hervé Le Guyader, "La notion d'évolution"
Pour présenter la notion d'évolution, j'ai choisi d'adopter une démarche historique, en singularisant différents points autour de périodes clés.
Premièrement, je présenterai quelques éléments importants des XVIIe et XVIIIe siècles qui permettent d'arriver à la conception d'un individu clé, Lamarck, date clé : 1829, publication de sa Philosophie zoologique. Le deuxième individu important est Darwin, date clé : 1859, publication de l' Origine des espèces. La troisième date clé se situe aux alentours de 1940, quand la Théorie synthétique de l'évolution est développée. Enfin, j'exposerai quelques éléments de l'après guerre, qui, à mon sens, montrent comment tout ce qui gravite autour des théories de l'évolution se met en place.
En introduction, j'attire votre attention sur cette citation d'Ernst Mayr qui compare les biologistes et les physiciens : « Au lieu de créer et de donner des lois comme le font les physiciens, les biologistes interprètent leurs données dans un cadre conceptuel »
Ce cadre conceptuel, c'est la notion d'évolution, qui se construit pas à pas, à force de discussions, controverses, voire même d'altercations, de progrès conceptuels ou expérimentaux.
Actuellement, ce cadre conceptuel devient extrêmement compliqué. Néanmoins, il s'en dégage quelques idées directrices.
I. L'apparition du transformisme
Je vous présente tout d'abord comment l'idée, non pas d'évolution, mais de transformisme, est apparue.
En premier lieu, je tiens à insister sur un point. En histoire, on montre souvent l'apparition de concepts « nouveaux » - sous entendu : avant, il n'existait rien. De plus, on attache souvent l'apparition d'un concept à un individu clé, considéré comme un génie. En réalité, ce génie, cet individu clé, ne représente la plupart du temps que le courant de l'époque, et ne fait « que » cristalliser une idée, qui existe néanmoins chez ses contemporains.
Pour que l'idée du transformisme apparaisse, deux mouvements se sont produits en même temps. La première avancée concerne la réfutation d'idées erronées. Ces idées, tant qu'elles n'étaient pas réfutées, empêchaient l'émergence de la notion de transformisme. Concomitamment, de nouveaux concepts apparaissent.
A. Les obstacles au transformisme
1. La métamorphose
Parmi les concepts erronés, celui de métamorphose est l'un des plus importants. Une planche extraite d'un livre d'Ulisse Aldrovandi (1522 - 1605) (fig.1), édité en 1606, illustre cette idée. Elle représente des crustacés, qui appartiennent à la classe des cirripèdes : des anatifes, crustacés fixés par un pédoncule, et dont le corps est contenu dans une sorte de coquille formée de plaques calcaires.
Cette planche montre comment on concevait le devenir de ces coquillages : selon Aldrovandi, les anatifes peuvent se transformer en canards ! Les cirres devenaient les plumes, le pédoncule, le cou, et la tête du canard correspond à l'endroit de fixation. J'aurais pu vous citer bien d'autres exemples de la sorte... D'ailleurs, ceux qui ont fait du latin reconnaîtront peut-être dans le terme actuel pour désigner une de ces espèces, Lepas anatifera, le terme anatifera qui signifie « qui porte des canards ».
Ainsi, dans les esprits d'alors, les animaux pouvaient se transformer les uns en les autres, un crustacé en canard, parmi une foultitude d'exemples. On concevait également des passages du monde végétal au monde animal... Tout était imaginable !
Dans ces conditions, il était impossible que l'idée d'un processus historique puisse apparaître. Ces exemples de métamorphose sont rencontrés jusqu'au milieu du XVIIIe siècle. Puis chacun des exemples de métamorphose est tour à tour réfuté. La notion-même devient progressivement la notion biologique actuelle - la métamorphose par mues des insectes et le passage têtard-adulte des batraciens.
2. La génération spontanée
La deuxième idée, la notion de génération spontanée, n'est pas caractéristique des XVIIe et XVIIIe siècles. Il faudra attendre Louis Pasteur (1822 - 1895) pour qu'elle soit complètement anéantie. En termes actuels, la notion de génération spontanée consiste en ce que de la « matière inanimée » puisse s'animer et produire des êtres vivants. L'abbé Lazzaro Spallanzani (1729-1799) est un homme clé parmi ceux qui ont démontré que la génération spontanée n'existe pas, du moins au niveau des organismes de grandes tailles : souris, insectes... etc. Cependant, il faudra attendre la controverse de 1862 entre Pasteur et Pouchet pour que cette notion disparaisse également au niveau des microorganismes. Retenons qu'au XVIIIe siècle cette notion ne persistera qu'à l'égard des « animalcules », les petits organismes.
3. L'Echelle des Êtres
La notion d'Echelle des Êtres existe déjà chez Aristote. Cette notion traverse tout le Moyen- Age, puis est remise en valeur par Gottfried Leibniz (1646-1716) et reprise par le biologiste Charles Bonnet (1720-1793).
La planche (fig 2) figure cette conception du monde : au bas de l'échelle, se situent les quatre éléments : feu, air, terre, eau. Des terres, on monte vers les cristaux et les métaux. Ensuite, on progresse vers le corail, les polypes, les champignons, jusqu'aux végétaux, insectes et coquillages. Certaines hiérarchies peuvent paraître étranges : les serpents d'abord, les poissons ensuite. Plus haut encore, les poissons, dominés par les poissons volants, qui conduisent aux oiseaux (!) ; puis des oiseaux, on parvient aux quadrupèdes et, qui se situe au sommet de l'échelle ? Bien naturellement : l'homme.
Ce concept était très ancré avant la Révolution. Un extrait d'un poème d'Ecouchard le Brun (1760) illustre comment les lettrés concevaient les relations entre êtres vivants :
« Tous les corps sont liés dans la chaîne de l'Être.
La nature partout se précède et se suit.
[...]
Dans un ordre constant ses pas développés
Ne s'emportant jamais à des bonds escarpés.
De l'homme aux animaux rapprochant la distance,
Voyez l'homme du Bois lier leur existence.
Du corail incertain, ni plante, ni minéral,
Revenez au Polype, insecte végétal. »
Tout était mêlé, avec une notion de progrès. Cette échelle des Êtres vivants est un concept qu'il a fallu discuter longuement, avant qu'il ne soit réfuté.
Cette notion d'Echelle des Êtres, il faut le souligner, est une notion quasi intuitive que tout individu développe. Il ne faut pas se focaliser sur son aspect historique ou archaïque. Chacun, de façon « naturelle », s'imagine être au sommet d'une Echelle des Êtres et conçoit une hiérarchie qui le lie à des subordonnés.
4. L'échelle de temps
Dernière conception à réfuter, la notion de temps. Avant la Révolution, l'échelle des temps reste une échelle biblique. Différents théologiens anglicans ont longuement calculé le temps qui les séparait de la création du monde, à partir des généalogies bibliques. Ils n'étaient pas tous d'accord, à une centaine d'années près, mais s'accordaient autour de 6 000 ans. Comment une idée d'évolution aurait-elle pu germer dans les esprits avec une marge de temps aussi courte ?
L'un de ceux qui réfutent cette idée, c'est Georges Buffon (1707-1788). Il propose une dizaine de milliers d'années, puis une centaine de milliers d'années. Enfin, dans sa correspondance, il émet l'idée que, peut être, la vie serait apparue il y a plusieurs millions d'années. C'est donc à cette époque que naît l'idée d'un temps long, en lien avec le développement de la géologie de l'époque.
B. Les nouvelles idées
A présent, quelles sont les nouvelles propositions ? Trois notions sont essentielles pour que les concepts de transformisme et d'évolution puissent apparaître.
1. L'unicité de la classification naturelle
Depuis Aristote au moins, les hommes ont voulu classer les organismes. Initialement, cette classification a principalement occupé les botanistes.
Aux XVe et XVIe siècles, on se retrouve avec une multitude de systèmes et de méthodes de classification. La bibliothèque du Muséum d'Histoire Naturelle en conserve une centaine dans ses vieux livres. S'il en reste tant actuellement, il en existait au minimum 500 à 600 en Europe, à cette époque.
Carl von Linné (1707-1778), comme les savants de cette époque, est un grand lecteur : il connaît toutes les tentatives réalisées par ses contemporains. Brusquement, il lui apparaît quelque chose d'assez extraordinaire. En effet, lorsque le travail de classification est mené correctement, en bonne logique, d'après de bons caractères, à chaque fois les grandes familles de la botanique ressortent : liliacées, orchidacées, rosacées... etc. Linné remarque que ces multiples tentatives conduisent à une même classification, un même ordonnancement. Tout se passe comme s'il existait une unité qui représente un ordre de la Nature. L'objectif est désormais de décrire cet ordre par une classification naturelle. Cette classification est nécessairement unique, car il n'y a qu'un ordre dans la Nature. Dans le contexte judéo-chrétien de l'époque, Linné imaginait que cette classification naturelle représentait l'ordre de la création.
Cette unicité de la classification est une idée extrêmement forte, comme on le verra avec Darwin. Elle change le sens de la classification - non plus seulement ranger les organismes, mais trouver une unité au monde du vivant.
2. Le concept d'homologie
Le concept d'homologie est mis au point par Etienne Geoffroy St Hilaire (1772-1844). Il utilise des travaux de botanique et bâtit un concept repris par Cuvier quasi en même temps : le concept de plan d'organisation. Cette idée de plan d'organisation, bien antérieure à Geoffroy St Hilaire, est fondamentale. Elle met en évidence que certains êtres vivants sont organisés de la même façon. Cuvier présente quatre plans d'organisation différents pour l'ensemble du règne animal - par exemple, le plan d'organisation des vertébrés.
A partir de ces plans d'organisation, Geoffroy St Hilaire construit un outil très performant pour l'anatomie comparée. Il crée, bien que ce ne soit pas le terme qu'il emploie, le concept d'homologie. Il affirme la nécessité, si on souhaite comparer les organismes, de savoir quels sont les "bons" organes que l'on compare : comment savoir si on compare les « mêmes » organes chez deux organismes différents ? Geoffroy Saint-Hilaire essaie, tout simplement, de trouver des organes qui occupent la même situation dans un plan d'organisation. Par exemple, en observant les membres antérieurs de vertébrés quadrupèdes (fig 3), on remarque qu'à chaque fois, le cubitus, entre autres, se trouve au même endroit dans le membre, même si la forme, la fonction de ce membre changent entre ces animaux.
Ce concept d'homologie permet de comparer de façon pertinente les organismes, ce qui est la condition pour proposer une bonne systématique.
3. La mort des espèces
En plus du concept d'homologie, George Cuvier (1769-1832) apporte une autre notion, qui a un impact considérable. Il démontre, par la paléontologie, que les espèces meurent. Grâce à des fossiles de vertébrés, en particulier ceux du gypse de Montmartre, il prouve qu'il existait des animaux qui n'existent plus actuellement dans le monde, c'est-à-dire que les espèces disparaissent.
Ce concept de mort des espèces a été une révolution extrêmement importante à l'époque, au tout début du XVIIIesiècle. Cet extrait de La peau de chagrin, de Balzac, illustre la portée de ce concept dans le monde des lettres :
« Cuvier n'est-il pas le plus grand poète de notre siècle. Notre immortel naturaliste a reconstruit des mondes avec des os blanchis. Il fouille une parcelle de gypse, y perçoit une empreinte et vous crie : « Voyez ! ». Soudain, les marbres s'animalisent, la mort se vivifie, le monde se déroule »
Brusquement, l'idée apparaît que des mondes, qui n'existent plus, existaient; le monde « se déroule » ; on verra qu'il « évolue ».
C. Lamarck et le transformisme
1. Logique et transformisme
Pour résumer, si vous réfutez les métamorphoses, si vous abandonnez le concept de génération spontanée, si vous allongez l'échelle de temps, si vous relativisez l'Echelle des Êtres, si vous imaginez une unité de classification, si vous concevez les concepts d'homologie et de plan d'organisation et si vous acceptez l'idée de mort des espèces, vous ne pouvez que suivre Jean-Baptiste Lamarck (1744-1829), puis proposer de conserver avec lui la notion de transformisme.
Pourquoi ? Très brièvement, si on suit un raisonnement logique, il ne reste que deux possibilités pour réunir ces idées. Soit on reste créationniste : il faut alors nécessairement imaginer des créations multiples. Or, cela ne figure pas dans la Bible, qui ne mentionne qu'une seule création. Soit, on opte pour une seconde possibilité : les espèces se transforment les unes en les autres. Une troisième possibilité a été retenue par quelques théologiens : le stock des espèces allait en s'amenuisant - ce qui, d'après eux, n'était pas important, puisque seul l'homme a une valeur. Cette dernière théorie a eu très peu d'impact.
2. La théorie de Lamarck
Lamarck présente une classification. Il a l'idée remarquable, même si elle a été réfutée plus tard, de séparer vertébrés et invertébrés. Au niveau des animaux, il construit ce qui reste une échelle des Êtres. Il classe les animaux en trois catégories : les animaux apathiques, les animaux sensibles, les animaux intelligents. Cette vision demeure hiérarchisée.
Il imagine une transformation des organismes les uns en les autres (fig 4). Un premier point est fondamental, novateur : Lamarck présente des bifurcations, c'est-à-dire qu'il construit un arbre, une arborescence. A ma connaissance, c'est la première représentation qui rompt ainsi la linéarité de l'échelle des Êtres. Deuxième innovation, les espèces sont reliées par des points (actuellement ce serait symbolisé par des flèches), qui désignent les transformations possibles : les vers en insectes, les poissons en reptiles ou en amphibiens. La limite de la vision de Lamarck se situe à la base de ce réseau de transformations : la génération spontanée alimente le stock des organismes les plus simples - les vers -. Pour expliquer ce schéma, on a utilisé l'image de l'escalier roulant, qui, avec ses arrêts, ses paliers, paraît particulièrement pertinente : elle montre que Lamarck n'a pas une vision historique. Par exemple, au niveau des oiseaux, certains viennent de prendre l'escalier roulant - ils viennent de se transformer -, tandis que d'autres sont là depuis longtemps. Cela signifie que les animaux semblables ne résultent pas d'une même transformation, qui serait survenue à une même date dans le cours de l'histoire.
Il faut retenir, dans la pensée de Lamarck, cette notion de transformation, d'arbre, nourri continuellement par la génération spontanée.
II. Darwin
Sans entrer dans les détails de la vie de Charles Darwin (1809-1882), un élément important pour le développement de sa vision scientifique et pour l'élaboration de l' Origine des espèces (1859) réside dans un tour du monde de presque cinq ans, effectué entre 1831 et 1836. Non seulement Darwin est un très bon naturaliste et un très bon géologue, mais il possède également des notions d'anatomie et d'embryologie comparées.
A. La théorie de L'Origine des Espèces
Pour illustrer la difficulté de recevabilité que rencontra le livre de Darwin à sa publication, voilà le sous- titre donné dans la traduction française. Le titre original anglais est "Origin of species - by means of natural selection" , qui se traduit par : « L'origine des espèces - par les moyens de la sélection naturelle ». Or, dans l'édition française de 1862, ce titre est « traduit » de manière erronée en : « De l'origine des espèces ou des lois du progrès chez les êtres organisés ». Ce sous-titre montre combien la notion de progrès - et d"échelle des espèces" implicite - était profondément ancrée.
La meilleure solution pour exprimer l'idée clé de L'Origine des espèces, c'est d'examiner un extrait qui traduit de manière essentielle le sens que donne Darwin à la notion de classification :
«Le système naturel, c'est-à-dire la classification naturelle, est fondé sur le concept de descendance avec modification... »
Ce concept de «descendance avec modification » est essentiel pour comprendre la pensée de Darwin. Pourtant, si on interroge quelqu'un sur ce qu'a apporté Darwin, il répondra sans doute « la sélection naturelle "». En réalité, il a proposé ces deux idées, liées : sélection naturelle et descendance avec modification. A mon sens, c'est cette dernière idée qui est la plus importante.
« ... sur le concept de descendance avec modification, c'est-à-dire que les caractères que les naturalistes décrivent comme montrant de réelles affinités entre deux ou plusieurs espèces sont ceux qui ont été hérités d'un parent commun. »
Ces caractères auxquels Darwin fait référence, ce sont les caractères homologues de Geoffroy St Hilaire. Ce que propose Darwin, c'est une réponse à la question : pourquoi ces caractères sont-ils homologues ? Parce qu'ils ont été hérités d'un parent commun. Darwin interprète la notion de ressemblance, très prégnante depuis Geoffroy St Hilaire, comme une notion d'héritage de caractères. Il ne remet pas en cause le travail de ces prédécesseurs : il lui donne « seulement » un autre sens.
« Et par conséquent, toute vraie classification est généalogique... »
Enfin, Darwin plonge ce travail dans un continuum temporel. Cette notion de généalogie bouleverse le sens des classifications : désormais, on recherche des relations de parenté :
« ... c'est-à-dire que la communauté de descendance est le lien caché que les naturalistes ont cherché inconsciemment et non quelque plan inconnu de création. »
A l'époque, cette dernière phrase a représenté une provocation extraordinaire !
Pour éclairer le propos de Darwin, voilà la seule illustration présente dans L'Origine des Espèces (fig 5). Premièrement, cette planche dévoile une vision historique : les lignes horizontales représentent des horizons temporels. Cette figure comprend trois concepts importants :
1) des espèces disparaissent - l'idée de Cuvier ;
2) au cours du temps, les espèces peuvent se transformer - l'idée de Lamarck ;
3) des espèces peuvent donner naissance à plusieurs autres espèces.
Si on considère deux espèces après un embranchement, Darwin considère qu'il faut les rapprocher parce qu'elles partagent un ancêtre commun. Or les espèces partagent toujours un ancêtre commun. La différence réside dans la plus ou moins grande proximité de ces ancêtres. Pour Darwin, les organismes se ressemblent beaucoup car ils partagent un ancêtre commun récent. Les organismes très différents partagent un ancêtre commun lointain, à partir duquel il y a eu énormément de temps pour diverger.
B. La première « généalogie » des organismes
Ces concepts proposés par Darwin sont immédiatement repris par un biologiste allemand, Ernst Haeckel (1834 - 1919). Haeckel poursuit ces idées, en les exagérant même un peu.
Il utilise un arbre pour représenter sa classification. Il propose trois règnes : aux deux règnes animal et végétal classiques, il ajoute les protistes (organismes unicellulaires). Son apport fondamental se situe à la base de l'arbre. Pour chacun des règnes, il situe un ancêtre commun hypothétique, et surtout, il met en place un tronc avec une seule racine commune à l'ensemble des êtres vivants-un ancêtre commun à l'ensemble des organismes.
Cette proposition, en 1866, est le premier arbre dit « phylogénétique »- terme créé par Haeckel. Bien que discutée à ses débuts, l'idée essentielle d'origine commune est conservée - elle contient également l'idée d'origine de la vie sur terre -. Le mouvement est lancé : depuis Haeckel, les chercheurs vont « se contenter » de corriger cet arbre. Seules les logiques pour inférer les relations de parenté sont modifiées et améliorées.
C. Les difficultés de Darwin
Il manque des éléments à Darwin pour expliquer les mécanismes soutenant ce double concept de descendance avec modification. Elle contient premièrement l'idée de descendance entre espèces. Darwin n'utilise pas d'échelle des temps. Entre les lignes horizontales de son schéma, il ne s'agit pas d'années, ni de millions d'années : il s'agit de nombres de générations. Selon Darwin, ce qui rythme la vie des organismes, c'est la reproduction sexuée, à l'origine du concept de descendance. Deuxièmement, Darwin suppose que les caractères héréditaires, transmis via la reproduction sexuée, se « transforment »- mais il ignore comment.
Les deux disciplines qui lui manquent sont d'une part la génétique, et d'autre part, l'embryologie.
III. La Théorie synthétique de l'évolution
A. Les bases de la théorie
Un événement scientifique se produit au début du XXe siècle : la redécouverte des lois de Gregor Mendel (1822 - 1884), indépendamment par trois chercheurs : le hollandais Hugo De Vries (1848 - 1935), l'allemand Carl Correns (1864 - 1933), et l'autrichien Erich von Tschermak (1871 - 1962). Redécouverte, certes, mais enrichie d'un nouveau concept essentiel, celui de mutation. Cette idée de mutation permet de concevoir comment les caractères sont à la fois héréditaires et changeants.
A partir de 1905 jusqu'à 1930, se produit un difficile rapprochement entre deux disciplines : la génétique dite « des populations » (l'étude du devenir des fréquences de gènes dans les populations au cours du temps), se rapproche du darwinisme, par l'intermédiaire de la sélection naturelle. Ce rapprochement conduit à la Théorie synthétique de l'évolution. Signalons que cette traduction mot à mot de l'anglais introduit une connotation étrange en français - c'est plutôt une théorie qui fait une synthèse -.
Cinq biologistes de renom participent à cette nouvelle vision de l'évolution. Le premier individu clé est Theodosius Dobzhansky (1900 - 1975), d'origine russe, immigré aux États-Unis. Comme quasi tous les autres protagonistes de cette théorie, il appartient à l'Université de Columbia, à New York. Dobzhansky publie en 1937 un ouvrage intitulé : Genetics and Origin of Species. Cette référence explicite à Darwin traduit bien sa volonté de démontrer, par la génétique, que Darwin avait raison.
Les autres chercheurs impliqués dans cette vision nouvelle sont :
- Julian S. Huxley (1887-1975), généticien ;
- Ernst Mayr, zoologiste, ornithologue, théoricien de la spéciation ;
- George G. Simpson (1902-1984), géologue et paléontologue ;
- Ledyard G. Stebbins, qui travaille sur la spéciation en biologie végétale.
J'ai repris à partir d'un article récent d'Ernst Mayr les principes de base de cette théorie :
Premier principe : l'hérédité est particulaire et d'origine exclusivement génétique. Cela signifie que l'hérédité est portée par des particules-les gènes-qui ne se mélangent pas. En insistant sur l'origine exclusivement génétique, ce principe nie l'idée d'hérédité des caractères acquis, une forme de lamarckisme en vogue à l'époque.
Second principe : il existe une énorme variabilité dans les populations naturelles. Les organismes présentent une grande variabilité des différents gènes, des différents caractères. Cette variabilité intraspécifique permet l'apparition de nouvelles espèces à partir d'une espèce donnée.
Troisième principe : l'évolution se déroule dans des populations distribuées géographiquement. Un des moteurs les plus importants de la spéciation est l'isolement reproducteur. Les populations peuvent se retrouver séparées par des barrières géographiques, de comportement... etc. A partir du moment où une barrière de reproduction apparaît, des populations isolées peuvent donner naissance à des espèces distinctes.
Quatrième principe : l'évolution procède par modification graduelle des populations. L'évolution se fait pas à pas suivant un gradualisme quasi linéaire en fonction du temps. Autrement dit, le taux d'évolution est toujours considéré comme à peu près constant par unité de temps.
Cinquième principe : les changements dans les populations sont le résultat de la sélection naturelle. Les changements de fréquence des gènes et de caractères dans les populations sont provoqués par la sélection naturelle. Cette idée sera remise en question plus tard : la sélection naturelle existe, certes, mais d'autres moteurs de changement seront avancés.
Dernier principe : la macro-évolution n'est que le prolongement dans le temps de ces processus. La macro-évolution désigne les changements importants, les grands bouleversements, en particulier au niveau des animaux - changements de plans d'organisation, etc. Cette macro-évolution n'est considérée ici que comme le prolongement de la micro-évolution - les changements graduels. La macro-évolution n'est que le résultat de petits changements accumulés pendant des dizaines ou des centaines de millions d'années.
La théorie synthétique de l'évolution contredit la notion fondamentale de finalité : elle affirme que l'évolution ne poursuit aucun but. Tout se passe pas à pas, dans un affrontement continuel, au présent, des organismes avec leur environnement, et les uns par rapport aux autres, et non en fonction d'un but précis.
B. La rupture de la cladistique
Cette théorie synthétique de l'évolution a été un nouveau point de départ. Dans les années 1950, plusieurs aspects sont discutés pour parvenir à la vision actuelle.
Premier point clé : cette nouvelle vision modifie la manière de traiter les fossiles en particulier, et l'histoire de la vie sur Terre, en général. Deux éléments illustrent cette notion. Le premier est révélé par un schéma de Simpson, qui, représente par une arborescence les différentes classes de vertébrés, les mammifères, les oiseaux, les reptiles et les poissons. Malgré Darwin, cet arbre traduit, non pas une recherche de parenté, mais de descendance, de généalogie. Par exemple, l' Ichthyostega est placé de telle sorte qu'on puisse penser qu'il est l'ancêtre de l'ensemble des organismes qui le suivent.
Cette représentation illustre un problème clé : comment retracer les relations de parenté ? Comment se servir des fossiles ? A ces questions, le zoologiste allemand Willy Hennig (1913-1976) propose une nouvelle méthode : la cladistique.
Hennig pense qu'il faut rechercher, non pas des relations de descendance, mais de parenté-les relations de cousinage, en quelque sorte-, et positionner des ancêtres hypothétiques. Pour mettre à jour ces relations de parenté, il faut, parmi les caractères homologues (hérités d'un ancêtre commun), considérer ceux qui correspondent à des innovations. Ces caractères novateurs permettent de rassembler les organismes.
En considérant ces organismes (fig 6), des oiseaux et des reptiles (tortues, lézards et crocodiles), une des innovations héritées d'un ancêtre commun hypothétique est la plume, partagée par l'ensemble des oiseaux. La plume résulte de la transformation de l'écaille épidermique existant chez les organismes reptiliens, à la suite d'un processus évolutif particulier.
Cette démarche, fondée non pas sur un mais plusieurs caractères, permet de construire des arbres phylogénétiques. La méthode consiste à définir des groupes monophylétiques, pas à pas, à partir d'ancêtres hypothétiques communs. Un groupe monophylétique est un groupe qui rassemble un ancêtre et l'ensemble de ses descendants. A l'opposé, un groupe paraphylétique correspond à un ancêtre et une partie de ses descendants.
Pour éclairer ces concepts, considérons cet arbre, relativement juste - relativement car encore sujet de controverse. Cet arbre met évidence un groupe monophylétique, les sauropsides, groupant les oiseaux, les crocodiles, les lézards, les serpents et les tortues. Or, dans la classification "traditionnelle", les reptiles (serpents, lézards, tortues) figurent d'un côté, les oiseaux de l'autre. Cela revient à présenter un groupe monophylétique (les oiseaux) et un groupe paraphylétique (les serpents, les oiseaux et les tortues). Cette dichotomie se fonde sur un ensemble de particularités des oiseaux qui les mettaient, intuitivement, "à part" : la capacité de voler, le plumage... Dans ce cas-là, on occulte la relation de parenté extrêmement importante entre les crocodiles et les oiseaux. Dans le cas contraire, on explicite un groupe monophylétique clé : les archosauriens (crocodiles et oiseaux), ce qui modifie la conception évolutive intuitive.
On aurait "naturellement" tendance à penser que les crocodiles ressemblent plus aux varans ou aux lézards qu'aux oiseaux. Cette méthode met en pièce le concept de ressemblance - en trouvant des caractères (moléculaires ou morpho-anatomiques) qui permettent de positionner des ancêtres hypothétiques communs qui ont apporté des innovations. Dans ce cas particulier, l'innovation est la présence d'un gésier. Ce gésier, connu chez les oiseaux, moins chez les crocodiles, n'est pas présent chez les autres reptiles.
Examinons à présent cet arbre (fig 7), qui représente les archosaures. Deux groupes d'animaux vivent actuellement : les oiseaux et les crocodiliens (ici l'alligator), aux deux extrémités du graphe. D'autres branches sont importantes :
- la branche des ptérosauriens - les « dinosaures » volants ;
- le groupe des dinosaures, divisés en deux branches : ornitischiens et saurischiens ;
- les théropodes.
Contrairement à la figure précédente (fig 6), les fossiles ne figurent pas en tant qu'ancêtres. Ils sont représentés comme apparentés aux autres organismes. Des ancêtres hypothétiques communs sont positionnés. A leur niveau, on fait apparaître les innovations. De cette manière, l'histoire de ces innovations est retracée : à partir d'organismes de "type" dinosaure, on voit l'évolution des différents caractères (tels que la plume, l'évolution des membres, mâchoires...etc.), jusqu'aux oiseaux actuels.
Parmi ces archosaures, seuls existent encore les crocodiles et les oiseaux. Entre ces deux groupes se trouvent tous les dinosaures. Les oiseaux partagent des ancêtres hypothétiques avec quantité de ces dinosaures. On croit que les dinosaures ont disparu. Et bien non ! Quand vous croiserez une volée de pigeons dans les rues de Paris, vous pourrez dire : "nous sommes envahis par les dinosaures !" Tous les oiseaux sont des dinosaures : cette méthode change considérablement la vision intuitive des choses, n'est ce pas ?
Je conclus cet exposé en présentant ce à quoi vous avez échappé :
- Tout d'abord, à la phylogénie moléculaire. Actuellement, tous les organismes de la diversité du vivant peuvent apparaître sur un même arbre : bactérie, animaux, plantes... Cet arbre commence à représenter une bonne vision synthétique du monde vivant.
- Ensuite, à l'évolution du génome. On commence à comprendre comment les innovations, les mutations surviennent au niveau du génome. Elles se produisent principalement par duplication des gènes : des motifs de l'ADN se dupliquent et ces gènes dupliqués peuvent acquérir de nouvelles fonctions. La mise en évidence de ces phénomènes permet de mieux comprendre comment la descendance avec modification se produit. Ce ne sont pas de petites modifications ponctuelles comme on le pensait auparavant.
- Troisième point : la sélection n'agit pas exclusivement au niveau des organismes. Elle opère à tous les niveaux d'organisation. Un exemple très simple est la présence, dans les génomes, de petites unités appelées transposons. Ces transposons se répliquent, indépendamment, envahissent le génome, peuvent passer d'un chromosome à l'autre. Ces transposons participent certainement à la fluidité du génome. Le pourcentage de ces transposons dans le génome est considérable : 40 % du génome humain est composé de ces séquences - des unités « parasites "» puisqu'elles ne participent ni à la construction, ni au fonctionnement de notre organisme. Au niveau végétal, ce chiffre est encore plus important : jusqu'à 75 % du génome de certaines plantes serait envahi de transposons.
- Avant dernier point : l'évolution n'est pas si graduelle, elle se fait souvent par crises. La vitesse d'évolution change. Des crises se sont produites, extrêmement importantes dans l'histoire géologique de la Terre. L'une des plus belles crises est celle du Permien, au cours de laquelle 80 % des espèces auraient disparu. Ces crises d'extinctions ont été suivies de radiations, où des innovations très importantes se produisent.
- Enfin, dernier point qui m'est cher. La notion de progrès devient complètement relative. Les innovations se font sur toutes les branches : il n'existe pas d'organisme plus évolué qu'un autre. Tous les organismes ont parcouru le même temps d'évolution. Seulement, ils n'ont pas évolué dans les mêmes directions, en raison de contraintes différentes, de milieu et de choix de stratégies différentes.
Si on prétend dans un style « d'Echelle des Êtres », qu'il existe de « meilleurs » organismes, c'est qu'on met en exergue un ou plusieurs caractères. Ce n'est pas de la biologie. La biologie considère tous les caractères au même niveau et que la biodiversité est structurée par cette évolution. Dans ces conditions, chaque organisme vaut par lui-même.
DOCUMENT canal-u.tv LIEN
(pour consulter la vidéo, inscrire le TITRE dans le moteur de recherche de CANAL U ) |
|
|
|
|
 |
|
Le génie génétique |
|
|
|
|
|
Le génie génétique
Denis Mater, Nicole Truffaut dans mensuel 342
daté mai 2001 -
Avec à peine trente ans d'existence, le génie génétique est à l'origine d'une multitude d'applications, dont certaines ont déjà fait irruption dans notre vie quotidienne. Les outils qu'il met en oeuvre ne cessent de gagner en performance, en rapidité et en disponibilité. Revue de détail...
Qu'est-ce que le génie génétique ?
N'en déplaise aux amateurs de contes des « Mille et Une Nuits » , il ne suffit pas de frotter vigoureusement un tube à essais pour voir en sortir un génie, fût-il génétique. Si la racine latine du mot ne permet pas de différencier étymologiquement un spectre sortant d'une lampe d'un jeune cadre issu d'une école d'ingénieur, c'est pourtant bien à l'ingénierie que fait référence l'expression « génie génétique ». Ainsi, au même titre que le génie civil se rapporte aux techniques mises en oeuvre par les ingénieurs pour construire des routes ou des ponts, le génie génétique regroupe l'ensemble des outils et des méthodes employés pour conférer de nouvelles propriétés aux cellules vivantes en modifiant leur matériel génétique. Ces modifications s'effectuent en l'occurrence par des combinaisons entre différentes molécules d'ADN, ce qui a valu au génie génétique l'appellation de « technologies de l'ADN recombinant ».
Le génie génétique découle initialement des avancées techniques de la biologie moléculaire, de la biochimie et de la génétique. Il tire également profit de nombreux autres domaines de la biologie, en particulier pour les méthodes de culture de cellules : la microbiologie dans le cas des bactéries et des cellules de levures, la biologie cellulaire pour les cellules végétales ou animales. Ainsi, le génie génétique peut être comparé à une boîte à outils dont chaque élément représenterait une compétence particulière issue d'un champ scientifique, parfois même extérieur à la biologie. Il constitue un élément à part entière du secteur des biotechnologies, aux côtés d'autres domaines des sciences appliquées : le génie de la fermentation, le génie enzymatique, ou encore le génie des procédés.
Dans quel contexte est-il apparu ?
Dans les années 1940, pour nombre de généticiens, l'acide désoxyribonucléique l'ADN est une molécule chimiquement trop « banale » pour constituer le support de l'information génétique. En effet, elle ne comprend que quatre types d'éléments distincts les bases adénine, cytosine, guanine et thymine : A, C, G et T tandis que les protéines, construites à partir de vingt élé-ments différents les acides aminés, semblent offrir davantage de possibilités. Mais, en 1944, reprenant des travaux de la fin des années 1920, le groupe d'Oswald Avery à l'institut Rockefeller de New York démontre qu'une forme non pathogène de pneumocoque peut acquérir un caractère virulent par simple incorporation d'ADN issu d'une forme pathogène. Les résultats de cette expérience sont suffisamment convaincants pour faire admettre à la quasi-totalité de la communauté scientifique que les caractères héréditaires sont transmis par la molécule d'ADN, et non par des protéines. L'intérêt pour la molécule s'accroît alors, et de nombreuses recherches sont initiées pour élucider sa composition et sa structure. Dans un numéro de Nature daté du 25 avril 1953, James Watson et Francis Crick présentent finalement la célèbre structure en double hélice telle qu'on la connaît aujourd'hui. Si cette découverte marque le début d'une ère nouvelle pour l'ensemble de la biologie, elle ne constitue encore que les fondations sur lesquelles reposera une quinzaine d'années plus tard le génie génétique.
La connaissance de la structure de l'ADN enclenche une série de travaux qui permettent de comprendre comment l'information génétique est stockée dans la molécule d'ADN. Le code génétique, c'est-à-dire la table de correspondance entre l'ordonnancement des bases A, C, G et T dans l'ADN et l'enchaînement des acides aminés d'une protéine, est ainsi établi. En l'espace d'une décennie, le gène acquiert une définition moléculaire et correspond désormais à un fragment d'ADN dont la séquence des bases peut être traduite en protéines par la machinerie cellulaire.
Mais, au milieu des années 1960, l'exceptionnelle longueur de la molécule d'ADN laisse penser qu'il est pratiquement impossible d'isoler spécifiquement un gène donné. Aucune technique ne permet en effet de casser de manière reproductible la molécule en courts fragments bien précis. Le concept de génie génétique reste encore inimaginable. A l'aube des années 1970, plusieurs découvertes concernant des enzymes capables d'agir directement sur l'ADN viennent bouleverser cette vision. Les outils indispensables à la « microchirurgie » de l'ADN sont vite réunis, et la porte du génie génétique s'ouvre presque instantanément.
Quels sont ses outils de base ?
Les enzymes qui agissent sur l'ADN sont les outils moléculaires indispensables du génie génétique. En particulier, certaines enzymes ont la propriété de reconnaître invariablement une même séquence d'ADN et de couper la molécule à cet endroit précis : elles sont appelées enzymes de restriction. En 1970, le groupe de Hamilton Smith aux Etats-Unis purifie pour la première fois une telle enzyme et identifie son site de restriction, c'est-à-dire la séquence qu'elle reconnaît : elle est longue de six bases. Depuis, des centaines d'enzymes de restriction ont été isolées. Leur site d'action comporte presque toujours quatre à huit bases et présente une symétrie. Pour comprendre cette dernière particularité, il faut se souvenir que la molécule d'ADN est composée de deux chaînes intimement associées par l'intermédiaire de leurs bases la double hélice. Une base A d'une chaîne s'associe toujours à une base T de l'autre chaîne, et de la même façon, une base C ne peut s'associer qu'à une base G. La séquence d'une chaîne est donc complémentaire de l'autre. Pour un site de restriction, la séquence lue dans un sens sur une chaîne est identique à la séquence lue dans le sens inverse sur l'autre chaîne. Certaines enzymes de restriction coupent le site en son milieu et produisent deux fragments dont les extrémités sont franches. Cependant, la plupart réalisent une coupure dissymétrique. Chaque fragment obtenu possède alors une chaîne qui dépasse l'autre de quelques bases. On parle dans ce cas d'extrémités cohésives voir schéma.
De nombreuses autres enzymes sont utiles au génie génétique. La ligase permet notamment de souder les extrémités franches ou cohésives de deux fragments d'ADN. Les polymérases permettent de reconstruire une chaîne d'ADN en utilisant comme modèle la séquence de la chaîne complémentaire. Elles sont notamment utilisées dans les méthodes de séquençage qui déterminent l'enchaînement des bases d'une molécule d'ADN. On les retrouve également dans la technique d'amplification en chaîne qui, connue sous le nom de « PCR » polymerase chain reaction , reproduit un fragment d'ADN à des millions d'exemplaires.
Enfin, une technique se révèle incontournable pour séparer un mélange de fragments d'ADN : l'électrophorèse. Comme toute molécule chargée, l'ADN peut se déplacer à travers un champ électrique. De plus, si on la force à traverser un support relativement dense, les fragments courts se déplacent plus rapidement que les fragments plus longs, qui se trouvent retardés. En pratique, le support est de l'agarose, un polymère qui forme un gel très consistant. Lorsqu'un mélange d'ADN est déposé dans un gel d'agarose et qu'on impose un courant électrique, les fragments migrent à travers le gel et se séparent en fonction de leur taille. L'électrophorèse terminée, il suffit d'utiliser un colorant de l'ADN pour visualiser chaque fragment individuellement. Cette technique permet, de plus, d'estimer le nombre approximatif de bases que renferme chaque fragment.
Comment manipule-t-on les gènes des micro-organismes ?
Soit un gène quelconque, porté par un fragment d'ADN, qu'on désire introduire dans une bactérie afin qu'elle se mette à fabriquer la protéine codée par ce gène. Selon les termes appropriés du génie génétique, il s'agit de cloner le gène et d'exprimer la protéine. En premier lieu, ce fragment doit être associé à un autre élément d'ADN qui permet de le « présenter » à la bactérie, comme s'il s'agissait de son propre matériel génétique. Ce type d'élément est un vecteur de clonage. Très souvent, on utilise comme vecteur un plasmide, une petite molécule d'ADN circulaire que l'on trouve naturellement chez de nombreuses bactéries. Ces plasmides sont suffisamment autonomes pour se maintenir dans la cellule bactérienne de génération en génération. Pour les expériences de génie génétique, certains plasmides ont été améliorés et optimisés par l'ajout d'éléments essentiels à leur manipulation : des sites de restriction, des séquences judicieusement positionnées pour permettre l'expression de protéines, ou des gènes particuliers appelés marqueurs de sélection. Ces marqueurs permettent par exemple aux bactéries qui abritent le plasmide de devenir résistantes à un antibiotique ou de produire un pigment bleu très caractéristique, ce qui facilite leur identification.
Choisissons un tel plasmide et coupons-le avec une enzyme de restriction. S'il ne contient qu'un exemplaire du site de restriction, le plasmide n'est alors coupé qu'une seule fois et devient linéaire, comme si l'on avait coupé un élastique d'un seul coup de ciseaux. En employant une ligase, chaque extrémité de notre fragment peut alors être soudée à chacune des extrémités du plasmide. Ce dernier reprend donc sa forme circulaire après avoir intégré le fragment étranger. Reste à expédier la construction à l'intérieur d'une bactérie : cette étape est la « transformation ». Une première solution est de traiter chimiquement l'enveloppe de la cellule pour la perméabiliser. Une autre consiste à soumettre les bactéries à un voltage de plusieurs milliers de volts durant quelques millisecondes, de manière à créer des trous dans l'enveloppe par lesquels l'ADN peut transiter : cette technique est l'électroporation. Les cellules ainsi transformées sont ensuite cultivées en boîtes de Petri sur un milieu de croissance, choisi de manière à révéler les marqueurs portés par le plasmide. Il suffit alors de sélectionner les colonies de bactéries qui correspondent aux caractéristiques recherchées.
Dans son principe, la démarche paraît relativement simple, mais la réalité expérimentale est souvent plus complexe. Le positionnement du fragment au sein du plasmide doit notamment respecter des règles très précises pour que les bactéries recombinantes produisent la protéine. Des vecteurs disponibles dans le commerce facilitent aujourd'hui la réalisation des constructions, la production et la purification de protéines.
Et chez les organismes supérieurs ?
Dans l'ensemble, les stratégies appliquées aux organismes supérieurs ne diffèrent pas fondamentalement de celles des micro-organismes. Les constructions génétiques impliquant de l'ADN végétal ou animal sont d'ailleurs réalisées dans un premier temps chez les bactéries, avant d'être finalement introduites dans les cellules de l'organisme supérieur. Alors qu'il est relativement facile de manipuler de l'ADN dans des cellules individuelles telles que les bactéries, l'approche est à l'évidence d'une tout autre envergure dans le cas d'un organisme pouvant comporter des millions de cellules. Lorsque l'on souhaite obtenir une plante ou un mammifère dont toutes les cellules sont transformées un organisme transgénique, il est donc nécessaire d'utiliser des cellules embryonnaires, seules capables de régénérer un organisme entier. Pour certaines applications, la thérapie cellulaire par exemple, on vise en revanche l'obtention de simples lignées cellulaires transgéniques et leur culture in vitro .
Contrairement aux micro-organismes, les plantes ne possèdent pas naturellement de plasmide. La transformation des végétaux constitue donc une étape critique. En s'intéressant à une bactérie du genre Agrobacterium responsable de tumeurs chez les plantes, des chercheurs belges ont découvert au milieu des années 1970 qu'elle était capable de transférer son plasmide aux plantes. Ce plasmide appelé Ti constitue aujourd'hui le vecteur incontournable pour introduire un gène dans une cellule végétale. Il est d'autant plus efficace que le gène en question s'intègre directement dans le matériel génétique de la plante, et se transmet donc de façon héréditaire.
Une autre technique, moins répandue car plus lourde à mettre en oeuvre, consiste à littéralement bombarder des cellules végétales avec des billes microscopiques recouvertes de fragments d'ADN. Il s'agit de la méthode « du canon à gène ». Pour incorporer un gène dans des cellules animales, on peut selon les cas utiliser l'électroporation ou injecter minutieusement l'ADN à l'intérieur du noyau de la cellule à l'aide d'une micropipette. Les mécanismes d'infection des virus peuvent également être mis à profit : selon cette approche, c'est le virus qui injecte son ADN dans la cellule accompagné du gène étranger. Dans tous les cas, des enzymes de recombinaison doivent intégrer le gène étranger dans le matériel génétique de la cellule pour que celui-ci soit maintenu durablement.
Pour quoi faire ?
Les technologies de l'ADN recombinant trouvent des applications aussi bien dans les secteurs médical et pharmaceutique que dans l'agrochimie, l'industrie alimentaire ou l'environnement. Par exemple, le génie génétique sert déjà à produire des antibiotiques, de l'insuline ou à fabriquer le vaccin contre l'hépatite B. Le nombre de protéines aujourd'hui fabriquées par génie génétique ne cesse d'augmenter et les fonctions qu'elles remplissent sont multiples. Certaines sont, par exemple, utilisées chez l'homme comme médicament, afin de soigner des patients atteints d'un dérèglement causé par une protéine déficiente. L'hormone de croissance humaine a été l'une des premières à bénéficier du génie génétique : auparavant, plusieurs centaines de glandes hypophysaires prélevées sur des cadavres étaient nécessaires pour obtenir quelques milligrammes d'hormone, induisant un risque important de contamination de l'extrait par des virus et autres prions.
Dans le monde végétal, le génie génétique se présente comme une alternative aux pratiques ancestrales de sélection des variétés. Alors que l'agronome tente d'améliorer un caractère « au hasard » des croisements, le génie génétique se propose de faire émerger directement ce caractère, voire un caractère qui n'existe pas naturellement chez les plantes. C'est le cas du désormais célèbre « maïs Bt » dans lequel a été introduit le gène d'une bactérie du sol, qui, en exprimant une toxine insecticide, permet de défendre la plante contre les ravageurs. Autre exemple, plus récent : des gènes de jonquille et de bactérie ont été introduits dans un riz qui produit ainsi du carotène, un précurseur de la vitamine A. Mais chacun sait que ces innovations ne cessent d'alimenter de vives controverses sur les bénéfices réels des organismes génétiquement modifiés !u Quelle évolution pour le génie génétique ?
Sur un plan technique, les outils du génie génétique se sont considérablement enrichis et améliorés depuis une décennie. La PCR, imaginée il y a quinze ans, comporte aujourd'hui des dizaines de variantes, et ses applications sont multiples : diagnostic de maladies génétiques, détection de virus tels que celui du sida ou recherche d'organismes génétiquement modifiés dans l'alimentation. Une méthode élaborée en 1975 par Edwin Southern, l'hybridation moléculaire, qui repose sur la complémentarité de deux chaînes d'ADN, est aujourd'hui réalisée grâce à « des puces à ADN ». Avec l'apport des techniques de fabrication de circuits électroniques, cette technologie permet d'analyser des milliers de fragments génétiques en un minimum d'opérations. On l'aura compris, l'automatisation des techniques et l'informatique constituent de puissants moteurs de l'évolution du génie génétique, comme en témoigne le nombre de génomes séquencés en l'espace de deux ou trois ans.
Dans les laboratoires publics et les sociétés de biotechnologies, de nombreux programmes de recherche se développent depuis plusieurs années, parfois d'une envergure titanesque comme le séquençage du génome de l'homme ou de la drosophile. La séquence de nos gènes permettra-t-elle pour autant de comprendre les dérèglements génétiques, les diagnostiquer et les réparer grâce à la thérapie génique ? Par ailleurs, de nombreuses molécules sont déjà produites chez les végétaux par le biais du génie génétique. Les plantes sont-elles en passe de devenir les usines pharmaceutiques de demain ? Certains les voient supplanter le pétrole comme matière première pour produire le carburant, des huiles, des lubrifiants ou des matières plastiques biodégradables.
Avec quels risques ?
La première construction génétique a été réalisée en 1972 en associant l'ADN d'un virus du singe et un fragment de plasmide bactérien. Paul Berg, l'auteur de ces travaux récompensés par le prix Nobel de chimie en 1980, s'est lui-même très vite interrogé sur les dangers de telles constructions : ces techniques de recombinaison ne sont-elles pas susceptibles de faire apparaître de nouvelles bactéries virulentes pour l'homme ? Une conférence présidée par Paul Berg fut ainsi organisée à Asilomar en 1975 afin de définir des règles de sécurité en matière de génie génétique. Alors que ces réflexions étaient à l'époque restreintes à la seule communauté scientifique, le débat s'est depuis généralisé et concerne aussi bien les acteurs économiques, politiques que les consommateurs. Notamment, l'arrivée programmée des organismes génétiquement modifiés dans les champs et les assiettes a fait transparaître de nouvelles interrogations : le risque environnemental, avec la dissémination de gènes dans la nature, l'apparition d'espèces résistantes ou la réduction de la biodiversité ; le risque alimentaire d'ordre toxicologique ou allergique. En France, deux commissions d'experts se répartissent le travail d'évaluation, de définition et de contrôle de tels risques : la Commission du génie biomoléculaire et la Commission du... génie génétique !
DOCUMENT la recherche.fr |
|
|
|
|
 |
|
Francisco Varela : " Le cerveau n'est pas un ordinateur " |
|
|
|
|
|
Francisco Varela : " Le cerveau n'est pas un ordinateur "
mensuel 308
daté avril 1998 -
Francisco Varela, né en 1946, est neurobiologiste. Après avoir longtemps travaillé aux Etats-Unis, il est entré en 1988 au CNRS comme directeur de recherches. Il est actuellement chercheur au Laboratoire des neurosciences cognitives et imagerie cérébrale, à Paris. Il a notamment publié L'Inscription corporelle de l'esprit Seuil, 1993 et L'Arbre de la connaissance avec Umberto Matarana, Addison-Wesley, 1994.
La Recherche : Le psychologue évolutionniste Steven Pinker vient de déclarer que « presque tout le monde dans les sciences cognitives » partage l'idée que le cerveau est une sorte d'ordinateur neuronal produit par l'évolution1. Ceux qui ne le pensent pas, dit-il, « sont flamboyants, mais peu nombreux et peu représentatifs ». Vous sentez-vous flamboyant et marginal ?
Francisco Varela : La notion d'ordinateur neuronal n'est pas évidente, parce qu'un ordinateur, stricto sensu , c'est un système numérique. Tout le courant qu'on appelle aujourd'hui le cognitivisme, ou computationnalisme, et dont je ne fais pas partie, travaille avec l'hypothèse que le niveau cognitif est autonome. Donc parler d'ordinateur neuronal, c'est déjà plonger dans la perplexité la moitié des chercheurs du domaine pour qui il y a une différence entre les niveaux d'implémentation, entre le soft et le hard . Si vous parlez à un informa-ticien, il se moque de savoir sur quel ordinateur il travaille, ce qui l'intéresse c'est la structure de son programme. De la même façon, ceux qui s'intéressent à la computation en tant que telle ne se préoccupent pas de son support. Ils ne nient pas l'intérêt de la biologie, ils disent que cela ne ressort pas de leur domaine. Par ailleurs, il y a bien des manières de nouer le fil entre l'hypothèse computationnaliste et le cerveau. La question revient à analyser ce qu'est un calcul fondé sur une machine non numérique, comparable à un cerveau plutôt qu'à un ordinateur. C'est une question qui m'intéresse, comme elle intéresse beaucoup plus de gens que ne le croit Pinker. Et ce que nous disons, c'est que l'avenir des sciences cognitives repose sur une vision que l'on pourrait appeler « dynamique » , par opposition à la vision computationnaliste.
En quel sens utilisez-vous le mot « dynamique » ?
Plutôt que de travailler avec des symboles et des règles, les « dynamicistes » travaillent avec des systèmes formés de variables réelles en utilisant des équations différentielles. Cette approche produit actuellement beaucoup de résultats et n'est pas du tout marginale. Une des conséquences cruciales de l'approche dynamique, qu'on ne trouve pas dans la vision computationnaliste, c'est que vous obtenez des propriétés émergentes, c'est-à-dire des états globaux de l'ensemble de vos variables, parce qu'il y a une interdépendance intrinsèque. Nul besoin de chef d'orchestre pour coordonner la chose, c'est la dynamique même qui va la porter.
La cognition proviendrait alors de l'interaction des composants biologiques du cerveau ?
L'approche dynamique travaille avec des variables biologiques, avec des activités neuronales plutôt qu'avec des symboles, avec des états globaux du cerveau appréhendés par l'imagerie fonctionnelle. Ce type de travail récuse la séparation entre la cognition et son incarnation. Beaucoup de chercheurs en sont venus à considérer qu'on ne pouvait pas comprendre la cognition si on l'abstrayait de l'organisme inséré dans une situation particulière avec une configuration particulière, c'est-à-dire dans des conditions écologiquement situées. On parle de situated cognition , en anglais, ou embodied cognition , cognition incarnée. Le cerveau existe dans un corps, le corps existe dans le monde, et l'organisme bouge, agit, se reproduit, rêve, imagine. Et c'est de cette activité permanente qu'émerge le sens de son monde et des choses.
Comment ce point de vue s'articule-t-il avec l'intelligence artificielle ?
La coupure cognition autonome/ cognition incarnée traverse toutes les sciences cognitives, et pas seulement les neurosciences. Un des promoteurs de la robotique incarnée est Rodney Brooks, le directeur du Laboratoire d'intelligence artificielle du Massachusetts Institute of Technology MIT. Voici une dizaine d'années, il a lancé une espèce de déclaration de guerre en affirmant qu'on ne réussirait à faire des robots vraiment autonomes que s'ils étaient incarnés dans un contexte matériel, situés dans un monde sensible. Et il ne s'agit pas d'un monde défini par une liste de propriétés, comme on le fait habituellement dans les simulations informatiques. La vision incarnée séduit aussi beaucoup les chercheurs d'autres domaines, par exemple ceux qui étudient le développement de l'enfant.
Comment l'intègrent-ils, pratiquement ?
Dans l'analyse psychologique instaurée par Piaget*, l'enfant atteint vers l'âge de 3 ans le stade conceptuel, c'est- à-dire qu'il acquiert la maîtrise de l'activité symbolique, il passe du singulier à l'universel. En fait, Esther Thelen a montré2 que l'acquisition de la capacité d'abstraction est inséparable de cycles de perception-action que l'enfant réalise sur certains objets, par exemple tous les objets qui contiennent de l'eau, les tasses, les verres, etc. L'enfant va les manipuler intensément pendant une certaine période. Et si vous l'empêchez de le faire, ou s'il est empêché de le faire à cause d'un handicap, cela gêne son développement cognitif. Thelen renverse la théorie antérieure en disant qu'à la base de ce développement il y a l'incarnation sensori-motrice, le fait que toute perception entraîne une action, que toute action entraîne une perception, donc que c'est une boucle perception-action qui est la logique fondatrice du système neuronal. Brooks a adopté le même point de vue : si j'arrive à construire une machine qui ne sait rien a priori de son environnement, mais qui est dotée d'une boucle sensori-motrice efficace, que fera-t-elle ? Elle se baladera partout, comme un bon cafard, et testera sa boucle de réaction/ action, jusqu'à la rendre tellement robuste que, après de multiples géné- rations, elle se débrouillera dans n'importe quel environnement. L'hypothèse est que sur cette base vont pouvoir émerger des significations telle que « désirable » ou « indésirable » , des catégories universelles de type classes d'objets, voire le langage.
L'essentiel, c'est donc l'interaction entre l'organisme et son environnement ?
Il faut que l'organisme soit suffisamment incarné dans un environnement pour pouvoir se débrouiller malgré le fait qu'il ne possède pas une représentation préalable du monde. Son monde émerge avec ses actions. Si je lâche ici un cafard, il va grimper l'escalier, faire le tour du jardin, revenir, éviter de tomber dans des trous ou de se coincer dans un coin. Il constitue une entité viable. En tant que système neuronal, le cerveau est fondé sur cette logique de la viabilité : dans son fonctionnement, tout revient à cette recherche de stabilité sensori-motrice. Au cours de l'évolution, à quel moment le système neuronal est-il apparu ? Pas chez les plantes, pas chez les champignons, pas chez les bactéries. Il est apparu chez les animaux. Pour se nourrir, les animaux ont trouvé la solution de manger des proies. Il leur faut donc se mouvoir - et la locomotion est la logique constitutive de l'animal. C'est là qu'apparaît le système neuronal, parce que pour chasser, se mouvoir, il faut une boucle perception-action reliant des senseurs à des muscles, et ces liaisons ont formé le cerveau. C'est sur cette base que des choses plus abstraites ont commencé à se greffer.
La manipulation de symboles ?
Oui, quoique très tardivement. L'évolution du système neuronal a pris en gros 1,5 milliard d'années. Les trois quarts de ce temps n'ont servi à réaliser qu'une seule chose, des animaux qui se débrouillent de façon sensori-motrice élémentaire. Pour le dire très vite, jusqu'au Jurassique*, il n'y avait que des bêtes à la Rodney Brooks, qui ne faisaient que bouger, chasser, et s'incarner dans le monde. C'est bien plus tard que s'est produit un saut qualitatif chez certains animaux, avec l'apparition du langage, d'éléments sociaux, et de capacités symboliques.
Comment se produit ce saut ? Pourquoi des propriétés abstraites symboliques émergeraient-elles chez le robot COG que développe Brooks ?
La réponse n'est pas encore claire. Mais l'activité symbolique n'apparaît pas toute seule. Elle fait toujours partie d'une situation, d'un contexte, qui produit une sorte de dérive vers certains types de récurrences sensori-motrices. Une fois acquise cette capacité d'agir-réagir sur le monde, des interactions entre individus ont pu se produire, formant un nouveau type de boucle de récurrence: la rencontre avec l'autre. Et cela crée justement, dans cette voie de dérive, de nouveaux points de stabilité, des interactions d'orientation : chaque fois que l'autre se met comme ça, je me mets comme ça. Ce type de regard orientatif de l'un sur l'autre, c'est le début de la communication animale.
Mais alors pourquoi les sociétés de cafards, par exemple, n'ont-elles pas développé une capacité symbolique ?
Le système neuronal ne peut se développer que jusqu'à un certain point. Si votre corps est engoncé dans une armure, comme chez les cafards, ou si vous restez petit, le système neuronal plafonne. Chez les vertébrés, par contre, ce n'est pas vrai. Par exemple, les mammifères marins possèdent une capacité de communication que l'on connaît mal, mais qui n'est pas loin d'une sorte de langage assez profond. Il est toujours difficile de donner un poids à ce type de reconstruction historique. Mais ce qui compte c'est que l'apparition de l'esprit n'est pas un saut catastrophique, mais la continuité nécessaire de l'incarnation dans l'évolution. On sait que l'appareillage symbolique de catégorisation et d'échange est très répandu. Ce qu'on trouve en plus chez les primates c'est le langage au sens strict du terme. Il y a là un phénomène de créativité évolutive sur lequel on sait très peu de choses. Le langage est apparu tardivement. Un million d'années par rapport à l'histoire de l'évolution, cela ne représente en fait rien du tout.
Vous reliez les limitations de ces organismes aux « choix » évolutifs qui les ont contraints biologiquement. Cela signifie que l'abstraction est liée au cerveau. Comment le robot de Brooks qui, lui, n'est pas dans un substrat biologique, va-t-il évoluer ?
C'est la question que se pose toute cette école. Il y a deux réponses possibles. L'une consiste à dire : nous allons faire le travail de l'évolution. Au lieu de construire des robots hyperperformants, à cinq millions de dollars l'unité, on va construire des milliers de petites bestioles, avec des petites variantes, on va les laisser dans la nature, et sélectionner les plus résistants. Il s'agit de réaliser un contexte évolutif artificiel. Une autre option consiste à réaliser des bestioles viables, robustes, qui peuvent exister, et dans lesquelles on va introduire des capacités, par exemple de mémoire - imitée du cerveau selon des règles de type dynamique neuronale - ou des capacités sociales d'interaction entre les agents. Le robot de Brooks, COG, est fondé sur la deuxième option. Par exemple, il reconnaît un visage sur la base d'une sélection des traits qui est copiée sur ce qui se passe dans notre cerveau. Par suivi du mouvement oculaire, on a repéré que lorsque des gens regardent les visages, ils forment une esquisse de certains traits du visage. Les chercheurs du MIT ont implémenté ce type de programmes informatiques. L'ingénieur est bricoleur plutôt qu'éleveur : la philosophie de Brooks est extrêmement pragmatique, il prend ce qui fonctionne, il bricole.
Cela dit, il y a des gens qui continuent à penser que l'évolution ne fonctionne que par optimisation des forces sélectives. Pour chaque situation, il y aurait une espèce d'optimalité. Ce point de vue représente une troisième cassure dans le champ des sciences cognitives, entre les adaptationnistes et, le nom est encore difficile à trouver, je parle de « dérive naturelle », Stuart Kauffman parle d' « évolution douce » . Stephen Jay Gould est un autre représentant de cette école. En revanche, Pinker adhère à l'option adaptationniste pure et dure, qui suppose en fait une correspondance exacte entre l'organisme et le monde, une prédétermination.
Qu'entendez-vous par « dérive naturelle » ?
La pertinence des actions n'est pas donnée intrinsèquement, mais résulte de la construction de récurrences via la logique de l'incarnation sensori-motrice. Il va de soi que l'option qui considère le cerveau comme un système incarné n'est pas adaptationniste. La vision des couleurs en donne une bonne illustration3. Si la vision adaptationniste a raison, les choses ont une couleur intrinsèque. Si la vision de l'évolution douce est pertinente, nous aurons une diversité des mondes chromatiques, non superposables les uns aux autres. Or quand on étudie comment voient les animaux, on constate qu'il y a une très grande diversité des mondes chromatiques, pentachromatique, tétrachromatique, trichromatique, bichromatique, qui ne sont pas superposables, et correspondent pourtant tous à des lignées animales tout à fait viables. Alors, qui voit la vraie couleur ? Nous, les pigeons qui voient en pentachromatique, ou les abeilles qui voient dans l'ultraviolet ? Quelle est la couleur du monde ?
Est-ce à dire que le monde est une construction de l'esprit, fondée sur notre appareil perceptif ?
Quand j'étais jeune, je pensais qu'il n'y avait pas un « en soi » du monde. Je n'en suis plus convaincu. Ce que l'on peut dire, c'est qu'on ne peut pas caractériser le monde par des attributs, mais seulement par des potentialités. Il y a certaines contraintes qu'il faut respecter. Il y a une différence entre situation prescriptive et situation proscriptive. Dans la situation prescriptive, vous êtes forcés de faire ce que vous êtes en train de faire et rien d'autre. Dans la situation proscriptive, vous pouvez faire ce que vous voulez sauf certaines choses interdites. Les adaptationnistes sont prescriptifs, notre vision est plutôt proscriptive. Les êtres vivants ne sont pas censés faire n'importe quoi. Du point de vue philosophique, c'est une vision qui renvoie à l'apparaître, à la phénoménalité plus qu'à une objectivité classique. Mais ceci n'équivaut pas à l'inexistence du monde, qui est la position dite constructiviste.
Comment concevez-vous l'émergence de la conscience dans le cours de l'évolution ?
Il faut commencer par distinguer conscience et expérience. Qu'est-ce qu'une expérience, pour une unité cognitive incarnée dans une situation ? Prenons un chien. Il a de la mémoire, il a des émotions, il a du tempérament. Tous ces modules cognitifs, qui se relient à des sous-circuits cérébraux, fonctionnent ensemble. Il y a une intégration à chaque instant : ce que le chien voit, comment il bouge la patte, l'émotion qui l'accompagne, tout cela n'est pas décousu. Il y a une espèce de suite d'émergences, de disparitions et de réémergences, des unités cognitives, modulaires mais intégrées. L'expérience est un locus d'unité cognitive - je travaille sur ce thème actuellement. On peut s'accorder sur le fait qu'il y a une expérience de chien, que le chien est un sujet. Et les cafards ? On ne sait pas répondre à cette question. Mais la définition est opérationnelle, c'est-à-dire que si l'on peut établir une mesure de l'intégration de modules cognitifs, on pourra peut-être dire qu'il y a une micro-expérience chez le cafard, et une méso-expérience chez le chien.
La conscience naît de ce réseau d'unités cognitives ?
L'expérience est quelque chose d'universel à partir d'un certain niveau d'intégration cognitive certainement partagé par tous les mammifères. Conclusion évidente : on peut facilement imaginer ce que c'est d'être un singe. Il y a un article absolument magnifique de T. Nagel, « What is like to be a bat »4, « Ce que ça fait d'être une chauve-souris ». Je ne sais pas ce que ça fait d'être une chauve-souris ; mais qu'il y ait un sujet cognitif, c'est certain. En revanche, il est beaucoup plus facile de se représenter ce que c'est d'être un gorille, ou d'être un bébé. Pourquoi poser la question ainsi ? Parce qu'on discerne l'inséparabilité entre l'expérience, telle que je viens de la définir, et les mécanismes d'émergence d'une sorte d'habitation d'expérience. Les sons, les odeurs, n'existent pas en tant que tels, mais seulement relativement au sujet cognitif. Ils sont pour le chien, par exemple, une manifestation phénoménale. Donc, au lieu de s'intéresser au mécanisme neurobiologique de l'odorat du chien, vous pouvez, comme le fait Nagel dans son article, regarder du côté phénoménal de cette activité cognitive. Une fois que l'unité de plusieurs modules cognitifs s'est produite, cela donne au sujet une perspective particulière sur le monde.
Et une capacité réflexive ?
L'apparition du langage va faire la différence entre avoir une expérience, reflétée par un comportement neuronal, et la capacité réflexive. Mais il ne faut pas confondre celle-ci et la conscience. La capacité réflexive, dans le vide, ça ne donne rien. Elle doit s'incarner dans un univers cognitif complexe. C'est à l'intérieur de l'expérience qu'il y a cette nouvelle capacité d'autodescription.
C'est l'expérience de soi ?
C'est l'expérience de se référer à soi, de se référer à sa propre expérience. La réflexivité est quelque chose d'absolument crucial, c'est la grande mutation qui se produit avec l'apparition du langage chez l'homme. Mais là où je vois des problèmes, c'est quand on essaye de coller la conscience à cette capacité réflexive sans faire état de l'énorme background que représente l'expérience. Certains chercheurs utilisent le terme de conscience primaire pour désigner la conscience non réflexive. C'est intéressant, parce que dans la vie quotidienne 90 % de l'expérience est primaire, pas réflexive. On marche, on prend le métro, on peut même avoir des pensées sans qu'il y ait de réflexion.
Mais est-on ou non, avec la réflexivité, dans la conscience ? Est-il même utile de parler de conscience ?
Absolument. Quand je dis que je ne suis pas d'accord quand les gens parlent de conscience, c'est parce qu'ils ont tendance à coller ça uniquement au côté réflexif. Si l'on veut avancer dans cette question, il faut au moins en poser les termes. Un point fondamental, c'est de comprendre la nature de l'expérience tout court. C'est une forme de conscience, mais c'est une conscience sans réflexion. La réflexion, ou la capacité réflexive, va donner à la conscience son statut humain. S'il n'y avait que de l'expérience, je serais plutôt gorille. Mais je sépare les deux questions. Le problème scientifique de l'étude de la conscience humaine n'est qu'un chapitre de l'étude de l'expérience, parce que cette capacité réflexive nous permet d'explorer la conscience comme si l'on avait des données phénoménologiques directes. Dans l'ancienne tradition psychologique, on parlait d'introspection. Comment étudier scientifiquement la conscience ? Par exemple, on place un sujet dans une situation relativement contrôlée, et on lui demande de se rappeler la maison où il a été élevé dans son enfance. La plupart des gens y arrivent sans problème. Ensuite, vous leur demandez comment ils ont fait, c'est-à-dire quelle stratégie ils ont employée pour évoquer le souvenir. Le souvenir lui-même n'a pas d'importance, c'est l'acte de déclencher le souvenir qui représente la capacité consciente. Elle est assez unique, on ne peut pas demander à un gorille d'évoquer ses souvenirs.
La conscience est-elle une capacité propre aux humains ?
Je pense qu'elle est liée aux humains, tout simplement parce qu'elle est liée à la réflexion. Ce n'est qu'à travers le langage qu'on induit la capacité réflexive. La capacité réflexive semble intrinsèquement liée à l'apparition des capacités langagières.
Le fait que la capacité du langage semble, au moins à l'état d'ébauche, présente chez d'autres espèces signifie-t-il qu'il en va de même pour la conscience ?
Non, c'est là qu'est la différence : sans langage, pas de capacité réflexive. Vous avez bien une expérience, très complète, très riche, mais vous n'avez pas cette capacité réflexive. Un gorille ne peut pas faire ce geste de retournement, passer du contenu à l'acte de conscience qui donne lieu au contenu. La question de savoir si la conscience est proprement humaine est un problème terminologique, pour moi ça n'est pas très important. Si vous appelez conscience seulement ce qui contient cette capacité réflexive, la conscience est purement humaine.
Si l'on se place dans une logique d'incarnation des actes mentaux, doivent-ils être perceptibles ?
Oui, la conscience est étudiable. Le tout, c'est de poser la question au niveau juste. Et le niveau juste, c'est le côté émergent de l'expérience, et ensuite les capacités réflexives qui accompagnent la préparation de ces données phénoménales. Donc il y a deux niveaux enchevêtrés qu'il faut étudier séparément.
Ce côté émergent de l'expérience renvoie-t-il à la thèse que la conscience aurait émergé au cours de l'évolution du fait de l'avantage qu'elle apporte5 ?
Attention, je parle d'émergence dans le sens dynamique, pas dans le sens évolutif : les capacités cognitives se présentent sous des formes diverses et doivent être « cousues » ensemble en permanence, voilà ce que j'appelle le phénomène d'émergence. En revanche, cela peut se manifester de diverses façons dans l'évolution. Une chauve-souris, une souris, un poisson, un insecte, chacun a son type d'expérience. Et la spécificité humaine a joué dans sa situation particulière, unique, qui a ouvert la possibilité réflexive. Là il y a effectivement une émergence sur le plan évolutif.
Cette émergence a-t-elle apporté un avantage évolutif ?
L'idée est assez adaptationniste. Je m'en méfie, parce que cela suppose qu'il y a eu un paramètre optimum. Qu'est-ce qu'on a amélioré pour que cela soit sélectionné ? Mais les chemins de l'hérédité ne se guident pas par des adaptations. Il y a des interdépendances tellement complexes que l'on ne peut pas parler d'un pic adaptatif.
Alors pourquoi la conscience aurait-elle émergé ?
Parce qu'il y avait, parmi toutes ces possibilités, la possibilité d'émerger. C'est un effet de situation. Cela aurait pu se passer ou ne pas se passer. Il y a un côté très aléatoire dans le monde. C'est comme si l'ontologie du monde était féminine, une ontologie de la permissivité, de l'émulation. Tant que c'est possible, c'est possible. Je n'ai pas besoin de chercher à justifier ceci ou cela. Au milieu de tout cela, la vie tire les possibilités, elle bricole.
L'idée de machines émergeant comme êtres vivants devrait vous paraître concevable ?
Oui, je n'ai aucun problème avec l'idée qu'on puisse créer des organismes dotés d'une identité somatique, d'une identité de type sensori-motrice, ou d'une conscience artificielle.
Cela fait peur aux gens, ils pensent à Frankenstein.
On change de registre. Cela renvoie à la dimension éthique de la science, à sa dimension sociale. On n'est plus dans l'ordre du possible, mais dans l'ordre du souhaitable, ce n'est pas la même chose. Je dis que c'est possible. Qu'on décide collectivement, démocratiquement, de le faire ou pas, c'est une autre question.
On en prend le chemin ?
Oui. Un robot comme COG, quand même, c'est un grand pas vers une machine du niveau d'un chien. Regardez ce qu'on peut faire avec des petits robots, c'est assez impressionnant.
Et pourquoi le fait-on ?
Pour les mêmes raisons que dans les autres champs scientifiques : en partie, parce que c'est passionnant à faire, que c'est fascinant, et en partie parce qu'il y a de gros contrats derrière, par exemple pour expédier de telles machines sur Mars.
1 Wired, mars 1998.
2 Esther Thelen et L. Smith, A Dynamical Systems Approach to the Development of Cognition and Action , MIT Press, Cambridge, 1993.
3 E. Thompson, A. Palacios et F. Varela, « Ways of coloring: Comparative color vision as a case study in cognitive science », Beh. Brain Sciences , 15 , 1, 1992.
4 T. Nagel, « What is like to be a bat ? », Philosophical Review , 83 , 435, 1974.
5 Derek Denton, L' É mergence de la conscience, Flammarion, coll. « Champs », 1995.
NOTES
*JEAN PIAGET 1896-1980, psychologue suisse, a notamment décrit les stades du développement intellectuel de l'enfant.
*LE JURASSIQUE est la période de l'ère secondaire qui s'est écoulée de 205 à 135 millions d'années.
DOCUMENT larecherche.fr |
|
|
|
|
 |
|
NEURONE |
|
|
|
|
|
Neurone
Cellule de base du tissu nerveux, capable de recevoir, d'analyser et de produire des informations. (La partie principale, ou corps cellulaire du neurone, est munie de prolongements, les dendrites et l'axone.)
Le neurone, ou cellule nerveuse, est l'unité fonctionnelle du système nerveux. Sa configuration cellulaire spécifique le rend capable de générer, de transmettre et/ou de recevoir des informations sous forme de signaux électriques (influx nerveux).
Le système nerveux est très complexe : ses quelque cent milliards de cellules (1011, à un facteur de 10 près) peuvent être classées en plus de 1 000 catégories, chacune comprenant plusieurs sous-classes selon des critères incluant leur taille, leurs arborisations, les contacts afférents ou efférents. Cette apparente complexité masque en fait une grande similitude fonctionnelle, la particularité de chaque cellule reposant principalement sur sa position dans un circuit donné.
On peut dès lors essayer de mieux comprendre le système nerveux à partir de propriétés simples des cellules qui le composent : les mécanismes qui donnent naissance aux potentiels d'action neuronaux, les modes de transmission synaptique, les interactions fondamentales entre neurones et cellules gliales.
En effet, les neurones sont entourés d'autres cellules : les cellules gliales (du grec gloios, « glu ») – elles ont longtemps été considérées comme de simples éléments de remplissage entre les neurones. On compte environ dix fois plus de cellules gliales que de neurones, et il est clair aujourd'hui que leurs fonctions, essentielles à l'activité neuronale, sont multiples.
Les compartiments du neurone
Le neurone est constitué de quatre grandes régions : le corps cellulaire, ou soma, les dendrites, les axones et les terminaisons présynaptiques. Chacune de ces différentes régions joue un rôle bien défini dans l'initiation et le transport de l'information.
Le soma, qui contient le noyau du neurone, en est le centre métabolique, car il comprend aussi toute la machinerie de synthèse de ses différents constituants. Du corps cellulaire partent deux sortes de prolongements, les dendrites et l'axone.
Les dendrites, qui se ramifient au point de former un arbre touffu autour du corps cellulaire (arbre dendritique), sont les voies par lesquelles l'information arrive. Elles sont le siège d'une activité métabolique intense et d'une synthèse protéique active : la microscopie électronique permet d'y distinguer des mitochondries en abondance, ainsi qu'un réticulum endoplasmique rugueux, porteur de nombreux ribosomes.
L'axone, prolongement au diamètre constant (de 0,2 à 20 μm), peut atteindre 1 m de longueur. Il est la voie privilégiée de sortie de l'information, et, contrairement aux dendrites, l'activité métabolique y est peu importante. L'axone transporte en revanche les macromolécules stockées dans des vésicules, ou organelles, au sein du corps cellulaire. Dans certains cas, ce transport permet une maturation de la molécule, importante pour sa fonction.
Près de sa terminaison, l'axone se divise en fines ramifications, les terminaisons présynaptiques. Ces dernières sont le site de stockage des neurotransmetteurs, qui vont permettre le transfert de l'information aux dendrites du neurone postsynaptique.
L’influx nerveux
L'une des propriétés essentielles du neurone est sa capacité à produire, puis à acheminer loin du corps cellulaire, une information sous la forme d'un groupe d'impulsions électriques, les potentiels d'action.
Décrite dès 1849 par le biologiste allemand Emil Du Bois-Reymond (1818-1896), cette aptitude résulte des propriétés de la membrane cellulaire du neurone et des protéines qu'elle contient. Les protéines membranaires des cellules de l'organisme peuvent être regroupées en cinq grandes familles : les pompes, les canaux, les récepteurs, les enzymes et les protéines de structure.
Les échanges d'ions entre le neurone et son milieu
Les pompes utilisent l'énergie produite à partir de la dégradation des sucres pour déplacer activement des ions et d'autres molécules contre leur gradient de concentration (un gradient est créé de fait par les différences de concentration d'une substance de part et d'autre d'une membrane ; celle-ci peut être traversée passivement – sans nécessiter de pompes – par les ions, du milieu le plus concentré vers le moins concentré, c'est-à-dire dans le sens du gradient). La composition ionique du milieu intracellulaire est différente de celle du milieu extracellulaire, et ce pour toutes les cellules de l'organisme. À l'intérieur d'un neurone, il y a dix fois plus de potassium et dix fois moins de sodium qu'à l'extérieur.
La pompe Na-K-ATPase échange trois ions sodium de l'intérieur contre deux ions potassium de l'extérieur. Ces échanges ioniques induisent une différence de potentiel au niveau de la membrane ; celle-ci a un potentiel d'environ 60 mV.
Le potentiel transmembranaire
Comme le milieu intérieur, concentré en protéines chargées négativement, est négatif, et que le milieu extracellulaire, choisi comme référence, est à zéro, le potentiel de repos d'un neurone se situe à − 60 mV. Cette valeur est prise comme base à partir de laquelle les variations traduisent l'apparition d'une information.
Toute augmentation (en valeur absolue) du potentiel transmembranaire (de − 60 à − 70 mV, par exemple) est une hyperpolarisation ; inversement, une diminution de potentiel (de − 60 à − 50 mV, par exemple) est une dépolarisation.
L'hyperpolarisation éloigne du seuil d'apparition d'un potentiel d'action, tandis que la dépolarisation est l'étape initiale pouvant donner naissance, si elle est suffisamment intense, à la « décharge » du neurone : le potentiel d'action. Lorsqu'un signal atteint le neurone, il en résulte une hyper- ou une dépolarisation.
Dans le premier cas, on parle de signal inhibiteur, tandis qu'il est excitateur dans le second. Le stimulus peut être de toute nature : lumière, bruit, odeur, étirement musculaire, molécule chimique libérée par un autre neurone, etc. Il en résulte une perturbation du potentiel de repos de faible amplitude (moins de 10 mV), locale et graduée : locale, car la résistance passive de la membrane limite la diffusion de la perturbation ; graduée, car le changement de potentiel est proportionnel à l'intensité de la stimulation ; on parle de potentiel de récepteur et/ou de potentiel synaptique.
L'ensemble des potentiels qui atteignent un même neurone est intégré au niveau d'une zone spécialisée de la membrane, appelée trigger zone, ou zone gâchette. C'est là que la sommation des hyper- et/ou des dépolarisations élémentaires se transforme ou non en un potentiel d'action.
La naissance du potentiel d'action
Le potentiel d'action est une dépolarisation ample (jusqu'à 110 mV), brève (1/1 000 s), générée selon la loi du « tout ou rien », et propagée activement le long du neurone et de l'axone sans diminution d'amplitude.
Dans le courant des années 1950, Alan L. Hodgkin, Andrew F. Huxley et Bernard Katz démontrèrent, sur l'axone géant de calmar, que la propagation de l'influx nerveux coïncidait avec un brusque changement de la perméabilité membranaire aux ions sodium (Na+) et potassium (K+). Au repos, la membrane est principalement perméable au potassium (on parle de conductance potassique), qui passe par des canaux dits « de fuite ». Hodgkin et Katz avancèrent l'hypothèse que l'influx nerveux modifie la conductance, car il entraîne l'ouverture brutale des canaux sodiques sensibles au potentiel de la membrane. Ces derniers s'ouvrent dès que la différence de voltage atteint un seuil de − 55 mV, et laissent entrer massivement le sodium dans le sens de son gradient ; cette entrée est à l'origine du potentiel d'action, le flux de sodium ouvre davantage de canaux Na+, facilitant ainsi le passage d'autres ions sodium.
La dépolarisation s'amplifie alors jusqu'à activer les canaux K+, sensibles à des valeurs de potentiel proches de 0 mV : le flux sortant de potassium compense le flux entrant de sodium. Le potentiel membranaire reprend sa valeur initiale. Les pompes Na-K-ATPase rétablissent les gradients initiaux au cours d'une phase dite « réfractaire », durant laquelle aucun potentiel d'action ne peut être produit.
La propagation de l'influx nerveux
À partir de la trigger zone, le potentiel d'action avance vers l'extrémité de l'axone à grande vitesse. Toutefois, en raison des pertes dues aux résistances de membrane, ce potentiel doit être régénéré de façon active tout au long de son parcours. Au cours de l'évolution, deux stratégies ont été mises en place par les organismes vivants pour augmenter la vitesse de conduction de l'information le long de l'axone.
Chez certaines espèces, l'augmentation du diamètre de la fibre a été poussée à l'extrême : il atteint 1 mm chez le calmar géant, et peut être vu à l'œil nu – ce caractère évolutif, à l'origine d'un encombrement spatial important, n'est pas compatible avec le nombre de neurones observés dans le cerveau des vertébrés supérieurs.
Chez les mammifères, la vitesse de propagation de l'influx nerveux est augmentée par la présence d'une gaine de myéline autour de l'axone ; cette enveloppe protéique et lipidique, qui s'enroule sur une dizaine de couches, est synthétisée par les cellules gliales spécialisées du système nerveux central, les oligodendrocytes, et par celles du système nerveux périphérique, les cellules de Schwann. La diminution de la résistance passive de la membrane est telle que le potentiel d'action est transporté cent fois plus rapidement : il avance alors de façon saltatoire, en bondissant le long de l'axone, d'un nœud de Ranvier (zone non myélinisée à la jonction entre deux cellules myélinisantes) à l'autre.
Le transfert de l’information d’une cellule à l’autre
image: http://www.larousse.fr/encyclopedie/data/images/1315155-Transmission_de_linflux_nerveux.jpg
Transmission de l'influx nerveux
Transmission de l'influx nerveux
Le transfert de l’influx nerveux d’un neurone à l’autre, ou, en fin de circuit, d’un neurone à une cellule effectrice (cellule musculaire par exemple), se fait au niveau d’une zone de jonction appelé synapse. Il existe deux types de synapses : les synapses chimiques et les synapses électriques. Les premières, majoritaires, font appel à des molécules messagers appelées neuromédiateurs.
→ synapse
Les cellules gliales, partenaires du neurone
Les oligodendrocytes et les cellules de Schwann, nécessaires à la transmission rapide du potentiel d'action, forment une gaine isolante, la myéline ; sa destruction par la maladie (sclérose en plaques) induit une grave perturbation de l'activité neuronale, qui peut conduire à la disparition du neurone.
Les cellules de la microglie, qui assurent la défense immunitaire du système nerveux, sont des cibles privilégiées pour les virus, comme celui responsable du sida. De plus, elles ont un rôle important lors du développement embryonnaire, en éliminant les cellules et les terminaisons surnuméraires, et lors des phénomènes de sénescence.
Les cellules endothéliales, qui bordent les vaisseaux cérébraux, sont responsables de la barrière hémato-encéphalique ; celle-ci isole le système nerveux de la circulation sanguine générale, le protégeant ainsi de l'arrivée de nombreux toxiques et agents infectieux.
Les astrocytes représentent la principale population gliale, et leurs rôles apparaissent aujourd'hui multiples. Lors du développement, ils participent au guidage et au positionnement des neurones. Ils possèdent une capacité de captation rapide du potassium extracellulaire, permettant une rapide repolarisation neuronale et la régénération du potentiel d'action. Ils approvisionnent en substrats énergétiques le neurone, isolé de la circulation sanguine. De plus, ils expriment de nombreux récepteurs pour les neurotransmetteurs libérés par les neurones, les rendant ainsi aptes à prendre une place – qui reste à mieux comprendre – dans les processus de transmission de l'information au sein du système nerveux.
Neurone et intelligence artificielle
Imiter le système nerveux au moyen d'une machine n'est pas une idée nouvelle, mais ce projet connaît aujourd'hui un fort développement grâce à l'informatique, l'ordinateur permettant de tester, de simuler les hypothèses émises par les chercheurs. Et c'est à l'échelle de la cellule nerveuse, ou neurone, que les chercheurs en neuro-mimétisme ont décidé de se placer pour réaliser la copie de la structure du système nerveux. L'ordinateur sert en particulier à faire fonctionner les modèles construits par les mathématiciens à partir des observations et des réflexions fournies par les physiologistes. Ce modèle mathématique du neurone, que l'on appelle le « neurone formel », est dupliqué pour constituer un réseau.
DOCUMENT larousse.fr LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 ] Précédente - Suivante |
|
|
|
|
|
|