ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Francisco Varela : " Le cerveau n'est pas un ordinateur "

 

Francisco Varela : " Le cerveau n'est pas un ordinateur "
mensuel 308
daté avril 1998 -


Francisco Varela, né en 1946, est neurobiologiste. Après avoir longtemps travaillé aux Etats-Unis, il est entré en 1988 au CNRS comme directeur de recherches. Il est actuellement chercheur au Laboratoire des neurosciences cognitives et imagerie cérébrale, à Paris. Il a notamment publié L'Inscription corporelle de l'esprit Seuil, 1993 et L'Arbre de la connaissance avec Umberto Matarana, Addison-Wesley, 1994.
La Recherche : Le psychologue évolutionniste Steven Pinker vient de déclarer que « presque tout le monde dans les sciences cognitives » partage l'idée que le cerveau est une sorte d'ordinateur neuronal produit par l'évolution1. Ceux qui ne le pensent pas, dit-il, « sont flamboyants, mais peu nombreux et peu représentatifs ». Vous sentez-vous flamboyant et marginal ?

Francisco Varela : La notion d'ordinateur neuronal n'est pas évidente, parce qu'un ordinateur, stricto sensu , c'est un système numérique. Tout le courant qu'on appelle aujourd'hui le cognitivisme, ou computationnalisme, et dont je ne fais pas partie, travaille avec l'hypothèse que le niveau cognitif est autonome. Donc parler d'ordinateur neuronal, c'est déjà plonger dans la perplexité la moitié des chercheurs du domaine pour qui il y a une différence entre les niveaux d'implémentation, entre le soft et le hard . Si vous parlez à un informa-ticien, il se moque de savoir sur quel ordinateur il travaille, ce qui l'intéresse c'est la structure de son programme. De la même façon, ceux qui s'intéressent à la computation en tant que telle ne se préoccupent pas de son support. Ils ne nient pas l'intérêt de la biologie, ils disent que cela ne ressort pas de leur domaine. Par ailleurs, il y a bien des manières de nouer le fil entre l'hypothèse computationnaliste et le cerveau. La question revient à analyser ce qu'est un calcul fondé sur une machine non numérique, comparable à un cerveau plutôt qu'à un ordinateur. C'est une question qui m'intéresse, comme elle intéresse beaucoup plus de gens que ne le croit Pinker. Et ce que nous disons, c'est que l'avenir des sciences cognitives repose sur une vision que l'on pourrait appeler « dynamique » , par opposition à la vision computationnaliste.

En quel sens utilisez-vous le mot « dynamique » ?

Plutôt que de travailler avec des symboles et des règles, les « dynamicistes » travaillent avec des systèmes formés de variables réelles en utilisant des équations différentielles. Cette approche produit actuellement beaucoup de résultats et n'est pas du tout marginale. Une des conséquences cruciales de l'approche dynamique, qu'on ne trouve pas dans la vision computationnaliste, c'est que vous obtenez des propriétés émergentes, c'est-à-dire des états globaux de l'ensemble de vos variables, parce qu'il y a une interdépendance intrinsèque. Nul besoin de chef d'orchestre pour coordonner la chose, c'est la dynamique même qui va la porter.

La cognition proviendrait alors de l'interaction des composants biologiques du cerveau ?

L'approche dynamique travaille avec des variables biologiques, avec des activités neuronales plutôt qu'avec des symboles, avec des états globaux du cerveau appréhendés par l'imagerie fonctionnelle. Ce type de travail récuse la séparation entre la cognition et son incarnation. Beaucoup de chercheurs en sont venus à considérer qu'on ne pouvait pas comprendre la cognition si on l'abstrayait de l'organisme inséré dans une situation particulière avec une configuration particulière, c'est-à-dire dans des conditions écologiquement situées. On parle de situated cognition , en anglais, ou embodied cognition , cognition incarnée. Le cerveau existe dans un corps, le corps existe dans le monde, et l'organisme bouge, agit, se reproduit, rêve, imagine. Et c'est de cette activité permanente qu'émerge le sens de son monde et des choses.

Comment ce point de vue s'articule-t-il avec l'intelligence artificielle ?

La coupure cognition autonome/ cognition incarnée traverse toutes les sciences cognitives, et pas seulement les neurosciences. Un des promoteurs de la robotique incarnée est Rodney Brooks, le directeur du Laboratoire d'intelligence artificielle du Massachusetts Institute of Technology MIT. Voici une dizaine d'années, il a lancé une espèce de déclaration de guerre en affirmant qu'on ne réussirait à faire des robots vraiment autonomes que s'ils étaient incarnés dans un contexte matériel, situés dans un monde sensible. Et il ne s'agit pas d'un monde défini par une liste de propriétés, comme on le fait habituellement dans les simulations informatiques. La vision incarnée séduit aussi beaucoup les chercheurs d'autres domaines, par exemple ceux qui étudient le développement de l'enfant.

Comment l'intègrent-ils, pratiquement ?

Dans l'analyse psychologique instaurée par Piaget*, l'enfant atteint vers l'âge de 3 ans le stade conceptuel, c'est- à-dire qu'il acquiert la maîtrise de l'activité symbolique, il passe du singulier à l'universel. En fait, Esther Thelen a montré2 que l'acquisition de la capacité d'abstraction est inséparable de cycles de perception-action que l'enfant réalise sur certains objets, par exemple tous les objets qui contiennent de l'eau, les tasses, les verres, etc. L'enfant va les manipuler intensément pendant une certaine période. Et si vous l'empêchez de le faire, ou s'il est empêché de le faire à cause d'un handicap, cela gêne son développement cognitif. Thelen renverse la théorie antérieure en disant qu'à la base de ce développement il y a l'incarnation sensori-motrice, le fait que toute perception entraîne une action, que toute action entraîne une perception, donc que c'est une boucle perception-action qui est la logique fondatrice du système neuronal. Brooks a adopté le même point de vue : si j'arrive à construire une machine qui ne sait rien a priori de son environnement, mais qui est dotée d'une boucle sensori-motrice efficace, que fera-t-elle ? Elle se baladera partout, comme un bon cafard, et testera sa boucle de réaction/ action, jusqu'à la rendre tellement robuste que, après de multiples géné- rations, elle se débrouillera dans n'importe quel environnement. L'hypothèse est que sur cette base vont pouvoir émerger des significations telle que « désirable » ou « indésirable » , des catégories universelles de type classes d'objets, voire le langage.

L'essentiel, c'est donc l'interaction entre l'organisme et son environnement ?

Il faut que l'organisme soit suffisamment incarné dans un environnement pour pouvoir se débrouiller malgré le fait qu'il ne possède pas une représentation préalable du monde. Son monde émerge avec ses actions. Si je lâche ici un cafard, il va grimper l'escalier, faire le tour du jardin, revenir, éviter de tomber dans des trous ou de se coincer dans un coin. Il constitue une entité viable. En tant que système neuronal, le cerveau est fondé sur cette logique de la viabilité : dans son fonctionnement, tout revient à cette recherche de stabilité sensori-motrice. Au cours de l'évolution, à quel moment le système neuronal est-il apparu ? Pas chez les plantes, pas chez les champignons, pas chez les bactéries. Il est apparu chez les animaux. Pour se nourrir, les animaux ont trouvé la solution de manger des proies. Il leur faut donc se mouvoir - et la locomotion est la logique constitutive de l'animal. C'est là qu'apparaît le système neuronal, parce que pour chasser, se mouvoir, il faut une boucle perception-action reliant des senseurs à des muscles, et ces liaisons ont formé le cerveau. C'est sur cette base que des choses plus abstraites ont commencé à se greffer.

La manipulation de symboles ?

Oui, quoique très tardivement. L'évolution du système neuronal a pris en gros 1,5 milliard d'années. Les trois quarts de ce temps n'ont servi à réaliser qu'une seule chose, des animaux qui se débrouillent de façon sensori-motrice élémentaire. Pour le dire très vite, jusqu'au Jurassique*, il n'y avait que des bêtes à la Rodney Brooks, qui ne faisaient que bouger, chasser, et s'incarner dans le monde. C'est bien plus tard que s'est produit un saut qualitatif chez certains animaux, avec l'apparition du langage, d'éléments sociaux, et de capacités symboliques.

Comment se produit ce saut ? Pourquoi des propriétés abstraites symboliques émergeraient-elles chez le robot COG que développe Brooks ?

La réponse n'est pas encore claire. Mais l'activité symbolique n'apparaît pas toute seule. Elle fait toujours partie d'une situation, d'un contexte, qui produit une sorte de dérive vers certains types de récurrences sensori-motrices. Une fois acquise cette capacité d'agir-réagir sur le monde, des interactions entre individus ont pu se produire, formant un nouveau type de boucle de récurrence: la rencontre avec l'autre. Et cela crée justement, dans cette voie de dérive, de nouveaux points de stabilité, des interactions d'orientation : chaque fois que l'autre se met comme ça, je me mets comme ça. Ce type de regard orientatif de l'un sur l'autre, c'est le début de la communication animale.

Mais alors pourquoi les sociétés de cafards, par exemple, n'ont-elles pas développé une capacité symbolique ?

Le système neuronal ne peut se développer que jusqu'à un certain point. Si votre corps est engoncé dans une armure, comme chez les cafards, ou si vous restez petit, le système neuronal plafonne. Chez les vertébrés, par contre, ce n'est pas vrai. Par exemple, les mammifères marins possèdent une capacité de communication que l'on connaît mal, mais qui n'est pas loin d'une sorte de langage assez profond. Il est toujours difficile de donner un poids à ce type de reconstruction historique. Mais ce qui compte c'est que l'apparition de l'esprit n'est pas un saut catastrophique, mais la continuité nécessaire de l'incarnation dans l'évolution. On sait que l'appareillage symbolique de catégorisation et d'échange est très répandu. Ce qu'on trouve en plus chez les primates c'est le langage au sens strict du terme. Il y a là un phénomène de créativité évolutive sur lequel on sait très peu de choses. Le langage est apparu tardivement. Un million d'années par rapport à l'histoire de l'évolution, cela ne représente en fait rien du tout.

Vous reliez les limitations de ces organismes aux « choix » évolutifs qui les ont contraints biologiquement. Cela signifie que l'abstraction est liée au cerveau. Comment le robot de Brooks qui, lui, n'est pas dans un substrat biologique, va-t-il évoluer ?

C'est la question que se pose toute cette école. Il y a deux réponses possibles. L'une consiste à dire : nous allons faire le travail de l'évolution. Au lieu de construire des robots hyperperformants, à cinq millions de dollars l'unité, on va construire des milliers de petites bestioles, avec des petites variantes, on va les laisser dans la nature, et sélectionner les plus résistants. Il s'agit de réaliser un contexte évolutif artificiel. Une autre option consiste à réaliser des bestioles viables, robustes, qui peuvent exister, et dans lesquelles on va introduire des capacités, par exemple de mémoire - imitée du cerveau selon des règles de type dynamique neuronale - ou des capacités sociales d'interaction entre les agents. Le robot de Brooks, COG, est fondé sur la deuxième option. Par exemple, il reconnaît un visage sur la base d'une sélection des traits qui est copiée sur ce qui se passe dans notre cerveau. Par suivi du mouvement oculaire, on a repéré que lorsque des gens regardent les visages, ils forment une esquisse de certains traits du visage. Les chercheurs du MIT ont implémenté ce type de programmes informatiques. L'ingénieur est bricoleur plutôt qu'éleveur : la philosophie de Brooks est extrêmement pragmatique, il prend ce qui fonctionne, il bricole.

Cela dit, il y a des gens qui continuent à penser que l'évolution ne fonctionne que par optimisation des forces sélectives. Pour chaque situation, il y aurait une espèce d'optimalité. Ce point de vue représente une troisième cassure dans le champ des sciences cognitives, entre les adaptationnistes et, le nom est encore difficile à trouver, je parle de « dérive naturelle », Stuart Kauffman parle d' « évolution douce » . Stephen Jay Gould est un autre représentant de cette école. En revanche, Pinker adhère à l'option adaptationniste pure et dure, qui suppose en fait une correspondance exacte entre l'organisme et le monde, une prédétermination.

Qu'entendez-vous par « dérive naturelle » ?

La pertinence des actions n'est pas donnée intrinsèquement, mais résulte de la construction de récurrences via la logique de l'incarnation sensori-motrice. Il va de soi que l'option qui considère le cerveau comme un système incarné n'est pas adaptationniste. La vision des couleurs en donne une bonne illustration3. Si la vision adaptationniste a raison, les choses ont une couleur intrinsèque. Si la vision de l'évolution douce est pertinente, nous aurons une diversité des mondes chromatiques, non superposables les uns aux autres. Or quand on étudie comment voient les animaux, on constate qu'il y a une très grande diversité des mondes chromatiques, pentachromatique, tétrachromatique, trichromatique, bichromatique, qui ne sont pas superposables, et correspondent pourtant tous à des lignées animales tout à fait viables. Alors, qui voit la vraie couleur ? Nous, les pigeons qui voient en pentachromatique, ou les abeilles qui voient dans l'ultraviolet ? Quelle est la couleur du monde ?

Est-ce à dire que le monde est une construction de l'esprit, fondée sur notre appareil perceptif ?

Quand j'étais jeune, je pensais qu'il n'y avait pas un « en soi » du monde. Je n'en suis plus convaincu. Ce que l'on peut dire, c'est qu'on ne peut pas caractériser le monde par des attributs, mais seulement par des potentialités. Il y a certaines contraintes qu'il faut respecter. Il y a une différence entre situation prescriptive et situation proscriptive. Dans la situation prescriptive, vous êtes forcés de faire ce que vous êtes en train de faire et rien d'autre. Dans la situation proscriptive, vous pouvez faire ce que vous voulez sauf certaines choses interdites. Les adaptationnistes sont prescriptifs, notre vision est plutôt proscriptive. Les êtres vivants ne sont pas censés faire n'importe quoi. Du point de vue philosophique, c'est une vision qui renvoie à l'apparaître, à la phénoménalité plus qu'à une objectivité classique. Mais ceci n'équivaut pas à l'inexistence du monde, qui est la position dite constructiviste.

Comment concevez-vous l'émergence de la conscience dans le cours de l'évolution ?

Il faut commencer par distinguer conscience et expérience. Qu'est-ce qu'une expérience, pour une unité cognitive incarnée dans une situation ? Prenons un chien. Il a de la mémoire, il a des émotions, il a du tempérament. Tous ces modules cognitifs, qui se relient à des sous-circuits cérébraux, fonctionnent ensemble. Il y a une intégration à chaque instant : ce que le chien voit, comment il bouge la patte, l'émotion qui l'accompagne, tout cela n'est pas décousu. Il y a une espèce de suite d'émergences, de disparitions et de réémergences, des unités cognitives, modulaires mais intégrées. L'expérience est un locus d'unité cognitive - je travaille sur ce thème actuellement. On peut s'accorder sur le fait qu'il y a une expérience de chien, que le chien est un sujet. Et les cafards ? On ne sait pas répondre à cette question. Mais la définition est opérationnelle, c'est-à-dire que si l'on peut établir une mesure de l'intégration de modules cognitifs, on pourra peut-être dire qu'il y a une micro-expérience chez le cafard, et une méso-expérience chez le chien.

La conscience naît de ce réseau d'unités cognitives ?

L'expérience est quelque chose d'universel à partir d'un certain niveau d'intégration cognitive certainement partagé par tous les mammifères. Conclusion évidente : on peut facilement imaginer ce que c'est d'être un singe. Il y a un article absolument magnifique de T. Nagel, « What is like to be a bat »4, « Ce que ça fait d'être une chauve-souris ». Je ne sais pas ce que ça fait d'être une chauve-souris ; mais qu'il y ait un sujet cognitif, c'est certain. En revanche, il est beaucoup plus facile de se représenter ce que c'est d'être un gorille, ou d'être un bébé. Pourquoi poser la question ainsi ? Parce qu'on discerne l'inséparabilité entre l'expérience, telle que je viens de la définir, et les mécanismes d'émergence d'une sorte d'habitation d'expérience. Les sons, les odeurs, n'existent pas en tant que tels, mais seulement relativement au sujet cognitif. Ils sont pour le chien, par exemple, une manifestation phénoménale. Donc, au lieu de s'intéresser au mécanisme neurobiologique de l'odorat du chien, vous pouvez, comme le fait Nagel dans son article, regarder du côté phénoménal de cette activité cognitive. Une fois que l'unité de plusieurs modules cognitifs s'est produite, cela donne au sujet une perspective particulière sur le monde.

Et une capacité réflexive ?

L'apparition du langage va faire la différence entre avoir une expérience, reflétée par un comportement neuronal, et la capacité réflexive. Mais il ne faut pas confondre celle-ci et la conscience. La capacité réflexive, dans le vide, ça ne donne rien. Elle doit s'incarner dans un univers cognitif complexe. C'est à l'intérieur de l'expérience qu'il y a cette nouvelle capacité d'autodescription.

C'est l'expérience de soi ?

C'est l'expérience de se référer à soi, de se référer à sa propre expérience. La réflexivité est quelque chose d'absolument crucial, c'est la grande mutation qui se produit avec l'apparition du langage chez l'homme. Mais là où je vois des problèmes, c'est quand on essaye de coller la conscience à cette capacité réflexive sans faire état de l'énorme background que représente l'expérience. Certains chercheurs utilisent le terme de conscience primaire pour désigner la conscience non réflexive. C'est intéressant, parce que dans la vie quotidienne 90 % de l'expérience est primaire, pas réflexive. On marche, on prend le métro, on peut même avoir des pensées sans qu'il y ait de réflexion.

Mais est-on ou non, avec la réflexivité, dans la conscience ? Est-il même utile de parler de conscience ?

Absolument. Quand je dis que je ne suis pas d'accord quand les gens parlent de conscience, c'est parce qu'ils ont tendance à coller ça uniquement au côté réflexif. Si l'on veut avancer dans cette question, il faut au moins en poser les termes. Un point fondamental, c'est de comprendre la nature de l'expérience tout court. C'est une forme de conscience, mais c'est une conscience sans réflexion. La réflexion, ou la capacité réflexive, va donner à la conscience son statut humain. S'il n'y avait que de l'expérience, je serais plutôt gorille. Mais je sépare les deux questions. Le problème scientifique de l'étude de la conscience humaine n'est qu'un chapitre de l'étude de l'expérience, parce que cette capacité réflexive nous permet d'explorer la conscience comme si l'on avait des données phénoménologiques directes. Dans l'ancienne tradition psychologique, on parlait d'introspection. Comment étudier scientifiquement la conscience ? Par exemple, on place un sujet dans une situation relativement contrôlée, et on lui demande de se rappeler la maison où il a été élevé dans son enfance. La plupart des gens y arrivent sans problème. Ensuite, vous leur demandez comment ils ont fait, c'est-à-dire quelle stratégie ils ont employée pour évoquer le souvenir. Le souvenir lui-même n'a pas d'importance, c'est l'acte de déclencher le souvenir qui représente la capacité consciente. Elle est assez unique, on ne peut pas demander à un gorille d'évoquer ses souvenirs.

La conscience est-elle une capacité propre aux humains ?

Je pense qu'elle est liée aux humains, tout simplement parce qu'elle est liée à la réflexion. Ce n'est qu'à travers le langage qu'on induit la capacité réflexive. La capacité réflexive semble intrinsèquement liée à l'apparition des capacités langagières.

Le fait que la capacité du langage semble, au moins à l'état d'ébauche, présente chez d'autres espèces signifie-t-il qu'il en va de même pour la conscience ?

Non, c'est là qu'est la différence : sans langage, pas de capacité réflexive. Vous avez bien une expérience, très complète, très riche, mais vous n'avez pas cette capacité réflexive. Un gorille ne peut pas faire ce geste de retournement, passer du contenu à l'acte de conscience qui donne lieu au contenu. La question de savoir si la conscience est proprement humaine est un problème terminologique, pour moi ça n'est pas très important. Si vous appelez conscience seulement ce qui contient cette capacité réflexive, la conscience est purement humaine.

Si l'on se place dans une logique d'incarnation des actes mentaux, doivent-ils être perceptibles ?

Oui, la conscience est étudiable. Le tout, c'est de poser la question au niveau juste. Et le niveau juste, c'est le côté émergent de l'expérience, et ensuite les capacités réflexives qui accompagnent la préparation de ces données phénoménales. Donc il y a deux niveaux enchevêtrés qu'il faut étudier séparément.

Ce côté émergent de l'expérience renvoie-t-il à la thèse que la conscience aurait émergé au cours de l'évolution du fait de l'avantage qu'elle apporte5 ?

Attention, je parle d'émergence dans le sens dynamique, pas dans le sens évolutif : les capacités cognitives se présentent sous des formes diverses et doivent être « cousues » ensemble en permanence, voilà ce que j'appelle le phénomène d'émergence. En revanche, cela peut se manifester de diverses façons dans l'évolution. Une chauve-souris, une souris, un poisson, un insecte, chacun a son type d'expérience. Et la spécificité humaine a joué dans sa situation particulière, unique, qui a ouvert la possibilité réflexive. Là il y a effectivement une émergence sur le plan évolutif.

Cette émergence a-t-elle apporté un avantage évolutif ?

L'idée est assez adaptationniste. Je m'en méfie, parce que cela suppose qu'il y a eu un paramètre optimum. Qu'est-ce qu'on a amélioré pour que cela soit sélectionné ? Mais les chemins de l'hérédité ne se guident pas par des adaptations. Il y a des interdépendances tellement complexes que l'on ne peut pas parler d'un pic adaptatif.

Alors pourquoi la conscience aurait-elle émergé ?

Parce qu'il y avait, parmi toutes ces possibilités, la possibilité d'émerger. C'est un effet de situation. Cela aurait pu se passer ou ne pas se passer. Il y a un côté très aléatoire dans le monde. C'est comme si l'ontologie du monde était féminine, une ontologie de la permissivité, de l'émulation. Tant que c'est possible, c'est possible. Je n'ai pas besoin de chercher à justifier ceci ou cela. Au milieu de tout cela, la vie tire les possibilités, elle bricole.

L'idée de machines émergeant comme êtres vivants devrait vous paraître concevable ?

Oui, je n'ai aucun problème avec l'idée qu'on puisse créer des organismes dotés d'une identité somatique, d'une identité de type sensori-motrice, ou d'une conscience artificielle.

Cela fait peur aux gens, ils pensent à Frankenstein.

On change de registre. Cela renvoie à la dimension éthique de la science, à sa dimension sociale. On n'est plus dans l'ordre du possible, mais dans l'ordre du souhaitable, ce n'est pas la même chose. Je dis que c'est possible. Qu'on décide collectivement, démocratiquement, de le faire ou pas, c'est une autre question.

On en prend le chemin ?

Oui. Un robot comme COG, quand même, c'est un grand pas vers une machine du niveau d'un chien. Regardez ce qu'on peut faire avec des petits robots, c'est assez impressionnant.

Et pourquoi le fait-on ?

Pour les mêmes raisons que dans les autres champs scientifiques : en partie, parce que c'est passionnant à faire, que c'est fascinant, et en partie parce qu'il y a de gros contrats derrière, par exemple pour expédier de telles machines sur Mars.
1 Wired, mars 1998.

2 Esther Thelen et L. Smith, A Dynamical Systems Approach to the Development of Cognition and Action , MIT Press, Cambridge, 1993.

3 E. Thompson, A. Palacios et F. Varela, « Ways of coloring: Comparative color vision as a case study in cognitive science », Beh. Brain Sciences , 15 , 1, 1992.

4 T. Nagel, « What is like to be a bat ? », Philosophical Review , 83 , 435, 1974.

5 Derek Denton, L' É mergence de la conscience, Flammarion, coll. « Champs », 1995.
NOTES
*JEAN PIAGET 1896-1980, psychologue suisse, a notamment décrit les stades du développement intellectuel de l'enfant.

*LE JURASSIQUE est la période de l'ère secondaire qui s'est écoulée de ­205 à ­135 millions d'années.

 

 DOCUMENT       larecherche.fr

 
 
 
initiation musicale toulon  

NEURONE

 


 

 

 

 

Neurone


Cellule de base du tissu nerveux, capable de recevoir, d'analyser et de produire des informations. (La partie principale, ou corps cellulaire du neurone, est munie de prolongements, les dendrites et l'axone.)

Le neurone, ou cellule nerveuse, est l'unité fonctionnelle du système nerveux. Sa configuration cellulaire spécifique le rend capable de générer, de transmettre et/ou de recevoir des informations sous forme de signaux électriques (influx nerveux).
Le système nerveux est très complexe : ses quelque cent milliards de cellules (1011, à un facteur de 10 près) peuvent être classées en plus de 1 000 catégories, chacune comprenant plusieurs sous-classes selon des critères incluant leur taille, leurs arborisations, les contacts afférents ou efférents. Cette apparente complexité masque en fait une grande similitude fonctionnelle, la particularité de chaque cellule reposant principalement sur sa position dans un circuit donné.
On peut dès lors essayer de mieux comprendre le système nerveux à partir de propriétés simples des cellules qui le composent : les mécanismes qui donnent naissance aux potentiels d'action neuronaux, les modes de transmission synaptique, les interactions fondamentales entre neurones et cellules gliales.
En effet, les neurones sont entourés d'autres cellules : les cellules gliales (du grec gloios, « glu ») – elles ont longtemps été considérées comme de simples éléments de remplissage entre les neurones. On compte environ dix fois plus de cellules gliales que de neurones, et il est clair aujourd'hui que leurs fonctions, essentielles à l'activité neuronale, sont multiples.
Les compartiments du neurone

Le neurone est constitué de quatre grandes régions : le corps cellulaire, ou soma, les dendrites, les axones et les terminaisons présynaptiques. Chacune de ces différentes régions joue un rôle bien défini dans l'initiation et le transport de l'information.
Le soma, qui contient le noyau du neurone, en est le centre métabolique, car il comprend aussi toute la machinerie de synthèse de ses différents constituants. Du corps cellulaire partent deux sortes de prolongements, les dendrites et l'axone.
Les dendrites, qui se ramifient au point de former un arbre touffu autour du corps cellulaire (arbre dendritique), sont les voies par lesquelles l'information arrive. Elles sont le siège d'une activité métabolique intense et d'une synthèse protéique active : la microscopie électronique permet d'y distinguer des mitochondries en abondance, ainsi qu'un réticulum endoplasmique rugueux, porteur de nombreux ribosomes.

L'axone, prolongement au diamètre constant (de 0,2 à 20 μm), peut atteindre 1 m de longueur. Il est la voie privilégiée de sortie de l'information, et, contrairement aux dendrites, l'activité métabolique y est peu importante. L'axone transporte en revanche les macromolécules stockées dans des vésicules, ou organelles, au sein du corps cellulaire. Dans certains cas, ce transport permet une maturation de la molécule, importante pour sa fonction.
Près de sa terminaison, l'axone se divise en fines ramifications, les terminaisons présynaptiques. Ces dernières sont le site de stockage des neurotransmetteurs, qui vont permettre le transfert de l'information aux dendrites du neurone postsynaptique.


L’influx nerveux

L'une des propriétés essentielles du neurone est sa capacité à produire, puis à acheminer loin du corps cellulaire, une information sous la forme d'un groupe d'impulsions électriques, les potentiels d'action.
Décrite dès 1849 par le biologiste allemand Emil Du Bois-Reymond (1818-1896), cette aptitude résulte des propriétés de la membrane cellulaire du neurone et des protéines qu'elle contient. Les protéines membranaires des cellules de l'organisme peuvent être regroupées en cinq grandes familles : les pompes, les canaux, les récepteurs, les enzymes et les protéines de structure.
Les échanges d'ions entre le neurone et son milieu
Les pompes utilisent l'énergie produite à partir de la dégradation des sucres pour déplacer activement des ions et d'autres molécules contre leur gradient de concentration (un gradient est créé de fait par les différences de concentration d'une substance de part et d'autre d'une membrane ; celle-ci peut être traversée passivement – sans nécessiter de pompes – par les ions, du milieu le plus concentré vers le moins concentré, c'est-à-dire dans le sens du gradient). La composition ionique du milieu intracellulaire est différente de celle du milieu extracellulaire, et ce pour toutes les cellules de l'organisme. À l'intérieur d'un neurone, il y a dix fois plus de potassium et dix fois moins de sodium qu'à l'extérieur.
La pompe Na-K-ATPase échange trois ions sodium de l'intérieur contre deux ions potassium de l'extérieur. Ces échanges ioniques induisent une différence de potentiel au niveau de la membrane ; celle-ci a un potentiel d'environ 60 mV.
Le potentiel transmembranaire
Comme le milieu intérieur, concentré en protéines chargées négativement, est négatif, et que le milieu extracellulaire, choisi comme référence, est à zéro, le potentiel de repos d'un neurone se situe à − 60 mV. Cette valeur est prise comme base à partir de laquelle les variations traduisent l'apparition d'une information.
Toute augmentation (en valeur absolue) du potentiel transmembranaire (de − 60 à − 70 mV, par exemple) est une hyperpolarisation ; inversement, une diminution de potentiel (de − 60 à − 50 mV, par exemple) est une dépolarisation.
L'hyperpolarisation éloigne du seuil d'apparition d'un potentiel d'action, tandis que la dépolarisation est l'étape initiale pouvant donner naissance, si elle est suffisamment intense, à la « décharge » du neurone : le potentiel d'action. Lorsqu'un signal atteint le neurone, il en résulte une hyper- ou une dépolarisation.
Dans le premier cas, on parle de signal inhibiteur, tandis qu'il est excitateur dans le second. Le stimulus peut être de toute nature : lumière, bruit, odeur, étirement musculaire, molécule chimique libérée par un autre neurone, etc. Il en résulte une perturbation du potentiel de repos de faible amplitude (moins de 10 mV), locale et graduée : locale, car la résistance passive de la membrane limite la diffusion de la perturbation ; graduée, car le changement de potentiel est proportionnel à l'intensité de la stimulation ; on parle de potentiel de récepteur et/ou de potentiel synaptique.
L'ensemble des potentiels qui atteignent un même neurone est intégré au niveau d'une zone spécialisée de la membrane, appelée trigger zone, ou zone gâchette. C'est là que la sommation des hyper- et/ou des dépolarisations élémentaires se transforme ou non en un potentiel d'action.
La naissance du potentiel d'action
Le potentiel d'action est une dépolarisation ample (jusqu'à 110 mV), brève (1/1 000 s), générée selon la loi du « tout ou rien », et propagée activement le long du neurone et de l'axone sans diminution d'amplitude.
Dans le courant des années 1950, Alan L. Hodgkin, Andrew F. Huxley et Bernard Katz démontrèrent, sur l'axone géant de calmar, que la propagation de l'influx nerveux coïncidait avec un brusque changement de la perméabilité membranaire aux ions sodium (Na+) et potassium (K+). Au repos, la membrane est principalement perméable au potassium (on parle de conductance potassique), qui passe par des canaux dits « de fuite ». Hodgkin et Katz avancèrent l'hypothèse que l'influx nerveux modifie la conductance, car il entraîne l'ouverture brutale des canaux sodiques sensibles au potentiel de la membrane. Ces derniers s'ouvrent dès que la différence de voltage atteint un seuil de − 55 mV, et laissent entrer massivement le sodium dans le sens de son gradient ; cette entrée est à l'origine du potentiel d'action, le flux de sodium ouvre davantage de canaux Na+, facilitant ainsi le passage d'autres ions sodium.
La dépolarisation s'amplifie alors jusqu'à activer les canaux K+, sensibles à des valeurs de potentiel proches de 0 mV : le flux sortant de potassium compense le flux entrant de sodium. Le potentiel membranaire reprend sa valeur initiale. Les pompes Na-K-ATPase rétablissent les gradients initiaux au cours d'une phase dite « réfractaire », durant laquelle aucun potentiel d'action ne peut être produit.


La propagation de l'influx nerveux
À partir de la trigger zone, le potentiel d'action avance vers l'extrémité de l'axone à grande vitesse. Toutefois, en raison des pertes dues aux résistances de membrane, ce potentiel doit être régénéré de façon active tout au long de son parcours. Au cours de l'évolution, deux stratégies ont été mises en place par les organismes vivants pour augmenter la vitesse de conduction de l'information le long de l'axone.
Chez certaines espèces, l'augmentation du diamètre de la fibre a été poussée à l'extrême : il atteint 1 mm chez le calmar géant, et peut être vu à l'œil nu – ce caractère évolutif, à l'origine d'un encombrement spatial important, n'est pas compatible avec le nombre de neurones observés dans le cerveau des vertébrés supérieurs.
Chez les mammifères, la vitesse de propagation de l'influx nerveux est augmentée par la présence d'une gaine de myéline autour de l'axone ; cette enveloppe protéique et lipidique, qui s'enroule sur une dizaine de couches, est synthétisée par les cellules gliales spécialisées du système nerveux central, les oligodendrocytes, et par celles du système nerveux périphérique, les cellules de Schwann. La diminution de la résistance passive de la membrane est telle que le potentiel d'action est transporté cent fois plus rapidement : il avance alors de façon saltatoire, en bondissant le long de l'axone, d'un nœud de Ranvier (zone non myélinisée à la jonction entre deux cellules myélinisantes) à l'autre.
Le transfert de l’information d’une cellule à l’autre
image: http://www.larousse.fr/encyclopedie/data/images/1315155-Transmission_de_linflux_nerveux.jpg
Transmission de l'influx nerveux
Transmission de l'influx nerveux
Le transfert de l’influx nerveux d’un neurone à l’autre, ou, en fin de circuit, d’un neurone à une cellule effectrice (cellule musculaire par exemple), se fait au niveau d’une zone de jonction appelé synapse. Il existe deux types de synapses : les synapses chimiques et les synapses électriques. Les premières, majoritaires, font appel à des molécules messagers appelées neuromédiateurs.


→ synapse
Les cellules gliales, partenaires du neurone
Les oligodendrocytes et les cellules de Schwann, nécessaires à la transmission rapide du potentiel d'action, forment une gaine isolante, la myéline ; sa destruction par la maladie (sclérose en plaques) induit une grave perturbation de l'activité neuronale, qui peut conduire à la disparition du neurone.
Les cellules de la microglie, qui assurent la défense immunitaire du système nerveux, sont des cibles privilégiées pour les virus, comme celui responsable du sida. De plus, elles ont un rôle important lors du développement embryonnaire, en éliminant les cellules et les terminaisons surnuméraires, et lors des phénomènes de sénescence.
Les cellules endothéliales, qui bordent les vaisseaux cérébraux, sont responsables de la barrière hémato-encéphalique ; celle-ci isole le système nerveux de la circulation sanguine générale, le protégeant ainsi de l'arrivée de nombreux toxiques et agents infectieux.
Les astrocytes représentent la principale population gliale, et leurs rôles apparaissent aujourd'hui multiples. Lors du développement, ils participent au guidage et au positionnement des neurones. Ils possèdent une capacité de captation rapide du potassium extracellulaire, permettant une rapide repolarisation neuronale et la régénération du potentiel d'action. Ils approvisionnent en substrats énergétiques le neurone, isolé de la circulation sanguine. De plus, ils expriment de nombreux récepteurs pour les neurotransmetteurs libérés par les neurones, les rendant ainsi aptes à prendre une place – qui reste à mieux comprendre – dans les processus de transmission de l'information au sein du système nerveux.
Neurone et intelligence artificielle
Imiter le système nerveux au moyen d'une machine n'est pas une idée nouvelle, mais ce projet connaît aujourd'hui un fort développement grâce à l'informatique, l'ordinateur permettant de tester, de simuler les hypothèses émises par les chercheurs. Et c'est à l'échelle de la cellule nerveuse, ou neurone, que les chercheurs en neuro-mimétisme ont décidé de se placer pour réaliser la copie de la structure du système nerveux. L'ordinateur sert en particulier à faire fonctionner les modèles construits par les mathématiciens à partir des observations et des réflexions fournies par les physiologistes. Ce modèle mathématique du neurone, que l'on appelle le « neurone formel », est dupliqué pour constituer un réseau.

 

 DOCUMENT      larousse.fr     LIEN

 

 
 
 
initiation musicale toulon  

LE DARWINISME ÉVOLUE AUSSI ...

 

Biologie :Le darwinisme  évolue aussi
Eva Jablonka dans mensuel 396


La biologie de l'évolution est en pleine transformation. Tout en respectant les fondements énoncés par Darwin, la théorie prend des directions inédites, à la pointe des recherches actuelles.
Contrairement à ce qu'affirment les créationnistes partisans du dessein intelligent, la biologie de l'évolution ne repose pas sur des dogmes figés. C'est une science qui sait se remettre en question. Ainsi, depuis quelques années, de plus en plus de biologistes proposent de remplacer le paradigme qui a dominé la théorie de l'évolution dans la seconde moitié du XXe siècle, la « théorie synthétique de l'évolution », par ce que j'appellerai, en accord avec ma collègue Marion J. Lamb, un « nouveau darwinisme ».

La théorie synthétique a été élaborée dans les années 1940, notamment par Theodosius Dobzhansky et Ernst Mayr. Elle réalise, comme son nom l'indique, une synthèse, mariant la théorie darwinienne de l'évolution avec la génétique de l'époque. Ses deux piliers principaux sont le gène et le hasard : les variations héréditaires, matière première sur laquelle s'exerce la sélection naturelle, sont exclusivement fondées sur des variations des gènes. En outre, celles-ci apparaissent totalement au hasard, sans relation avec les fonctions biologiques dans lesquelles elles pourraient être impliquées.

Une cascade de pourquoi
Quand j'ai commencé à étudier la biologie de l'évolution dans les années 1970, en bonne darwiniste, j'adhérais à cette théorie. Toutefois, en tout aussi bonne darwiniste, je ne pouvais pas me départir d'un doute. Pourquoi l'unique mécanisme de l'évolution qui échappait à la main invisible et inlassable de la sélection naturelle était-il justement celui qui engendrait les variations héréditaires ? Pourquoi celles-ci apparaissaient-elles entièrement au hasard ? La sélection naturelle aurait modelé l'oeil de l'aigle, le cerveau humain et le code génétique, mais n'aurait produit aucun mécanisme augmentant l'apparition de variations héritables dans des circonstances où c'était l'intérêt des organismes ; ni aucun mécanisme qui oriente ces variations dans une direction favorable à la survie et à la perpétuation des organismes. Pour moi, cela n'avait pas de sens.

Je n'étais pas la seule à avoir de tels doutes, et dans les années 1980 et 1990, de nombreux travaux sont venus les étayer. Ainsi, lors de la conférence qu'elle prononça en 1983, à l'occasion de la réception du prix Nobel de physiologie et de médecine, l'Américaine Barbara McClintock résuma son point de vue sur le sujet [1] . Elle rappela en particulier que des plants de maïs soumis à des conditions de stress, irradiation, attaque par des pathogènes ou des parasites, subissent plus de mutations que des plants non stressés. De la même façon, lorsque l'on affame des bactéries, la fréquence de mutation augmente.

Des paris génétiques intelligents
Dans ces deux exemples, davantage de mutations sont produites dans des circonstances où l'on peut penser que certains individus mutants auraient plus de chances de survivre et de se reproduire. Mais cette augmentation de la fréquence de mutation est-elle vraiment une adaptation à des conditions de vie plus difficiles, ou seulement la réaction normale d'un système biologique sur le point de s'effondrer ?

Les travaux récents d'un groupe de biologistes français laissent penser que la première hypothèse est la bonne : la sélection naturelle interviendrait dans la détermination des fréquences de mutation des bactéries [2] . Ils ont découvert en effet que des populations naturelles de bactéries diffèrent par leurs fréquences de mutation induites dans des conditions de stress. En outre, plus les conditions écologiques dans lesquelles vivent naturellement ces bactéries sont difficiles, plus grande est la fréquence de mutation. Cette découverte, appuyée sur la compréhension des mécanismes moléculaires sous-jacents et sur des simulations informatiques, suggère que la capacité à muter serait une adaptation modelée par la sélection naturelle.

Comme l'a écrit la biologiste américaine Lynn Caporale, « le hasard favorise le génome préparé » [3] . En l'occurrence, le génome a été « préparé » par la sélection naturelle, qui a conduit à des mécanismes engendrant des mutations dans des circonstances où elles ont des chances d'être avantageuses. En d'autres termes, la sélection a fait émerger la capacité de faire des paris génétiques intelligents !

Transmission entre cellules
Depuis vingt-cinq ans, d'autres travaux au niveau cellulaire ont aussi considérablement éclairci les mécanismes de ce que le généticien britannique Robin Holliday a nommé dans les années 1980 l'« hérédité épigénétique * ». Il s'agit de la transmission entre cellule parente et cellule fille de caractéristiques qui ne dépendent pas de différences dans les séquences d'ADN, par exemple le profil d'expression des gènes lesquels sont actifs ou inactifs dans un type de cellules donné. L'hérédité épigénétique est ainsi responsable du fait que, lorsque l'une de nos cellules hépatiques se divise, elle produit d'autres cellules hépatiques, et lorsque l'une de nos cellules épidermiques se divise, elle produit d'autres cellules épidermiques, bien que toutes nos cellules, hépatiques, épidermiques ou autres, aient toutes le même ADN.

Les mécanismes épigénétiques les mieux connus sont ceux qui assurent la transmission des profils d'expression des gènes, même lorsque les stimuli qui ont mis en place ces derniers ont disparu depuis longtemps. Leur fondement biochimique est essentiellement la liaison avec l'ADN de molécules et de groupements chimiques particuliers, liaisons maintenues et dupliquées pendant la division cellulaire.

Étonnamment, chez des organismes pluricellulaires, des variations épigénétiques sont parfois transmises par les cellules sexuelles, qui forment la génération suivante. La conséquence de l'héritabilité épigénétique est donc que des cellules ou des organismes qui ont des ADN identiques et qui vivent dans des conditions semblables peuvent néanmoins avoir des phénotypes * héritables différents. Leurs différences résultent de différences dans l'histoire du développement de leurs ancêtres.

La forme d'une fleur
Cette découverte contredit les exclusivités des gènes et du hasard défendues par la théorie synthétique. Par définition, les variations épigénétiques héritables ne résultent pas de modification de l'ADN. Et des preuves expérimentales montrent qu'elles sont, selon les cas, les conséquences du hasard ou de stimuli bien identifiés.

L'un des exemples les plus fascinants de variation épigénétique héritable concerne la forme d'une fleur. Il y a deux siècles et demi, le botaniste suédois Carl Linné décrivit une variante stable de la linaire commune Linaria vulgaris. La structure de la fleur était si différente de celle de la linaire ordinaire qu'il la classa comme une nouvelle espèce, Peloria, utilisant le mot grec qui signifie « monstre ».

Un gène inactivé
Au XXe siècle, les généticiens pensèrent naturellement qu'une mutation génétique était responsable de la forme de Peloria. Toutefois, lorsque Enrico Coen et ses collègues du centre John Innes, à Norwich, en Angleterre, ont comparé les séquences d'ADN de la linaire vulgaire et de Peloria, ils n'ont trouvé aucune différence. En revanche, un gène très important est inactivé chez Peloria, et cette inactivation est héréditaire [4] . La Peloria de Linné n'était donc ni une nouvelle espèce ni le résultat d'une mutation : elle tirait son origine d'une modification épigénétique héritable, une « épimutation ». Nous ne savons pas quel événement a déclenché cette épimutation, hasard ou réponse à un stimulus particulier, tel qu'un stress local durable. Mais nous constatons que la transmission de génération en génération ne requiert pas la répétition de cet événement.

Des exemples d'héritabilité épigénétique ont aussi été trouvés chez des mammifères. Ainsi, Emma Whitelaw et ses collègues de l'université de Sydney ont étudié, chez la souris, un gène connu sous le nom d'agouti, impliqué dans la coloration du pelage [5] . Plus précisément, ils se sont intéressés à l'une des variantes de ce gène, associée à une coloration jaune : le pelage des souris qui portent cette variante peut être plus ou moins jaune. Cette coloration est transmise par les femelles à leurs petits. Toutefois, les différences d'intensité du jaune selon les lignées ne résultent pas de différences dans l'ADN lui-même, mais de différences dans des groupements chimiques attachés à l'ADN et qui modifient son activité : c'est une épimutation.

Mieux encore, la couleur du pelage est modifiable par l'alimentation de la mère. Si des femelles jaunes gravides sont nourries avec des aliments riches en groupements méthyl * , leurs petits sont moins jaunes plus « gris souris », et ce trait est transmis à leur descendance. En d'autres termes, des conditions environnementales produisent des changements héritables de l'état épigénétique, qui sont transmis aux générations suivantes. Le point important à retenir à propos de ces découvertes, pour la biologie de l'évolution, est que les conditions environnementales n'interviennent pas seulement dans la sélection des variations : elles peuvent aussi les produire.

Le rôle de l'apprentissage
Jusqu'ici, nous sommes restés au niveau cellulaire, seul pertinent si l'on ne considère que les variations physiologiques. Toutefois, pour ce qui concerne les comportements, la transmission entre générations s'opère aussi, plus directement, à travers l'apprentissage. Nous disposons aujourd'hui, grâce aux observations éthologiques, de nombreux exemples d'apprentissage social. Ainsi, les dialectes des oiseaux et des baleines sont transmis de génération en génération, plus ou moins de la même façon que le langage humain. On a aussi confirmé l'existence de traditions dans des groupes d'animaux, tels que les chimpanzés. Dans neuf populations est-africaines de chimpanzés, trente-neuf phénotypes comportementaux différents ont ainsi été identifiés, dont on pense qu'ils sont transmis par des interactions sociales [6] . Certains groupes ouvrent des noix avec une pierre, d'autres pêchent des termites avec une baguette, d'autres encore se touchent les mains d'une façon très particulière.

Traditions sociales
Les nombreux exemples analogues d'apprentissage social et de traditions de groupes laissent penser que beaucoup de

différences dans les phénotypes comportementaux sont culturelles, transmises par apprentissage social plutôt que par des différences génétiques. Cela a plusieurs conséquences pour la théorie de l'évolution. Contrairement aux gènes, qui ne sont transmis qu'aux descendants, les comportements appris peuvent être transmis à des individus non apparentés. En outre, les nouvelles variations ne sont pas produites au hasard, et pendant leur transmission les comportements appris sont reconstruits et adaptés aux conditions en vigueur. L'environnement a donc un effet important à la fois sur l'origine et sur la transmission de ces variations comportementales, et donc sur la vitesse et la direction de l'évolution comportementale. De plus, comme les traditions sociales forment un aspect important de l'environnement sélectif dans lequel vivent les membres d'un groupe social, elles doivent aussi affecter l'évolution biologique [7] .

En ce qui concerne les sociétés humaines, personne ne doute de la réalité ni de l'importance de la transmission culturelle, ni de l'importance du langage et d'autres formes de communication symbolique dans notre évolution. Nos nombreuses langues sont des produits évidents de l'évolution culturelle, et l'abondante littérature ethnologique et anthropologique témoigne de la richesse et de la diversité des cultures qui se sont développées. Il y a, à l'évidence, une dimension historique non génétique de l'évolution culturelle humaine, qui doit avoir interagi avec l'évolution génétique. Par exemple, l'interaction évolutive entre les systèmes génétiques et culturels est probablement responsable de notre capacité à acquérir et à utiliser le langage si vite et si facilement quand nous sommes enfants [8].

Le nouveau darwinisme, qui prend en compte toutes ces dimensions, élargit donc la perspective dessinée par la théorie synthétique. D'abord, l'évolution ne repose pas exclusivement sur la sélection de variations génétiques : des variations épigénétiques, comportementales ou transmises par des symboles interviennent aussi. Ainsi, la définition donnée par Dobzhansky : « L'évolution est le changement dans la composition génétique des populations », est remplacée par : « L'évolution est l'ensemble des mécanismes conduisant à des changements au cours du temps dans la nature et dans la fréquence

de types héritables dans une population. » Et ici, « types » ne signifie pas seulement « génotypes * ». L'importance relative des différents types de variations dépend du groupe étudié, du trait analysé et de l'échelle de temps choisie.

Ensuite, le nouveau darwinisme affirme que l'apparition de variations héritables n'est pas régie seulement par le hasard : certaines de ces variations sont des réponses à des processus qui se produisent pendant le développement notamment un changement dans l'activité d'un gène ou l'apprentissage. Le nouveau darwinisme soutient enfin que la sélection ne s'exerce pas seulement sur les gènes, mais aussi sur toute entité qui se reproduit et qui développe des traits variables héritables : cellules, individus et groupes d'individus lire « L'unité de sélection », p. 48.

Un changement évolutif rapide
Toutes les conséquences de ce nouveau cadre théorique n'ont pas encore été explorées en détail. Il faudra réviser par exemple l'interprétation de processus évolutifs tels que la formation de nouvelles espèces et l'évolution des organismes multicellulaires. Le fait que des changements héritables induits puissent se produire à plusieurs reprises et concerner de nombreux individus simultanément pourrait aussi

signifier que le changement évolutif est bien plus rapide que ce que l'on considère généralement.

Bien entendu, ce nouveau darwinisme, duquel

pourraient se réclamer aussi Carl Schlichting, de l'université du Connecticut, Massimo Pigliucci, de l'université de Stony Brook, ou Patrick Bateson, de l'université de Cambridge, pour n'en citer que quelques-uns, n'est pas accepté sans d'âpres discussions entre biologistes de l'évolution. Les conséquences évolutives que j'ai esquissées sont examinées de près et sans concessions, comme c'est normal. Et je n'ai aucun doute qu'à mesure que de nouvelles données seront accumulées ce nouveau darwinisme laissera lui-même la place à d'autres formulations théoriques. Le darwinisme n'a pas fini d'évoluer.

En deux mots

Pendant

la seconde moitié du XXe siècle, la biologie évolutionniste a été dominée par la « théorie synthétique

de l'évolution ».

Les gènes

y ont une place prépondérante : supports exclusifs des informations transmises

d'une génération à l'autre, c'est aussi sur eux que s'exerce la sélection naturelle.

Les biologistes reconnaissent aujourd'hui qu'il faut aller

au-delà. D'autres mécanismes que la génétique permettent de coder des informations héritables.
[1] http://nobelprize.org/medicine/laureates/1983/mcclintock-lecture.pdf

[2] I. Bjedov et al., Science, 300, 1404, 2003.

[3] Annals of the New York Academy of Sciences, 870, édité par L.H. Caporale, 1999.

[4] P. Cubas et al., Nature, 401, 157, 1999.

[5] H.D. Morgan et al., Nature Genetics, 23, 314, 1999.

[6] A. Whiten et al., Behaviour, 138, 1481, 2001.

[7] Kevin N. Laland et Isabelle Coolen, « La culture, autre moteur de l'évolution », La Recherche, juillet 2004, p. 52.

[8] D. Dor et E. Jablonka, Selection, 1, 33, 2000.

 

 DOCUMENT      larecherche.fr      LIEN

 
 
 
initiation musicale toulon  

« La biologie de synthèse a besoin de la sociologie »

 

« La biologie de synthèse a besoin de la sociologie »
Marie-Laure Théodule dans mensuel 488


LA RECHERCHE : Quand le concept de biologie de synthèse est-il apparu ?

PIERRE-BENOÎT JOLY : L'expression a été utilisée pour la première fois au début du XXe siècle par un chimiste français, Stéphane Leduc. Ce dernier réalise alors des expériences où il tente de créer des cellules artificielles pour mieux comprendre le vivant. Et il les décrit dans La Biologie synthétique, ouvrage publié en 1912. Il s'en suit une série de travaux tout au long du XXe siècle, dont l'objectif est de fabriquer une cellule primitive, une protocellule.

Mais, un tout autre courant va naître au début du XXIe siècle à la suite des avancées majeures de la génomique. On peut situer son commencement en 2004, année où une fondation nommée « BioBricks » organise au MIT, aux États-Unis, la conférence Biologie synthétique 1.0, qui va réunir 500 personnes dès sa première édition.

En quoi ce courant se démarque-t-il du précédent ?

P.-B.J. L'objectif principal n'est plus de comprendre le vivant, mais de fabriquer des organismes artificiels dotés de fonctions complexes permettant de résoudre certains problèmes. Ils auront par exemple un meilleur rendement énergétique que des organismes naturels ou bien ils synthétiseront de nouvelles molécules thérapeutiques. Pour cela, la biologie de synthèse s'appuie sur les outils de la génomique : séquençage des génomes à grande échelle, synthèse et assemblage de séquences d'ADN, etc. Mais elle ambitionne d'aller beaucoup plus loin en utilisant les méthodes de l'ingénieur pour produire plus vite et à moindre coût des organismes artificiels. Car aujourd'hui on sait seulement introduire de manière artisanale quelques gènes dans une cellule pour fabriquer des organismes génétiquement modifiés (OGM).

Qu'apportent de plus les méthodes de l'ingénieur ?

P.-B.J. Comme il s'agit d'introduire une cascade de gènes voire un génome entier dans une cellule, l'idée est de s'aider des outils mathématiques et informatiques utilisés par les ingénieurs pour comprendre et modéliser les interactions de ces gènes. À terme, on espère concevoir des systèmes biologiques à partir de composants standardisés et avec des méthodes elles-mêmes standardisées, comme on le fait en électronique. Concrètement, on programme le développement d'un nouveau système biologique en quatre phases : la conception (développement d'un modèle mathématique du système biologique et simulation), la construction avec la volonté de standardiser les procédés et les composants pour gagner du temps, puis la mise en oeuvre et la validation. Cette dernière étape peut conduire à réviser la modélisation initiale.

Cela a-t-il déjà donné des résultats ?

P.-B.J. Il y a eu des avancées spectaculaires. En suivant une approche dite « top-down » - concevoir un génome minimal auquel on pourra ajouter en fonction des besoins des séquences de gènes conçues par ordinateur - le biologiste américain Craig Venter a créé en 2010 une bactérie au génome synthétique de 1,08 million de paires de bases (l'enchaînement des lettres qui constituent l'alphabet de l'ADN) [1]. Et en mars 2014, une équipe internationale dirigée par Jef Boeke, de l'université de New York, a réussi à synthétiser l'un des seize chromosomes de la levure du boulanger [2]. C'est une étape cruciale vers la synthèse du génome d'un eucaryote, une forme du vivant bien plus complexe que de simples bactéries. Une autre approche dite « bottum-up » consiste à standardiser des séquences de gènes dans le but d'appareiller des bactéries ou des levures avec ces briques. À l'origine de cette démarche, la Fondation BioBricks a créé une base de données de séquences qu'elle met à la disposition de la communauté scientifique en accès libre, à l'image des logiciels en open source. Elle a lancé le concours international Igem destiné aux étudiants de premier cycle universitaire afin qu'ils conçoivent des systèmes biologiques artificiels à partir de ces briques.

Ce concours a-t-il un effet d'entraînement ?

P.-B.J. Il stimule la créativité des étudiants avec son approche à la fois boy-scout et branchée. Pour concourir, il faut constituer une équipe pluridisciplinaire incluant au moins un spécialiste de sciences humaines, présenter un site web, un concept voire un prototype. En 2013, pour la première fois, une équipe française soutenue par le Centre de recherche interdisciplinaire du biologiste François Taddei, de l'université Paris-Descartes, a remporté le prix. Ils ont montré comment une bactérie de laboratoire pouvait accélérer la détection de molécules contre la tuberculose [3]. En parallèle, avec une étude sur la parité homme/femme dans la recherche, ils ont révélé que les équipes Igem, qui respectent le plus la parité, sont aussi celles qui obtiennent les meilleurs résultats au concours.

Au-delà de ces démarches pionnières, y a-t-il déjà des réalisations commerciales ?

P.-B.J. La réponse à votre question est l'objet d'une polémique. L'équipe de Jay Keasling de l'université de Californie, à Berkeley aux États-Unis, a réussi en 2003 à transférer dans des bactéries et des levures les douze gènes de l'artémisinine, molécule antipaludéenne naturellement synthétisée par une plante, l'armoise. Depuis, le processus de production est en cours d'industrialisation chez Sanofi Aventis. Certains, dont Jay Keasling, considèrent qu'il s'agit du premier produit de la biologie de synthèse. Mais d'autres, même s'ils saluent l'exploit (réussir à transférer douze gènes soit bien plus qu'auparavant) font remarquer à raison que la méthode employée est finalement assez classique. Chaque gène a été introduit un à un « à la main » sans recourir aux méthodes prônées par la biologie de synthèse, censées rendre ce travail beaucoup plus facile et rapide, donc moins coûteux.

Des sociologues ont été associés dès le départ à ce domaine. Pourquoi ?

P.-B.J. Beaucoup de biologistes ont été traumatisés par les craintes suscitées par les OGM. Cela a conduit à favoriser dès le départ une meilleure interaction entre la biologie synthétique et les sciences humaines et sociales, notamment la sociologie. Cette démarche s'inscrit dans le cadre des bonnes pratiques du financement de la recherche, lancées avec le projet de séquençage du génome humain au début des années 1990 et généralisées depuis lors au niveau international : tout programme de recherche touchant au vivant doit consacrer de 3 % à 5 % de ses ressources aux aspects éthiques, légaux et sociaux. On pense ainsi renforcer l'acceptabilité de la nouveauté.

Comment cela se traduit-il concrètement ?

P.-B.J. Dans les pays anglo-saxons, certains sociologues sont « embarqués » : ils travaillent au côté des biologistes au sein de leurs laboratoires. Ainsi, au Royaume-Uni, une sociologue française, Claire Marris, est actuellement embarquée dans un programme de recherche interdisciplinaire qui associe deux établissements londoniens l'Imperial College, pour la biologie, et King's College pour les sciences humaines. Son travail porte en particulier sur les questions de risque et de propriété intellectuelle. Dans ce cadre, elle a récemment organisé un colloque sur le thème : « L'open source en biologie de synthèse ». Autre exemple, aux États-Unis, l'anthropologue américain Paul Rabinow a été embarqué dans SynBERC, consortium dédié à la biologie de synthèse lancé en 2006 par Jay Keasling à l'université de Californie. Mais ce projet s'est terminé par un conflit.

Que s'est-il passé ?

P.-B.J. Paul Rabinow était censé contribuer à l'établissement de nouvelles règles concernant la biosécurité ou l'éthique de la recherche en observant les chercheurs associés à SynBERC et en interagissant avec eux. Or son projet n'a jamais abouti. Selon les biologistes, Paul Rabinow se contentait d'observer sans vraiment rien produire d'original. Selon ce dernier, ses propositions étaient refusées parce qu'elles impliquaient des changements de pratiques qui auraient pu retarder les chercheurs et les handicaper dans la compétition internationale. Au-delà de la polémique, cet exemple est révélateur de la difficulté qu'il y a à faire travailler ensemble biologistes et sociologues.

Et vous, avez-vous une approche différente ?

P.-B.J. Dans mon laboratoire, nous étudions la biologie de synthèse en ayant recours aux outils classiques des sciences sociales. Par exemple, nous utilisons la bibliométrie, et des enquêtes et des observations sur le terrain afin de saisir les caractéristiques de ce champ émergent. Nous avons montré qu'il est de petite dimension : environ 3 000 articles ont été publiés au total sur le sujet depuis environ dix ans, contre plusieurs millions pour les nanosciences et les nanotechnologies ! Mais le taux de croissance des publications est très élevé, de 20 % à 30 % par an. Cependant, sur les 10 000 auteurs qui apparaissent dans le corpus, une minorité est spécialisée en biologie de synthèse : 70 % ont publié une seule fois sur le sujet. En revanche, les 100 articles les plus cités appartiennent bien au domaine, car leurs auteurs travaillent dans des laboratoires états-uniens, développent des approches bottom-up et sont rattachés à un noyau d'institutions qui jouent un rôle crucial dans la structuration de ce domaine, le concours Igem, les conférences, la Fondation BioBricks, etc. Le champ a donc déjà une forte autonomie.

Mais s'agit-il d'une discipline à part entière ?

P.-B.J. C'est un champ avec beaucoup d'intermittents qui viennent d'autres domaines que la biologie (informatique, mathématiques, ingénierie), et caractérisé par l'importance des recherches liées aux applications. Cela ne suffit pas pour en faire une discipline à part entière. Il lui manque des caractéristiques institutionnelles : un enseignement spécifique, des diplômes, des professeurs, une société savante, des colloques. En France, vous ne pouvez pas dire qu'une discipline existe si elle ne possède pas ces caractéristiques. C'est différent dans les pays anglo-saxons, où le verrou institutionnel est moins fort. Le second problème est qu'une discipline scientifique se construit en général autour d'une énigme centrale à résoudre. La biologie synthétique se construit, elle, autour d'une promesse.

Autour d'une promesse, que voulez-vous dire ?

P.-B.J. La promesse porte sur la santé, l'énergie, la chimie verte et l'environnement avec l'objectif de concevoir des molécules synthétiques pour tous ces secteurs. C'est pourquoi des scientifiques considèrent qu'il ne s'agit pas d'une science, mais d'une technologie qui s'inscrit dans la droite ligne des biotechnologies. Certains vont jusqu'à dire que la biologie de synthèse n'existe pas. Au contraire, ceux qui y croient prétendent qu'elle va révolutionner le génie génétique en le rendant plus simple, plus accessible et plus créatif. En tant que sociologue, nous constatons que science et technologie sont tellement imbriquées dans ce domaine qu'on peut le considérer comme une « technoscience ».

La biologie de synthèse n'est-elle pas un peu survendue ?

P.-B.J. Son ambition est si élevée que cela peut en effet générer des effets pervers. Pour avoir des crédits on fait miroiter des applications utiles à l'homme. Si ces attentes ne sont pas satisfaites, on provoquera des déceptions, qui affecteront en retour le domaine. Autre exemple, le champ se développe dans l'idée que la seule source de solutions aux grands problèmes actuels de la planète, c'est la science et la technologie. Or il faut aussi des transformations sociales. Ainsi, on peut avoir une science médicale qui progresse et des conditions d'accès aux soins qui se dégradent, comme aux États-Unis. En résumé, la biologie de synthèse suscite des attentes mais aussi des craintes, qui sont toutes démesurées.

Certaines craintes ne sont-elles pas justifiées ?

P.-B.J. La biologie de synthèse suscite trois types de craintes classiques dès que l'on touche au vivant : les risques de contamination et de bioterrorisme, les dangers d'ordre plus ontologique qu'il y aurait à réduire le vivant à des machines et à brouiller les frontières entre nature et artifice, et enfin les questions liées aux brevets sur le vivant. Comme ce champ est en émergence, il est trop tôt pour dire si ces craintes sont justifiées. On peut reconnaître qu'elles sont légitimes. Pour en tenir compte, le ministre de l'Enseignement supérieur et de la Recherche a créé en France en 2012 un observatoire de la biologie de synthèse [4]. C'est un lieu d'échange pluridisciplinaire, auquel je collabore. Nous essayons d'associer la société civile à l'émergence du domaine afin de réfléchir à l'impact de son développement sur la société. Il ne faut pas attendre que les chercheurs se mettent d'accord sur ce qu'est la biologie de synthèse pour mener ce type de débat. Au contraire !
* Pierre-Benoît Joly, économiste et sociologue, est directeur de recherche à l'INRA et dirige l'Institut francilien recherche innovation et société. Ce spécialiste de l'étude des sciences et des techniques a écrit avec Christian Bonneuil Sciences, techniques et société, ouvrage paru en 2013 aux éditions La Découverte. Il est également coauteur de « Biologie de synthèse : conditions d'un dialogue avec la société », rapport commandé en 2011 par le ministère de l'Enseignement supérieur et de la Recherche.


 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google