|
|
|
|
 |
|
COMMENT SE FORMENT NOS HABITUDES |
|
|
|
|
|
Comment se forment nos habitudes
spécial mémoire - par Hélène Beaunieux dans mensuel n°432 daté juillet 2009 à la page 50 (1881 mots) | Gratuit
Jongler fait appel à la mémoire procédurale. C’est la mémoire des savoir-faire, qui nous permet d’accomplir automatiquement certaines activités physiques, verbales ou cognitives routinières.
Selon quels processus acquérons-nous tous nos savoir-faire ? Leur identification permet le développement de nouvelles techniques d’apprentissage pour certaines personnes amnésiques.
EN DEUX MOTS : La mémoire procédurale permet d’accomplir automatiquement des activités physiques, verbales et cognitives routinières. Identifiée il y a déjà plusieurs siècles par les philosophes, elle fait actuellement l’objet de nombreux travaux de recherche. Ils ont permis de déterminer la façon dont elle interagit avec d’autres types de mémoire, telle la mémoire des évènements.
La journée a été longue, et le travail harassant. Le soir venu, fort heureusement, votre voiture emprunte le chemin du retour, et vous conduit jusque chez vous comme si elle était branchée sur pilote automatique. Vous ne vous souvenez plus des circonstances dans lesquelles vous avez appris à conduire. Ni de la première fois où vous avez parcouru cette route. Mais vous la sillonnez sans produire le moindre effort.
De tels automatismes sont actionnés par une mémoire qualifiée de « procédurale » par les neuropsychologues. Elle fait actuellement l’objet de nombreux travaux de recherche. Ces travaux ont conduit à une compréhension plus fine des mécanismes liés au fonctionnement de cette mémoire procédurale, mais aussi des autres types de mémoire avec lesquels celle-ci interagit, telle la mémoire des événements et de leur contexte.
Bergson précurseur
La mémoire procédurale a d’abord été un objet d’intérêt pour des philosophes, à l’instar d’Henri Bergson, en particulier dans son ouvrage Matière et Mémoire, publié en 1896. Bergson n’était pas le premier à s’intéresser à la mémoire sous une forme évoquant les théories cognitives modernes. René Descartes, Pierre Maine de Biran et Théodule Ribot l’avaient fait avant lui. Mais, pour tout neuropsychologue s’intéressant à cette fonction mentale, la lecture de Matière et Mémoire est toujours saisissante.
« Le passé se survit sous deux formes distinctes : dans les mécanismes moteurs et dans les souvenirs indépendants. » Le postulat bergsonien de deux mémoires de natures différentes est en accord avec les modèles actuels de l’architecture de la mémoire humaine. Cette distinction renvoie à celle formulée en 1980 par Neal Cohen et Larry Squire, de l’université de Californie. En montrant que des patients amnésiques pouvaient, malgré tout, apprendre une nouvelle habileté de lecture sans conserver de souvenirs des séances d’apprentissage, ils ont opéré une distinction entre la mémoire déclarative - mémoire du « savoir quoi » - et la mémoire procédurale - mémoire du « savoir comment ».
La mémoire déclarative permet la récupération consciente des événements - mémoire épisodique - et des faits - mémoire sémantique. La mémoire épisodique contient nos souvenirs de vie, comme un accident de trottinette, nos premiers rendez-vous amoureux, etc. Et la mémoire sémantique stocke tout ce que nous avons appris au cours de notre vie : une recette de cuisine ; 1515 : la bataille de Marignan, etc.
La mémoire procédurale correspond, quant à elle, à la mémoire de nos savoir-faire, expressions des procédures cognitives et motrices encodées en mémoire, non accessibles à la conscience et difficilement verbalisables. Elle nous permet d’accomplir, de manière automatique, des activités physiques, verbales ou cognitives routinières. C’est une mémoire qui s’exprime dans l’action.
Les capacités d’apprentissage de nouveaux automatismes par une variété de patients amnésiques ont ainsi été testées au moyen de tâches essentiellement motrices. Outre l’apprentissage de nouveaux automatismes, ces patients amnésiques conservent aussi tous leurs anciens automatismes : conduite automobile, gestes sportifs ou techniques, automatismes de calcul ou stratégie de jeu.
Il semble néanmoins que l’apprentissage de nouveaux automatismes cognitifs soit plus difficile à acquérir pour les patients présentant des troubles de la mémoire épisodique, ce qui est le cas des amnésiques. Ce constat a été réalisé en 1994 par Alan Baddeley et Barbara Wilson, de l’université de Cambridge [1] .
Ils avaient proposé à deux patients amnésiques d’apprendre à utiliser un agenda électronique afin de pallier leurs difficultés à s’orienter dans le temps et de mieux gérer leurs rendez-vous. Pour cela, ils avaient tenté de leur apprendre la procédure de programmation d’un rendez-vous dans un agenda électronique. Contre toute attente, ces deux patients avaient été incapables d’apprendre ce nouvel automatisme : ils commettaient des erreurs lors des premières étapes de cette procédure, et ils étaient incapables, lors de l’essai suivant, de ne pas les commettre à nouveau. Le fait est que les deux patients avaient déjà oublié leurs erreurs, ainsi que les solutions qui leur avaient été proposées sur le moment. Cette observation a conduit à reconsidérer le rôle de la mémoire épisodique dans l’apprentissage de nouvelles habiletés cognitives.
Phase transitoire
Des travaux menés en 2006 par notre laboratoire auprès de sujets jeunes non amnésiques ont, par ailleurs, montré que l’apprentissage d’une nouvelle habileté cognitive était de nature séquentielle, et qu’elle impliquait la mémoire épisodique [2] .
Notre objectif était d’étudier le rôle de certaines fonctions cognitives dans l’encodage d’une action en mémoire procédurale, grâce à une série d’expériences sur des sujets sains à qui nous avons demandé d’automatiser la résolution du problème de la « tour de Toronto ».
Trois tiges sont disposées sur une base rectangulaire. Sur la tige la plus à gauche, quatre disques de couleurs différentes sont enfilés : un noir, un rouge, un jaune et un blanc. Le disque le plus foncé se situe en bas, et le plus clair, sur le dessus. L’exercice consiste à reproduire la même configuration sur la tige la plus à droite, en obéissant à deux règles : ne bouger qu’un seul disque à la fois ; et ne jamais placer un disque foncé au-dessus d’un disque plus clair. L’objectif, pour le sujet, est de découvrir et d’automatiser la procédure de résolution du jeu à force de pratique. Nous avons ainsi démontré que l’apprentissage d’une procédure se déroule en trois étapes distinctes : une étape cognitive, une étape associative et une étape qualifiée d’autonome.
Lors de la première étape, le sujet découvre ce qu’il doit apprendre : il tâtonne et commet de nombreuses erreurs. Puis il passe à l’étape associative, phase transitoire au cours de laquelle il commence à contrôler la tâche à effectuer, sans pour autant l’avoir automatisée. Enfin, pendant la troisième étape, les gestes sont automatisés et atteignent un niveau d’efficacité maximale.
En plus de cet apprentissage, nous avons évalué l’intelligence non verbale des sujets, ainsi que leurs capacités de raisonnement, leurs capacités psychomotrices, leur mémoire de travail et leur mémoire épisodique, à l’aide de différents tests cognitifs.
Erreurs passées
L’examen des corrélations entre le niveau de performance des sujets lors des différentes étapes de la résolution de la tour de Toronto et leurs résultats à ces divers tests a permis de déterminer la contribution de chacune de ces fonctions à l’apprentissage procédural. Ces analyses indiquent que les sujets qui automatisent le plus vite la solution sont également ceux qui possèdent également la meilleure mémoire épisodique.
Nous avons ainsi établi que la mémoire procédurale ne fonctionne de manière autonome que lorsqu’une procédure est totalement automatisée. Les deux premières phases de l’apprentissage nécessitent, en revanche, l’intervention d’autres formes de mémoire : la mémoire épisodique et la mémoire de travail. Le recours à la première permet de se souvenir de ses erreurs passées, et ce faisant, de ne pas les reproduire. Quant à la mémoire de travail, il s’agit d’un registre à court terme, qui permet de visualiser dans son intégralité la séquence à effectuer.
Devant un distributeur automatique de billets, par exemple, l’étape cognitive correspond aux premiers retraits d’argent avec un nouveau code. Nous sommes alors très concentrés. Nous faisons appel à notre mémoire épisodique pour nous souvenir consciemment du code, et éviter les erreurs qui auraient pour conséquence de voir notre carte avalée par le distributeur ! À force d’utilisation, nous avons de plus en plus de facilités à taper ce nouveau code - même s’il nous arrive encore d’avoir une hésitation, ce qui correspond à la phase associative. Puis peut-être au terme de la période des soldes, nous entrons dans la phase autonome, au cours de laquelle la composition du code est devenue un automatisme. Nous n’avons plus à nous concentrer pour nous rappeler du code. Nos doigts le composent tout seuls.
Lobes frontaux
Cette dynamique est liée à une réalité cérébrale. En 2007, notre équipe a en effet démontré qu’à chacune de ces trois étapes correspondait l’implication d’aires cérébrales spécifiques [3] . La première étape est caractérisée par une activation du lobe frontal, qui est impliqué dans le fonctionnement de la mémoire épisodique et de nos capacités de résolution de problèmes. On observe ensuite un basculement progressif de cette activation vers les régions postérieures : le cervelet, les ganglions de la base * et le thalamus.
Ce basculement expliquerait pourquoi nos automatismes sont si difficiles à verbaliser. Reprenons l’exemple du distributeur de billets. Au départ, nous enregistrons notre code en mémoire épisodique afin de pouvoir le composer correctement. Mais, à force de pratique, ces informations sont transformées en un programme moteur, stocké cette fois en mémoire procédurale. Autrement dit, les régions antérieures de notre cerveau travaillent de moins en moins, tandis que les régions postérieures prennent le relais.
Il devient difficile, dès lors, de chercher à nous souvenir de notre code : une fois l’information transformée et stockée dans ces structures cérébrales, la trace conservée par les régions antérieures du cerveau est moins accessible, car moins utile. Nous connaissons notre code, mais il devient très difficile de le verbaliser... Tout simplement parce que l’information la plus accessible ne se trouve plus là où nous la cherchons : elle est stockée dans une zone du cerveau qui ne permet pas cette verbalisation. Heureusement, avec un effort de concentration faisant appel à nos lobes frontaux, nous pourrons tout de même mettre des mots sur les gestes que nous maîtrisons parfaitement et avoir accès à notre code caché dans un recoin de notre mémoire épisodique.
Apprentissage sans erreur
Le rôle joué par la mémoire épisodique et les régions antérieures du cerveau lors de la première étape explique pourquoi certains patients amnésiques, ainsi que tous les sujets présentant des troubles de la mémoire épisodique éprouvent des difficultés lors de ce type d’apprentissage. Ces difficultés peuvent aller d’un ralentissement de l’apprentissage procédural, comme cela a été récemment démontré chez des sujets âgés [4] et des alcooliques chroniques [5] , à l’impossibilité de mise en place d’un nouvel automatisme cognitif chez certains patients amnésiques [6] .
Face aux difficultés d’apprentissage des patients, et parce que la mémoire procédurale serait préservée chez ces derniers, plusieurs techniques d’acquisition adaptées à leurs difficultés ont été imaginées et testées. Parmi celles-ci, la technique de l’apprentissage sans erreur semble particulièrement efficace [7] . Son principe est simple : si les patients, du fait de leur déficit de mémoire épisodique, ne sont pas capables de corriger leurs erreurs d’apprentissage, mettons-les dans des situations où ils ne sont pas susceptibles d’en commettre.
Par exemple, il est possible d’aider un patient amnésique à automatiser le code PIN de son téléphone portable, à condition de rester à ses côtés avec lui lors des 50 premières utilisations afin de lui donner le code. À force de pratique, le patient va automatiser la série motrice sur le clavier de son téléphone. Il restera néanmoins incapable de s’en rappeler explicitement sans l’usage de son téléphone. Cette technique devra encore être développée et élargie, mais elle a déjà fait ses preuves, tant pour l’apprentissage des procédures cognitives de programmation d’agenda électronique chez des patients traumatisés crâniens [8] que la réactivation d’anciennes habiletés liées au jardinage chez une patiente atteinte de la maladie d’Alzheimer [9] .
Hélène Beaunieux 2009
DOCUMENT larecherche.fr LIEN
|
|
|
|
|
 |
|
LES FRONTIÈRES DE LA BIOLOGIE |
|
|
|
|
|
Les Frontières de la biologie
et aussi - par Jacques Monod dans mensuel n°99 daté mai 2000 à la page 21 (5507 mots) | Gratuit
Le Hasard et la Nécessité, essai sur la philosophie naturelle de la biologie moléculaire : c'est sous ce titre que va paraître aux éditions du Seuil le dernier ouvrage du professeur Jacques Monod. Ce livre, dont sont extraites les pages ci- dessous, développe certains thèmes exposés par l'auteur dans sa leçon inaugurale au Collège de France du 3 novembre 1967. Dans cette leçon, le professeur Monod avait cité le mot de Démocrite : « Tout ce qui existe est le fruit du hasard et de la nécessité. » Lors de son face à face avec Pierre-Henri Simon, publié par ta revue Atomes il y a exactement un an, il avait proposé ce commentaire lapidaire : « Le hasard est dans la structure de l'ADN, la nécessité est dans la sélection. » Tel est le fil conducteur d'une réflexion qui débouche sur le rôle du langage dans l'« émergence » de l'homme. Qu'un tel discours dépasse les limites de la « science », l'auteur en est parfaitement conscient. Ces quelques lignes, extraites de la préface, précisent à la fois l'ambition et les limites de son projet : « Il reste à éviter, bien entendu, toute confusion. entre les idées suggérées par la science et la science elle-même, mais aussi faut-il pousser à leur limite les conclusions que la science autorise afin d'en révéler la pleine signification ... . Cet essai ne prétend nullement exposer la biologie entière, mais tente franchement d'extraire la quintessence de la théorie moléculaire du code ... . Je ne puis que prendre la pleine responsabilité des développements d'ordre éthique sinon politique que je n'ai pas voulu éviter, si périlleux fussent-ils ou naïfs ou trop ambitieux qu'ils puissent, malgré moi, paraître.»
Lorsqu'on songe à l'immense chemin parcouru par l'évolution depuis peut-être trois milliards d'années, à la prodigieuse richesse des structures qu'elle a créées, à la miraculeuse efficacité des performances des êtres vivants, de la Bactérie à l'Homme, on peut bien se reprendre à douter que tout cela puisse être le produit d'une énorme loterie, tirant au hasard des numéros parmi lesquels une sélection aveugle a désigné de rares gagnants. A revoir dans leur détail les preuves aujourd'hui accumulées que cette conception est bien la seule qui soit compatible avec les faits notamment avec les mécanismes moléculaires de la réplication, de la mutation et de la traduction on retrouve la certitude, mais non pour autant une compréhension immédiate, synthétique et intuitive de l'évolution dans son ensemble. Le miracle est «expliqué» : il nous paraît encore miraculeux. Comme l'écrit Mauriac : « Ce que dit ce professeur est bien plus incroyable encore que ce que nous croyons, nous autres pauvres chrétiens. »
Les frontières actuelles de la connaissance biologique.
C'est vrai, comme il est vrai qu'on ne parvient pas à se faire une image mentale satisfaisante de certaines abstractions de la physique moderne. Mais nous savons aussi que de telles difficultés ne peuvent être prises pour argument contre une théorie qui a pour elle les certitudes de l'expérience et de la logique. Pour la physique, microscopique ou cosmologique, nous voyons la cause de l'incompréhension intuitive : l'échelle des phénomènes envisagés transcende les catégories de notre expérience immédiate. Seule l'abstraction peut suppléer à cette infirmité, sans la guérir. Pour la biologie la difficulté est d'un autre ordre. Les interactions élémentaires sur quoi tout repose sont d'appréhension relativement facile grâce à leur caractère mécanistique. C'est la phénoménale complexité des systèmes vivants qui défie toute représentation intuitive globale. En biologie comme en physique, il n'y a pas, dans ces difficultés subjectives, d'argument contre la théorie.
On peut dire aujourd'hui que les mécanismes élémentaires de l'évolution sont non seulement compris en principe, mais identifiés avec précision. La solution trouvée est d'autant plus satisfaisante qu'il s'agit des mécanismes mêmes qui assurent la stabilité des espèces : invariance réplicative de l'ADN, cohérence téléonomique des organismes.
L'évolution n'en demeure pas moins en biologie la notion centrale destinée à s'enrichir et à se préciser pendant longtemps encore. Pour l'essentiel, cependant, le problème est résolu et l'évolution ne figure plus aux frontières de la connaissance.
Ces frontières je les vois, pour ma part, aux deux extrémités de l'évolution : l'origine des premiers systèmes vivants d'une part, et d'autre part le fonctionnement du système le plus intensément téléonomique qui ait jamais émergé, je veux dire le système nerveux central de l'homme. Dans le présent chapitre, je voudrais tenter de délimiter ces deux frontières de l'inconnu.
Le problème des origines.
On pourrait penser que la découverte des mécanismes universels sur lesquels reposent les propriétés essentielles des êtres vivants a éclairé la solution du problème des origines. En fait ces découvertes, en renouvelant presque entièrement la question, posée aujourd'hui en termes beaucoup plus précis, l'ont révélée plus difficile encore qu'elle ne paraissait auparavant.
On peut a priori définir trois étapes dans le processus qui a pu conduire à l'apparition des premiers organismes : a la formation sur la terre des constituants chimiques essentiels des êtres vivants, nucléotides et amino-acides ; b la formation, à partir de ces matériaux, des premières macromolécules capables de réplication ; c l'évolution qui, autour de ces « structures réplicatives », a construit un appareil téléonomique, pour aboutir à la cellule primitive.
Les problèmes que pose l'interprétation de chacune de ces étapes sont différents. La première, souvent appelée la phase « prébiotique », est assez largement accessible, non seulement à la théorie, mais à l'expérience. Si l'incertitude demeure, et demeurera sans doute, sur les voies qu'a suivies en fait l'évolution chimique prébiotique, le tableau d'ensemble paraît assez clair. Les conditions de l'atmosphère et de la croûte terrestre, il y a quatre milliards d'années, étaient favorables à l'accumulation de certains composés simples du carbone tels que le méthane. Il y avait aussi de l'eau et de l'ammoniac. Or, de ces composés simples et en présence de catalyseurs non biologiques, on obtient assez facilement de nombreux corps plus complexes, parmi lesquels figurent des acides aminés et des précurseurs des nucléotides bases azotées, sucres. Le fait remarquable est que, dans certaines conditions, dont la réunion paraît très plausible, le rendement de ces synthèses en corps identiques ou analogues aux constituants de la cellule moderne est très élevé.
On peut donc considérer comme prouvé qu'à un moment donné sur la terre, certaines étendues d'eau pouvaient contenir en solution des concentrations élevées des constituants essentiels des deux classes de macromolécules biologiques, acides nucléiques et protéines. Dans cette « soupe prébiotique » diverses macromolécules pouvaient se former par polymérisation de leurs précurseurs, amino-acides et nucléotides. On a obtenu en effet au laboratoire, dans des conditions plausibles », des polypeptides et des polynucléotides semblables par leur structure générale aux macromolécules « modernes ».
Jusque-là par conséquent, pas de difficultés majeures. Mais la première étape décisive n'est pas franchie : la formation de macromolécules capables, dans les conditions de la soupe primitive, de promouvoir leur propre réplication sans le secours d'aucun appareil téléonomîque. Cette difficulté ne semble pas insurmontable. On a montré qu'une séquence polynucléotidique peut effectivement guider, par appariement spontané, la formation d'éléments de séquence complémentaire. Bien entendu un tel mécanisme ne pouvait être que très inefficace et sujet à d'innombrables erreurs. Mais, du moment où il entrait en jeu, les trois processus fondamentaux de l'évolution : réplication, mutation, sélection, avaient commencé d'opérer et devaient donner un avantage considérable aux macromolécules les plus aptes, par leur structure séquentielle, à se répliquer spontanément 1.
La troisième étape c'est, par hypothèse, l'émergence graduelle des systèmes téléonomiques qui, autour de la structure réplicative, devaient construire un organisme, une cellule primitive. C'est ici qu'on atteint le véritable « mur du son », car nous n'avons aucune idée de ce que pouvait être la structure d'une cellule primitive. Le système vivant le plus simple que nous connaissions, la cellule bactérienne, petite machinerie d'une complexité comme d'une efficacité extrêmes, avait peut-être atteint son présent état de perfection il y a plus d'un milliar d'années. Le plan d'ensemble de la chimie de cette cellule est le même que celui de tous les autres êtres vivants. Elle emploie le même code génétique et la même mécanique de traduction que les cellules humaines, par exemple.
Ainsi, les cellules les plus simples qu'il nous soit donné d'étudier, n'ont rien de « primitif ». Elles sont le produit d'une sélection qui a pu, au travers de cinq cents ou mille milliards de générations, accumuler un appareillage téléonomique si puissant que les vestiges des structures vraiment primitives sont indiscernables. Reconstruire, sans fossiles, une telle évolution est impossible. Encore voudrait-on pouvoir au moins suggérer une hypothèse plausible quant à la voie suivie par cette évolution, surtout à son point de départ.
L'énigme de l'origine du code.
Le développement du système métabolique qui a dû, à mesure que s'appauvrissait la soupe primitive, « apprendre » à mobiliser le potentiel chimique et à synthétiser les constituants cellulaires pose des problèmes herculéens. Il en est de même pour l'émergence de la membrane à perméabilité sélective sans quoi il ne peut y avoir de cellule viable. Mais le problème majeur, c'est l'origine du code génétique et du mécanisme de sa traduction. En fait, ce n'est pas de « problème » qu'il faudrait parler, mais plutôt d'une véritable énigme.
Le code n'a pas de sens à moins d'être traduit. La machine à traduire de la cellule moderne comporte au moins cinquante constituants macromoléculaires qui sont eux-mêmes codés dans l'ADN : le code ne peut être traduit que par des produits de traduction. C'est l'expression moderne de omne vivum ex ovo . Quand et comment cette boucle s'est-elle fermée sur elle-même ? Il est excessivement difficile de l'imaginer. Mais le fait que le code soit aujourd'hui déchiffré et connu pour être universel permet au moins de poser le problème en termes précis; en simplifiant un peu sous forme de l'alternative suivante :
a la structure du code s'explique par des raisons chimiques, ou plus exactement stéréochimiques ; si un certain codon a été « choisi » pour représenter un certain amino-acide, c'est parce qu'il existait entre eux une certaine affinité stéréochimique ;
b la structure du code est chimiquement arbitraire ; le code, tel que nous le connaissons, résulte d'une série de choix au hasard qui l'ont enrichi peu à peu.
La première hypothèse paraît de loin la plus séduisante. D'abord parce qu'elle expliquerait l'universalité du code. Ensuite parce qu'elle permettrait d'imaginer un mécanisme primitif de traduction dans lequel l'alignement séquentiel des amino-acides pour former un polypeptide serait dû à une interaction directe entre les amino-acides et la structure réplicative elle-même. Enfin, et surtout, parce que cette hypothèse, si elle était vraie, serait en principe vérifiable. Aussi de nombreuses tentatives de vérification ont-elles été faites, dont le bilan doit considéré, pour l'instant, comme2.
Peut-être le dernier mot n'a-t-il pas été dit sur ce sujet. En attendant une confirmation qui paraît improbable, on est ramené à la seconde hypothèse, désagréable pour des raisons méthodologiques, ce qui ne signifie nullement qu'elle soit inexacte. Désagréable pour plusieurs raisons. Elle n'explique pas l'universalité du code. Il faut alors admettre que parmi de nombreuses tentatives d'élaboration, une seule a survécu. Ce qui en soi est très vraisemblable d'ailleurs, mais ne propose aucun modèle de traduction primitive. La spéculation doit alors y suppléer. Il n'en manque pas de très ingénieuses le champ est libre, trop libre.
L'énigme demeure, qui masque aussi la réponse à une question d'un profond intérêt. La vie est apparue sur la terre : quel était avant l'événement la probabilité qu'il en fût ainsi ? L'hypothèse n'est pas exclue, au contraire, par la structure actuelle de la biosphère, que l'événement décisif ne se soit produit qu'une seule fois. Ce qui signifierait que sa probabilité a priori était quasi nulle.
Cette idée répugne à la plupart des hommes de science. D'un événement unique la science ne peut rien dire ni rien faire. Elle ne peut « discourir » que sur des événements formant une classe, et dont la probabilité a priori, si faible soit-elle, est finie. Or par l'universalité même de ses structures, à commencer par le code, la biosphère apparaît comme le produit d'un événement unique. Il est possible, bien entendu, que ce caractère singulier soit dû à l'élimination, par la sélection, de beaucoup d'autres tentatives ou variantes. Mais rien n'impose cette interprétation.
La probabilité a priori que se produise un événement particulier parmi tous les événements possibles dans l'univers est voisine de zéro. Cependant l'univers existe ; il faut bien que des événements particuliers s'y produisent, dont la probabilité avant l'événement était infime. Nous n'avons, à l'heure actuelle, pas le droit d'affirmer, ni celui de nier que la vie soit apparue une seule fois sur la Terre, et que, par conséquent, avant qu'elle ne fût, ses chances d'être étaient quasi nulles.
Cette idée n'est pas seulement désagréable aux biologistes en tant qu'hommes de science. Elle heurte notre tendance humaine à croire que toute chose réelle dans l'univers actuel était nécessaire, et de tout temps. Il nous faut toujours être en garde contre ce sentiment si puissant du destin. La science moderne ignore toute immanence. Le destin s'écrit à mesure qu'il s'accomplit, pas avant. Le nôtre ne l'était pas avant que n'émerge l'espèce humaine, seule dans la biosphère à utiliser un système logique de communication symbolique. Autre événement unique qui devrait, par cela même, nous prévenir contre tout anthropocentrisme. S'il fut unique, comme peut-être le fut l'apparition de la vie elle- même, c'est qu'avant de paraître, ses chances étaient quasi nulles. L'Univers n'était pas gros de la vie, ni la biosphère de l'homme. Notre numéro est sorti au jeu de Monte-Carlo. Quoi d'étonnant à être ce que, tel celui qui vient d'y gagner un milliard, nous éprouvions l'étrangeté de notre condition ?
L'autre frontière : le système nerveux central.
Le logicien pourrait avertir le biologiste que ses efforts pour « comprendre » le fonctionnement entier du cerveau humain sont voués à l'échec puisque aucun système logique ne saurait décrire intégralement sa propre structure. Cet avertissement serait hors de propos, tant on est loin encore de cette frontière absolue de la connaissance. De toute façon cette objection logique ne s'applique pas à l'analyse par l'homme du système nerveux central d'un animal. Système qu'on Peut supposer moins complexe et moins puissant que le nôtre. Même dans ce cas, cependant, il demeure une difficulté majeure : l'expérience consciente d'un animal nous est impénétrable et sans doute le sera-t-elle toujours. Peut-on affirmer qu'une description exhaustive du fonctionnement du cerveau d'une grenouille, par exemple, serait possible, en principe, alors que cette donnée demeurerait inaccessible ? Il est permis d'en douter. De sorte que l'exploration du cerveau humain, malgré les barrières opposées à l'expérimentation, demeurera toujours irremplaçable, par la possibilité qu'elle offre de comparer les données objectives et subjectives relatives à une expérience. Quoi qu'il en soit, la structure et le fonctionnement du cerveau peuvent et doivent être explorés simultanément à tous les niveaux accessibles avec l'espoir que ces recherches, très différentes par leurs méthodes comme par leur objet immédiat, convergeront un jour. Pour l'instant elles ne convergent guère que par la difficulté des problèmes qu'elles soulèvent toutes. Parmi les plus difficiles et les plus importants, sont les problèmes que pose le développement épigénétique d'une structure aussi complexe que le système nerveux central. Chez l'homme, il comprend 1012 à 1013 neurones interconnectés par l'intermédiaire de quelque 1014 à 1015 synapses, dont certaines associent des cellules nerveuses éloignées les unes des autres. J'ai déjà mentionné l'énigme que propose la réalisation d'interactions morphogénétiques à distance et n'y reviendrai pas ici. Au moins de tels problèmes peuvent-ils être clairement posés grâce, notamment, à certaines remarquables expériences 3.
On ne saurait comprendre le fonctionnement du système nerveux central à moins de connaître celui de l'élément logique primaire que constitue la synapse. De tous les niveaux d'analyse c'est le plus accessible à l'expérience et des techniques raffinées ont livré une masse considérable de documents. On est loin encore, cependant, d'une interprétation de la transmission synaptique en termes d'interactions moléculaires. Problème essentiel cependant, puisque c'est là sans doute que réside l'ultime secret de la mémoire. On a depuis longtemps proposé que celle-ci est enregistrée sous forme d'une altération plus ou moins irréversible des interactions moléculaires responsables de la transmission de l'influx nerveux au niveau d'un ensemble de synapses. Cette théorie a pour elle toute la vraisemblance, mais pas de preuves directes 4.
Malgré cette profonde ignorance concernant les mécanismes primaires du système nerveux central, l'électrophysiologie moderne a fourni sur l'analyse et l'intégration des signaux nerveux, notamment dans certaines voies sensorielles, des résultats profondément signifiants. D'abord sur les propriétés du neurone comme intégrateur des signaux qu'il peut recevoir par l'intermédiaire des synapses de nombreuses autres cellules. L'analyse a prouvé que le neurone est étroitement comparable, par ses performances, aux composants intégrés d'une calculatrice électronique Il est capable comme ceux-ci d'effectuer par exemple toutes les opérations logiques de l'algèbre propositionnelle. Mais en outre il peut additionner ou soustraire différents signaux en tenant compte de leur coïncidence dans le temps, ainsi que modifier la fréquence des signaux qu'il émet en fonction de l'amplitude de ceux qu'il reçoit. En fait, il semble qu'aucun composant unitaire actuellement utilisé par les calculatrices modernes ne soit capable de performances aussi variées et finement modulées Cependant l'analogie demeure impressionnante et la comparaison fructueuse entre les machines cybernétiques et le système nerveux central. Mais il faut voir qu'elle se limite encore aux niveaux inférieurs d'intégration : premiers degrés de l'analyse sensorielle par exemple. Les fonctions supérieures du cortex, dont le langage est l'expression, semblent y échapper encore totalement. On peut se demander s'il n'y a là qu'une différence « quantitative » degré de complexité ou « qualitative ». Cette question n'a pas de sens à mon avis. Rien ne permet de supposer que les interactions élémentaires soient de nature différente à différents niveaux d'intégration. S'il est un cas où la première loi de la dialectique est applicable, c'est bien celui-là.
Fonctions du système nerveux central.
Le raffinement même des fonctions cognitives chez l'homme, et le foisonnement des applications qu'il en fait, masquent pour nous les fonctions primordiales que remplit le cerveau dans la série animale y compris l'homme. Peut-être peut-on énumérer et définir ces fonctions primordiales de la façon suivante :
assurer la commande et la coordination centrale de l'activité neuromotrice en fonction, notamment, des afférences sensorielles ;
contenir, sous forme de circuits génétiquement déterminés, des programmes d'action plus ou moins complexes les déclencher en fonction de stimuli particuliers
analyser, filtrer et intégrer les afférences sensorielles pour construire une représentation du monde extérieur adaptée aux performances spécifiques de l'animal ;
enregistrer les événements qui compte tenu de la gamme des performances spécifiques sont significatifs, les grouper en classes, selon leurs analogies ; associer ces classes selon les relations de coïncidence ou de succession des événements qui les constituent ; enrichir, raffiner et diversifier les programmes innés en y incluant ces expériences ;
imaginer, c'est-à-dire représenter et simuler des événements extérieurs, ou des programmes d'action de l'animal lui-même.
Les fonctions définies par les trois premiers alinéas sont remplies par le système nerveux central d'animaux qu'on ne qualifie généralement pas de supérieurs : arthropodes, par exemple. Les exemples les plus spectaculaires que l'on connaisse de programmes d'action innés très complexes se rencontrent chez les insectes. Il est douteux que les fonctions résumées par le paragraphe 4 jouent un rôle important chez ces animaux 5. En revanche, elles contribuent de façon très importante au comportement des invertébrés supérieurs, tel le poulpe6 ainsi bien entendu qu'à celui de tous les vertébrés.
Quant aux fonctions du paragraphe 5 que l'on pourrait qualifier de « projectives », sans doute sont-elles le privilège des seuls vertébrés supérieurs. Mais ici, la barrière de la conscience s'interpose, et il se peut que nous ne sachions reconnaître les signes extérieurs de cette activité le rêve, par exemple que chez nos proches parents, sans que d'autres espèces en soient absolument privées. Les fonctions 4 et 5 sont cognitives, tandis que celles des paragraphes 1, 2 et 3 sont uniquement coordinatrices et représentatives. Seules les fonctions 5 peuvent être créatrices d'expérience subjective.
L'analyse des impressions sensorielles.
Selon la proposition du paragraphe 3, l'analyse par le système nerveux central des impressions sensorielles fournit une représentation appauvrie et orientée du monde extérieur. Une sorte de résumé où ne figure en pleine lumière que ce qui intéresse particulièrement l'animal en fonction de son comportement spécifique c'est en somme un résumé « critique », le mot étant pris dans une acception complémentaire du sens kantien. L'expérience démontre abondamment qu'il en est bien ainsi. Par exemple, l'analyseur situé derrière l'oeil d'une grenouille lui permet de voir une mouche c'est-à-dire un point noir en mouvement, mais non au repos 7. De sorte que la grenouille ne happera que la mouche en vol. Il faut insister sur le fait, prouvé par l'analyse électrophysiologique, que ce n'est pas là le résultat d'un comportement qui ferait dédaigner par la grenouille un point noir immobile, comme ne représentant pas avec certitude une nourriture. L'image du point immobile s'imprime sans doute sur la rétine, mais elle n'est pas transmise, le système n'étant excité que par un objet en mouvement.
Certaines expériences sur le chat 8 suggèrent une interprétation du fait mystérieux qu'un champ reflétant à la fois toutes les couleurs du spectre soit vu comme une plage blanche, alors que le blanc est subjectivement interprété comme absence de toute couleur. Les expérimentateurs ont montré que, par suite d'inhibitions croisées entre certains neurones répondant respectivement aux diverses longueurs d'ondes, ceux-ci n'envoyaient pas de signaux lorsque la rétine était exposée uniformément à la gamme entière des longueurs d'ondes visibles. Goethe avait donc, en un sens subjectif, raison contre Newton. Erreur éminemment pardonnable à un poète.
Que les animaux soient capables de classer des objets ou des relations entre objets selon des catégories abstraites, notamment géométriques, ne fait aucun doute non plus : un poulpe ou un rat peut apprendre la notion de triangle, de cercle ou de carré et reconnaître sans faute ces figures pour leurs propriétés géométriques, indépendamment de la dimension, de l'orientation ou de la couleur dont on peut habiller l'objet réel qui leur est présenté.
L'étude des circuits qui analysent les figures présentées dans le champ de vision du chat démontre que ces exploits géométriques sont dus à la structure même des circuits qui filtrent et recomposent l'image rétinienne. Ces analyseurs imposent, en définitive, leurs propres restrictions à l'image, dont ils extraient certains éléments simples. Certaines cellules nerveuses, par exemple, ne répondent qu'à la figure d'une droite inclinée de gauche à droite ; d'autres à une droite inclinée en sens inverse. Les « notions » de la géométrie élémentaire ne sont donc pas tant représentées dans l'objet que par l'analyseur sensoriel, qui le perçoit et le recompose à partir de ses éléments les plus simples 9.
Innéisme et empirisme.
Ces découvertes modernes donnent donc raison, en un sens nouveau, à Descartes et à Kant, contre l'empirisme radical qui cependant n'a guère cessé de régner dans la science depuis deux cents ans, jetant la suspicion sur toute hypothèse supposant l' « innéité » des cadres de la connaissance. De nos jours encore certains éthologistes paraissent attachés à l'idée que les éléments du comportement, chez l'animal, sont ou bien innés ou bien appris, chacun de ces deux modes excluant absolument l'autre. Cette conception est entièrement erronée comme Lorenz l'a vigoureusement démontré10. Lorsque le comportement implique des éléments acquis par l'expérience, ils le sont selon un programme qui, lui, est inné, c'est-à-dire génétiquement déterminé. La structure du programme appelle et guide l'apprentissage qui s'inscrira donc dans une certaine « forme » préétablie, définie dans le patrimoine génétique de l'espèce. C'est sans doute ainsi qu'il faut interpréter le processus d'apprentissage primaire du langage chez l'enfant. Il n'y a aucune raison de supposer qu'il n'en soit pas de même pour les catégories fondamentales de la connaissance chez l'Homme, et peut-être aussi pour bien d'autres éléments du comportement humain, moins fondamentaux, mais de grande signification pour l'individu et la société. De tels problèmes sont en principe accessibles à l'expérience. Les éthologistes en conduisent de semblables tous les jours. Expériences cruelles qu'il est impensable de pratiquer sur l'homme, sur l'enfant en fait. De sorte que par respect de soi-même, l'homme ne peut que s'interdire d'explorer certaines des structures constitutives de son être.
La longue controverse sur l'innéité cartésienne des « idées », niée par les empiristes, rappelle celle qui a divisé les biologistes au sujet de la distinction entre phénotype et génotype. Distinction fondamentale, indispensable à la définition même du patrimoine héréditaire pour les généticiens qui l'avaient introduite, mais très suspecte aux yeux de beaucoup de biologistes non généticiens qui n'y voyaient qu'un artifice destiné à sauver le postulat de l'invariance du gène. On retrouve là, une fois de plus, l'opposition entre ceux qui ne veulent connaître que l'objet actuel, concret, dans sa présence entière, et ceux qui cherchent à y discerner la représentation masquée d'une forme idéale. Il n'y a que deux sortes de savants, disait Alain : ceux qui aiment les idées, et ceux qui haïssent les idées. Ces deux attitudes d'esprit s'opposent encore dans la science ; elles sont l'une et l'autre, par leur confrontation, nécessaires à ses progrès. On ne peut que regretter, pour les contempteurs d'idées, que ce progrès, auquel ils contribuent, leur donne invariablement tort. En un sens, très important, les grands empiristes du XVIIIe siècle n'avaient pas tort cependant. Il est parfaitement vrai que tout, chez les êtres vivants vient de l'expérience, y compris l'innéité génétique, que ce soit le comportement stéréotypé des abeilles ou les cadres innés de la connaissance humaine. Mais pas de l'expérience actuelle, renouvelée par chaque individu, à chaque génération : de celle accumulée par l'ascendance entière de l'espèce au cours de l'évolution. Seule cette expérience puisée au hasard, seules ces tentatives innombrables, châtiées par la sélection pouvaient, comme de tout autre organe, faire du système nerveux central un système adapté à sa fonction particulière. Pour le cerveau : donner du monde sensible une représentation adéquate aux performances de l'espèce, fournir le cadre qui permet de classer efficacement les données en elles-mêmes inutilisables de l'expérience immédiate et même, chez l'homme, simuler subjectivement l'expérience pour en anticiper les résultats et préparer l'action.
La fonction de simulation.
C'est le puissant développement et l'usage intensif de la fonction de simulation qui me paraissent caractériser les propriétés uniques du cerveau de l'Homme. Cela au niveau le plus profond des fonctions cognitives, celui sur quoi le langage repose et que sans doute il n'explicite qu'en partie. Cette fonction n'est pas exclusivement humaine cependant. Le jeune chien qui manifeste sa joie en voyant son maître se préparer à la promenade imagine évidemment, c'est-à-dire simule par anticipation, les découvertes qu'il va faire, les aventures qui l'attendent, les frayeurs délicieuses qu'il éprouvera, sans danger, grâce à la rassurante présence de son protecteur. Plus tard, il simulera tout cela à nouveau, pêle-mêle, en rêve. Chez l'animal, comme aussi chez le jeune enfant, la simulation subjective ne semble que partiellement dissociée de l'activité neuromotrice. Son exercice se traduit par le jeu. Mais chez l'homme, la simulation subjective devient la fonction supérieure par excellence, la fonction créatrice. C'est elle qui est reflétée par la symbolique du langage qui l'explicite en transposant et résumant ses opérations. De là le fait, souligné par Chomsky, que le langage, même dans ses emplois les plus humbles, est presque toujours novateur : c'est qu'il traduit une expérience subjective, une simulation particulière, toujours nouvelle. C'est en cela aussi que le langage humain diffère radicalement de la communication animale. Celle-ci se réduit à des appels ou avertissements correspondant à un certain nombre de situations concrètes stéréotypées. L'animal le plus intelligent, capable sans doute de simulations subjectives assez précises, ne dispose d'aucun moyen de « libérer sa conscience », si ce n'est en indiquant grossièrement dans quel sens joue son imagination. L'Homme, lui, sait parler ses expériences subjectives : l'expérience nouvelle, la rencontre créatrice ne périt plus avec celui chez qui elle aura été, pour la première fois, simulée.
Tous les hommes de science ont dû, je pense, prendre conscience de ce que leur réflexion, au niveau profond, n'est pas verbale : c'est une expérience imaginaire, simulée à l'aide de formes, de forces, d'interactions qui ne composent qu'à peine une « image» au sens visuel du terme. Je me suis moi-même surpris, n'ayant à force d'attention centrée sur l'expérience imaginaire plus rien d'autre dans le champ de la conscience, à m'identifier à une molécule de protéine. Cependant ce n'est pas à ce moment qu'apparaît la signification de l'expérience simulée, mais seulement une fois explicitée symboliquement. Je ne crois pas en effet qu'il faille considérer les images non visuelles sur lesquelles opère la simulation comme des symboles, mais plutôt, si j'ose ainsi dire, comme la « réalité » subjective et abstraite, directement offerte à l'expérience imaginaire.
Quoi qu'il en soit, dans l'usage courant, le processus de simulation est entièrement masqué par la parole qui le suit presque immédiatement et semble se confondre avec la pensée elle-même. Mais on sait que de nombreuses observations objectives prouvent que chez l'homme les fonctions cognitives, même complexes, ne sont pas immédiatement liées à la parole ou tout autre moyen d'expression symbolique. On peut citer notamment les études faites sur divers types d'aphasie. Peut-être les expériences les plus impressionnantes sont-elles celles, récentes, de Sperry, sur des sujets dont les deux hémisphères cérébraux avaient été séparés par section chirurgicale du « corpus callosum ». L'oeil droit et la main droite, chez ces sujets, l'hémisphère objet vu par gauche, est reconnu, sans que le sujet puisse le nommer. Or dans certains tests difficiles où il s'agissait d'apparier la forme tridimensionnelle d'un objet tenu dans l'une des deux mains au développement en plan de cette forme, représentée sur un écran, l'hémisphère droit aphasique se montrait de beaucoup supérieur à l'hémisphère «dominant» gauche, et plus rapide dans la discrimination. Il est tentant de spéculer sur la possibilité qu'une part importante, peut-être la plus « profonde » de la simulation subjective, soit assurée par l'hémisphère droit.
S'il est légitime de considérer que la pensée repose sur un processus de simulation subjective, il faut admettre que le haut développement de cette faculté chez l'homme est le résultat d'une évolution au cours de laquelle c'est dans l'action concrète, préparée par l'expérience imaginaire, que l'efficacité de ce processus, sa valeur de survie, a été éprouvée par la sélection. C'est donc pour sa capacité de représentation adéquate et de prévision exacte confirmée par l'expérience concrète que le pouvoir de simulation du système nerveux central, chez nos ancêtres, a été poussé jusqu'à l'état atteint chez Homo sapiens. Le simulateur subjectif n'avait pas le droit de se tromper quand il s'agissait d'organiser une chasse à la Panthère avec les armes dont pouvait disposer l'Australanthrope, le Pithécanthrope, ou même l'Homo sapiens de Cro-Magnon. C'est pour cela que l'instrument logique inné, hérité de nos ancêtres, ne nous trompe pas et nous permet de « comprendre » les événements de l'univers, c'est-à-dire de les décrire en langage symbolique et de les prévoir, pourvu que les éléments d'information nécessaires soient fournis au simulateur.
Instrument d'anticipation s'enrichissant sans cesse des résultats de ses propres expériences, le simulateur est l'instrument de la découverte et de la création. C'est l'analyse de la logique de son fonctionnement subjectif qui a permis de formuler les règles de la logique objective et de créer de nouveaux instruments symboliques, tels que les mathématiques. De grands esprits Einstein se sont souvent émerveillés, à bon droit, du fait que les êtres mathématiques créés par l'homme puissent représenter aussi fidèlement la nature, alors qu'ils ne doivent rien à l'expérience. Rien, c'est vrai, à l'expérience individuelle et concrète, mais tout aux vertus du simulateur forgé par l'expérience innombrable et cruelle de nos humbles ancêtres. En confrontant systématiquement la logique et l'expérience selon la méthode scientifique, c'est en fait toute l'expérience de ces ancêtres que nous confrontons avec l'expérience actuelle.
L'illusion dualiste et la présence de l'esprit.
Si nous pouvons deviner l'existence de ce merveilleux instrument, si nous savons traduire, par le langage, le résultat de ses opérations, nous n'avons aucune idée de son fonctionnement, de sa structure. L'expérimentation physiologique est, à cet égard, presque impuissante encore. L'introspection, avec tous ses dangers, nous en dit malgré tout un peu plus. Reste l'analyse du langage qui cependant ne révèle le processus de simulation qu'au travers de transformations inconnues et n'explicite sans doute pas toutes ses opérations.
Voilà la frontière, presque aussi infranchissable encore pour nous qu'elle l'était pour Descartes. Tant qu'elle n'est pas franchie, le dualisme conserve en somme sa vérité opérationnelle. La notion de cerveau et celle d'esprit ne se confondent pas plus pour nous dans le vécu actuel que pour les hommes du XVIle siècle. L'analyse objective nous oblige à voir une illusion dans le dualisme apparent de l'être. Illusion pourtant si intimement attachée à l'être lui-même qu'il serait bien vain d'espérer jamais la dissiper dans l'appréhension immédiate de la subjectivité, ou d'apprendre à vivre affectivement, moralement, sans elle. Et pourquoi d'ailleurs le faudrait-il ? Qui pourrait douter de la présence de l'esprit ? Renoncer à l'illusion qui voit dans l'âme une « substance » immatérielle, ce n'est pas nier son existence, mais au contraire commencer de reconnaître la complexité, la richesse, l'insondable profondeur de l'héritage génétique et culturel, comme de l'expérience personnelle, consciente ou non, qui ensemble constituent l'être que nous sommes, uni que et irrécusable témoin de soi-même.
Par Jacques Monod
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
ABYSSES |
|
|
|
|
|
« Des organismes d'une beauté plus exquise »
spécial mer - par Patrick Geistdoerfer dans mensuel n°355 daté juillet 2002 à la page 18 (2274 mots) | Gratuit
On doit à la campagne du navire britannique Challenger , conduite de 1872 à 1876 par Charles Wyville Thomson, la preuve que la vie existe bien dans les abysses. Mais il faudra attendre encore près d'un siècle pour que les scientifiques constatent l'incroyable diversité des espèces peuplant les grandes profondeurs.
Pendant des siècles, l'imagination populaire, aidée par notre parfaite ignorance du monde sous-marin, a peuplé de monstres les grands fonds océaniques. Pourtant, une connaissance plus précise des mers et de leurs habitants se fait jour dès le XVIIIe siècle, celui des Lumières. L'Encyclopédie leur consacre plusieurs articles. L'Académie de marine, société de pensée créée en 1752, rassemblant des astronomes, des hydrographes et des marins, contribue également à ces découvertes. A cette époque, les voyages d'exploration associant marins et naturalistes se multiplient à la recherche de nouveaux mondes et aussi de nouvelles richesses. En France et en Grande- Bretagne, les marines de guerre sont parties prenantes de l'exploration du Globe, comme de nos jours de la recherche océanographique.
Les espèces marines récoltées dans toutes les mers du monde sont inventoriées et étudiées, notamment au Jardin du Roi à Paris, dont la Convention fera le Muséum national d'histoire naturelle. C'est le prélude à la naissance de l'océanographie. Cette science se développera véritablement au cours de la seconde moitié du XIXe siècle aussi bien avec l'étude des zones côtières qu'avec la « course » aux grandes profondeurs, qui sera l'un de ses traits marquants. La géographie du Globe commence à être bien connue. L'intérêt du monde savant se tourne vers les profondeurs océaniques, là où « ne règnent que ténèbres et nuit insondables », comme l'écrivait Héraclite cinq cents ans avant notre ère. Par pure soif de connaissances certes, mais aussi parce que la pose des premiers câbles télégraphiques nécessite une bonne connaissance de leur relief.
En 1844, le naturaliste anglais Edward Forbes, se fondant sur les résultats de ses dragages en mer Egée, affirme qu'il n'y a plus de vie dans les mers au-delà de 600 m. « A mesure que l'on descend dans les profondeurs, écrit-il, les habitants se modifient toujours davantage et deviennent de plus en plus rares, faisant pressentir l'abîme où la vie est éteinte, où, du moins, elle ne manifeste plus sa présence que par quelques étincelles. » Alors même que Forbes soutient sa théorie de la zone azoïque sans vie, plausible à l'époque, bon nombre d'observations l'ont déjà remise en cause.
En 1810, Antoine Risso est le premier à publier la description de crustacés et de poissons de grande profondeur capturés au large de Nice. En 1818, John Ross, au cours d'un sondage en mer de Baffin*, remonte des invertébrés trouvés par 1 500 m de fond. De 1839 à 1843, dans l'Antarctique, au cours de l'expédition britannique de James Clark Ross, Hooker récolte jusqu'à 800 m des anémones, des étoiles de mer et des crustacés. En 1850, le Norvégien Michael Sars remonte des mers scandinaves 19 espèces vivant à plus de 550 m. Son fils, Georg Ossian Sars, fait état en 1864 de 92 espèces différentes capturées entre 360 et 550 m. Il montre la présence d'une vie abondante à plus de 850 m. En 1860, en Méditerranée, le Français Henri de Milne Edwards découvre un corail solitaire et des mollusques fixés sur un câble télégraphique sous-marin reliant la Sardaigne à l'Algérie, remonté de 2 180 m pour une réparation. La vie existe bien dans les grands fonds !
Expéditions océanographiques. Contraints de l'admettre, les sceptiques ne désarment pas : ils présentent cette vie comme misérable et précaire, constituée, comme l'écrit le biologiste Thomas Huxley, d'« animaux aveugles qui triment et qui peinent dans le froid et l'obscurité des abysses ». C'est pour combattre cette conception que les premières grandes expéditions océanographiques sont entreprises dans l'Atlantique nord-est et en Méditerranée, durant les années 1860-1870, à l'instigation de l'Ecossais Charles Wyville Thomson. « Il était question depuis longtemps, écrit Wyville Thomson, parmi les naturalistes, de la possibilité de draguer le fond de la mer par les procédés ordinaires et d'y plonger des récipients et des instruments enregistreurs pour résoudre la question d'un zéro de vie animale, et pour déterminer avec précision la composition et la température de l'eau de mer dans les grandes profondeurs. » Michael Sars ayant récolté un animal d'une famille qui n'était connue que comme un fossile du Crétacé, Wyville Thomson espère lui aussi trouver des formes relictes*. Cet espoir sera déçu. Ce n'est que des années plus tard, en 1938, que sera découvert dans le canal de Mozambique un coelacanthe, survivant d'un groupe de poissons que l'on croyait disparu depuis plus de soixante millions d'années.
A partir de 1868, Wyville Thomson et William B. Carpenter effectuent des dragages jusqu'à 1 200 m de profondeur à bord du Lightning, « petit navire passé depuis longtemps à l'état de sabot, [...] peut-être le plus vieux bateau à roues de Sa Majesté ». En 1869, la Porcupine, canonnière de 382 tonneaux qui remplace le Lightning, drague jusqu'à 4 550 m. Toutes les récoltes confirment que la vie en profondeur est abondante et variée, et que les organismes y sont différents de ceux des eaux superficielles. Dans The Depths of the Seas, premier ouvrage d'océanographie traitant des abysses, publié en 1874, Wyville Thomson écrit : « Le lit de la profonde mer, les 140 000 000 de milles carrés que nous venons d'ajouter au légitime champ d'étude des naturalistes, ne constitue pas un désert stérile. Il est peuplé d'une faune plus riche et plus variée que celle qui pullule dans la zone bien connue des bas-fonds qui bordent la mer ; ces organismes sont encore plus finement et plus délicatement construits, d'une beauté plus exquise, avec les nuances adoucies de leurs coloris et les teintes irisées de leur merveilleuse phosphorescence. » On découvre également que ces eaux sont froides - 2 °C à + 2 °C, alors que l'on pensait jusque-là que la température des grands fonds était uniforme et égale à 4 °C densité maximale de l'eau. Et l'on comprend comment se forment en surface, aux hautes latitudes, les eaux froides qui vont constituer les profondeurs de l'océan mondial. Les observations font conclure à l'existence de courants. Wyville Thomson écrit : « Un courant froid parti des mers polaires passe sur le fond de l'Atlantique. [...] Courant froid d'une grande lenteur. » Lire l'article de Pascale Delécluse, p. 42. Les différences de température et de faune constatées entre les eaux situées à 60° de latitude nord et celles situées au sud de 50° nord suggèrent même l'existence d'une ride immergée, un seuil, allant du Groenland aux îles Féroé, passant par l'Islande et séparant la mer de Norvège du nord de l'océan Atlantique. Son existence est confirmée, en 1880, par les sondages de La Porcupine. Il s'appelle désormais le seuil de Wyville Thomson. Evoquant l'opposition entre les conditions océanographiques régnant de part et d'autre de ce seuil, Johan Hjort écrit en 1912 : « Dans l'histoire des recherches océaniques, rien n'a autant contribué à éveiller l'intérêt que la découverte de communautés animales entièrement différentes vivant de chaque côté du seuil de Wyville Thomson. Les formes atlantiques sont au sud et les formes arctiques au nord du seuil, ce qui correspond à des conditions thermiques très différentes des deux côtés. »
Moisson de données. De décembre 1872 à mai 1876 se déroule, sous la direction de Wyville Thomson, la célèbre campagne autour du monde de Challenger, la corvette de la Royal Navy, beau bâtiment de 68 m de long. Cette campagne de 58 890 milles plus de 100 000 km établit définitivement que la vie existe jusqu'à son plus haut niveau d'organisation à des profondeurs pouvant atteindre 5 200 m, et que les genres et espèces y sont différents de ceux des eaux superficielles. La campagne fournit une énorme moisson de données biologiques et, dans le Pacifique, près des îles Mariannes, une profondeur de 8 180 m est découverte. Le chimiste William Dittmar confirme en 1885 qu'à l'échelle du Globe les proportions relatives des différents sels contenus dans l'eau de mer demeurent constantes entre elles, quelle que soit la teneur totale, ce qui avait déjà été observé par Alexandre Marcet 1819 et Matthew Fontaine Maury 1855. Les résultats de la campagne de Challenger sont publiés dans les Report on the Scientific Results of the Voyage of HMS Challenger during the Years 1873-1876, une cinquantaine de volumes, synthèse des connaissances de l'époque sur les océans, mais aussi à l'origine de l'idée que les grandes profondeurs, bien que froides et obscures, sont riches en espèces différentes. Il faudra attendre près d'un siècle pour que cette croyance soit confirmée.
John Murray, collaborateur de Wyville Thomson, participe à des campagnes océanographiques à bord du Michael Sars. En 1912, avec Johan Hjort, il publie un ouvrage qui relate ces campagnes en Atlantique nord, entre 1900 et 1910, et propose une nouvelle synthèse, The Depths of the Oceans. Y figure notamment une carte du fond des océans établie à partir de 5 969 sondages et la plus grande fosse connue qui a été trouvée dans le Pacifique, à 9 636 m. La distribution des animaux est analysée, ainsi que leur adaptation à la vie dans les grandes profondeurs.
Après celles des Britanniques, les campagnes océanographiques se multiplient : expédition américaine avec le Blake et l'Albatros 1888, allemande avec le Valdivia 1899, néerlandaise avec le Sigoba 1900. En France, Alphonse Milne-Edwards le fils de Henri, à partir de 1880, effectue des expéditions du golfe de Gascogne à Madère et en Méditerranée à bord du Travailleur, petit bâtiment de guerre à roues de la Marine nationale. Mais ce dernier « n'a pas été construit pour exécuter de lointains voyages », écrit Milne-Edwards en 1884. L'amiral Jauréguiberry, alors ministre de la Marine, ordonne qu'un éclaireur d'escadre, le Talisman, soit aménagé en vue d'une campagne d'exploration sous-marine. En 1883, le Talisman fait des récoltes profondes jusqu'aux îles du Cap-Vert, dans la mer des Sargasses et au large des Açores. Lors d'un sondage, une profondeur de 6 250 m est découverte. Tous les animaux capturés poissons, crustacés... sont décrits et conservés par le Muséum national d'histoire naturelle à Paris, où ils figurent depuis parmi les collections.
Animaux luminescents. Le prince Albert Ier de Monaco met ses yachts au service des scientifiques, pour des campagnes de recherche océanographique en Méditerranée et dans l'Atlantique nord. En 1901, un poisson, est pêché à 6 035 m : Grimaldichtys profundissimus. Après un ralentissement des campagnes, lié à la Première Guerre mondiale, il faut attendre le début des années 1930 pour que le biologiste américain William Beebe invente la « Bathysphère » : une sphère d'acier d'un diamètre de 1,45 m, épaisse de 3 cm, pourvue de trois hublots et suspendue à un câble de 1 200 m. Beebe fut un précurseur voir l'encadré : « Les submersibles visiteurs des abysses ». Beebe effectue plusieurs plongées au large des Bermudes. Il tombe sous le charme de la beauté des animaux luminescents : « Les teintes sous-marines sont indescriptibles d'après la gamme des couleurs terrestres et, de même, notre langage devient vague et limité si nous l'utilisons pour reconstituer des images sous-marines. Même les poissons les plus vulgaires, ceux que l'on trouve non loin de la surface, sont entièrement différents, quand on est à leur hauteur, de ce qu'ils sont quand on les regarde d'en haut. [...] Bientôt notre vue s'adaptant, notre petit monde commence à être rempli de voies lactées, de constellations, de météores et de comètes blanches et bleues. Peu à peu nous réussissons à expliquer la raison de toutes ces lumières. [...] Une fois de plus, nous ne pouvons que demeurer muets, nous ne pouvons que rester là et bien regarder, afin de nous souvenir plus tard de toutes ces merveilles qui nous donneront envie de recommencer le plus tôt possible. »
La course aux abîmes ne reprendra de l'ampleur qu'après la Seconde Guerre mondiale pour les grandes nations maritimes comme la Grande- Bretagne, les Etats-Unis, les pays scandinaves, le Japon, etc. Les navires suédois Albatross 1947-1948 et danois Galathea 1950-1952 pêchent dans les fosses océaniques jusqu'à plus de 10 000 m. Le navire soviétique Vitiaz découvre, à 11 000 m dans le Pacifique, la plus grande profondeur connue, la fosse des Mariannes. Les grands laboratoires américains, financés partiellement par l'US Navy, explorent la côte atlantique Woods Hole Oceanographic Institution et la côte pacifique Scripps Institution of Oceanography. Toutes ces campagnes révèlent une diversité d'espèces beaucoup plus grande que ce qu'on avait cru jusqu'alors et viennent confirmer, au début des années 1960, la théorie révolutionnaire de la tectonique des plaques lire l'article de Catherine Mével, p. 38.
Sources hydrothermales. C'est seulement à cette époque que l'océanographie des grandes fonds est relancée en France avec le Thalassa, chalutier de recherche de l'Institut scientifique et technique des pêches maritimes devenu depuis l'Ifremer : il commence en 1960 une fructueuse carrière, qui durera trente-six ans, au service de l'océanographie des pêches. Désormais, chaque année, des expéditions françaises mobilisent différents navires - dont les derniers-nés des années 1990, l'Atalante et une nouvelle Thalassa - pour explorer les grandes profondeurs océaniques lire l'article de Patrice Cayré et Bertrand Richer de Forges p. 59.
A la fin des années 1980, on découvre sur le sommet des dorsales médio-océaniques des sources hydrothermales auxquelles sont associées des communautés animales dont l'existence révèle une nouvelle forme de vie indépendante de l'énergie solaire lire l'article de Frank Zals, p. 22 : ce pourrait être là qu'il faut rechercher la première forme de vie apparue sur notre Globe, au fond des mers, il y a trois milliards d'années. En cent cinquante ans, l'océanographie a profondément bouleversé notre vision des grandes profondeurs. Mais les mécanismes qui commandent la vie sous-marine commencent seulement à être compris.
Par Patrick Geistdoerfer
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
ABEILLES SAUVAGES |
|
|
|
|
|
1. Les abeilles sauvages, butineuses menacées
palmarès - par Lise Barnéoud dans mensuel n°483 daté décembre 2013 à la page 24 (1925 mots) | Gratuit
L'année 2013 signe leur revanche. Discrets et le plus souvent solitaires, les insectes pollinisateurs sauvages étaient jusqu'alors éclipsés par leur cousine domestique : l'abeille Apis mellifera, considérée comme la reine des butineuses et à ce titre vue comme un précieux auxiliaire agricole. En effet, nombreuses sont les plantes qui nécessitent, à des degrés divers, l'intervention d'insectes pour leur reproduction. Sans ces transporteurs de pollen, la plupart des fruits et légumes de nos contrées n'existeraient pas. Adieu également café, cacao, poivre ou encore vanille... Or, selon une étude internationale publiée en mars, cette distinction était largement usurpée : les abeilles sauvages (dont les bourdons), mais aussi certaines guêpes et mouches sont des pollinisateurs bien plus efficaces que l'abeille domestique [1].
De quoi réjouir les agriculteurs, confrontés à l'hécatombe de cette dernière (lire « Les abeilles domestiques s'effondrent », p. 27) ? Hélas, peut-être pas. Car la reconnaissance du rôle des pollinisateurs sauvages s'accompagne d'un signal d'alarme : eux aussi déclinent [2].
Et c'est plus qu'inquiétant puisque, comme l'a montré une troisième étude, la disparition de quelques espèces dans une zone donnée suffit parfois à diminuer la productivité des plantes [3].
Voilà des millénaires que l'homme n'en a que pour les abeilles mellifères, domestiquées dès l'Antiquité. Et pour cause : le miel qu'elles produisent en grandes quantités est l'aliment le plus concentré en sucres disponible à l'état sauvage. Reste qu'au-delà des sept espèces connues dans le monde (Apis mellifera étant la plus représentée d'entre elles), il existe environ 20 000 espèces d'abeilles sauvages, au mode de vie essentiellement solitaire, qui vivent cachées dans le sol, dans le bois, contre les murs ou les rochers. Mais aussi quelque 6 000 espèces de syrphes, petites mouches rayées qui se nourrissent de nectar, environ 5 000 espèces de guêpes, sans parler des papillons et même des fourmis qui passent de fleur en fleur.
Tous ces insectes, qui appartiennent à des groupes très différents, sont susceptibles de participer à la pollinisation des plantes en transportant les grains de pollen depuis les étamines (organe mâle) d'une fleur jusqu'au stigmate (organe femelle) d'une autre. Mais jusqu'alors, leur efficacité pollinisatrice n'avait fait l'objet que de rares études.
Tournesols, courges et amandiers
En 2006, un premier article avait montré que certaines cultures de tournesols produisaient jusqu'à cinq fois plus de semences lorsqu'elles étaient visitées par les abeilles domestiques et les abeilles sauvages [4]. Un constat complété en 2008 sur les cultures de courges puis d'amandiers : dans les deux cas, la présence d'abeilles sauvages permet d'augmenter le taux de fructification, c'est-à-dire le pourcentage de fleurs qui donnent des fruits. « Ces exemples individuels étaient intéressants, mais ils ne permettaient pas d'extrapoler à l'ensemble des cultures dites "entomophiles" qui dépendent des insectes pour leur pollinisation », retrace Bernard Vaissière, spécialiste de la pollinisation à l'Institut national de la recherche agronomique d'Avignon.
Mais en 2011, les résultats d'une première étude de plus grande envergure sont rendus publics. Coordonnée par Lucas Garibaldi et Alexandra-Maria Klein, respectivement de l'université de Rio Negro, en Argentine, et de l'université de Lunebourg, en Allemagne, cette étude a porté sur 369 parcelles et 21 cultures différentes dans 15 pays [5]. Les observations réalisées montrent que plus les cultures sont éloignées des zones naturelles telles que des forêts, des friches ou des prairies permanentes, plus le taux de fructification diminue. Or, cette diminution est corrélée à une baisse de la diversité des pollinisateurs sauvages dans les cultures en question. Ainsi, les champs situés à 1 kilomètre des zones sauvages possèdent une diversité en pollinisateurs environ 25 % plus faible et un taux de fructification inférieur de 9 % à celui des champs qui jouxtent ces milieux préservés, alors que le nombre d'abeilles mellifères qui les visitent est identique.
Déjà importants, ces résultats sont désormais surpassés par ceux que les deux scientifiques ont publiés en 2013. Avec leurs 48 coauteurs issus de 17 pays, ils ont cette fois observé 600 parcelles réparties sur les 5 continents, incluant 41 cultures différentes, c'est-à-dire la majorité des cultures entomophiles [fig. 1]. Les pratiques culturales étaient variées, allant de la monoculture intensive à la culture biologique. Et la moitié des parcelles étudiées était située à proximité de ruches, facilitant la comparaison entre les pollinisateurs sauvages et les abeilles domestiques.
Dans chacune de ces 600 parcelles, les observateurs ont compté le nombre d'espèces de pollinisateurs visitant les fleurs d'une plante ou, dans le cas des arbres fruitiers, d'une branche, sur un certain laps de temps (allant de quelques minutes à une heure). Ils ont alors constaté qu'en moyenne chaque parcelle est fréquentée par 9 espèces différentes d'insectes pollinisateurs. Essentiellement des abeilles (sauvages et/ou domestiques), mais aussi des syrphes, ainsi que quelques papillons ou guêpes. En termes quantitatifs, Apis mellifera est la plus représentée dans la plupart des parcelles.
Fructification accrue
Pour 32 cultures, ils ont ensuite mesuré le succès de ces visites en comptant le pourcentage de fleurs ayant produit des fruits ou des graines. Les résultats sont sans appel : lorsque les visites de pollinisateurs sauvages augmentent, le taux de fructification augmente aussi, quelle que soit la culture considérée. En revanche, en cas de visites plus nombreuses des abeilles domestiques, il n'augmente que pour 14 % des cultures. Plus frappant encore : l'augmentation de fructification induite par les pollinisateurs sauvages est deux fois plus élevée que celle induite par la butineuse domestique. Enfin, le taux de fructification maximum n'est atteint que lorsque ces parcelles sont visitées à de nombreuses reprises, à la fois par des pollinisateurs sauvages et par l'abeille mellifère.
« Il s'agit d'une étude majeure qui démontre clairement l'importance de ces insectes sauvages dans la pollinisation des cultures », juge Bernard Vaissière, qui regrette toutefois que les auteurs n'aient pas pris en considération les variétés des différentes espèces cultivées. « Le niveau de dépendance aux insectes peut énormément varier en fonction des variétés végétales », explique-t-il. « C'est exact, reconnaît Lucas Garibaldi. Mais nos résultats étant identiques quelles que soient les cultures, on peut penser qu'ils ne dépendent pas non plus du type de variétés utilisées. »
Quoi qu'il en soit, il y a désormais peu de doute que les insectes pollinisateurs sauvages, et surtout les abeilles sauvages, sont plus efficaces que leurs cousines domestiques pour induire une fructification. Comment cela se fait-il ? Les chercheurs ont mis en évidence un phénomène susceptible de l'expliquer, au moins en partie. Pour 14 cultures, ils ont mesuré le nombre de grains de pollen déposé sur un stigmate après la visite des différents insectes. Or, ils ont constaté que les abeilles mellifères déposent en moyenne plus de pollen que les abeilles sauvages. Ce qui veut dire qu'un même pollen est moins efficace en termes de fécondation lorsqu'il a été transporté par Apis mellifera, qu'après son transport par une abeille sauvage.
Pollen plus disponible
Pour Bernard Vaissière, cela viendrait du fait que les abeilles mellifères mélangent le pollen avec du miel dilué ou du nectar, suc produit par les glandes nectarifères situées à la base de certaines fleurs. « Ce mélange réduit la viabilité du pollen, estime-t-il. En revanche, à part les bourdons, la plupart des abeilles sauvages transportent majoritairement le pollen à sec, dans des brosses de poils situées au niveau des pattes postérieures ou de la face ventrale de l'abdomen. Il reste ainsi plus viable et disponible pour la pollinisation. »
Lucas Garibaldi, lui, privilégie une autre piste : le fait que les abeilles domestiques sont beaucoup plus fidèles que les abeilles sauvages à leur source de nourriture, allant jusqu'à privilégier une plante individuelle donnée, dans un champ donné. « Or, pour se reproduire efficacement, de nombreuses plantes nécessitent une pollinisation croisée, le pollen devant être transporté d'une plante vers une autre de la même espèce. Les abeilles sauvages procèdent bien davantage ainsi. »
Quelle que soit l'explication, les observateurs sont confrontés à un fait alarmant : tout comme les butineuses des ruches, les pollinisateurs sauvages déclinent de façon préoccupante. On s'en est d'abord rendu compte pour les bourdons. Aux États-Unis, 4 espèces ont décru en vingt ans, la diminution atteignant 96 % par endroits [6]. Et plusieurs dizaines d'extinctions de bourdons ont aussi été recensées localement en Europe [7].
Puis, début 2013, Laura Burkle de l'université Washington à Saint-Louis, dans le Missouri, a élargi ce constat. Après avoir étudié des parcelles de forêt de l'Illinois, aux États-Unis, et comparé ses observations avec des relevés effectués en ces mêmes lieux à la fin des années 1800 ainsi qu'en 1970, elle a conclu que la diversité des interactions entre plantes et insectes pollinisateurs avait diminué de moitié en l'espace de cent vingt ans. En se focalisant sur une seule espèce de plante, Claytonia virginica, petite fleur blanche très abondante au printemps, elle a découvert que ce déclin s'était en fait produit au cours des quarante dernières années. Et elle a aussi noté que chaque fleur recevait quatre fois moins de visites en 2010 qu'en 1970.
Butinage sélectif
Vu le nombre et la diversité des pollinisateurs sauvages, on aurait pu espérer que la disparition de quelques espèces n'ait pas d'impact notable sur la pollinisation. Las... L'étude publiée en août 2013 par Berry Brosi de l'université Emory, à Atlanta, et Heather Briggs de l'université de Californie montre qu'il en va tout autrement.
Les deux écologues ont d'abord délimité 20 parcelles, chacune de la taille d'un cours de tennis, dans des prairies des Rocheuses du Colorado. Ils ont ensuite déterminé quelles étaient les différentes espèces de pollinisateurs présentes. Puis, pour chaque parcelle, ils ont enlevé l'espèce la plus abondante (à chaque fois, une espèce de bourdon). Ils ont alors constaté que les pollinisateurs restants devenaient moins sélectifs. Plutôt que de butiner une seule espèce de plante, ils allaient se nourrir sur 4 ou 5 espèces différentes et en mélangeaient les pollens. Résultat : l'efficacité de la pollinisation s'en trouvait réduite, car la quantité de pollen spécifique déposé sur une plante donnée n'était pas suffisante [fig. 2]. Chez la fleur sauvage que les chercheurs avaient plus précisément choisi d'observer, Delphinium barbeyi, abondante sur le site, ils ont comptabilisé une diminution moyenne de 32 % du nombre de graines produites.
Au vu de ces résultats, il est d'autant plus important d'enrayer le déclin des abeilles sauvages afin de préserver leur apport. Comment ? « En conservant des zones naturelles intactes proches des cultures, en favorisant la diversification agricole et en évitant l'usage d'insecticides », suggèrent Lucas Garibaldi et ses coauteurs. Ce qui ne correspond pas vraiment à la tendance actuelle, qui prétend limiter l'érosion de la biodiversité, en préservant, certes, les dernières zones sauvages, mais en intensifiant les cultures. Quitte à ajouter quelques ruches pour « remplacer » les pollinisateurs sauvages.
Pratiques agricoles à réviser.
Publiée en juillet 2013, une étude financée par l'Union européenne dans le cadre du programme STEP (acronyme anglais de « situation et tendances des pollinisateurs européens ») confirme la nécessité de changer en profondeur les pratiques agricoles [8]. En comparant 71 sites de cultures et de prairies à travers l'Europe, ses auteurs montrent que la mise en place de pratiques agro-environnementales telles que la conservation des talus et des bosquets, la création de bandes fleuries ou encore un usage limité de produits phytosanitaires, augmente la richesse et l'abondance des pollinisateurs sauvages les plus communs.
Un avantage en termes de productivité agricole, certes, mais pas seulement. Car ces insectes ne butinent pas que nos plantes cultivées ! Au-delà de leur intérêt économique pour l'agriculture, les insectes pollinisateurs sont les véritables artisans de nos paysages puisque près de 80 % de notre flore en dépend. Sans eux, plus de couleurs éclatantes chaque printemps, plus d'odeurs enivrantes dans la garrigue, plus de framboises ni de mûres sauvages à déguster au détour d'un chemin. Un service inestimable, impossible à chiffrer.
Par Lise Barnéoud
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|