ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LES FRONTIÈRES DE LA BIOLOGIE

 

Les Frontières de la biologie


et aussi - par Jacques Monod dans mensuel n°99 daté mai 2000 à la page 21 (5507 mots) | Gratuit
Le Hasard et la Nécessité, essai sur la philosophie naturelle de la biologie moléculaire : c'est sous ce titre que va paraître aux éditions du Seuil le dernier ouvrage du professeur Jacques Monod. Ce livre, dont sont extraites les pages ci- dessous, développe certains thèmes exposés par l'auteur dans sa leçon inaugurale au Collège de France du 3 novembre 1967. Dans cette leçon, le professeur Monod avait cité le mot de Démocrite : « Tout ce qui existe est le fruit du hasard et de la nécessité. » Lors de son face à face avec Pierre-Henri Simon, publié par ta revue Atomes il y a exactement un an, il avait proposé ce commentaire lapidaire : « Le hasard est dans la structure de l'ADN, la nécessité est dans la sélection. » Tel est le fil conducteur d'une réflexion qui débouche sur le rôle du langage dans l'« émergence » de l'homme. Qu'un tel discours dépasse les limites de la « science », l'auteur en est parfaitement conscient. Ces quelques lignes, extraites de la préface, précisent à la fois l'ambition et les limites de son projet : « Il reste à éviter, bien entendu, toute confusion. entre les idées suggérées par la science et la science elle-même, mais aussi faut-il pousser à leur limite les conclusions que la science autorise afin d'en révéler la pleine signification ... . Cet essai ne prétend nullement exposer la biologie entière, mais tente franchement d'extraire la quintessence de la théorie moléculaire du code ... . Je ne puis que prendre la pleine responsabilité des développements d'ordre éthique sinon politique que je n'ai pas voulu éviter, si périlleux fussent-ils ou naïfs ou trop ambitieux qu'ils puissent, malgré moi, paraître.»

Lorsqu'on songe à l'immense chemin parcouru par l'évolution depuis peut-être trois milliards d'années, à la prodigieuse richesse des structures qu'elle a créées, à la miraculeuse efficacité des performances des êtres vivants, de la Bactérie à l'Homme, on peut bien se reprendre à douter que tout cela puisse être le produit d'une énorme loterie, tirant au hasard des numéros parmi lesquels une sélection aveugle a désigné de rares gagnants. A revoir dans leur détail les preuves aujourd'hui accumulées que cette conception est bien la seule qui soit compatible avec les faits notamment avec les mécanismes moléculaires de la réplication, de la mutation et de la traduction on retrouve la certitude, mais non pour autant une compréhension immédiate, synthétique et intuitive de l'évolution dans son ensemble. Le miracle est «expliqué» : il nous paraît encore miraculeux. Comme l'écrit Mauriac : « Ce que dit ce professeur est bien plus incroyable encore que ce que nous croyons, nous autres pauvres chrétiens. »

Les frontières actuelles de la connaissance biologique.

C'est vrai, comme il est vrai qu'on ne parvient pas à se faire une image mentale satisfaisante de certaines abstractions de la physique moderne. Mais nous savons aussi que de telles difficultés ne peuvent être prises pour argument contre une théorie qui a pour elle les certitudes de l'expérience et de la logique. Pour la physique, microscopique ou cosmologique, nous voyons la cause de l'incompréhension intuitive : l'échelle des phénomènes envisagés transcende les catégories de notre expérience immédiate. Seule l'abstraction peut suppléer à cette infirmité, sans la guérir. Pour la biologie la difficulté est d'un autre ordre. Les interactions élémentaires sur quoi tout repose sont d'appréhension relativement facile grâce à leur caractère mécanistique. C'est la phénoménale complexité des systèmes vivants qui défie toute représentation intuitive globale. En biologie comme en physique, il n'y a pas, dans ces difficultés subjectives, d'argument contre la théorie.

On peut dire aujourd'hui que les mécanismes élémentaires de l'évolution sont non seulement compris en principe, mais identifiés avec précision. La solution trouvée est d'autant plus satisfaisante qu'il s'agit des mécanismes mêmes qui assurent la stabilité des espèces : invariance réplicative de l'ADN, cohérence téléonomique des organismes.

L'évolution n'en demeure pas moins en biologie la notion centrale destinée à s'enrichir et à se préciser pendant longtemps encore. Pour l'essentiel, cependant, le problème est résolu et l'évolution ne figure plus aux frontières de la connaissance.

Ces frontières je les vois, pour ma part, aux deux extrémités de l'évolution : l'origine des premiers systèmes vivants d'une part, et d'autre part le fonctionnement du système le plus intensément téléonomique qui ait jamais émergé, je veux dire le système nerveux central de l'homme. Dans le présent chapitre, je voudrais tenter de délimiter ces deux frontières de l'inconnu.

Le problème des origines.

On pourrait penser que la découverte des mécanismes universels sur lesquels reposent les propriétés essentielles des êtres vivants a éclairé la solution du problème des origines. En fait ces découvertes, en renouvelant presque entièrement la question, posée aujourd'hui en termes beaucoup plus précis, l'ont révélée plus difficile encore qu'elle ne paraissait auparavant.

On peut a priori définir trois étapes dans le processus qui a pu conduire à l'apparition des premiers organismes : a la formation sur la terre des constituants chimiques essentiels des êtres vivants, nucléotides et amino-acides ; b la formation, à partir de ces matériaux, des premières macromolécules capables de réplication ; c l'évolution qui, autour de ces « structures réplicatives », a construit un appareil téléonomique, pour aboutir à la cellule primitive.

Les problèmes que pose l'interprétation de chacune de ces étapes sont différents. La première, souvent appelée la phase « prébiotique », est assez largement accessible, non seulement à la théorie, mais à l'expérience. Si l'incertitude demeure, et demeurera sans doute, sur les voies qu'a suivies en fait l'évolution chimique prébiotique, le tableau d'ensemble paraît assez clair. Les conditions de l'atmosphère et de la croûte terrestre, il y a quatre milliards d'années, étaient favorables à l'accumulation de certains composés simples du carbone tels que le méthane. Il y avait aussi de l'eau et de l'ammoniac. Or, de ces composés simples et en présence de catalyseurs non biologiques, on obtient assez facilement de nombreux corps plus complexes, parmi lesquels figurent des acides aminés et des précurseurs des nucléotides bases azotées, sucres. Le fait remarquable est que, dans certaines conditions, dont la réunion paraît très plausible, le rendement de ces synthèses en corps identiques ou analogues aux constituants de la cellule moderne est très élevé.

On peut donc considérer comme prouvé qu'à un moment donné sur la terre, certaines étendues d'eau pouvaient contenir en solution des concentrations élevées des constituants essentiels des deux classes de macromolécules biologiques, acides nucléiques et protéines. Dans cette « soupe prébiotique » diverses macromolécules pouvaient se former par polymérisation de leurs précurseurs, amino-acides et nucléotides. On a obtenu en effet au laboratoire, dans des conditions plausibles », des polypeptides et des polynucléotides semblables par leur structure générale aux macromolécules « modernes ».

Jusque-là par conséquent, pas de difficultés majeures. Mais la première étape décisive n'est pas franchie : la formation de macromolécules capables, dans les conditions de la soupe primitive, de promouvoir leur propre réplication sans le secours d'aucun appareil téléonomîque. Cette difficulté ne semble pas insurmontable. On a montré qu'une séquence polynucléotidique peut effectivement guider, par appariement spontané, la formation d'éléments de séquence complémentaire. Bien entendu un tel mécanisme ne pouvait être que très inefficace et sujet à d'innombrables erreurs. Mais, du moment où il entrait en jeu, les trois processus fondamentaux de l'évolution : réplication, mutation, sélection, avaient commencé d'opérer et devaient donner un avantage considérable aux macromolécules les plus aptes, par leur structure séquentielle, à se répliquer spontanément 1.

La troisième étape c'est, par hypothèse, l'émergence graduelle des systèmes téléonomiques qui, autour de la structure réplicative, devaient construire un organisme, une cellule primitive. C'est ici qu'on atteint le véritable « mur du son », car nous n'avons aucune idée de ce que pouvait être la structure d'une cellule primitive. Le système vivant le plus simple que nous connaissions, la cellule bactérienne, petite machinerie d'une complexité comme d'une efficacité extrêmes, avait peut-être atteint son présent état de perfection il y a plus d'un milliar d'années. Le plan d'ensemble de la chimie de cette cellule est le même que celui de tous les autres êtres vivants. Elle emploie le même code génétique et la même mécanique de traduction que les cellules humaines, par exemple.

Ainsi, les cellules les plus simples qu'il nous soit donné d'étudier, n'ont rien de « primitif ». Elles sont le produit d'une sélection qui a pu, au travers de cinq cents ou mille milliards de générations, accumuler un appareillage téléonomique si puissant que les vestiges des structures vraiment primitives sont indiscernables. Reconstruire, sans fossiles, une telle évolution est impossible. Encore voudrait-on pouvoir au moins suggérer une hypothèse plausible quant à la voie suivie par cette évolution, surtout à son point de départ.

L'énigme de l'origine du code.

Le développement du système métabolique qui a dû, à mesure que s'appauvrissait la soupe primitive, « apprendre » à mobiliser le potentiel chimique et à synthétiser les constituants cellulaires pose des problèmes herculéens. Il en est de même pour l'émergence de la membrane à perméabilité sélective sans quoi il ne peut y avoir de cellule viable. Mais le problème majeur, c'est l'origine du code génétique et du mécanisme de sa traduction. En fait, ce n'est pas de « problème » qu'il faudrait parler, mais plutôt d'une véritable énigme.

Le code n'a pas de sens à moins d'être traduit. La machine à traduire de la cellule moderne comporte au moins cinquante constituants macromoléculaires qui sont eux-mêmes codés dans l'ADN : le code ne peut être traduit que par des produits de traduction. C'est l'expression moderne de omne vivum ex ovo . Quand et comment cette boucle s'est-elle fermée sur elle-même ? Il est excessivement difficile de l'imaginer. Mais le fait que le code soit aujourd'hui déchiffré et connu pour être universel permet au moins de poser le problème en termes précis; en simplifiant un peu sous forme de l'alternative suivante :

a la structure du code s'explique par des raisons chimiques, ou plus exactement stéréochimiques ; si un certain codon a été « choisi » pour représenter un certain amino-acide, c'est parce qu'il existait entre eux une certaine affinité stéréochimique ;

b la structure du code est chimiquement arbitraire ; le code, tel que nous le connaissons, résulte d'une série de choix au hasard qui l'ont enrichi peu à peu.

La première hypothèse paraît de loin la plus séduisante. D'abord parce qu'elle expliquerait l'universalité du code. Ensuite parce qu'elle permettrait d'imaginer un mécanisme primitif de traduction dans lequel l'alignement séquentiel des amino-acides pour former un polypeptide serait dû à une interaction directe entre les amino-acides et la structure réplicative elle-même. Enfin, et surtout, parce que cette hypothèse, si elle était vraie, serait en principe vérifiable. Aussi de nombreuses tentatives de vérification ont-elles été faites, dont le bilan doit considéré, pour l'instant, comme2.

Peut-être le dernier mot n'a-t-il pas été dit sur ce sujet. En attendant une confirmation qui paraît improbable, on est ramené à la seconde hypothèse, désagréable pour des raisons méthodologiques, ce qui ne signifie nullement qu'elle soit inexacte. Désagréable pour plusieurs raisons. Elle n'explique pas l'universalité du code. Il faut alors admettre que parmi de nombreuses tentatives d'élaboration, une seule a survécu. Ce qui en soi est très vraisemblable d'ailleurs, mais ne propose aucun modèle de traduction primitive. La spéculation doit alors y suppléer. Il n'en manque pas de très ingénieuses le champ est libre, trop libre.

L'énigme demeure, qui masque aussi la réponse à une question d'un profond intérêt. La vie est apparue sur la terre : quel était avant l'événement la probabilité qu'il en fût ainsi ? L'hypothèse n'est pas exclue, au contraire, par la structure actuelle de la biosphère, que l'événement décisif ne se soit produit qu'une seule fois. Ce qui signifierait que sa probabilité a priori était quasi nulle.

Cette idée répugne à la plupart des hommes de science. D'un événement unique la science ne peut rien dire ni rien faire. Elle ne peut « discourir » que sur des événements formant une classe, et dont la probabilité a priori, si faible soit-elle, est finie. Or par l'universalité même de ses structures, à commencer par le code, la biosphère apparaît comme le produit d'un événement unique. Il est possible, bien entendu, que ce caractère singulier soit dû à l'élimination, par la sélection, de beaucoup d'autres tentatives ou variantes. Mais rien n'impose cette interprétation.

La probabilité a priori que se produise un événement particulier parmi tous les événements possibles dans l'univers est voisine de zéro. Cependant l'univers existe ; il faut bien que des événements particuliers s'y produisent, dont la probabilité avant l'événement était infime. Nous n'avons, à l'heure actuelle, pas le droit d'affirmer, ni celui de nier que la vie soit apparue une seule fois sur la Terre, et que, par conséquent, avant qu'elle ne fût, ses chances d'être étaient quasi nulles.

Cette idée n'est pas seulement désagréable aux biologistes en tant qu'hommes de science. Elle heurte notre tendance humaine à croire que toute chose réelle dans l'univers actuel était nécessaire, et de tout temps. Il nous faut toujours être en garde contre ce sentiment si puissant du destin. La science moderne ignore toute immanence. Le destin s'écrit à mesure qu'il s'accomplit, pas avant. Le nôtre ne l'était pas avant que n'émerge l'espèce humaine, seule dans la biosphère à utiliser un système logique de communication symbolique. Autre événement unique qui devrait, par cela même, nous prévenir contre tout anthropocentrisme. S'il fut unique, comme peut-être le fut l'apparition de la vie elle- même, c'est qu'avant de paraître, ses chances étaient quasi nulles. L'Univers n'était pas gros de la vie, ni la biosphère de l'homme. Notre numéro est sorti au jeu de Monte-Carlo. Quoi d'étonnant à être ce que, tel celui qui vient d'y gagner un milliard, nous éprouvions l'étrangeté de notre condition ?

L'autre frontière : le système nerveux central.

Le logicien pourrait avertir le biologiste que ses efforts pour « comprendre » le fonctionnement entier du cerveau humain sont voués à l'échec puisque aucun système logique ne saurait décrire intégralement sa propre structure. Cet avertissement serait hors de propos, tant on est loin encore de cette frontière absolue de la connaissance. De toute façon cette objection logique ne s'applique pas à l'analyse par l'homme du système nerveux central d'un animal. Système qu'on Peut supposer moins complexe et moins puissant que le nôtre. Même dans ce cas, cependant, il demeure une difficulté majeure : l'expérience consciente d'un animal nous est impénétrable et sans doute le sera-t-elle toujours. Peut-on affirmer qu'une description exhaustive du fonctionnement du cerveau d'une grenouille, par exemple, serait possible, en principe, alors que cette donnée demeurerait inaccessible ? Il est permis d'en douter. De sorte que l'exploration du cerveau humain, malgré les barrières opposées à l'expérimentation, demeurera toujours irremplaçable, par la possibilité qu'elle offre de comparer les données objectives et subjectives relatives à une expérience. Quoi qu'il en soit, la structure et le fonctionnement du cerveau peuvent et doivent être explorés simultanément à tous les niveaux accessibles avec l'espoir que ces recherches, très différentes par leurs méthodes comme par leur objet immédiat, convergeront un jour. Pour l'instant elles ne convergent guère que par la difficulté des problèmes qu'elles soulèvent toutes. Parmi les plus difficiles et les plus importants, sont les problèmes que pose le développement épigénétique d'une structure aussi complexe que le système nerveux central. Chez l'homme, il comprend 1012 à 1013 neurones interconnectés par l'intermédiaire de quelque 1014 à 1015 synapses, dont certaines associent des cellules nerveuses éloignées les unes des autres. J'ai déjà mentionné l'énigme que propose la réalisation d'interactions morphogénétiques à distance et n'y reviendrai pas ici. Au moins de tels problèmes peuvent-ils être clairement posés grâce, notamment, à certaines remarquables expériences 3.

On ne saurait comprendre le fonctionnement du système nerveux central à moins de connaître celui de l'élément logique primaire que constitue la synapse. De tous les niveaux d'analyse c'est le plus accessible à l'expérience et des techniques raffinées ont livré une masse considérable de documents. On est loin encore, cependant, d'une interprétation de la transmission synaptique en termes d'interactions moléculaires. Problème essentiel cependant, puisque c'est là sans doute que réside l'ultime secret de la mémoire. On a depuis longtemps proposé que celle-ci est enregistrée sous forme d'une altération plus ou moins irréversible des interactions moléculaires responsables de la transmission de l'influx nerveux au niveau d'un ensemble de synapses. Cette théorie a pour elle toute la vraisemblance, mais pas de preuves directes 4.

Malgré cette profonde ignorance concernant les mécanismes primaires du système nerveux central, l'électrophysiologie moderne a fourni sur l'analyse et l'intégration des signaux nerveux, notamment dans certaines voies sensorielles, des résultats profondément signifiants. D'abord sur les propriétés du neurone comme intégrateur des signaux qu'il peut recevoir par l'intermédiaire des synapses de nombreuses autres cellules. L'analyse a prouvé que le neurone est étroitement comparable, par ses performances, aux composants intégrés d'une calculatrice électronique Il est capable comme ceux-ci d'effectuer par exemple toutes les opérations logiques de l'algèbre propositionnelle. Mais en outre il peut additionner ou soustraire différents signaux en tenant compte de leur coïncidence dans le temps, ainsi que modifier la fréquence des signaux qu'il émet en fonction de l'amplitude de ceux qu'il reçoit. En fait, il semble qu'aucun composant unitaire actuellement utilisé par les calculatrices modernes ne soit capable de performances aussi variées et finement modulées Cependant l'analogie demeure impressionnante et la comparaison fructueuse entre les machines cybernétiques et le système nerveux central. Mais il faut voir qu'elle se limite encore aux niveaux inférieurs d'intégration : premiers degrés de l'analyse sensorielle par exemple. Les fonctions supérieures du cortex, dont le langage est l'expression, semblent y échapper encore totalement. On peut se demander s'il n'y a là qu'une différence « quantitative » degré de complexité ou « qualitative ». Cette question n'a pas de sens à mon avis. Rien ne permet de supposer que les interactions élémentaires soient de nature différente à différents niveaux d'intégration. S'il est un cas où la première loi de la dialectique est applicable, c'est bien celui-là.

Fonctions du système nerveux central.

Le raffinement même des fonctions cognitives chez l'homme, et le foisonnement des applications qu'il en fait, masquent pour nous les fonctions primordiales que remplit le cerveau dans la série animale y compris l'homme. Peut-être peut-on énumérer et définir ces fonctions primordiales de la façon suivante :

assurer la commande et la coordination centrale de l'activité neuromotrice en fonction, notamment, des afférences sensorielles ;

contenir, sous forme de circuits génétiquement déterminés, des programmes d'action plus ou moins complexes les déclencher en fonction de stimuli particuliers

analyser, filtrer et intégrer les afférences sensorielles pour construire une représentation du monde extérieur adaptée aux performances spécifiques de l'animal ;

enregistrer les événements qui compte tenu de la gamme des performances spécifiques sont significatifs, les grouper en classes, selon leurs analogies ; associer ces classes selon les relations de coïncidence ou de succession des événements qui les constituent ; enrichir, raffiner et diversifier les programmes innés en y incluant ces expériences ;

imaginer, c'est-à-dire représenter et simuler des événements extérieurs, ou des programmes d'action de l'animal lui-même.

Les fonctions définies par les trois premiers alinéas sont remplies par le système nerveux central d'animaux qu'on ne qualifie généralement pas de supérieurs : arthropodes, par exemple. Les exemples les plus spectaculaires que l'on connaisse de programmes d'action innés très complexes se rencontrent chez les insectes. Il est douteux que les fonctions résumées par le paragraphe 4 jouent un rôle important chez ces animaux 5. En revanche, elles contribuent de façon très importante au comportement des invertébrés supérieurs, tel le poulpe6 ainsi bien entendu qu'à celui de tous les vertébrés.

Quant aux fonctions du paragraphe 5 que l'on pourrait qualifier de « projectives », sans doute sont-elles le privilège des seuls vertébrés supérieurs. Mais ici, la barrière de la conscience s'interpose, et il se peut que nous ne sachions reconnaître les signes extérieurs de cette activité le rêve, par exemple que chez nos proches parents, sans que d'autres espèces en soient absolument privées. Les fonctions 4 et 5 sont cognitives, tandis que celles des paragraphes 1, 2 et 3 sont uniquement coordinatrices et représentatives. Seules les fonctions 5 peuvent être créatrices d'expérience subjective.

L'analyse des impressions sensorielles.

Selon la proposition du paragraphe 3, l'analyse par le système nerveux central des impressions sensorielles fournit une représentation appauvrie et orientée du monde extérieur. Une sorte de résumé où ne figure en pleine lumière que ce qui intéresse particulièrement l'animal en fonction de son comportement spécifique c'est en somme un résumé « critique », le mot étant pris dans une acception complémentaire du sens kantien. L'expérience démontre abondamment qu'il en est bien ainsi. Par exemple, l'analyseur situé derrière l'oeil d'une grenouille lui permet de voir une mouche c'est-à-dire un point noir en mouvement, mais non au repos 7. De sorte que la grenouille ne happera que la mouche en vol. Il faut insister sur le fait, prouvé par l'analyse électrophysiologique, que ce n'est pas là le résultat d'un comportement qui ferait dédaigner par la grenouille un point noir immobile, comme ne représentant pas avec certitude une nourriture. L'image du point immobile s'imprime sans doute sur la rétine, mais elle n'est pas transmise, le système n'étant excité que par un objet en mouvement.

Certaines expériences sur le chat 8 suggèrent une interprétation du fait mystérieux qu'un champ reflétant à la fois toutes les couleurs du spectre soit vu comme une plage blanche, alors que le blanc est subjectivement interprété comme absence de toute couleur. Les expérimentateurs ont montré que, par suite d'inhibitions croisées entre certains neurones répondant respectivement aux diverses longueurs d'ondes, ceux-ci n'envoyaient pas de signaux lorsque la rétine était exposée uniformément à la gamme entière des longueurs d'ondes visibles. Goethe avait donc, en un sens subjectif, raison contre Newton. Erreur éminemment pardonnable à un poète.

Que les animaux soient capables de classer des objets ou des relations entre objets selon des catégories abstraites, notamment géométriques, ne fait aucun doute non plus : un poulpe ou un rat peut apprendre la notion de triangle, de cercle ou de carré et reconnaître sans faute ces figures pour leurs propriétés géométriques, indépendamment de la dimension, de l'orientation ou de la couleur dont on peut habiller l'objet réel qui leur est présenté.

L'étude des circuits qui analysent les figures présentées dans le champ de vision du chat démontre que ces exploits géométriques sont dus à la structure même des circuits qui filtrent et recomposent l'image rétinienne. Ces analyseurs imposent, en définitive, leurs propres restrictions à l'image, dont ils extraient certains éléments simples. Certaines cellules nerveuses, par exemple, ne répondent qu'à la figure d'une droite inclinée de gauche à droite ; d'autres à une droite inclinée en sens inverse. Les « notions » de la géométrie élémentaire ne sont donc pas tant représentées dans l'objet que par l'analyseur sensoriel, qui le perçoit et le recompose à partir de ses éléments les plus simples 9.

Innéisme et empirisme.

Ces découvertes modernes donnent donc raison, en un sens nouveau, à Descartes et à Kant, contre l'empirisme radical qui cependant n'a guère cessé de régner dans la science depuis deux cents ans, jetant la suspicion sur toute hypothèse supposant l' « innéité » des cadres de la connaissance. De nos jours encore certains éthologistes paraissent attachés à l'idée que les éléments du comportement, chez l'animal, sont ou bien innés ou bien appris, chacun de ces deux modes excluant absolument l'autre. Cette conception est entièrement erronée comme Lorenz l'a vigoureusement démontré10. Lorsque le comportement implique des éléments acquis par l'expérience, ils le sont selon un programme qui, lui, est inné, c'est-à-dire génétiquement déterminé. La structure du programme appelle et guide l'apprentissage qui s'inscrira donc dans une certaine « forme » préétablie, définie dans le patrimoine génétique de l'espèce. C'est sans doute ainsi qu'il faut interpréter le processus d'apprentissage primaire du langage chez l'enfant. Il n'y a aucune raison de supposer qu'il n'en soit pas de même pour les catégories fondamentales de la connaissance chez l'Homme, et peut-être aussi pour bien d'autres éléments du comportement humain, moins fondamentaux, mais de grande signification pour l'individu et la société. De tels problèmes sont en principe accessibles à l'expérience. Les éthologistes en conduisent de semblables tous les jours. Expériences cruelles qu'il est impensable de pratiquer sur l'homme, sur l'enfant en fait. De sorte que par respect de soi-même, l'homme ne peut que s'interdire d'explorer certaines des structures constitutives de son être.

La longue controverse sur l'innéité cartésienne des « idées », niée par les empiristes, rappelle celle qui a divisé les biologistes au sujet de la distinction entre phénotype et génotype. Distinction fondamentale, indispensable à la définition même du patrimoine héréditaire pour les généticiens qui l'avaient introduite, mais très suspecte aux yeux de beaucoup de biologistes non généticiens qui n'y voyaient qu'un artifice destiné à sauver le postulat de l'invariance du gène. On retrouve là, une fois de plus, l'opposition entre ceux qui ne veulent connaître que l'objet actuel, concret, dans sa présence entière, et ceux qui cherchent à y discerner la représentation masquée d'une forme idéale. Il n'y a que deux sortes de savants, disait Alain : ceux qui aiment les idées, et ceux qui haïssent les idées. Ces deux attitudes d'esprit s'opposent encore dans la science ; elles sont l'une et l'autre, par leur confrontation, nécessaires à ses progrès. On ne peut que regretter, pour les contempteurs d'idées, que ce progrès, auquel ils contribuent, leur donne invariablement tort. En un sens, très important, les grands empiristes du XVIIIe siècle n'avaient pas tort cependant. Il est parfaitement vrai que tout, chez les êtres vivants vient de l'expérience, y compris l'innéité génétique, que ce soit le comportement stéréotypé des abeilles ou les cadres innés de la connaissance humaine. Mais pas de l'expérience actuelle, renouvelée par chaque individu, à chaque génération : de celle accumulée par l'ascendance entière de l'espèce au cours de l'évolution. Seule cette expérience puisée au hasard, seules ces tentatives innombrables, châtiées par la sélection pouvaient, comme de tout autre organe, faire du système nerveux central un système adapté à sa fonction particulière. Pour le cerveau : donner du monde sensible une représentation adéquate aux performances de l'espèce, fournir le cadre qui permet de classer efficacement les données en elles-mêmes inutilisables de l'expérience immédiate et même, chez l'homme, simuler subjectivement l'expérience pour en anticiper les résultats et préparer l'action.

La fonction de simulation.

C'est le puissant développement et l'usage intensif de la fonction de simulation qui me paraissent caractériser les propriétés uniques du cerveau de l'Homme. Cela au niveau le plus profond des fonctions cognitives, celui sur quoi le langage repose et que sans doute il n'explicite qu'en partie. Cette fonction n'est pas exclusivement humaine cependant. Le jeune chien qui manifeste sa joie en voyant son maître se préparer à la promenade imagine évidemment, c'est-à-dire simule par anticipation, les découvertes qu'il va faire, les aventures qui l'attendent, les frayeurs délicieuses qu'il éprouvera, sans danger, grâce à la rassurante présence de son protecteur. Plus tard, il simulera tout cela à nouveau, pêle-mêle, en rêve. Chez l'animal, comme aussi chez le jeune enfant, la simulation subjective ne semble que partiellement dissociée de l'activité neuromotrice. Son exercice se traduit par le jeu. Mais chez l'homme, la simulation subjective devient la fonction supérieure par excellence, la fonction créatrice. C'est elle qui est reflétée par la symbolique du langage qui l'explicite en transposant et résumant ses opérations. De là le fait, souligné par Chomsky, que le langage, même dans ses emplois les plus humbles, est presque toujours novateur : c'est qu'il traduit une expérience subjective, une simulation particulière, toujours nouvelle. C'est en cela aussi que le langage humain diffère radicalement de la communication animale. Celle-ci se réduit à des appels ou avertissements correspondant à un certain nombre de situations concrètes stéréotypées. L'animal le plus intelligent, capable sans doute de simulations subjectives assez précises, ne dispose d'aucun moyen de « libérer sa conscience », si ce n'est en indiquant grossièrement dans quel sens joue son imagination. L'Homme, lui, sait parler ses expériences subjectives : l'expérience nouvelle, la rencontre créatrice ne périt plus avec celui chez qui elle aura été, pour la première fois, simulée.

Tous les hommes de science ont dû, je pense, prendre conscience de ce que leur réflexion, au niveau profond, n'est pas verbale : c'est une expérience imaginaire, simulée à l'aide de formes, de forces, d'interactions qui ne composent qu'à peine une « image» au sens visuel du terme. Je me suis moi-même surpris, n'ayant à force d'attention centrée sur l'expérience imaginaire plus rien d'autre dans le champ de la conscience, à m'identifier à une molécule de protéine. Cependant ce n'est pas à ce moment qu'apparaît la signification de l'expérience simulée, mais seulement une fois explicitée symboliquement. Je ne crois pas en effet qu'il faille considérer les images non visuelles sur lesquelles opère la simulation comme des symboles, mais plutôt, si j'ose ainsi dire, comme la « réalité » subjective et abstraite, directement offerte à l'expérience imaginaire.

Quoi qu'il en soit, dans l'usage courant, le processus de simulation est entièrement masqué par la parole qui le suit presque immédiatement et semble se confondre avec la pensée elle-même. Mais on sait que de nombreuses observations objectives prouvent que chez l'homme les fonctions cognitives, même complexes, ne sont pas immédiatement liées à la parole ou tout autre moyen d'expression symbolique. On peut citer notamment les études faites sur divers types d'aphasie. Peut-être les expériences les plus impressionnantes sont-elles celles, récentes, de Sperry, sur des sujets dont les deux hémisphères cérébraux avaient été séparés par section chirurgicale du « corpus callosum ». L'oeil droit et la main droite, chez ces sujets, l'hémisphère objet vu par gauche, est reconnu, sans que le sujet puisse le nommer. Or dans certains tests difficiles où il s'agissait d'apparier la forme tridimensionnelle d'un objet tenu dans l'une des deux mains au développement en plan de cette forme, représentée sur un écran, l'hémisphère droit aphasique se montrait de beaucoup supérieur à l'hémisphère «dominant» gauche, et plus rapide dans la discrimination. Il est tentant de spéculer sur la possibilité qu'une part importante, peut-être la plus « profonde » de la simulation subjective, soit assurée par l'hémisphère droit.

S'il est légitime de considérer que la pensée repose sur un processus de simulation subjective, il faut admettre que le haut développement de cette faculté chez l'homme est le résultat d'une évolution au cours de laquelle c'est dans l'action concrète, préparée par l'expérience imaginaire, que l'efficacité de ce processus, sa valeur de survie, a été éprouvée par la sélection. C'est donc pour sa capacité de représentation adéquate et de prévision exacte confirmée par l'expérience concrète que le pouvoir de simulation du système nerveux central, chez nos ancêtres, a été poussé jusqu'à l'état atteint chez Homo sapiens. Le simulateur subjectif n'avait pas le droit de se tromper quand il s'agissait d'organiser une chasse à la Panthère avec les armes dont pouvait disposer l'Australanthrope, le Pithécanthrope, ou même l'Homo sapiens de Cro-Magnon. C'est pour cela que l'instrument logique inné, hérité de nos ancêtres, ne nous trompe pas et nous permet de « comprendre » les événements de l'univers, c'est-à-dire de les décrire en langage symbolique et de les prévoir, pourvu que les éléments d'information nécessaires soient fournis au simulateur.

Instrument d'anticipation s'enrichissant sans cesse des résultats de ses propres expériences, le simulateur est l'instrument de la découverte et de la création. C'est l'analyse de la logique de son fonctionnement subjectif qui a permis de formuler les règles de la logique objective et de créer de nouveaux instruments symboliques, tels que les mathématiques. De grands esprits Einstein se sont souvent émerveillés, à bon droit, du fait que les êtres mathématiques créés par l'homme puissent représenter aussi fidèlement la nature, alors qu'ils ne doivent rien à l'expérience. Rien, c'est vrai, à l'expérience individuelle et concrète, mais tout aux vertus du simulateur forgé par l'expérience innombrable et cruelle de nos humbles ancêtres. En confrontant systématiquement la logique et l'expérience selon la méthode scientifique, c'est en fait toute l'expérience de ces ancêtres que nous confrontons avec l'expérience actuelle.

L'illusion dualiste et la présence de l'esprit.

Si nous pouvons deviner l'existence de ce merveilleux instrument, si nous savons traduire, par le langage, le résultat de ses opérations, nous n'avons aucune idée de son fonctionnement, de sa structure. L'expérimentation physiologique est, à cet égard, presque impuissante encore. L'introspection, avec tous ses dangers, nous en dit malgré tout un peu plus. Reste l'analyse du langage qui cependant ne révèle le processus de simulation qu'au travers de transformations inconnues et n'explicite sans doute pas toutes ses opérations.

Voilà la frontière, presque aussi infranchissable encore pour nous qu'elle l'était pour Descartes. Tant qu'elle n'est pas franchie, le dualisme conserve en somme sa vérité opérationnelle. La notion de cerveau et celle d'esprit ne se confondent pas plus pour nous dans le vécu actuel que pour les hommes du XVIle siècle. L'analyse objective nous oblige à voir une illusion dans le dualisme apparent de l'être. Illusion pourtant si intimement attachée à l'être lui-même qu'il serait bien vain d'espérer jamais la dissiper dans l'appréhension immédiate de la subjectivité, ou d'apprendre à vivre affectivement, moralement, sans elle. Et pourquoi d'ailleurs le faudrait-il ? Qui pourrait douter de la présence de l'esprit ? Renoncer à l'illusion qui voit dans l'âme une « substance » immatérielle, ce n'est pas nier son existence, mais au contraire commencer de reconnaître la complexité, la richesse, l'insondable profondeur de l'héritage génétique et culturel, comme de l'expérience personnelle, consciente ou non, qui ensemble constituent l'être que nous sommes, uni que et irrécusable témoin de soi-même.

Par Jacques Monod


DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

ABYSSES

 

« Des organismes d'une beauté plus exquise »


spécial mer - par Patrick Geistdoerfer dans mensuel n°355 daté juillet 2002 à la page 18 (2274 mots) | Gratuit
On doit à la campagne du navire britannique Challenger , conduite de 1872 à 1876 par Charles Wyville Thomson, la preuve que la vie existe bien dans les abysses. Mais il faudra attendre encore près d'un siècle pour que les scientifiques constatent l'incroyable diversité des espèces peuplant les grandes profondeurs.

Pendant des siècles, l'imagination populaire, aidée par notre parfaite ignorance du monde sous-marin, a peuplé de monstres les grands fonds océaniques. Pourtant, une connaissance plus précise des mers et de leurs habitants se fait jour dès le XVIIIe siècle, celui des Lumières. L'Encyclopédie leur consacre plusieurs articles. L'Académie de marine, société de pensée créée en 1752, rassemblant des astronomes, des hydrographes et des marins, contribue également à ces découvertes. A cette époque, les voyages d'exploration associant marins et naturalistes se multiplient à la recherche de nouveaux mondes et aussi de nouvelles richesses. En France et en Grande- Bretagne, les marines de guerre sont parties prenantes de l'exploration du Globe, comme de nos jours de la recherche océanographique.

Les espèces marines récoltées dans toutes les mers du monde sont inventoriées et étudiées, notamment au Jardin du Roi à Paris, dont la Convention fera le Muséum national d'histoire naturelle. C'est le prélude à la naissance de l'océanographie. Cette science se développera véritablement au cours de la seconde moitié du XIXe siècle aussi bien avec l'étude des zones côtières qu'avec la « course » aux grandes profondeurs, qui sera l'un de ses traits marquants. La géographie du Globe commence à être bien connue. L'intérêt du monde savant se tourne vers les profondeurs océaniques, là où « ne règnent que ténèbres et nuit insondables », comme l'écrivait Héraclite cinq cents ans avant notre ère. Par pure soif de connaissances certes, mais aussi parce que la pose des premiers câbles télégraphiques nécessite une bonne connaissance de leur relief.

En 1844, le naturaliste anglais Edward Forbes, se fondant sur les résultats de ses dragages en mer Egée, affirme qu'il n'y a plus de vie dans les mers au-delà de 600 m. « A mesure que l'on descend dans les profondeurs, écrit-il, les habitants se modifient toujours davantage et deviennent de plus en plus rares, faisant pressentir l'abîme où la vie est éteinte, où, du moins, elle ne manifeste plus sa présence que par quelques étincelles. » Alors même que Forbes soutient sa théorie de la zone azoïque sans vie, plausible à l'époque, bon nombre d'observations l'ont déjà remise en cause.

En 1810, Antoine Risso est le premier à publier la description de crustacés et de poissons de grande profondeur capturés au large de Nice. En 1818, John Ross, au cours d'un sondage en mer de Baffin*, remonte des invertébrés trouvés par 1 500 m de fond. De 1839 à 1843, dans l'Antarctique, au cours de l'expédition britannique de James Clark Ross, Hooker récolte jusqu'à 800 m des anémones, des étoiles de mer et des crustacés. En 1850, le Norvégien Michael Sars remonte des mers scandinaves 19 espèces vivant à plus de 550 m. Son fils, Georg Ossian Sars, fait état en 1864 de 92 espèces différentes capturées entre 360 et 550 m. Il montre la présence d'une vie abondante à plus de 850 m. En 1860, en Méditerranée, le Français Henri de Milne Edwards découvre un corail solitaire et des mollusques fixés sur un câble télégraphique sous-marin reliant la Sardaigne à l'Algérie, remonté de 2 180 m pour une réparation. La vie existe bien dans les grands fonds !

Expéditions océanographiques. Contraints de l'admettre, les sceptiques ne désarment pas : ils présentent cette vie comme misérable et précaire, constituée, comme l'écrit le biologiste Thomas Huxley, d'« animaux aveugles qui triment et qui peinent dans le froid et l'obscurité des abysses ». C'est pour combattre cette conception que les premières grandes expéditions océanographiques sont entreprises dans l'Atlantique nord-est et en Méditerranée, durant les années 1860-1870, à l'instigation de l'Ecossais Charles Wyville Thomson. « Il était question depuis longtemps, écrit Wyville Thomson, parmi les naturalistes, de la possibilité de draguer le fond de la mer par les procédés ordinaires et d'y plonger des récipients et des instruments enregistreurs pour résoudre la question d'un zéro de vie animale, et pour déterminer avec précision la composition et la température de l'eau de mer dans les grandes profondeurs. » Michael Sars ayant récolté un animal d'une famille qui n'était connue que comme un fossile du Crétacé, Wyville Thomson espère lui aussi trouver des formes relictes*. Cet espoir sera déçu. Ce n'est que des années plus tard, en 1938, que sera découvert dans le canal de Mozambique un coelacanthe, survivant d'un groupe de poissons que l'on croyait disparu depuis plus de soixante millions d'années.

A partir de 1868, Wyville Thomson et William B. Carpenter effectuent des dragages jusqu'à 1 200 m de profondeur à bord du Lightning, « petit navire passé depuis longtemps à l'état de sabot, [...] peut-être le plus vieux bateau à roues de Sa Majesté ». En 1869, la Porcupine, canonnière de 382 tonneaux qui remplace le Lightning, drague jusqu'à 4 550 m. Toutes les récoltes confirment que la vie en profondeur est abondante et variée, et que les organismes y sont différents de ceux des eaux superficielles. Dans The Depths of the Seas, premier ouvrage d'océanographie traitant des abysses, publié en 1874, Wyville Thomson écrit : « Le lit de la profonde mer, les 140 000 000 de milles carrés que nous venons d'ajouter au légitime champ d'étude des naturalistes, ne constitue pas un désert stérile. Il est peuplé d'une faune plus riche et plus variée que celle qui pullule dans la zone bien connue des bas-fonds qui bordent la mer ; ces organismes sont encore plus finement et plus délicatement construits, d'une beauté plus exquise, avec les nuances adoucies de leurs coloris et les teintes irisées de leur merveilleuse phosphorescence. » On découvre également que ces eaux sont froides - 2 °C à + 2 °C, alors que l'on pensait jusque-là que la température des grands fonds était uniforme et égale à 4 °C densité maximale de l'eau. Et l'on comprend comment se forment en surface, aux hautes latitudes, les eaux froides qui vont constituer les profondeurs de l'océan mondial. Les observations font conclure à l'existence de courants. Wyville Thomson écrit : « Un courant froid parti des mers polaires passe sur le fond de l'Atlantique. [...] Courant froid d'une grande lenteur. » Lire l'article de Pascale Delécluse, p. 42. Les différences de température et de faune constatées entre les eaux situées à 60° de latitude nord et celles situées au sud de 50° nord suggèrent même l'existence d'une ride immergée, un seuil, allant du Groenland aux îles Féroé, passant par l'Islande et séparant la mer de Norvège du nord de l'océan Atlantique. Son existence est confirmée, en 1880, par les sondages de La Porcupine. Il s'appelle désormais le seuil de Wyville Thomson. Evoquant l'opposition entre les conditions océanographiques régnant de part et d'autre de ce seuil, Johan Hjort écrit en 1912 : « Dans l'histoire des recherches océaniques, rien n'a autant contribué à éveiller l'intérêt que la découverte de communautés animales entièrement différentes vivant de chaque côté du seuil de Wyville Thomson. Les formes atlantiques sont au sud et les formes arctiques au nord du seuil, ce qui correspond à des conditions thermiques très différentes des deux côtés. »

Moisson de données. De décembre 1872 à mai 1876 se déroule, sous la direction de Wyville Thomson, la célèbre campagne autour du monde de Challenger, la corvette de la Royal Navy, beau bâtiment de 68 m de long. Cette campagne de 58 890 milles plus de 100 000 km établit définitivement que la vie existe jusqu'à son plus haut niveau d'organisation à des profondeurs pouvant atteindre 5 200 m, et que les genres et espèces y sont différents de ceux des eaux superficielles. La campagne fournit une énorme moisson de données biologiques et, dans le Pacifique, près des îles Mariannes, une profondeur de 8 180 m est découverte. Le chimiste William Dittmar confirme en 1885 qu'à l'échelle du Globe les proportions relatives des différents sels contenus dans l'eau de mer demeurent constantes entre elles, quelle que soit la teneur totale, ce qui avait déjà été observé par Alexandre Marcet 1819 et Matthew Fontaine Maury 1855. Les résultats de la campagne de Challenger sont publiés dans les Report on the Scientific Results of the Voyage of HMS Challenger during the Years 1873-1876, une cinquantaine de volumes, synthèse des connaissances de l'époque sur les océans, mais aussi à l'origine de l'idée que les grandes profondeurs, bien que froides et obscures, sont riches en espèces différentes. Il faudra attendre près d'un siècle pour que cette croyance soit confirmée.

John Murray, collaborateur de Wyville Thomson, participe à des campagnes océanographiques à bord du Michael Sars. En 1912, avec Johan Hjort, il publie un ouvrage qui relate ces campagnes en Atlantique nord, entre 1900 et 1910, et propose une nouvelle synthèse, The Depths of the Oceans. Y figure notamment une carte du fond des océans établie à partir de 5 969 sondages et la plus grande fosse connue qui a été trouvée dans le Pacifique, à 9 636 m. La distribution des animaux est analysée, ainsi que leur adaptation à la vie dans les grandes profondeurs.

Après celles des Britanniques, les campagnes océanographiques se multiplient : expédition américaine avec le Blake et l'Albatros 1888, allemande avec le Valdivia 1899, néerlandaise avec le Sigoba 1900. En France, Alphonse Milne-Edwards le fils de Henri, à partir de 1880, effectue des expéditions du golfe de Gascogne à Madère et en Méditerranée à bord du Travailleur, petit bâtiment de guerre à roues de la Marine nationale. Mais ce dernier « n'a pas été construit pour exécuter de lointains voyages », écrit Milne-Edwards en 1884. L'amiral Jauréguiberry, alors ministre de la Marine, ordonne qu'un éclaireur d'escadre, le Talisman, soit aménagé en vue d'une campagne d'exploration sous-marine. En 1883, le Talisman fait des récoltes profondes jusqu'aux îles du Cap-Vert, dans la mer des Sargasses et au large des Açores. Lors d'un sondage, une profondeur de 6 250 m est découverte. Tous les animaux capturés poissons, crustacés... sont décrits et conservés par le Muséum national d'histoire naturelle à Paris, où ils figurent depuis parmi les collections.

Animaux luminescents. Le prince Albert Ier de Monaco met ses yachts au service des scientifiques, pour des campagnes de recherche océanographique en Méditerranée et dans l'Atlantique nord. En 1901, un poisson, est pêché à 6 035 m : Grimaldichtys profundissimus. Après un ralentissement des campagnes, lié à la Première Guerre mondiale, il faut attendre le début des années 1930 pour que le biologiste américain William Beebe invente la « Bathysphère » : une sphère d'acier d'un diamètre de 1,45 m, épaisse de 3 cm, pourvue de trois hublots et suspendue à un câble de 1 200 m. Beebe fut un précurseur voir l'encadré : « Les submersibles visiteurs des abysses ». Beebe effectue plusieurs plongées au large des Bermudes. Il tombe sous le charme de la beauté des animaux luminescents : « Les teintes sous-marines sont indescriptibles d'après la gamme des couleurs terrestres et, de même, notre langage devient vague et limité si nous l'utilisons pour reconstituer des images sous-marines. Même les poissons les plus vulgaires, ceux que l'on trouve non loin de la surface, sont entièrement différents, quand on est à leur hauteur, de ce qu'ils sont quand on les regarde d'en haut. [...] Bientôt notre vue s'adaptant, notre petit monde commence à être rempli de voies lactées, de constellations, de météores et de comètes blanches et bleues. Peu à peu nous réussissons à expliquer la raison de toutes ces lumières. [...] Une fois de plus, nous ne pouvons que demeurer muets, nous ne pouvons que rester là et bien regarder, afin de nous souvenir plus tard de toutes ces merveilles qui nous donneront envie de recommencer le plus tôt possible. »

La course aux abîmes ne reprendra de l'ampleur qu'après la Seconde Guerre mondiale pour les grandes nations maritimes comme la Grande- Bretagne, les Etats-Unis, les pays scandinaves, le Japon, etc. Les navires suédois Albatross 1947-1948 et danois Galathea 1950-1952 pêchent dans les fosses océaniques jusqu'à plus de 10 000 m. Le navire soviétique Vitiaz découvre, à 11 000 m dans le Pacifique, la plus grande profondeur connue, la fosse des Mariannes. Les grands laboratoires américains, financés partiellement par l'US Navy, explorent la côte atlantique Woods Hole Oceanographic Institution et la côte pacifique Scripps Institution of Oceanography. Toutes ces campagnes révèlent une diversité d'espèces beaucoup plus grande que ce qu'on avait cru jusqu'alors et viennent confirmer, au début des années 1960, la théorie révolutionnaire de la tectonique des plaques lire l'article de Catherine Mével, p. 38.

Sources hydrothermales. C'est seulement à cette époque que l'océanographie des grandes fonds est relancée en France avec le Thalassa, chalutier de recherche de l'Institut scientifique et technique des pêches maritimes devenu depuis l'Ifremer : il commence en 1960 une fructueuse carrière, qui durera trente-six ans, au service de l'océanographie des pêches. Désormais, chaque année, des expéditions françaises mobilisent différents navires - dont les derniers-nés des années 1990, l'Atalante et une nouvelle Thalassa - pour explorer les grandes profondeurs océaniques lire l'article de Patrice Cayré et Bertrand Richer de Forges p. 59.

A la fin des années 1980, on découvre sur le sommet des dorsales médio-océaniques des sources hydrothermales auxquelles sont associées des communautés animales dont l'existence révèle une nouvelle forme de vie indépendante de l'énergie solaire lire l'article de Frank Zals, p. 22 : ce pourrait être là qu'il faut rechercher la première forme de vie apparue sur notre Globe, au fond des mers, il y a trois milliards d'années. En cent cinquante ans, l'océanographie a profondément bouleversé notre vision des grandes profondeurs. Mais les mécanismes qui commandent la vie sous-marine commencent seulement à être compris.

Par Patrick Geistdoerfer

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

ABEILLES SAUVAGES

 


1. Les abeilles sauvages, butineuses menacées

palmarès - par Lise Barnéoud dans mensuel n°483 daté décembre 2013 à la page 24 (1925 mots) | Gratuit
L'année 2013 signe leur revanche. Discrets et le plus souvent solitaires, les insectes pollinisateurs sauvages étaient jusqu'alors éclipsés par leur cousine domestique : l'abeille Apis mellifera, considérée comme la reine des butineuses et à ce titre vue comme un précieux auxiliaire agricole. En effet, nombreuses sont les plantes qui nécessitent, à des degrés divers, l'intervention d'insectes pour leur reproduction. Sans ces transporteurs de pollen, la plupart des fruits et légumes de nos contrées n'existeraient pas. Adieu également café, cacao, poivre ou encore vanille... Or, selon une étude internationale publiée en mars, cette distinction était largement usurpée : les abeilles sauvages (dont les bourdons), mais aussi certaines guêpes et mouches sont des pollinisateurs bien plus efficaces que l'abeille domestique [1].

De quoi réjouir les agriculteurs, confrontés à l'hécatombe de cette dernière (lire « Les abeilles domestiques s'effondrent », p. 27) ? Hélas, peut-être pas. Car la reconnaissance du rôle des pollinisateurs sauvages s'accompagne d'un signal d'alarme : eux aussi déclinent [2].

Et c'est plus qu'inquiétant puisque, comme l'a montré une troisième étude, la disparition de quelques espèces dans une zone donnée suffit parfois à diminuer la productivité des plantes [3].

Voilà des millénaires que l'homme n'en a que pour les abeilles mellifères, domestiquées dès l'Antiquité. Et pour cause : le miel qu'elles produisent en grandes quantités est l'aliment le plus concentré en sucres disponible à l'état sauvage. Reste qu'au-delà des sept espèces connues dans le monde (Apis mellifera étant la plus représentée d'entre elles), il existe environ 20 000 espèces d'abeilles sauvages, au mode de vie essentiellement solitaire, qui vivent cachées dans le sol, dans le bois, contre les murs ou les rochers. Mais aussi quelque 6 000 espèces de syrphes, petites mouches rayées qui se nourrissent de nectar, environ 5 000 espèces de guêpes, sans parler des papillons et même des fourmis qui passent de fleur en fleur.

Tous ces insectes, qui appartiennent à des groupes très différents, sont susceptibles de participer à la pollinisation des plantes en transportant les grains de pollen depuis les étamines (organe mâle) d'une fleur jusqu'au stigmate (organe femelle) d'une autre. Mais jusqu'alors, leur efficacité pollinisatrice n'avait fait l'objet que de rares études.

Tournesols, courges et amandiers
En 2006, un premier article avait montré que certaines cultures de tournesols produisaient jusqu'à cinq fois plus de semences lorsqu'elles étaient visitées par les abeilles domestiques et les abeilles sauvages [4]. Un constat complété en 2008 sur les cultures de courges puis d'amandiers : dans les deux cas, la présence d'abeilles sauvages permet d'augmenter le taux de fructification, c'est-à-dire le pourcentage de fleurs qui donnent des fruits. « Ces exemples individuels étaient intéressants, mais ils ne permettaient pas d'extrapoler à l'ensemble des cultures dites "entomophiles" qui dépendent des insectes pour leur pollinisation », retrace Bernard Vaissière, spécialiste de la pollinisation à l'Institut national de la recherche agronomique d'Avignon.

Mais en 2011, les résultats d'une première étude de plus grande envergure sont rendus publics. Coordonnée par Lucas Garibaldi et Alexandra-Maria Klein, respectivement de l'université de Rio Negro, en Argentine, et de l'université de Lunebourg, en Allemagne, cette étude a porté sur 369 parcelles et 21 cultures différentes dans 15 pays [5]. Les observations réalisées montrent que plus les cultures sont éloignées des zones naturelles telles que des forêts, des friches ou des prairies permanentes, plus le taux de fructification diminue. Or, cette diminution est corrélée à une baisse de la diversité des pollinisateurs sauvages dans les cultures en question. Ainsi, les champs situés à 1 kilomètre des zones sauvages possèdent une diversité en pollinisateurs environ 25 % plus faible et un taux de fructification inférieur de 9 % à celui des champs qui jouxtent ces milieux préservés, alors que le nombre d'abeilles mellifères qui les visitent est identique.

Déjà importants, ces résultats sont désormais surpassés par ceux que les deux scientifiques ont publiés en 2013. Avec leurs 48 coauteurs issus de 17 pays, ils ont cette fois observé 600 parcelles réparties sur les 5 continents, incluant 41 cultures différentes, c'est-à-dire la majorité des cultures entomophiles [fig. 1]. Les pratiques culturales étaient variées, allant de la monoculture intensive à la culture biologique. Et la moitié des parcelles étudiées était située à proximité de ruches, facilitant la comparaison entre les pollinisateurs sauvages et les abeilles domestiques.

Dans chacune de ces 600 parcelles, les observateurs ont compté le nombre d'espèces de pollinisateurs visitant les fleurs d'une plante ou, dans le cas des arbres fruitiers, d'une branche, sur un certain laps de temps (allant de quelques minutes à une heure). Ils ont alors constaté qu'en moyenne chaque parcelle est fréquentée par 9 espèces différentes d'insectes pollinisateurs. Essentiellement des abeilles (sauvages et/ou domestiques), mais aussi des syrphes, ainsi que quelques papillons ou guêpes. En termes quantitatifs, Apis mellifera est la plus représentée dans la plupart des parcelles.

Fructification accrue
Pour 32 cultures, ils ont ensuite mesuré le succès de ces visites en comptant le pourcentage de fleurs ayant produit des fruits ou des graines. Les résultats sont sans appel : lorsque les visites de pollinisateurs sauvages augmentent, le taux de fructification augmente aussi, quelle que soit la culture considérée. En revanche, en cas de visites plus nombreuses des abeilles domestiques, il n'augmente que pour 14 % des cultures. Plus frappant encore : l'augmentation de fructification induite par les pollinisateurs sauvages est deux fois plus élevée que celle induite par la butineuse domestique. Enfin, le taux de fructification maximum n'est atteint que lorsque ces parcelles sont visitées à de nombreuses reprises, à la fois par des pollinisateurs sauvages et par l'abeille mellifère.

« Il s'agit d'une étude majeure qui démontre clairement l'importance de ces insectes sauvages dans la pollinisation des cultures », juge Bernard Vaissière, qui regrette toutefois que les auteurs n'aient pas pris en considération les variétés des différentes espèces cultivées. « Le niveau de dépendance aux insectes peut énormément varier en fonction des variétés végétales », explique-t-il. « C'est exact, reconnaît Lucas Garibaldi. Mais nos résultats étant identiques quelles que soient les cultures, on peut penser qu'ils ne dépendent pas non plus du type de variétés utilisées. »

Quoi qu'il en soit, il y a désormais peu de doute que les insectes pollinisateurs sauvages, et surtout les abeilles sauvages, sont plus efficaces que leurs cousines domestiques pour induire une fructification. Comment cela se fait-il ? Les chercheurs ont mis en évidence un phénomène susceptible de l'expliquer, au moins en partie. Pour 14 cultures, ils ont mesuré le nombre de grains de pollen déposé sur un stigmate après la visite des différents insectes. Or, ils ont constaté que les abeilles mellifères déposent en moyenne plus de pollen que les abeilles sauvages. Ce qui veut dire qu'un même pollen est moins efficace en termes de fécondation lorsqu'il a été transporté par Apis mellifera, qu'après son transport par une abeille sauvage.

Pollen plus disponible
Pour Bernard Vaissière, cela viendrait du fait que les abeilles mellifères mélangent le pollen avec du miel dilué ou du nectar, suc produit par les glandes nectarifères situées à la base de certaines fleurs. « Ce mélange réduit la viabilité du pollen, estime-t-il. En revanche, à part les bourdons, la plupart des abeilles sauvages transportent majoritairement le pollen à sec, dans des brosses de poils situées au niveau des pattes postérieures ou de la face ventrale de l'abdomen. Il reste ainsi plus viable et disponible pour la pollinisation. »

Lucas Garibaldi, lui, privilégie une autre piste : le fait que les abeilles domestiques sont beaucoup plus fidèles que les abeilles sauvages à leur source de nourriture, allant jusqu'à privilégier une plante individuelle donnée, dans un champ donné. « Or, pour se reproduire efficacement, de nombreuses plantes nécessitent une pollinisation croisée, le pollen devant être transporté d'une plante vers une autre de la même espèce. Les abeilles sauvages procèdent bien davantage ainsi. »

Quelle que soit l'explication, les observateurs sont confrontés à un fait alarmant : tout comme les butineuses des ruches, les pollinisateurs sauvages déclinent de façon préoccupante. On s'en est d'abord rendu compte pour les bourdons. Aux États-Unis, 4 espèces ont décru en vingt ans, la diminution atteignant 96 % par endroits [6]. Et plusieurs dizaines d'extinctions de bourdons ont aussi été recensées localement en Europe [7].

Puis, début 2013, Laura Burkle de l'université Washington à Saint-Louis, dans le Missouri, a élargi ce constat. Après avoir étudié des parcelles de forêt de l'Illinois, aux États-Unis, et comparé ses observations avec des relevés effectués en ces mêmes lieux à la fin des années 1800 ainsi qu'en 1970, elle a conclu que la diversité des interactions entre plantes et insectes pollinisateurs avait diminué de moitié en l'espace de cent vingt ans. En se focalisant sur une seule espèce de plante, Claytonia virginica, petite fleur blanche très abondante au printemps, elle a découvert que ce déclin s'était en fait produit au cours des quarante dernières années. Et elle a aussi noté que chaque fleur recevait quatre fois moins de visites en 2010 qu'en 1970.

Butinage sélectif
Vu le nombre et la diversité des pollinisateurs sauvages, on aurait pu espérer que la disparition de quelques espèces n'ait pas d'impact notable sur la pollinisation. Las... L'étude publiée en août 2013 par Berry Brosi de l'université Emory, à Atlanta, et Heather Briggs de l'université de Californie montre qu'il en va tout autrement.

Les deux écologues ont d'abord délimité 20 parcelles, chacune de la taille d'un cours de tennis, dans des prairies des Rocheuses du Colorado. Ils ont ensuite déterminé quelles étaient les différentes espèces de pollinisateurs présentes. Puis, pour chaque parcelle, ils ont enlevé l'espèce la plus abondante (à chaque fois, une espèce de bourdon). Ils ont alors constaté que les pollinisateurs restants devenaient moins sélectifs. Plutôt que de butiner une seule espèce de plante, ils allaient se nourrir sur 4 ou 5 espèces différentes et en mélangeaient les pollens. Résultat : l'efficacité de la pollinisation s'en trouvait réduite, car la quantité de pollen spécifique déposé sur une plante donnée n'était pas suffisante [fig. 2]. Chez la fleur sauvage que les chercheurs avaient plus précisément choisi d'observer, Delphinium barbeyi, abondante sur le site, ils ont comptabilisé une diminution moyenne de 32 % du nombre de graines produites.

Au vu de ces résultats, il est d'autant plus important d'enrayer le déclin des abeilles sauvages afin de préserver leur apport. Comment ? « En conservant des zones naturelles intactes proches des cultures, en favorisant la diversification agricole et en évitant l'usage d'insecticides », suggèrent Lucas Garibaldi et ses coauteurs. Ce qui ne correspond pas vraiment à la tendance actuelle, qui prétend limiter l'érosion de la biodiversité, en préservant, certes, les dernières zones sauvages, mais en intensifiant les cultures. Quitte à ajouter quelques ruches pour « remplacer » les pollinisateurs sauvages.

Pratiques agricoles à réviser.
Publiée en juillet 2013, une étude financée par l'Union européenne dans le cadre du programme STEP (acronyme anglais de « situation et tendances des pollinisateurs européens ») confirme la nécessité de changer en profondeur les pratiques agricoles [8]. En comparant 71 sites de cultures et de prairies à travers l'Europe, ses auteurs montrent que la mise en place de pratiques agro-environnementales telles que la conservation des talus et des bosquets, la création de bandes fleuries ou encore un usage limité de produits phytosanitaires, augmente la richesse et l'abondance des pollinisateurs sauvages les plus communs.

Un avantage en termes de productivité agricole, certes, mais pas seulement. Car ces insectes ne butinent pas que nos plantes cultivées ! Au-delà de leur intérêt économique pour l'agriculture, les insectes pollinisateurs sont les véritables artisans de nos paysages puisque près de 80 % de notre flore en dépend. Sans eux, plus de couleurs éclatantes chaque printemps, plus d'odeurs enivrantes dans la garrigue, plus de framboises ni de mûres sauvages à déguster au détour d'un chemin. Un service inestimable, impossible à chiffrer.

Par Lise Barnéoud

 

 DOCUMENT      larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

DÉVELOPPEMENT DU CERVEAU

 

L'ENFANT ET SON DÉVELOPPEMENT
La turbulente dynamique de la matière grise


l'enfant et son développement - par Arthur Toga, Paul Thompson et Elizabeth Sowell dans mensuel n°388 daté juillet 2005 à la page 42 (2718 mots) | Gratuit
Comment le cerveau se développe-t-il ? Jusqu'à quel âge ? Appliquée à l'enfant et à l'adolescent, l'imagerie par résonance magnétique révèle une maturation qui, loin d'être uniforme, s'effectue par vagues successives selon les zones du cerveau.

Qui dit développement, dit dynamique, mouvement, changement. Le développement du cerveau humain n'échappe pas à la règle. Le ballet cellulaire débute très tôt chez l'embryon. Dès le deuxième mois de grossesse, les cellules précurseurs des neurones prolifèrent de façon intensive dans une zone particulière du cerveau rudimentaire, puis migrent jusqu'à leur emplacement définitif. Arrivées là, elles commencent à se différencier, et émettent des prolongements en direction les unes des autres celles qui n'établiront pas de contacts mourront. À partir du sixième mois, les connexions entre neurones survivants se multiplient, et de nouvelles synapses se forment en abondance. Dans le même temps, les axones commencent à être recouverts d'une substance lipidique appelée myéline. Synthétisée par des cellules nommées oligodendrocytes, la myéline augmente la vitesse de conduction de l'influx nerveux le long de l'axone.

Vient la naissance, qui n'interrompt en rien ces processus. Le cerveau du nouveau-né - riche de 100 milliards de neurones environ - continue à grandir, sous le contrôle de certains gènes, mais aussi sous l'influence des stimulations externes, bien plus nombreuses que celles que recevait le foetus. Les dendrites des neurones prolifèrent, les synapses se multiplient. Mais ce foisonnement cède peu à peu la place à un processus d'élagage : certaines connexions sont conservées et renforcées, d'autres, éliminées, tandis que la myélinisation se poursuit. Le tout aboutit à la sélection d'un réseau de connexions certes privilégié, mais pas statique il est continûment remanié au cours de la vie de l'individu.

C'est en examinant sous le microscope des cerveaux provenant de spécimens autopsiés que l'Américain Peter Huttenlocher a pour la première fois, il y a vingt-cinq ans, mis en évidence cette succession d'étapes. Il devait également dresser un second constat : elle ne se déroule pas partout en même temps. Par exemple, dans le cortex visuel, le maximum de connexions advient aux alentours du quatrième mois après la naissance. Commence alors l'élagage, qui se poursuit jusqu'à l'âge préscolaire, où le nombre de connexions est alors grosso modo celui qu'aura l'adulte. Mais dans le cortex préfrontal médian, une aire du cerveau impliquée dans des fonctions cognitives supérieures, le maximum survient vers 3-4 ans seulement, et l'élagage n'est pas notable avant le milieu - voire la fin - de l'adolescence [1].

Examens sans risques

Ces données histologiques suggéraient que le développement du cerveau était un processus dynamique impliquant tant l'apparition que la disparition de certaines structures cellulaires. Problème : ces données étaient très fragmentaires. Et c'est là que l'imagerie par résonance magnétique nucléaire - l'IRM, encore dans sa prime enfance à l'époque des premiers travaux de Huttenlocher - s'est révélée précieuse. D'une part, elle permet d'explorer dans sa globalité, mais aussi dans sa diversité, le développement du cerveau de sujets vivants. La substance grise où se trouvent les corps cellulaires des neurones, les dendrites et les synapses se distingue clairement, sur les clichés, de la substance blanche les axones entourés de myéline. D'autre part, le fait qu'elle ne requière ni molécules radioactives ni exposition aux rayons X, permet de l'utiliser sans danger pour étudier le développement du cerveau de l'enfant.

Les premières études par IRM anatomique du cerveau d'enfants en bonne santé ont eu lieu à la fin des années quatre-vingt. Terry Jernigan et ses collègues, de l'université de Californie à San Diego, ont montré que chez les jeunes adultes la quantité de matière grise corticale était moindre que chez les enfants, bien que le volume de leur cerveau soit supérieur. Le volume global de matière grise semblait décliner après l'âge de 7 ans. Impossible cependant d'afficher une certitude : la croissance globale du cerveau résultant surtout de l'augmentation de substance blanche, il se pouvait très bien que le déclin de substance grise ne soit que relatif. Jernigan et ses collaborateurs devaient ensuite montrer que cette diminution n'avait pas lieu partout au même moment. Elle se produisait d'abord dans les ganglions de la base lire « Variations sous le cortex », p. 45 durant la prime enfance, puis dans les lobes pariétaux et frontaux à la puberté [2]. Quand bien même l'IRM était impuissante à déterminer la densité des synapses, c'était tout de même les premiers indices in vivo venant appuyer les découvertes post mortem de Huttenlocher.

Pour les spécialistes de biologie du développement, l'objectif suivant était bien défini : créer des cartes tridimensionnelles plus précises du cerveau en train de grandir et de mûrir. La méthode utilisée au début des années quatre-vingt-dix consistait à subdiviser le cerveau en différentes régions anatomiques, et de mesurer le volume de chacune de ces régions et ses variations au cours du temps. Malheureusement, le traitement des données impliquait de dessiner à la main les régions en question sur les clichés obtenus. Aussi quelques équipes, dont la nôtre, ont-elles entrepris de développer l'identification automatique des structures cérébrales. À partir de 1999, nous avons commencé à construire des cartes tridimensionnelles des structures cérébrales en développement, l'usage d'un code couleur nous permettant de visualiser, par exemple, les variations de matière grise chez les enfants, les adolescents et les adultes. À l'heure actuelle, nous parvenons même à présenter les données sous forme de courts films qui compactent les données acquises sur plusieurs années [3].

Bien que quelques chercheurs se soient intéressés aux structures de matière grise non corticales enfouies dans le cerveau lire « Variations sous le cortex », p. 45, la plupart des travaux de cartographie du cerveau en développement portent sur le cortex. À cela, une raison simple : il est le siège de fonctions aussi importantes et diverses que la vision, l'audition, le langage, ou encore la planification des actions.

Dans un premier temps, la plupart des études avaient pour objectif de voir s'il existait des différences statistiquement significatives entre enfants en bonne santé et enfants souffrant de troubles neuropsychiatriques citons, par exemple, la schizophrénie. Mais ces études ont aussi largement contribué à une meilleure connaissance du développement normal du cerveau. En effet, la plupart des anomalies détectées par IRM chez des enfants atteints de troubles du développement ne sont pas flagrantes. En d'autres termes, il est impossible de les détecter si l'objet de l'étude est un seul et unique sujet. Le seul moyen de les mettre en évidence est de comparer un groupe d'enfants atteints de tel ou tel trouble à un groupe d'enfants indemnes, et de voir s'il existe des différences statistiquement significatives entre ces deux groupes. Et les enfants « témoins » permettent aussi de dégager des conclusions quant au développement normal.

En 1992, par exemple, Judith Rapoport et son équipe du National Institute of Mental Health NIMH, à Bethesda, ont suivi, pendant cinq ans, 50 adolescents développant une schizophrénie infantile et, à titre de groupe contrôle, plus de 300 adolescents en bonne santé. C'est ensuite notre équipe qui a analysé les données [4]. Résultat ? Chez les adolescents en bonne santé, la substance grise diminue faiblement dans le cortex pariétal 1 ou 2 % par an, tandis qu'aucun changement n'est nettement perceptible dans les autres lobes. En revanche, chez les patients, nous avons détecté une perte rapide de substance grise dans le cortex supérieur frontal et dans le cortex temporal. Cette perte atteint 3 ou 4 % dans certaines sous-régions. La diminution de matière grise débute en fait dans les régions pariétales du cortex impliquées dans le langage et les associations d'idées. Elle s'étend ensuite vers les lobes temporaux et vers le cortex moteur supplémentaire. Cette évolution correspond aux troubles neuromoteurs et sensoriels caractéristiques de la maladie.

L'étape de l'adolescence

Ce type de résultats a souligné l'importance de mieux étudier le développement normal en tant que tel, et des études longitudinales ont été lancées dans cette seule intention. Leurs résultats remettent parfois en question certaines des conclusions antérieures établies sur la base d'études transversales c'est-à-dire où les données correspondant à des âges différents sont obtenues chez des personnes différentes. Par exemple, les données, publiées en 1999 par Jay Giedd, ses collègues du National Institute of Mental Health et des collaborateurs du Montreal Neurological Institute [5], ont dépeint un tableau partiellement différent de celui présenté par Terry Jernigan au début des années quatre-vingt-dix. Leurs travaux, qui portaient sur la croissance des lobes du cerveau entre 4 et 22 ans, ont confirmé l'augmentation linéaire de substance blanche jusqu'à l'âge de 20 ans. En revanche, ils ont montré des changements non linéaires de la substance grise : elle augmente durant la préadolescence, avec un maximum à environ 12 ans pour le lobe frontal et le lobe pariétal, et à 16 ans pour le lobe temporal. C'est après seulement qu'elle commence à diminuer.

Quelle conclusion en tirer quant aux mécanismes sous-jacents ? Il est difficile d'émettre autre chose que des hypothèses. L'IRM permet certes de mesurer les changements de densité et de volume des structures cérébrales, mais sa résolution est trop faible pour caractériser les mécanismes cellulaires correspondants. De plus, le volume de substance grise ne reflète pas seulement les modifications qui affectent les neurones, mais aussi celles qui touchent les autres cellules du cerveau les cellules gliales, et les vaisseaux sanguins. Tout ce que l'on peut dire, c'est que les changements observés par l'équipe de Giedd sont corrélés aux données post mortem indiquant un accroissement de l'élagage des connexions au cours de l'adolescence et de l'entrée dans la vie adulte, et qu'ils soulignent l'importance de cette période dans le développement du cerveau.

Scanné tous les deux ans

Par ailleurs, il était impossible d'extraire de cette étude des informations pertinentes quant à la géographie précise de l'évolution de la substance grise, étant donné que les lobes y étaient chacun considérés dans leur globalité. En 2004, en revanche, nous avons produit, en collaboration avec cette même équipe du NIMH, une carte montrant point par point l'évolution de l'épaisseur du cortex entre 4 et 21 ans [6]. Nous l'avons construite à partir de séries de clichés d'IRM obtenus chez treize enfants recrutés au NIMH au début des années quatre-vingt-dix, et suivis ensuite pendant plusieurs années : chacun des enfants a été scanné tous les deux ans pendant huit ou dix ans, tout en faisant l'objet, à chaque session, d'un entretien visant à s'assurer qu'il ne souffrait d'aucun trouble psychologique.

Cette étude est la première à visualiser l'évolution du cortex sous forme de film [fig. 1]. Dans ses grandes lignes, elle montre que l'amincissement de la substance grise a d'abord lieu, entre 4 et 8 ans, dans les régions du cortex moteur et du cortex somato-sensoriel situées à proximité du sillon séparant les deux hémisphères cérébraux, ainsi qu'au pôle postérieur et au pôle antérieur du cerveau. Autrement dit, les premières régions qui mûrissent sont celles où s'effectue l'intégration primaire des données sensorielles et motrices. Aux alentours de la puberté, soit vers 11 à 13 ans, la diminution de substance grise progresse dans le cortex pariétal - zone impliquée dans l'orientation spatiale et la maîtrise du langage. À la fin de l'adolescence, c'est le cortex préfrontal qui s'affine, autrement dit la zone où sont gérées nombre de fonctions cognitives supérieures, par exemple les capacités de raisonnement. La dernière région concernée par le processus est la partie moyenne et supérieure du cortex temporal. Il est possible que cela traduise la croissance continue de l'hippocampe enfoui au creux du cortex temporal l'hippocampe est une structure impliquée entre autres dans les processus de mémorisation. On notera, non sans intérêt, que le même type de suivi appliqué à des patients atteints de la maladie d'Alzheimer montre une séquence antagoniste [7] : les régions qui se développent le plus tôt chez l'enfant celles qui contrôlent la vision et les sensations sont épargnées jusqu'au stade ultime de la maladie ; celles qui se développent en dernier chez l'enfant sont les premières à dégénérer chez les patients.

Au vu de ces résultats, on s'interroge bien évidemment sur le lien entre l'affinement du cortex et les changements cognitifs que l'on observe au cours de l'enfance et de l'adolescence. Là encore, l'IRM anatomique a son mot à dire - ainsi que l'IRM fonctionnelle lire « La cognition en images », p. 48. Des résultats publiés en 2004, et obtenus sur un groupe de 45 enfants scannés deux fois à deux ans d'intervalle entre 5 et 11 ans, ont montré une corrélation entre l'amincissement du cortex frontal et pariétal gauche et des performances accrues dans l'exécution d'un test de maîtrise verbale [8]. D'après ces données, il semble raisonnable de spéculer mais seulement spéculer que l'évolution du cortex est effectivement liée aux changements cognitifs.

Inné et acquis

Quels sont les paramètres qui régissent ce développement ? Autrement dit, quelle est la part respective de la génétique et de l'environnement dans l'évolution du cerveau ? Afin d'apporter quelques éléments de réponse à ce débat sur l'inné et l'acquis, nous avons mis à profit l'IRM pour étudier des jumeaux.

En la matière, la base de données la plus connue - et utilisée dans diverses études épidémiologiques - est le registre finlandais des jumeaux, qui répertorie tous les jumeaux nés en Finlande depuis 1940. Nous avons donc songé à l'utiliser pour explorer quelles sont les régions du cerveau qui se développent sous un contrôle génétique strict, et quelles sont celles qui sont plus sensibles aux influences extérieures [9]. Certes, des jumeaux avaient déjà été étudiés par IRM avant que nous nous lancions dans cette étude. Il en était ressorti des ressemblances plus marquées chez les vrais jumeaux que chez les faux. Nous avions l'ambition d'aller plus loin dans la description des structures « héritables ».

En deux mots : Précieux outil que l'imagerie par résonance magnétique : ne requérant ni molécules radioactives, ni rayons X, elle peut être utilisée sans danger avec des enfants. Il y a quinze ans, débutaient les premières études sur le développement du cerveau. À l'époque, il s'agissait surtout d'étudier les troubles pathologiques tels que l'autisme ou la schizophrénie. Cet objectif est toujours d'actualité, mais le développement du cerveau normal est aussi devenu un objet d'étude. Résultat : l'IRM anatomique présente un panorama de plus en plus détaillé de l'évolution du cortex cérébral. Elle montre qu'en matière de développement du cerveau tout ne se joue pas pendant la prime enfance. Des changements ont lieu à l'adolescence, et même après.

Nous avons sélectionné quarante adultes en bonne santé à partir d'une cohorte comprenant toutes les paires de jumeaux de même sexe nés entre 1940 et 1957, dont chacun des membres vivait encore en Finlande. Notre panel consistait en dix paires de vrais jumeaux et dix paires de faux jumeaux, avec cinq paires d'hommes et cinq paires de femmes dans chaque groupe. Nous avons scanné tous les sujets, construit des cartes tridimensionnelles de la substance grise corticale, et confronté, paire par paire, les cartes de vrais jumeaux et celles de faux jumeaux. Nous avons ensuite estimé le degré de similarité au sein de chaque paire, et entre les paires. Le résultat le plus net a concerné le cortex frontal : le volume de substance grise est plus étroitement apparié chez les vrais jumeaux que chez les faux. Ainsi, il semble que le développement de cette partie du cortex, impliquée dans le contrôle du comportement, soit plus étroitement sous contrôle génétique que d'autres régions, par exemple, celles impliquées dans la mémorisation et l'apprentissage. Des études longitudinales de jumeaux enfants ou adolescents pourraient à l'avenir permettre de tester cette hypothèse.

Imagerie fonctionnelle

On le voit, les apports de l'IRM à l'étude du développement neurocognitif sont multiples. Néanmoins, les résultats obtenus jusque-là ne doivent pas masquer plusieurs limitations. Certaines sont techniques. Étant donné les prérequis statistiques de l'analyse des données, il est par exemple nécessaire d'avoir des échantillons de grande taille. D'autres relèvent de la nécessaire prudence dans l'interprétation de certaines données. La question clé est : que signifient les changements que l'on observe dans telle ou telle partie du cerveau ? À l'heure actuelle, l'IRM ne nous permet pas d'accéder aux causes cellulaires de ces changements, et nous sommes loin, en la matière, de pouvoir nous affranchir des données post mortem. En revanche, il est très probable qu'elle nous permettra de mieux comprendre le lien entre le développement des structures cérébrales et le développement cognitif - et de mieux comprendre également l'évolution de certaines pathologies. Et ce, qu'il s'agisse de l'IRM anatomique, ou d'autres techniques déjà utilisées chez l'adulte et qui commencent à l'être chez l'enfant, comme l'IRM fonctionnelle.

Par Arthur Toga, Paul Thompson et Elizabeth Sowell

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google