|
|
|
|
|
|
LE CHROMOSOME X MAÎTRE DU SILENCE ... |
|
|
|
|
|
Le chromosome X maître du silence
dossier - par Sandrine Augui ,Edith Heard ,Cécile Klingler dans mensuel n°385 daté avril 2005 à la page 34 (3487 mots)
Pour les cellules des mammifères femelles, X + X = X. Le fait est surprenant : sur les deux chromosomes X que renferment ces cellules, un seul est actif. L'autre est réduit au silence. Un phénomène emblématique d'un pan méconnu de la régulation de l'expression des gènes : l'épigénétique.
Deux X pour les femelles, un seul pour les mâles : la balance est inégale. Certes, les mâles possèdent un chromosome Y. Mais il ne porte que très peu de gènes, alors que l'X en contient environ 1 500. Qui plus est, les gènes du chromosome Y sont essentiellement impliqués dans un même phénomène, la différenciation des voies sexuelles mâles, alors que ceux du X interviennent dans des processus très divers. Si les deux chromosomes X des cellules femelles s'exprimaient, il y aurait deux fois plus de produits géniques - ARN et protéines - dans les cellules femelles que dans les cellules mâles. Avec de graves conséquences en perspective. En effet, la cellule constitue un environnement très équilibré, qui supporte mal les variations au niveau de la quantité de ses constituants. Preuve en est, par exemple, l'effet d'un chromosome surnuméraire on parle de trisomie : lorsqu'il n'est pas létal, ce surnombre est à l'origine de nombreuses malformations.
Chez les mammifères, ce déséquilibre est compensé dès le tout début du développement de l'embryon femelle par l'inactivation d'un des deux chromosomes X. Autrement dit, la quasi-totalité des gènes portés par ce chromosome est éteinte. Quant à ceux qui sont exprimés, environ une centaine, ils possèdent pour la plupart un homologue sur le chromosome Y. Leurs produits sont donc présents en quantité égale chez les mâles et les femelles. L'inactivation du chromosome X représente le seul exemple connu d'extinction génique à l'échelle de presque tout un chromosome. Par son ampleur, c'est l'un des cas les plus frappants de régulation des gènes au cours du développement. Son étude a du reste ouvert tout un champ de recherches dans ce domaine. Un champ où l'ADN, pour une fois, n'est pas au coeur des débats !
Corpuscule compact
Ce champ, c'est celui des mécanismes moléculaires dits « épigénétiques ». Ce terme, introduit par Conrad Waddington dans les années quarante, fait de nos jours référence aux informations qui sont transmises au cours des divisions cellulaires, alors même qu'elles n'impliquent pas de modifications de la séquence d'ADN. C'est précisément le cas de l'inactivation de l'X, qui est établie puis maintenue au cours de la vie de la cellule, et transmise aux générations cellulaires suivantes, sans que la séquence d'ADN de l'X cible soit en aucune façon modifiée.
Historiquement, l'idée de l'inactivation est née de la conjonction de plusieurs résultats. En 1949, l'existence d'un corpuscule sombre et caractéristique dans les cellules femelles de mammifères est mise en évidence par les Canadiens Murray Barr et Ewart Bertram. Dix ans plus tard, le Japonais Susumo Ohno réalise que ce corpuscule, appelé corpuscule de Barr, est l'un des deux chromosomes X de la femelle, sous forme compactée. Au même moment, on découvre que des souris femelles porteuses d'un seul chromosome X, au lieu des deux habituels, sont des femelles viables et fertiles. Cela suggère qu'un seul chromosome X actif suffit au développement d'une femelle normale, contrairement aux chromosomes non sexuels les autosomes, pour lesquels la perte d'un exemplaire est létale. Les premières preuves génétiques arrivent ensuite. L'étude de souris présentant des mutations sur des gènes du chromosome X qui régissent la couleur ou la texture du pelage fournit des résultats étonnants. Tandis que les mâles porteurs de ces mutations ont un pelage uniformément modifié de type mutant, les femelles porteuses des mêmes mutations présentent un pelage mosaïque composé de zones d'apparence normale type sauvage et de zones d'apparence modifiée type mutant.
Mosaïque cellulaire
L'ensemble de ces observations permit en 1961 à Mary Lyon, du Medical Research Council d'Oxford, en Grande-Bretagne, d'émettre l'hypothèse de l'inactivation du chromosome X [1]. Selon cette hypothèse, l'un des deux chromosomes X serait génétiquement inactivé durant l'embryogenèse, et se condenserait pour former le corpuscule de Barr. Le chromosome inactivé étant choisi au hasard, l'embryon se trouve composé de deux populations de cellules, ayant chacune un chromosome X inactivé différent. C'est ce que l'on appelle le mosaïcisme. L'hétérogénéité du pelage des animaux qui possèdent des mutations sur le chromosome X s'expliquerait donc par l'existence de zones constituées de cellules provenant de chacune des deux populations cellulaires, l'une ayant gardé actif le gène sauvage, l'autre le gène muté. Ajoutons que cet effet de l'inactivation aléatoire d'un des deux chromosomes X sur la couleur du pelage se retrouve chez d'autres mammifères, comme les chattes tricolores. Et que, plus généralement, les effets du mosaïcisme ne se limitent pas à la couleur du pelage. Par exemple, une pathologie liée à un gène défectueux sur l'X sera atténuée chez la femelle par rapport au mâle, puisque seule la moitié de ses cellules exprimera l'allèle défectueux, l'autre moitié exprimant l'allèle normal lire « Avantage au double X ? », p. 30.
Centre d'inactivation
De nombreuses découvertes ont permis depuis de confirmer l'hypothèse de Mary Lyon et de mieux comprendre les mécanismes mis en oeuvre. Dans les années soixante-dix-quatre-vingt, l'analyse de cellules femelles ayant subi des remaniements chromosomiques mit en évidence une région du chromosome X qui contrôle la mise en place de l'inactivation [2]. Ces remaniements étaient des translocations, à savoir des échanges de portions de séquence entre chromosomes. Lorsqu'une certaine région du X était déplacée sur un chromosome non sexuel, ce dernier pouvait être inactivé. Inversement, le chromosome X privé de cette région restait toujours actif. D'où la conclusion que la région en question était critique pour la mise en place de l'inactivation. Elle fut donc baptisée « centre d'inactivation » Xic, pour X Inactivation Center.
En 1981, la mise au point, chez la souris, du mode opératoire permettant de prélever et de mettre en culture des cellules souches embryonnaires cellules ES fournit un outil de choix pour aller plus avant [3]. Ces cellules indifférenciées sont pluripotentes, c'est-à-dire qu'elles peuvent se différencier en cellules de n'importe quel tissu coeur, foie, peau.... Elles sont prélevées dans des embryons de souris âgés de cinq jours, au stade blastocyste précoce. À ce stade, leurs deux chromosomes X sont actifs. Mais, lorsque l'on provoque leur différenciation en changeant les conditions de culture, l'un des deux chromosomes X est inactivé, suivant un schéma général similaire à ce qui se passe dans l'embryon au-delà du cinquième jour. En particulier, l'inactivation y est aléatoire : dans certaines cellules, c'est le X paternel qui est inactivé, dans d'autres, le X maternel, ce qui fait que la population cellulaire est une population mosaïque. Ces cellules sont donc très rapidement devenues un modèle dans la recherche sur l'inactivation, rendant ainsi possibles de nombreuses études que la rareté et la petite taille des embryons n'auraient pas permis d'envisager.
Comptage approprié
Dès 1985, Sohaila Rastan et Elizabeth Robertson montrèrent, en utilisant différentes lignées de cellules souches dites EK, semblables aux cellules ES, qu'il n'y avait plus aucun processus d'inactivation chez celles ayant spontanément perdu le centre d'inactivation d'un de leurs deux chromosomes X [4]. Tout se passait comme si la cellule, n'ayant plus qu'un seul centre d'inactivation au lieu de deux, ne considérait plus comme nécessaire d'initier un quelconque processus d'inactivation. Le centre d'inactivation semblait donc responsable non seulement de l'initiation de l'inactivation en elle-même, mais également du « comptage » du nombre de chromosomes X présents dans la cellule. Une étape de comptage indispensable à la bonne régulation du processus, puisqu'elle permet par exemple d'éviter que l'unique chromosome X des mâles soit inactivé.
ARN non codant
Il fallut encore quelques années avant qu'un pas absolument décisif fût franchi. Car bien que l'existence d'un centre d'inactivation ait été établie, sa localisation exacte, ainsi que son mode de fonctionnement n'avaient toujours pas été élucidés. En 1991, l'équipe de Huntington Willard, alors à l'université Stanford, découvrit que le centre d'inactivation humain contenait un gène très particulier, qui n'était actif que sur le chromosome X inactivé [5]. Ce résultat pour le moins paradoxal poussa Willard à proposer l'hypothèse suivante : le produit de ce gène était à l'origine de l'inactivation de tout le reste du chromosome. Ce gène fut nommé Xist pour X Inactive Specific Transcript. Peu de temps après, son homologue était découvert chez la souris.
Le point le plus intéressant fut que le produit de ce gène Xist se révéla être un ARN non codant, autrement dit un ARN qui, contrairement aux ARN messagers, n'est jamais traduit en protéine. De plus, l'ARN Xist reste dans le noyau cellulaire, plus particulièrement autour du chromosome X inactif, qu'il recouvre dans sa quasi-totalité. Cette étonnante observation fit immédiatement supposer que l'ARN Xist avait un rôle fonctionnel dans l'inactivation de l'X. Un ARN impliqué dans l'extinction transcriptionnelle de tout un chromosome..., c'était là une notion totalement nouvelle ! Xist devait de ce fait fortement attirer l'attention de la communauté scientifique. Son implication dans l'inactivation de l'X allait être largement confirmée au cours des années suivantes.
Dans les années quatre-vingt-dix, de nombreuses études ont en effet montré que le gène Xist était l'élément clé indispensable à la mise en place de l'inactivation [6]. D'une part, plusieurs équipes ont effectué des délétions* de ce gène au niveau d'un des deux chromosomes X de cellules femelles. Elles ont observé que, systématiquement, le chromosome X ainsi délété ne pouvait plus être inactivé. D'autre part, d'autres groupes ont introduit, par transgenèse, différentes parties du centre d'inactivation au sein de chromosomes non sexuels. Ils ont alors observé que, lorsque le gène Xist fait partie de la séquence transférée et qu'il est transcrit, l'ARN qu'il produit recouvre l'autosome qui le porte comme s'il s'agissait d'un chromosome X, ce qui aboutit à l'inactivation des gènes de cet autosome. C'est également le cas lorsque Xist est transféré seul, et qu'il est transcrit. L'ensemble de ces études démontrait donc que l'ARN Xist était non seulement nécessaire, mais même suffisant, à la mise en place de l'inactivation [7].
Toutefois, la fenêtre de temps durant laquelle il peut agir est limitée. Anton Wutz et Rudolph Jaenisch, du Whitehead Institute for Biomedical Research, aux États-Unis, ont en effet observé, en 2000, que, si l'on retarde l'expression du gène Xist, l'ARN recouvre toujours le chromosome dont il est issu mais n'a plus aucun effet sur la transcription de ses gènes. Inversement, une fois l'inactivation du chromosome établie, l'élimination de Xist n'a plus aucun effet sur l'extinction des gènes. Xist n'est donc nécessaire qu'à l'initiation de l'inactivation, et non à son maintien.
Région conservée
Enfin, en 2002, le même groupe a démontré que l'ARN Xist contenait une région spécifique très conservée entre les différentes espèces de mammifères, région sans laquelle il ne peut plus induire l'inactivation, alors même qu'il recouvre toujours le chromosome dont il est issu [8]. Il semble donc que cette région particulière de Xist serait la clé de l'extinction transcriptionnelle des gènes.
S'il est désormais établi que Xist est le facteur déclencheur de l'inactivation, son mode d'action reste encore un mystère. On sait toutefois que le recouvrement par Xist constitue le premier pas d'une longue suite d'événements transformant l'X destiné à être inactivé. Car si l'X inactif ne subit aucune modification au niveau de sa séquence ADN, il n'en est pas moins modifié - à un autre niveau. En effet, un chromosome n'est pas constitué uniquement d'ADN, mais aussi de complexes protéiques appelés nucléosomes formés de protéines nommées histones, autour desquels l'ADN est embobiné. Le tout forme la chromatine constituant les chromosomes. Or, la chromatine existe sous deux formes. La chromatine ouverte, ou euchromatine, est en général associée aux gènes actifs. La chromatine condensée, ou hétérochromatine, est, elle, associée aux régions transcriptionnellement éteintes des chromosomes, leur centromère* par exemple. C'est également sous forme condensée que se trouve l'ensemble des chromosomes lors des divisions cellulaires, d'où leur apparence typique en bâtonnets à ce moment-là. Et c'est sous forme d'hétérochromatine que se trouve le chromosome inactivé - le corpuscule de Barr.
Marques épigénétiques
Si euchromatine et hétérochromatine diffèrent par leur conformation visualisable au microscope électronique, elles diffèrent également par la constitution de leurs nucléosomes. En effet, les histones constituant les nucléosomes peuvent, comme toutes les protéines, subir des modifications après qu'elles ont été synthétisées. En l'occurrence, elles sont modifiées par des enzymes qui viennent leur ajouter un ou plusieurs groupements chimiques. Ces modifications sont souvent caractéristiques de l'une ou de l'autre forme de la chromatine, et les connaissances actuelles laissent penser qu'elles seraient impliquées dans la régulation transcriptionnelle des gènes associés, suivant ce que l'on commence à appeler le « code histone » lire « Un code non génétique », p. 37.
Or, les histones du chromosome X inactivé présentent ce genre de modifications, qui le différencient du X actif [9]. Certaines sont communes à toutes les régions hétérochromatiques du génome, dont l'X inactif fait partie, tandis que d'autres lui sont spécifiques. Par ailleurs, les gènes de l'X inactif sont la cible d'un autre type de modification épigénétique bien connu : la fixation de groupements méthyles sur certaines bases de l'ADN. Cette modification est courante chez les gènes « éteints », qu'ils soient situés sur le chromosome X ou sur un autre chromosome. Comme il a été démontré, dans des cellules ES, que ces modifications épigénétiques qui affectent les histones et l'ADN accompagnent l'extinction des gènes, cela laisse supposer qu'elles jouent un rôle dans la mise en place de l'inactivation elle-même. Et comme toutes ont lieu après le recouvrement du chromosome X par Xist, elles seraient - directement ou non - provoquées par ce dernier [fig.1].
Tout cela n'explique cependant pas comment la cellule peut traiter différemment ses deux chromosomes X a priori identiques, faisant en sorte qu'un seul des deux exprime Xist et s'inactive. Parmi toutes les hypothèses envisagées, l'une des plus attractives est celle d'une compartimentation différente des deux chromosomes X dans le noyau de la cellule.
Compartiment nucléaire
La notion de compartiment nucléaire est une notion relativement floue puisque aucune membrane ne délimite de domaines dans le noyau. Toutefois, il apparaît nettement que certaines régions nucléaires sont enrichies en molécules spécifiques, et il est de plus en plus admis que la localisation d'un gène donné dans une de ces régions pourrait jouer un rôle dans la régulation de son expression [10]. En ce qui concerne les chromosomes X, on peut par exemple supposer que l'un d'entre eux serait séquestré dans un compartiment nucléaire donné, où il serait mis à l'abri de l'inactivation. Cela reste toutefois une hypothèse parmi d'autres, et aucune, à ce jour, n'a encore été démontrée.
D'un mammifère à l'autre
Ce phénomène d'inactivation d'un seul des deux chromosomes X est d'autant plus mystérieux que les paramètres régissant sa mise en place diffèrent d'une espèce de mammifère à l'autre. Ainsi, chez l'homme, l'inactivation est aléatoire tant dans l'embryon que dans les tissus extra-embryonnaires comme le placenta [11]. En revanche, chez les marsupiaux, qui sont proches des mammifères ancestraux, l'inactivation est soumise à une empreinte parentale dans tous les tissus. En l'occurrence, c'est l'X d'origine paternelle qui est systématiquement inactivé. Chez les rongeurs et les bovins, la situation est intermédiaire. L'inactivation est soumise à une empreinte dans les tissus extra-embryonnaires, avec inactivation exclusive de l'X paternel, mais elle est aléatoire dans les cellules de l'embryon lui-même, comme nous l'avons décrit précédemment. Il a de ce fait été suggéré que l'inactivation soumise à une empreinte parentale serait la forme ancestrale du processus, tandis que l'inactivation aléatoire en serait la forme évoluée. Cependant, cette hypothèse, très attractive, d'une inactivation soumise à empreinte « ancêtre » de l'inactivation aléatoire mérite d'être discutée. Car le mécanisme de l'inactivation soumise à empreinte semble très différent chez les marsupiaux et dans les tissus extra-embryonnaires des rongeurs. En effet, aucun homologue du gène Xist n'a pu être identifié chez les marsupiaux. En outre, certaines marques épigénétiques n'existent pas chez ces animaux, alors qu'elles sont cruciales chez les rongeurs, tant pour l'inactivation aléatoire que pour celle soumise à empreinte. Une seconde hypothèse peut alors être envisagée, celle que l'inactivation soumise à empreinte aurait pu apparaître plusieurs fois au cours de l'évolution, selon les différentes pressions de sélections, spécifiques à chaque espèce de mammifères.
Quoi qu'il en soit, lorsque empreinte il y a, pourquoi est-ce toujours l'X paternel qui est inactivé ? À la fin 2003, l'équipe de Jeannie Lee, à la Harvard Medical School, a proposé que le chromosome X paternel pourrait arriver déjà inactivé au moment de la fécondation [12]. En effet, les chromosomes X et Y sont inactifs dans les cellules précurseurs des spermatozoïdes. On peut donc supposer que le chromosome X reste inactif dans les spermatozoïdes et est transmis sous cette forme à l'embryon. Toutefois, cette hypothèse reste à prouver, et de nombreux contre-arguments existent. D'une part, si le chromosome X est bien inactif durant la plus grande partie de la spermatogenèse, il est réactivé au cours des dernières étapes produisant les spermatozoïdes [13]. D'autre part, il semble bien que les deux chromosomes X sont actifs chez le tout jeune embryon de deux cellules. Autrement dit, l'inactivation du X a lieu plus tard.
Mais quand ? Jusqu'à l'an dernier, il était admis que, chez les rongeurs, les premiers signes d'une inactivation apparaissaient 3,5 jours après fécondation dans le trophectoderme futur placenta, puis 6,5 jours après fécondation dans l'amas de cellules blotties au coeur du blastocyste, le bouton embryonnaire. Une inactivation soumise à empreinte dans le trophectoderme, et aléatoire dans le bouton embryonnaire ainsi que dans les cellules ES dérivées de ce bouton embryonnaire. Or, il est maintenant clair que l'inactivation apparaît pour la première fois bien avant dans l'embryon, au stade quatre/huit cellules [fig.2]. Notre équipe et celle de Jeannie Lee ont en effet démontré que les cellules de ce tout jeune embryon de deux jours ont déjà un de leurs chromosomes X recouvert par Xist, et qu'il commence à s'inactiver. Cet X est toujours d'origine paternelle, et reste éteint jusqu'au stade blastocyste précoce.
Dès lors, comment expliquer l'inactivation aléatoire observée dans le bouton embryonnaire des blastocystes de six jours, ou dans les cellules souches qui en proviennent ? Notre équipe et celle de Neil Brockdorff ont résolu cette contradiction l'an dernier [14] : tandis qu'il reste éteint dans les tissus extra-embryonnaires, le chromosome X paternel inactivé est réactivé 4,5 jours après fécondation dans le bouton embryonnaire. Un second processus d'inactivation, aléatoire cette fois, se met alors en place dans ces cellules. Notons que cette seconde inactivation n'est pas non plus totalement définitive. En effet, dans la lignée germinale la lignée donnant les gamètes, le chromosome X est à nouveau réactivé 10,5 jours après fécondation, afin de produire des gamètes dont le chromosome X est actif [fig.2].
Reprogrammation active
Ce phénomène de réactivation suivi d'une seconde inactivation montre que les cellules du bouton embryonnaire sont capables d'effectuer une reprogrammation active de leur contenu génétique en effaçant les marques qui y sont apposées. Très important sur le plan de l'épigénétique fondamentale, ce résultat pourrait aussi intéresser les spécialistes du clonage par transfert de noyau somatique lire « Le clonage », page 73. En effet, le génome des cellules somatiques présente des marques épigénétiques différentes de celles des cellules embryonnaires. Ces marques sont entre autres responsables de l'extinction des gènes nécessaires au développement de l'embryon. La problématique est donc de reprogrammer ce génome.
Classiquement, on considère qu'une telle reprogrammation ne peut avoir lieu que dans les heures suivant la fusion entre la cellule somatique et l'ovocyte. Or, nous le voyons bien avec le chromosome X, les cellules du bouton embryonnaire sont capables de réactiver des gènes dont elles ont besoin et d'effacer des marques épigénétiques. Il existe donc au moins deux étapes, et non une seule, durant lesquelles une reprogrammation génétique est possible au cours d'un clonage : au moment du transfert du noyau somatique dans l'ovocyte et lors du passage par le bouton embryonnaire du blastocyste. Si la première étape est très limitée dans le temps, la seconde peut être prolongée artificiellement. En effet, les blastocystes, du moins ceux de rongeurs, peuvent être mis en diapause, c'est-à-dire en vie ralentie. Procéder ainsi lors des opérations de clonage prolongerait le temps durant lequel les cellules de l'embryon se trouvent dans le bouton embryonnaire. L'efficacité du clonage pourrait ainsi se voir accrue, puisque le temps alloué à la reprogrammation du noyau somatique serait augmenté.
Nous l'avons vu, l'étude de l'inactivation de l'X doit permettre de comprendre le rôle et la dynamique de marques épigénétiques au cours du développement. Indirectement, elle devrait aussi permettre de mieux comprendre comment est instaurée et maintenue la dérégulation de l'expression des gènes que l'on observe lors de l'établissement et du développement de maladies comme le cancer. En effet, il devient de plus en plus évident qu'outre le rôle des mutations génétiques dans ces phénomènes des modifications épigénétiques peuvent aussi intervenir. L'étude des contrôles épigénétiques qui sous-tendent l'extinction transcriptionnelle du chromosome X pourrait être riche d'enseignements en la matière. Ce qui est d'ailleurs illustré par le fait que certaines protéines impliquées dans le cancer jouent aussi un rôle dans l'inactivation du X [15].
Par Sandrine Augui ,Edith Heard ,Cécile Klingler
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
GÉNOME,POSTGÉNOME |
|
|
|
|
|
Génome, postgénome
biologie - par Evelyn Fox Keller dans mensuel n°376 daté juin 2004 à la page 30 (3436 mots)
Les biologistes vivraient-ils, sous nos yeux, un changement de paradigme ? Le réductionnisme génétique qui a caractérisé la biologie du XXe siècle céderait la place à une vision plus globale de la cellule et de l'organisme. Un terrain sur lequel physiciens et informaticiens pourraient intervenir avec profit.
De nombreux pièges guettent les historiens du présent, le plus dangereux étant sans doute -et encore plus à une époque -comme la nôtre- que l'histoire avance bien plus vite qu'ils ne sont capables d'écrire. Il y a trois ans et demi, je publiais un livre où je tentais de retracer le chemin parcouru par le concept de gène, depuis l'époque de la redécouverte des lois de -Mendel, en 1900, jusqu'au séquençage du génome humain, en 2000. Le Siècle du gène célébrait la productivité du concept de gène tout au long du XXe siècle, et expliquait pourquoi il fallait poursuivre et entrer dans ce que j'appelais «le siècle au-delà du gène». J'entendais par là que, si le XXe siècle était le siècle du gène, le XXIe serait vraisemblablement celui de la génétique, ou plus exactement des systèmes génétiques.
La différence est de taille et mérite une explication. Pour moi, la génétique consiste en l'étude du fonctionnement de l'ADN dans la construction du phénotype, alors que les gènes sont les entités historiquement considérées comme porteuses de l'hérédité. Je considère la première comme les interactions biochimiques sous-tendant la construction des organismes vivants, et les seconds comme un schéma conceptuel hypothétique.
Le principal bagage historique du concept de gène -remonte à l'époque où les gènes étaient considérés comme les unités de base de la vie. Mais qu'est-ce qu'un gène? En réalité, les biologistes moléculaires emploient plusieurs définitions différentes, et de nombreuses variantes de celles-ci. Selon l'une de ces définitions, les gènes sont des parties spécifiques de l'ADN, transmis inchangés de génération en génération. Mais alors, quelles parties de l'ADN ? Celles qui codent les protéines? Ou bien aussi celles qui codent des ARN jamais traduits en protéines, mais essentiels à la régulation ?
Même si l'on considère qu'un gène est la séquence de codage correspondant à une protéine donnée, on se heurte encore à un problème: cette séquence, chez les organismes supérieurs, existe seulement sous forme d'ARN messager. Elle n'est pas présente telle quelle dans l'ADN. En effet, ce n'est que par l'épissage* correct de la molécule d'ARN dit prémessager, image de la portion d'ADN qui contient les fragments codants, qu'est construite cette molécule d'ARN messager. Plus subtil encore, le cas des protéines construites à partir d'ARN messagers spécifiquement modifiés à des stades de développement particuliers. En effet, on ne peut trouver pour ces protéines aucune séquence correspondante sur l'ADN, même en prenant en compte le phénomène d'épissage. Ainsi, quand nous demandons combien de gènes compte le génome humain, la réponse dépendra de la définition à laquelle on se réfère.
Donner vie au génome
Contrairement au gène, nous savons ce qu'est l'ADN: nous pouvons «épeler» sa séquence, et en observer la remarquable stabilité au fil des générations. Mais nous avons surtout appris que la signification de n'importe quelle séquence d'ADN est relationnelle -c'est-à-dire que, pour comprendre le développement d'une maladie, ce sont les schémas de l'expression génétique qui comptent avant tout. Or, ces schémas obéissent à un système de régulation très complexe et sont imprédictibles d'après la seule séquence.
Alors qu'il y a trois ans le nombre de généticiens moléculaires prêts à renoncer à leur paradigme de réductionnisme génétique était encore relativement restreint, les biologistes semblent aujourd'hui connaître un changement de paradigme sous nos yeux. Quasiment du jour au lendemain, les départements de biologie de par le monde se sont tournés vers la «systems biology» terme que l'on traduira ici par «biologie intégrative».
Voici quelques exemples qui illustreront mon propos, comme cette annonce faite par le nouveau Bauer Center for Genomics Research de l'université de Harvard: «La réussite du séquençage du génome humain a marqué un virage en biologie moléculaire et a suscité un intérêt indéniable pour des approches systémiques de la complexité biologique. La question essentielle n'est plus “Qui sont les acteurs?”, mais “Quel est le scénario?”, “Comment le jeu de chaque acteur détermine-t-il un comportement collectif?”» Ou, comme le propose cet article d'un numéro récent de The Scientist [1]: «Depuis cinquante ans, les biologistes cherchent à réduire la vie à ses différents composants, en partant de la cellule pour arriver au génome. Toutefois, de tels succès ont fait prendre conscience des quantités inouïes d'informations obtenues. Comme le professeur Denis Noble, de l'université -d'Oxford, le déclare: “Nous avons défait le puzzle; nous devons maintenant retrouver comment le reconstruire.”» Quant au département américain de l'Énergie DOE, où le projet de séquençage du génome humain le Projet Génome Humain a été lancé en 1990, on lui doit un nouveau programme, baptisé «Amener le génome à la vie». Il se présente ainsi: «Depuis le séquençage de tout le génome, la nouvelle biologie aspire à construire une nouvelle compréhension, complète et profonde, des systèmes vivants complexes Le paradigme actuel en biologie -indifféremment décrit comme “gène unique”, “réductionniste” ou “linéaire”- a peu de chances de réussir seul et les approches existantes de la recherche seront enrichies par une “approche des systèmes”.» À un moment, les chercheurs ont compris que le génome n'était pas doué de vie par lui-même. Que la vie, ainsi que Linus Pauling* nous le rappelait il y a longtemps, ne réside pas dans les molécules mais dans les relations entre ces dernières. Comme les responsables du nouveau programme du DOE l'écrivent: «Nous avons besoin de comprendre les interactions entre ces différents éléments.» Bref, il nous faut une «biologie intégrative».
Deux questions évidentes se posent: premièrement, comment expliquer ce nouvel engouement? Et deuxièmement, qu'entend-on par «biologie intégrative» ? La réponse à la première question est relativement facile, la réponse à la seconde l'est moins.
Commençons par la première. Il ressort clairement des citations précédentes qu'il existe un sentiment largement répandu que, grâce à l'accomplissement des premiers objectifs du Projet Génome Humain, la phase réductionniste de la recherche en génétique est désormais terminée. Sydney Brenner* se fait l'interprète de nombreux chercheurs quand il écrit: «Le séquençage du génome humain représente une sorte d'apothéose de réductionnisme chimique», et désormais «nous devons avancer». C'est que le succès de la première phase du Projet Génome Humain apporte aussi sa part de déception. En effet, comme l'énonce le DOE, nous avons listé les éléments, et nous voyons bien que la connaissance de ces éléments, et même la connaissance de leurs fonctions, ne suffit pas.
Toutefois, le Projet Génome Humain et la génétique moléculaire en général nous ont aussi fourni les outils pour aller au-delà de chaque élément, des outils pour sonder la complexité de la dynamique cellulaire. La consé-quence immédiate de ces progrès technologiques s'est manifestée par un afflux d'informations. Mais plus nous en apprenons sur le fonctionnement des éléments entre eux, plus la situation apparaît confuse, et plus le besoin de trouver de nouveaux outils et de nouvelles manières de s'exprimer se fait pressant. Selon Brenner: «Le premier défi intellectuel de l'avenir consiste à mettre en place un cadre théorique adapté pour la biologie.» J'ajouterais qu'il se révèle tout aussi pressant de créer un cadre linguistique qui nous emmène au-delà de l'assemblage du tout à partir d'éléments et qui prenne en considération la construction historique des éléments et des touts -thème si central de la biologie évolutionniste.
Les bienfaits de la sociabilité
Grâce aux extraordinaires développements techniques de ces dernières années, il est désormais possible d'explorer les interactions dynamiques, qui non seulement lient les éléments en touts, mais aussi qui révèlent de quelle manière ces interactions constituent les éléments mêmes. En conséquence, les généticiens créent une nouvelle manière d'aborder la fonction biologique, en cherchant les clés de cette fonction non seulement dans des gènes particuliers ou dans la structure de l'ADN, mais aussi dans les réseaux de communication dont l'ADN fait partie. On pourrait dire que la communication est devenue le nouveau mot à la mode, en même temps que les biologistes, réductionnistes par tradition, commencent à découvrir les bienfaits de la sociabilité.
Toutefois, avant d'embrasser un changement, les chercheurs doivent aussi avoir la certitude qu'il existe une autre voie. Cette certitude a été apportée par les développements techniques en informatique, en particulier depuis l'association des outils informatiques avec les techniques de l'analyse moléculaire. Elle découle également du rapprochement opéré ces dernières années avec l'analyse informatique computationnelle, pour traiter des quantités massives de données complexes. Mais je vois que j'ai déjà commencé à empiéter sur ma seconde question, à savoir: Qu'entendons-nous par «système» et Qu'est-ce que la «biologie intégrative»?
Pour résumer, je dirais que, jusqu'à présent, il s'agit d'un -concept en attente de définition. Le terme lui-même remonte au biologiste et psychologue autrichien Ludwig von Bertalanffy, qui écrivait dans les années -trente: «La notion de système peut être considérée simplement comme un terme générique désignant la corrélation étroite et dynamique entre les composants.» Aujourd'hui, toutefois, les défenseurs de la «biologie intégrative» ont plus de matière avec laquelle travailler, et ils sont par conséquent moins modestes. Pour beaucoup, la compréhension au niveau systémique signifie: «Comprendre les comportements du système, comprendre comment contrô-ler le système, et comment concevoir le système.»
Le concept n'en demeure pas moins extrêmement souple. Il offre des visages multiples, faisant appel à une grande variété de compétences, et promettant un éventail de résultats tout aussi vaste. Il s'agit d'un appel irrésistible pour les scientifiques issus de disciplines auxquelles la biologie expérimentale fait traditionnellement peu appel, par exemple l'ingénierie, l'informatique, la physique ou les mathématiques. Mais ce sont là des disciplines où le manque de cadre théorique commun est manifeste, et y chercher le «cadre théorique approprié» de Sydney Brenner nous rappelle quelque peu les six personnages en quête d'auteur de Pirandello. Alors, d'où peut-on espérer voir émerger un tel cadre? Et à quoi ressemblerait-il?
Je ne possède pas de boule de cristal, mais je discerne malgré tout des candidats évidents, dont l'un appartient à la discipline qui a de tout temps arbitré la théorie dans les sciences naturelles: la physique. En effet, pour de nombreux scientifiques, les termes «théorie» et «physique» sont presque synonymes, et les physiciens et les mathématiciens cherchent dans les sciences de la vie de nouveaux domaines dans lesquels appliquer leurs connais-sances. Pour certains, c'est là que se situe désormais l'action intellectuelle et scientifique: si le siècle dernier appartenait à la physique, le nouveau appartient à la biologie. À titre d'exemple, voici quelques citations tirées de la littérature récente: «La biologie aujourd'hui se trouve là où se trouvait la physique au début du XXe siècle», ou encore: «La physique nous aide à mieux comprendre, et elle peut apporter à la biologie des explications fondamentales.» D'autres y voient un but plus pragmatique: c'est là que se trouve désormais l'argent.
Mais les observateurs remarquent aussi que la transition de la physique à la biologie n'est pas aussi simple, qu'il existe un certain décalage culturel à combler entre ces disciplines, que les biologistes et les physiciens ont des buts et des traditions différents, qu'ils ne posent pas les mêmes types de questions, et ne cherchent peut-être pas le même type de réponses. En outre, il s'agit quasiment de la première fois dans l'histoire que des physiciens et des mathématiciens se tournent vers la biologie, pour y trouver de nouveaux problèmes et de nouveaux terrains à explorer. Les exemples du passé se sont soldés par des échecs, et les biologistes ont manifesté un intérêt limité dans les tentatives pour mathématiser ou théoriser leur discipline. Leur état d'esprit semble avoir évolué.
Double culture
De nos jours, biologistes expérimentaux, physiciens et mathématiciens collaborent en permanence, et le rôle des mathématiques en biologie semble être entré dans une ère nouvelle. Au cours des dernières années, aux États-Unis, la National Science Foundation NSF et les National Institutes of Health NIH ont lancé plusieurs initiatives à grande échelle, destinées plus particulièrement à rendre compte du potentiel des approches mathématiques et informatiques en biologie. Depuis 1983, la proportion du financement pour la recherche mathématique et informatique provenant de la division biologie de la NSF a été multipliée par cinquante, et l'on déplore surtout aujourd'hui le manque de candidats, plutôt que le manque de financement.
L'augmentation du financement se traduit à la fois par une croissance du nombre de publications et par la création de nouveaux cursus en mathématiques et en bio-informatique. Contrairement à leurs précurseurs, bon nombre d'entre eux sont désormais accueillis par des départements de biologie expérimentale. Les nouveaux étudiants ne se contentent pas de simplement collaborer avec des biologistes expérimentaux: ils deviennent souvent eux-mêmes biologistes. À l'inverse, les biologistes n'ont plus besoin de transmettre leurs questions et leurs données à d'autres. Grâce notamment à une meilleure connaissance de l'informatique, et aussi au développement de programmes informatiques «conviviaux» qui mettent les techniques d'analyse mathématique à la portée des béotiens en la matière, ils peuvent construire leurs propres modèles «mathématiques/théoriques». Cela se traduit par l'émergence d'une culture entièrement nouvelle, à la fois théorique et expérimentale, tout autant imprégnée d'équations différentielles que de données réelles.
Si, comme l'affirment désormais de nombreuses personnes, «une nouvelle biologie mathématique est en train de naître», elle s'accompagne non seulement de nouvelles compétences, mais aussi de nouvelles valeurs épistémiques. La discipline naissante ne présente de ce fait qu'une vague ressemblance avec les tentatives passées pour faire de la biologie une science théorique à l'instar de la physique. Cela ne promet pas tant une justification des échecs passés qu'une transformation des méthodes, des buts et des bases épistémologiques des tentatives antérieures.
Tentons de résumer les défis à venir. Tout d'abord, les efforts de modélisation les plus réussis suggèrent la nécessité de redéfinir des termes comme «essentiel» et «fondamental». L'essence d'un processus ne doit plus être recherchée dans des lois abstraites ou simples, mais dans la spécificité confuse d'adaptations particulières qui ont vu le jour au cours des processus désordonnés de l'évolution. Bien trop souvent, ce sont les particularités fortuites d'une structure biologique celle de l'ADN par exemple qui sont fondamentales. Par conséquent, si les physiciens veulent pouvoir participer à la création d'un cadre théorique approprié, ils devront repenser certaines de leurs hypothèses les plus élémentaires. Le fait est que la biologie vient bouleverser toutes nos hypothèses classiques concernant ce qui doit être considéré comme profond ou fondamental, ce qui doit être considéré comme une explication, et même ce qui doit être considéré comme un progrès.
Partenaires prometteurs ?
De plus, les systèmes biologiques sont, nous le savons, extraordinairement complexes. Mais, toujours à cause de l'évolution, leur complexité est de nature quelque peu différente de celle des systèmes physiques. Déjà, ils sont toujours et inévitablement hiérarchiques. Ainsi, les notions familières d'émergence, ancrées dans la dynamique non linéaire des systèmes uniformes gaz ou fluides, par exemple, ne conviennent pas. Les inhomogénéités et les particularités ordonnées des systèmes biologiques sont essentielles à leur fonctionnement. Les ignorer, c'est risquer le manque de pertinence biologique qui a historiquement été le destin de tant de modèles mathématiques en biologie. Par ailleurs, étant donné la nature de la complexité biologique, les modèles utiles de systèmes biologiques tendent à être informatiques plutôt que mathématiques. À la place de quelques équations différentielles simples, la nouvelle biologie théorique apparaît comme un entrelacs d'algorithmes, de vastes systèmes d'équations différentielles, d'analyses statistiques et de simulations. Qui plus est, de tels modèles ne peuvent être formulés avec succès que dans une très intime relation de va-et-vient avec l'expérimentation.
Enfin, les distinctions entre «pure» et «appliquée», entre «théorique» et «pratique» -des distinctions si basiques à notre vision contemporaine de la physique- doivent aussi disparaître. C'est en grande partie une conséquence de la technologie même qui a permis de recueillir une telle quantité de données. Les techniques de l'«ADN recombinant» permettent en effet d'intervenir directement dans la dynamique interne du développement. Elles ont transformé les marqueurs génétiques en autant d'outils pour réaliser tel ou tel changement. En résumé, la technologie qui a ouvert la voie de la biologie théorique, a aussi, et simultanément, fait du génie génétique une réalité. La biologie devient une science pratique en même temps qu'elle devient théorique.
Le deuxième candidat pour un nouveau cadre théorique et peut-être le plus prometteur est suggéré par l'engouement actuel pour la comparaison de l'organisme avec un ordinateur, et celle de la biologie avec une science numérique. Je dis «plus prometteur» à cause des riches outils pratiques que l'informatique nous a donnés pour envisager des systèmes interactifs - des outils et des métaphores qui, en bien des façons, nous rapprochent beaucoup plus de la complexité des systèmes biologiques que les modèles traditionnels de la physique théorique. Mais ce serait une grave erreur de vouloir trop se concentrer sur les aspects numériques du fonctionnement génétique, et de négliger la nature fondamentalement analogique de la chimie qui sous-tend tout ce processus.
Une parenté avec l'ingénierie?
En outre, il y a là aussi une leçon à tirer de l'histoire. En tant que scientifiques, notre manière d'envisager des phénomènes que nous ne comprenons pas est, comme elle l'a toujours été, et comme elle doit l'être par nécessité, de comparer l'inconnu au connu. Ainsi, la comparaison de l'organisme avec une machine remonte à d'anciennes théories sur la nature de la vie -la seule différence étant le type de machine que nous prenons en considération. En nous fondant sur des poulies, des pompes hydrauliques, des horloges, des moteurs à vapeur, nous avons fait preuve d'une ingéniosité extraordinaire pour construire des machines encore plus polyvalentes et enthousiasmantes. Comparer l'organisme à chacune de ces machines s'est révélé instructif dans le passé, comme comparer l'organisme à nos machines les plus modernes se montre instructif de nos jours. Mais il ne serait guère raisonnable de supposer que notre ingéniosité s'épuise, que nous ne construirons pas bientôt des machines plus proches de la vie. En fait, nos meilleurs informaticiens parient sur notre capacité à le faire, et, une fois encore, ils cherchent l'inspiration dans la biologie.
Alors, allons, et adoptons les termes et les images de l'informatique pour nous aider à penser les propriétés systémiques des cellules et des organismes. N'oublions pas, toutefois, que ces systèmes biologiques n'ont pas livré tous leurs secrets à nos ingénieurs. De nombreuses personnes avancent que la «biologie intégrative» aura plus de liens de parenté avec l'ingénierie qu'avec la physique. Elles ont peut-être raison. Toutefois, il reste à nos ingénieurs à construire un système qui soit à la fois autoconcepteur et autogénérateur, un système que nous aurions envie de qualifier de vivant. Je ne peux affirmer qu'une telle tâche est impossible, mais seulement que nos ordinateurs actuels et nos systèmes Internet de pointe n'en sont pas encore capables.
Que manque-t-il pour douer le génome de vie? Je l'ignore, mais si je devais me prononcer, je m'attacherais à observer attentivement où les limites actuelles de la conception en ingénierie et de la génomique se situent. Et je demanderais, avec nos ingénieurs les plus brillants: Avons-nous suffisamment tenu compte de la dynamique de nos systèmes? Avons-nous prêté suffisamment d'attention à leur organisation temporelle? Suffit-il de considérer que les gènes sont activés ou pas, ou les généticiens doivent-ils commencer à étudier les moments précis de passage d'un état à l'autre, à la fois les uns par rapport aux autres, et aussi par rapport à la dynamique temporelle des processus globaux dans la cellule? Je parierais que notre prochaine avancée significative se situera là.
Bien entendu, il ne s'agit que d'hypothèses -comme je l'ai dit, ma boule de cristal est trouble. Toutefois, il ne fait presque plus aucun doute aujourd'hui que la biologie moléculaire postgénomique exige de nouvelles méthodes d'analyse, et de nouveaux cadres conceptuels. Appelez cela la «biologie intégrative» si vous le souhaitez, mais ce n'est qu'en avançant que nous comprendrons exactement de quoi il s'agit.
EN DEUX MOTS : L'obtention de la séquence du génome humain signe-t-elle l'entrée de la biologie dans une ère nouvelle? Oui, selon l'historienne Evelyn Fox Keller, qui se réfère aux propos tenus par les spécialistes de la génomique. Tous soulignent la nécessité de donner un sens au génome: la question n'est plus «Qui sont les acteurs?» mais «Quel est le scénario?» Toutefois, confrontée à l'incroyable afflux de données issues du séquençage, il est peu probable que la biologie puisse élaborer seule ce scénario. Physique, mathématiques et informatique sont autant de partenaires potentiels dans cette quête de sens. Evelyn Fox Keller se risque à prédire leurs chances d'être ou non élus, tandis que trois scientifiques français réagissent au tableau qu'elle brosse.
Par Evelyn Fox Keller
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
LES ABEILLES ET LE GAUCHO... |
|
|
|
|
|
Le Gaucho ® est-il l'ennemi des abeilles ?
livres - par Minh-Hà Pham-Delègue dans mensuel n°347 daté novembre 2001 à la page 70 (2726 mots)
Les apiculteurs français d’un côté, l’industriel Bayer de l’autre. Au milieu, une administration, un ministre, les médias et toute une population de scientifiques. L’insecticide Gaucho® est-il ou non un danger pour les abeilles ? Quatre ans de controverses parfois houleuses et d’études scientifiques n’ont pas permis de départager les protagonistes. Est-ce un échec ?
L’affaire éclate en 1997 quand les apiculteurs français, déplorant depuis quelques années le dépeuplement massif des ruches juste au moment de la floraison du tournesol et la chute des récoltes de miel dans l’ouest de la France, désignent le Gaucho®, un insecticide, comme responsable probable et saisissent les pouvoirs publics .
Lors d’une première réunion avec les représentants de deux ministères, du groupe Bayer qui produit l’insecticide et plusieurs scientifiques, les délégués des syndicats apicoles expliquent leurs soupçons : le phénomène coïncide avec le début de l’utilisation du Gaucho® sur le tournesol en 1993. D’après leur enquête, le produit utilisé sur les semences de tournesol pour éliminer les insectes nuisibles pourrait avoir un effet inattendu sur les abeilles : ils suspectent en effet que la matière active, l’imidaclopride, un neurotoxique pour les insectes, se retrouve bien après le traitement dans le capitule des fleurs que visitent les butineuses. Bayer conteste cette hypothèse. Assez vite alerté, il avait mené des expérimentations entre en 1995 et 1997. Or, il n’avait observé, sous tunnel, aucune différence de mortalité ou d’activité de butinage entre des abeilles visitant des tournesols traités ou non. De plus, selon ses analyses, le produit ne resterait pas assez longtemps dans la plante pour entraîner une exposition des abeilles.
Un premier état des lieux sur les effets potentiels du Gaucho® réalisé par deux biologistes de l’INRA à la demande de la Commission des toxiques* du ministère de l’Agriculture paraît en décembre 19971. Au vu de ce rapport, qui n’exclut pas la responsabilité potentielle de l’insecticide, le comité d’homologation du même ministère considère : « E n l’état actuel des connaissances, le caractère toxique de ce produit sur les abeilles ne peut être ni confirmé ni infirmé. Il est nécessaire de poursuivre les études, avec notamment des zones témoins où le produit sera interdit par arrêté préfectoral. » Dans la foulée, il est convenu de suspendre l’emploi de semences de tournesol traitées avec du Gaucho® en Vendée, dans l’Indre puis dans les Deux-Sèvres, les départements les plus touchés. Des études complémentaires dans ces zones sont alors lancées, et les bases d’un programme de recherche à l’échelle nationale sont posées en janvier 1998. A l’exception des deux laboratoires de chimie CNRS Orléans et Girpa Angers, recrutés sur un appel d’offres spécifique, le ministère de l’Agriculture désigne pour ce programme des chercheurs appartenant au groupe abeille* de la Commission des toxiques. C’est a priori une garantie de leur compétence. Mais avec le recul on peut déplorer l’absence d’appel d’offres classiques qui aurait optimisé les possibilités de contribution. L’inconvénient majeur aurait sans doute été la perte de temps liée à cette procédure.
Le comité de pilotage est ainsi constitué de scientifiques équipes de l’Agence française de sécurité sanitaire des aliments - Afssa - de Sophia-Antipolis, INRA Avignon, Lusignan et Bures, CNRS Orléans et Girpa Angers, de représentants de la production agricole et d’apiculteurs, d’instituts techniques, des ministères de l’Agriculture et de l’Environnement et de Bayer. Le ministère de l’Agriculture confie la coordination administrative du programme à Gilbert Maurin de l’Association de coordination technique agricole et me demande d’assurer la coordination scientifique des expérimentations.
Méthodes inadaptées. La recherche se heurte vite à un premier écueil : pour les abeilles aucune procédure de référence adaptée à l’étude spécifique de ce type d’insecticide n’est disponible. Celles en vigueur concernent des produits de traitement aérien. Or, pour ceux utilisés en enrobage de semences comme le Gaucho®, on s’attend à une exposition plus longue des abeilles à des doses faibles, puisque le produit évolue dans la plante pendant tout ou partie de son cycle. Et surtout ces méthodes s’appuient principalement sur l’enregistrement de la mortalité, alors que ce sont des perturbations du comportement des abeilles empêchant le retour à la ruche qui sont décrites. En l’absence de méthodologie validée, chaque équipe scientifique soumet des propositions qui sont avalisées au cours de réunions pratiquement mensuelles du comité de pilotage. Les questions deviennent multiples et d’ordre plus fondamental. Peut-on mettre en évidence des disparitions d’abeilles en plaçant des colonies d’abeilles en présence de tournesols traités ? A quelles doses sont exposées les abeilles qui butinent les tournesols ? Quels comportements peuvent être perturbés, s’agit-il de capacités d’apprentissage nécessaires à l’orientation des abeilles ? Globalement, le programme se partage en expérimentations de laboratoire ou tunnels d’une part et en champ d’autre part. Les premières visent à caractériser les éventuels symptômes et les seuils de toxicité. Les secondes ont à la fois pour but de vérifier et de quantifier les effets observés par les apiculteurs en condition de terrain et de doser l’insecticide présent dans différents substrats pour déterminer si les abeilles sont réellement exposées à des doses toxiques.
Le calendrier opérationnel est serré : les essais débutent au printemps, les observations en champ et les prélèvements d’échantillons en été lors de la floraison, et les analyses chimiques au cours de l’automne. Les résultats étant attendus pour la fin de l’année, les chercheurs bouclent leurs rapports courant octobre, souvent dans l’urgence.
Après différentes discussions et présentations des résultats préliminaires à l’automne, le rapport final est clos mi-décembre 1998. Les deux chimistes ayant analysé les résidus et moi-même sommes alors chacun auditionné par la Commission des toxiques pour présenter les conclusions finales2 : quelles sont-elles ? En conditions contrôlées, sous tunnel ou au laboratoire, les essais montrent des effets sur différents aspects de la biologie et du comportement des abeilles, y compris à des doses très faibles : les premiers effets sur les performances d’apprentissage sont observés à partir de 4 ppb* voir la figure : « Résultats des études en conditions contrôlées ». Sur le terrain, les dosages de résidus dans diverses matrices indiquent la présence de faibles quantités d’imidaclopride, y compris dans certains échantillons prélevés dans des parcelles non traitées. Elles sont inférieures à 10 ppb. Ce point crucial mérite explication. En commençant les recherches, on ne pensait pas trouver des effets à de si faibles doses. Le premier cahier des charges pour l’analyse des résidus avait donc fixé la limite de quantification* à 10 ppb. Cela signifie qu’au-dessus de cette limite les mesures précises étaient possibles mais en dessous on pouvait seulement détecter leur présence. La présence en champ de doses inférieures à 10 ppb indiquait donc une exposition potentielle des abeilles à des doses affectant leur comportement. Et pourtant, les expérimentations en champ, sur sites traités et non traités, n’indiquaient aucune différence notable concernant l’activité de butinage, les mortalités, l’évolution des colonies et la récolte de miel.
Quels résultats ? La controverse rebondit : comment expliquer que les résultats de laboratoire contredisent les observations en plein champ et pourquoi détecte-t-on de l’imidaclopride dans les zones non traitées ? Pour Bayer, les résultats en champ doivent primer : il plaide pour le maintien du traitement des semences. Au contraire, pour les apiculteurs, l’existence de perturbations comportementales à très faibles doses et une exposition possible des abeilles à ces doses confirment la responsabilité du Gaucho®. Et en raison de la présence d’imidaclopride dans des zones non traitées, ils contestent la validité des zones témoins, et donc des expérimentations de terrain. Pour se faire entendre, ils manifestent en décembre 1998, à Paris, au pied de la tour Eiffel. Ils me convient à leur congrès pour présenter les résultats du programme et s’étonnent vivement que je ne prenne pas position en leur faveur, que je « reste au milieu du gué » . Après des mois de travail intense, cette prise à partie assez brutale est vécue douloureusement, d’autant que nous devons aussi défendre nos résultats face à Bayer.
Témoins gênants. Il est vrai que de l’imidaclopride a été détectée en zones non traitées, et l’hypothèse d’une rémanence du produit après un traitement antérieur ne peut être écartée. Mais cela pose aussi d’autres questions. Dans les champs traités, tous les prélèvements sont positifs alors qu’en zones témoins, il s’agit en gros d’un échantillon sur trois. On aurait donc dû observer une différence de comportement des abeilles. Par ailleurs, si l’on admet une présence du produit dans tous les essais, comment expliquer l’absence de dépeuplement des ruches ? Pour moi, il existe encore trop d’inconnues pour se prononcer, et il faut aussi étudier l’hypothèse d’une cause multifactorielle.
La Commission des toxiques conclut finalement : « Les risques encourus ne paraissent pas suffisants pour interdire l’utilisation de l’imidaclopride » . Mais elle demande des études complémentaires. Et, dans l’attente des résultats qui devront être fournis dans un délai maximal de deux ans, elle préconise la reconduite des zones d’interdiction provisoire. En janvier 1999, Jean Glavany, ministre de l’Agriculture, va au-delà : il retire « de façon provisoire l’autorisation de mise sur le marché du Gaucho ® pour le traitement de semences de tournesol dans l’attente des résultats d’études scientifiques complémentaires demandées à la société Bayer et d’une enquête épidémiologique complémentaire pour déterminer si d’autres facteurs pourraient être responsables ou coresponsables des phénomènes observés sur les abeilles » .
Cette décision est plutôt bien accueillie par les apiculteurs. C’est à leurs yeux une première étape satisfaisante, même s’ils n’obtiennent pas qu’elle s’étende à d’autres cultures sources de pollen maïs, blé et orge. L’industriel, lui, fait bonne figure, il salue la mise en place d’une enquête épidémiologique multifactorielle dont il espère qu’elle fera la preuve de l’innocuité du Gaucho®3. Malgré cette satisfaction apparente, chacun cherche à renforcer sa position. Et surtout l’organisation des recherches change : il n’y a plus de programme centralisé. Conformément à la procédure d’homologation d’un produit phytosanitaire, la responsabilité des travaux revient à Bayer. Excepté l’enquête épidémiologique dont il annonce le démarrage en juin 1999, le ministère de l’Agriculture n’est plus chargé d’études. Et de son côté, la coordination des apiculteurs, désireuse d’une contre-expertise, soutient dans le cadre du règlement européen pour l’apiculture les projets de plusieurs équipes INRA Avignon, Toulouse et Bures, CNRS d’Orléans, Afssa Sophia-Antipolis sans véritable coordination scientifique.
Qui doit financer ? Cela soulève le problème de la constitution des dossiers d’homologation dans ce genre de situation : doit-elle rester à la charge des industriels, y compris pour les aspects éco-toxicologiques, ou bien des organismes indépendants doivent-ils conduire ces études ? Dans ce cas, avec quels moyens ? En filigrane, c’est la question de l’indépendance même des scientifiques qui se pose quand on sait que déjà lors du programme de 1998, qui pouvait pourtant être considéré comme indépendant voir l’encadré ci-dessus, certains scientifiques se sont vu reprocher des liens avec Bayer.
En fin d’année 1999, Bayer, dont la demande d’annulation du retrait provisoire du Gaucho® devant le Conseil d’Etat vient d’être rejetée, présente un nouveau rapport qui confirme ses résultats précédents4. Quant à l’enquête d’épidémio-surveillance, elle ne révèle pas de problème mais est très contestée par les apiculteurs : ils reprochent de ne pas avoir été consultés pour élaborer le questionnaire, inadapté à leurs yeux.
A partir de mars 2000, les autres études commencent à donner leurs fruits. Pour notre part, nous transmettons les résultats de nouveaux tests. Ils montrent que les performances des abeilles sont affectées pour des doses ingérées plus fortes que celles indiquées par nos données de 1998. Cela vaut à la direction générale de l’INRA un courrier de la coordination des apiculteurs dénonçant nos résultats. Ceci m’amène alors à rappeler à la coordination des apiculteurs ma ligne de conduite : produire des résultats scientifiques en toute indépendance, même par rapport à une demande sociale légitime.
Nos expériences ultérieures en conditions contrôlées établissent que la sensibilité au produit varie avec la saison : les abeilles d’été réagissent à des doses plus faibles 6-12 ppb que les abeilles d’hiver 24-48 ppb. J’apprends par un article de La France Agricole que les résultats de l’équipe de l’INRA d’Avignon indiquent des seuils encore plus bas, avec des effets dès 3 ppb5. Dose susceptible d’exister sur le capitule de tournesol, comme l’indiquent les nouvelles mesures des chercheurs du CNRS d’Orléans. On peut s’étonner du fait que les résultats soient communiqués par voie de presse : c’est là une des limites d’une science « en ligne » ,où les résultats dont disposent les experts portent la seule garantie de leurs auteurs. En effet, faute de temps, tous ces travaux n’ont pas encore passé la procédure habituelle de validation nécessaire à la publication dans une revue scientifique spécialisée : l’évaluation par un comité de pairs garantissant, en principe, la qualité des résultats. Le rythme de production de résultats scientifiques s’accommode mal des urgences sociétales. De fait, les premières publications scientifiques ont commencé seulement à paraître en 20006.
Manque de consensus. On a beaucoup polémiqué sur la divergence des résultats. Mais est-ce le coeur du problème ? Les effets du produit ont été recherchés sur des comportements divers impliquant des observations et des mécanismes différents. Il n’est donc pas étonnant qu’ils soient observés pour des quantités différentes.
Moins d’un facteur dix sépare ces valeurs qui indiquent toutes une grande toxicité du produit pour l’abeille. L’absence de consensus ne vient donc pas tant des résultats eux-mêmes que de leur interprétation et de l’absence de discussions préalables entre les différents scientifiques. Mais la question centrale est évidemment de relier ces seuils aux quantités présentes sur le terrain et aux effets qui y sont observés : c’est bien là toute la difficulté !
l’automne 2000, la pression médiatique monte d’un cran avec des articles dans la presse quotidienne7. Les apiculteurs organisent plusieurs manifestations8. Considérant la responsabilité du Gaucho® avérée, ils réitèrent leur demande de retrait du produit. Et l’étendent à tous les produits d’enrobage de semences utilisés sur des plantes attirant les abeilles.
La commission des toxiques demande des précisions sur les protocoles et auditionne toutes les parties impliquées. A l’issue des consultations, la commission estime en décembre que rien ne permet d’« incriminer formellement et exclusivement la préparation Gaucho® dans l’ensemble des problèmes, au demeurant très complexes, rapportés par les apiculteurs ». Toutefois, s’appuyant sur les « altérations des performances d’apprentissage olfactif des abeilles observées en laboratoire à des concentrations proches des niveaux de résidus présents dans les parties de la plante accessibles à l’abeille », et sur « la persistance de l’imidaclopride dans les sols [...], la commission ne peut conclure à l’absence de risque pour les abeilles... ». Elle justifie cet avis pour le moins mitigé par « l’absence de coordination entre les différents protocoles, et le manque de précisions sur des données brutes rendant difficile l’interprétation des résultats ».
Le 2 février 2001, Jean Glavany prolonge « pour deux années supplémentaires la suspension de l’autorisation du Gaucho® dans le traitement des semences de tournesol » . Une décision à réviser au vu de toute avancée scientifique suffisamment convaincante. Le ministre confie également « à un comité d’experts indépendants une étude épidémiologique de grande envergure qui analysera l’ensemble des facteurs qui peuvent affecter la santé des abeilles » .
En gros, il prolonge sa décision de 1999, sans interdiction définitive et sans suspension d’autres usages. Il réitère sa demande d’une enquête épidémiologique à grande échelle et réclame des informations approfondies sur la persistance du produit dans les sols. Cette fois, comme les apiculteurs, Bayer se déclare déçu. Chacun campe sur ses positions. Quant à l’enquête, elle est soutenue par Bayer mais rejetée par la coordination des apiculteurs qui ne croit pas à son bien-fondé9. Or sans leur appui, l’entreprise semble compromise.
Au final, trois années d’études pluridisciplinaires, conduites par divers organismes publics, techniques ou privés, n’ont pas permis aux autorités de conclure. Est-ce un échec, compte tenu de l’effort engagé en termes humains et financiers ? Ou au contraire ce bilan est-il exemplaire d’une nouvelle forme d’expertise, mêlant science « à chaud » et demande sociétale, qui serait la règle à l’avenir ? Il est en tout cas un exemple emblématique de l’application du principe de précaution.
Cas d’école. On retrouve dans cette affaire, tous les acteurs que décrit Bernard Chevassus-au-Louis, président de l’Afssa, dans son analyse de l’expertise scientifique10 : le citoyen les apiculteurs et Bayer, le scientifique les chercheurs, l’expert les membres des Commissions, le décideur le ministre de l’Agriculture. Dans ce cas précis, les citoyens ont été directement impliqués puisqu’ils ont participé au débat depuis le début. Ces interactions ont certainement contribué à une perception plus complète du problème, mais il n’est pas sûr qu’elles aient facilité la décision en matière de gestion du risque...
Par Minh-Hà Pham-Delègue
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
NAISSANCE DES NEURONES ... |
|
|
|
|
|
Naissance des neurones et mort d'un dogme
neurones à volonté - par Heather Cameron dans mensuel n°329 daté mars 2000 à la page 29 (4155 mots)
En quelques années, plusieurs découvertes se sont succédé qui confirment ce qui était autrefois une hérésie : des neurones continuent à naître dans le cerveau adulte des mammifères, y compris l'homme, et ce tout au long de la vie. Des perspectives thérapeutiques révolutionnaires s'ouvrent à nous. Mais de nombreux points restent à éclaircir, et notamment la relation qu'entretient cette neurogenèse avec la mémoire.
On estime généralement que tous les neurones de notre cerveau sont présents dès la naissance. Ce fait est considéré comme une caractéristique essentielle du cerveau des mammifères, et il a plusieurs conséquences importantes ; ainsi, tous les processus d'apprentissage à l'âge adulte s'organisent dans le cadre d'un cerveau anatomiquement stable, et toute mort de neurones à la suite d'une lésion ou d'une maladie entraîne un déficit permanent. Mais nous savons maintenant que ce dogme n'est pas parfaitement exact. Certains types de neurones continuent à être produits tout au long de la vie chez toutes les espèces de mammifères étudiées, y compris l'homme. L'existence de cette neurogenèse la production de nouveaux neurones pourrait modifier les théories du fonctionnement cérébral. Sa compréhension et sa maîtrise permettraient le développement d'outils thérapeutiques exceptionnels pour le traitement des lésions cérébrales ou des maladies neurodégénératives, entre autres.
La vision du cerveau adulte comme un organe anatomiquement stable trouve probablement son origine dans la différence de plasticité entre les cerveaux d'enfant et d'adulte, c'est-à-dire leurs capacités différentes à se modifier en réponse à des perturbations de l'environnement. Cliniquement, on sait depuis longtemps que le cerveau humain en développement, pendant l'enfance, se révèle beaucoup plus capable que le cerveau adulte de récupérer après une lésion. Expérimentalement, on avait constaté que les hormones ont sur le cerveau et sur le comportement des effets anatomiques permanents - des effets dits d'organisation - lorsque l'exposition a lieu pendant le développement, alors qu'elles n'exercent à l'âge adulte qu'une action réversible. Un phénomène similaire avait été observé dans le système visuel : si les signaux visuels reçus pendant la période de développement sont anormaux, le système visuel cérébral est altéré de manière définitive, alors que ces anomalies des stimuli visuels n'ont pas d'effet durable à l'âge adulte. Cette phase du développement caractérisée par une grande plasticité anatomique et comportementale est appelée période critique. Les études sur la prolifération cellulaire confortèrent cette idée d'une différence radicale entre le cerveau en développement et le cerveau adulte : il était facile d'observer des neurones en division dans le cerveau embryonnaire ou à la période postnatale précoce, mais il était extrêmement difficile d'en trouver à l'âge adulte. De plus, on pensait, sur la base de critères morphologiques, que les cellules en division que l'on parvenait à découvrir étaient des précurseurs de cellules gliales* et non de neurones.
Cette différence - qualitative en apparence - de plasticité entre le cerveau en développement et le cerveau adulte a été introduite dans les théories sur le fonctionnement du cerveau. Alors que la capacité à réparer les lésions par la régénération des cellules perdues semble comporter d'énormes avantages et que le phénomène s'observe dans de nombreux tissus, il devait exister une raison extrêmement importante pour que les neurones cérébraux ne se renouvellent pas. Les théories sur la nécessité de la stabilité du cerveau pour que les pensées et les souvenirs puissent se conserver sur toute la durée de vie se fondent sur cette idée que les neurones du cerveau adulte ne se renouvellent pas ; à l'inverse, ces théories ont renforcé la conviction selon laquelle le cerveau adulte est structurellement stable1.
C'est dans les années 1960 que l'on s'aperçut pour la première fois que de nouveaux neurones apparaissent dans le cerveau des mammifères adultes. Cette découverte est due à Joseph Altman, qui s'intéressait alors à la prolifération cellulaire induite par des lésions, dans le cerveau du rat. A l'époque, on pensait que, dans le système nerveux, seules les cellules gliales pouvaient se régénérer. Ainsi, après une lésion du cerveau, on peut observer « une cicatrice gliale ». Comme une cicatrice sur la peau, elle est due à la régénération de cellules, en l'occurrence des astrocytes*. Cependant, outre ce renouvellement glial, Altman observa d'autres cellules nouvelles qui ressemblaient davantage à des neurones. Cette observation était très surprenante car elle contredisait la théorie en vigueur depuis des dizaines d'années et selon laquelle les neurones ne sont produits que pendant une période limitée du développement.
C'est par une caractérisation morphologique que les nouvelles cellules furent identifiées comme neurones. Ceux-ci sont en effet plutôt plus volumineux que les cellules gliales, et apparaissent plus clairs qu'elles avec les colorants classiques. Ce type d'argument, bien qu'évocateur, n'est pas considéré comme concluant, surtout lorsqu'il s'agit d'une question aussi controversée que la neurogenèse chez l'adulte. Pourtant, il y avait effectivement naissance de nouveaux neurones dans le cerveau des mammifères adultes. C'était seulement difficile à prouver. Vers la fin des années 1970 et dans les années 1980, les chercheurs purent montrer que des cellules nées dans le cerveau du rat adulte possédaient des synapses, ces connexions spécialisées qui n'existent qu'entre neurones. C'était la preuve de la naissance de nouveaux neurones, mais la technique de recherche des synapses sur les cellules nouvellement apparues prenait un temps considérable, et le nombre de nouveaux neurones identifiés était extrêmement faible, à peine deux ou trois cellules par cerveau. Du coup, il était facile de considérer la neurogenèse chez l'adulte comme un phénomène négligeable, peut-être un processus ancestral hérité du cerveau des lézards ou des oiseaux, chez lesquels la neurogenèse à l'âge adulte est relativement abondante. Ces dernières années, néanmoins, les techniques immunohistochimiques ont révolutionné de nombreux domaines de la biologie. Elles permettent l'identification de centaines de types cellulaires, y compris les neurones et les cellules gliales, en fonction des protéines particulières qu'ils expriment, au moyen d'anticorps auxquels sont fixés un marqueur visible, par exemple une molécule fluorescente. Avec des marqueurs spécifiques, on a pu observer au début des années 1990 de très nombreux neurones nouveau-nés dans le cerveau adulte. Cette technique a permis une analyse quantitative du nombre de ces nouveaux neurones, et on a ainsi pu étudier les modifications de la production neuronale en réponse à divers traitements expérimentaux.
Nier la neurogenèse devenait impossible. Depuis, elle a été décrite chez toutes les espèces de mammifères étudiées, et notamment chez le rat, la souris, la musaraigne, les primates du Nouveau Monde et ceux de l'Ancien Monde, dont l'homme2, 3. Il apparaît également que cette neurogenèse concerne des zones cérébrales plus étendues qu'on ne le pensait encore très récemment. En effet, on crut tout d'abord que les seuls neurones dotés de cette capacité de renouvellement étaient les cellules granulaires ou simplement « grains » du bulbe olfactif et de la région du g yrus dentatus ou corps godronné de l'hippocampe p. 33. Mais Elizabeth Gould, de l'université de Princeton, a mis en évidence dans un article publié en octobre dernier une production de nouveaux neurones dans certaines régions précises du cortex des primates4. Cette découverte est extrêmement intéressante, non seulement parce que le cortex intervient dans les processus cognitifs dits de haut niveau, bien développés chez l'homme et les autres primates, mais aussi parce qu'elle donne à penser que de nouveaux neurones pourraient apparaître dans d'autres régions du cerveau des mammifères qui n'ont pas encore été examinées d'assez près.
Malgré tout, le vieux dogme n'est pas entièrement faux. Il semble bien que, dans leur grande majorité, les neurones du cerveau adulte aient été produits aux alentours de la naissance. Et, s'il n'est pas actuellement possible d'exclure une poursuite de la neurogenèse dans d'autres régions cérébrales, il ne semble pas que ce renouvellement tout au long de la vie puisse concerner tous les types de neurones. Dans l'hippocampe, qui a été étudié de manière très approfondie, il paraît clair que si les cellules granulaires se reproduisent à l'âge adulte, ce n'est pas le cas des autres populations neuronales de la région. Il en va de même du bulbe olfactif. D'après les connaissances actuelles, il semble donc que seuls certains sous-types de neurones se régénèrent à l'âge adulte, même dans les régions dites neurogènes. Aujourd'hui encore, on ne sait pratiquement rien de l'identité des nouveaux neurones corticaux, on ignore notamment s'ils appartiennent ou non à un seul sous-type neuronal.
Il semble également probable qu'on ne découvrira pas de neurogenèse dans toutes les régions cérébrales. La récente étude sur le néocortex des primates a mis en évidence des neurones nouveaux dans trois régions du cortex associatif les zones préfrontale, temporale inférieure et pariétale postérieure ; en revanche, malgré un examen attentif, il n'a été observé aucun renouvellement dans le cortex strié. Ce résultat est particulièrement intéressant, car le cortex associatif joue un rôle important dans les fonctions cognitives de haut niveau, alors que le cortex strié intervient dans le traitement des informations d'origine visuelle. Cette différence donne à penser que la neurogenèse pourrait jouer un rôle clé dans des fonctions plastiques par essence, alors qu'elle serait sans objet pour des fonctions de bas niveau comme le traitement des données sensorielles, qui sont en général stables tout au long de la vie. Cette idée cadre bien avec ce que l'on sait de la neurogenèse dans le reste du cerveau. Ainsi, il a récemment été démontré que l'apprentissage olfactif a lieu au sein du bulbe olfactif et fait intervenir les neurones granulaires, et on sait par ailleurs depuis longtemps que l'hippocampe est une région importante pour l'apprentissage et la mémoire. On notera néanmoins que si leur localisation incite à penser que les neurones apparus à l'âge adulte peuvent jouer un rôle dans les processus d'apprentissage et de mémoire, rien n'indique qu'ils aient effectivement une fonction. Cela ne veut pas dire qu'ils ne soient pas fonctionnels ; cela traduit seulement les difficultés techniques qui empêchent de recueillir les informations nécessaires. En effet, il est difficile de caractériser les neurones nouveau-nés par l'électrophysiologie, car celle-ci ne permet absolument pas de déterminer l'âge d'une cellule vivante. Les études comportementales sur la neurogenèse à l'âge adulte sont également délicates parce que les manipulations utilisées pour inhiber la neurogenèse perturbent aussi le fonctionnement des autres neurones et des cellules gliales, et qu'il est donc impossible d'établir le lien direct qu'elle pourrait avoir avec une modification comportementale. Surmonter ces obstacles techniques est un enjeu essentiel, car la fonction de la neurogenèse à l'âge adulte est certainement la question qui suscite le plus d'intérêt.
Bien qu'on ne sache pas grand-chose de la fonction des neurones apparus à l'âge adulte, de nombreux travaux ont permis d'élucider plusieurs aspects de leur prolifération, de leur différenciation et de leur survie. C'est dans le gyrus dentatus que la neurogenèse à l'âge adulte est la mieux connue ; jusqu'à présent, cette région est aussi la seule où une neurogenèse ait été observée chez l'homme adulte. Le nombre des neurones qui y apparaissent est loin d'être négligeable, puisqu'il suffit à renouveler plusieurs fois toute la population des neurones granulaires au cours de la vie d'un rongeur. Cependant, cette production de nouveaux neurones ne paraît pas répondre à un modèle de simple renouvellement, dans lequel des cellules neuves viendraient remplacer les neurones qui meurent. Ainsi, certains neurones granulaires persistent pendant toute la vie de l'animal, alors que d'autres n'ont qu'une brève durée de vie. Les nouveaux neurones pourraient augmenter l'effectif de la population totale, ou bien remplacer les cellules qui meurent sans modifier l'effectif total, et la neurogenèse pourrait donc avoir pour objet de modifier soit l'effectif de cette population, soit l'âge moyen des neurones qui la constituent. Par ailleurs, le rythme de production des neurones n'est pas constant, mais modulé en permanence par des signaux provenant des milieux interne et externe. Peut-être sera-t-il possible de se faire une idée de la fonction des nouveaux neurones à partir de la compréhension des facteurs qui contrôlent la neurogenèse. En ce qui nous concerne, nous avons découvert que deux facteurs contrôlant la neurogenèse dans le gyrus dentatus chez l'adulte jouent tous deux un rôle important dans les processus hippocampiques d'apprentissage et de mémoire, une relation que nous allons détailler maintenant.
Le premier de ces facteurs est le stress, qui réduit la production de nouveaux neurones granulaires5. Le fait a été démontré par deux tests classiques, chez des primates installés dans la cage d'un mâle qui ne leur était pas familier et chez des rats exposés à l'odeur d'un prédateur. Ces effets du stress sur la prolifération cellulaire sont dus à la modification de la concentration d'hormones : les corticoïdes6. Cette observation a été confirmée par l'ablation des glandes surrénales situées au-dessus des reins, comme leur nom l'indique, elles produisent la principale de ces hormones. Elle entraîne une augmentation de la production de nouveaux neurones. Comme les concentrations d'hormones corticoïdes évoluent selon un cycle diurne, la production de nouveaux neurones varie sans doute au cours de la journée, passant par un minimum au réveil et par un maximum douze heures plus tard. Il est probable que des facteurs de stress mineurs et de courte durée ralentissent la neurogenèse pendant plusieurs heures, alors que le stress chronique pourrait la bloquer pendant plusieurs semaines ou plusieurs mois. Quel sens donner à ces résultats ? On considère souvent le stress comme quelque chose de négatif. Cependant, toute expérience nouvelle s'accompagne d'une élévation des concentrations d'hormones corticoïdes et d'autres signes de stress léger, phénomènes qui sont en fait importants pour l'apprentissage qu'impliquent ces situations nouvelles. Pourquoi ralentir la production de nouveaux neurones dans l'hippocampe pendant ce genre de situations ? Il semble que la survie des nouveaux neurones soit meilleure pendant les phases d'apprentissage. Il est donc possible qu'un ralentissement de leur production soit nécessaire pour éviter toute surpopulation.
Dans les processus hippocampiques d'apprentissage, un autre signal important est la liaison d'un neurotransmetteur, le glutamate, à un récepteur appelé NMDA7. Si les récepteurs NMDA sont bloqués, les rats sont incapables d'améliorer leurs performances aux tests de mémoire spatiale faisant intervenir l'hippocampe, comme la classique localisation d'une plate-forme immergée dans une piscine. Le blocage des récepteurs NMDA accroît la production de neurones granulaires et, à l'inverse, une activation de ces récepteurs réduit la production de ces neurones. Paradoxalement, les cellules en cours de division ne portent pas de récepteurs NMDA. Comment le glutamate exerce-t-il son action ? Il pourrait contrôler indirectement la prolifération par l'intermédiaire de signaux provenant des neurones granulaires matures. Ceux-ci émettraient en fait des signaux différents commandant aux cellules précurseurs de se diviser, lorsque leurs récepteurs NMDA sont inactifs. Par ailleurs, de nouvelles données montrent que d'autres neurotransmetteurs, comme la sérotonine et les opiacés, contrôlent eux aussi la prolifération des précurseurs des neurones granulaires ; on est donc conduit à penser que le niveau global d'activité des neurones granulaires matures pourrait contrôler la production des nouvelles cellules. Il existe un autre argument allant dans ce sens : la destruction d'un petit nombre de neurones granulaires matures active aussi la prolifération de leurs précurseurs8. Or les neurones granulaires morts sont inactifs, extrêmement, ce qui cadre avec l'idée selon laquelle une baisse d'activité de ces neurones serait le signal d'une augmentation de la production de nouveaux neurones. On aboutit à un modèle dans lequel les neurones granulaires actifs, dont on peut supposer qu'ils fonctionnent correctement, s'opposent à la production de nouveaux neurones, alors que les neurones silencieux parce qu'ils sont malades ou parce qu'ils ne participent pas à des circuits utiles ou importants déclenchent la production de nouveaux neurones destinés à prendre leur place.
La mise en évidence de la neurogenèse chez l'être humain adulte a suscité des espoirs considérables. La perspective de réparer le cerveau, ou de lui offrir des cures de rajeunissement a été évoquée à de multiples reprises. Qu'en est-il aujourd'hui ?
On a trouvé des neurones nouveau-nés dans l'hippocampe chez les plus âgés des rats et des singes étudiés, et chez des êtres humains jusqu'à l'âge de 72 ans. Mais le nombre de ces nouveaux neurones chute jusqu'à 10 % à peine de la production qu'on observe chez l'adulte jeune. Cette baisse liée à l'âge pourrait s'expliquer par le fait que les précurseurs immatures dotés de la capacité de division et de production de nouveaux neurones persisteraient plus longtemps dans cette région que dans la plupart des autres, mais finiraient malgré tout par mourir. Toutefois, nous avons récemment découvert que, si l'on supprime les corticoïdes surrénaliens chez des rats âgés, la prolifération retrouve le même niveau que chez les adultes jeunes9. Or, les concentrations de corticoïdes sont élevées chez les rats âgés. Ces hormones paraissent donc être responsables de la baisse de la neurogenèse avec l'âge. Fait intéressant, on observe chez certains êtres humains âgés un niveau élevé ou croissant d'hormones corticoïdes, et ce groupe de personnes est beaucoup plus affecté par ce qu'on appelle les pertes de mémoire bénignes de la sénescence liées au vieillissement normal qui diffèrent de celles liées, par exemple, à la maladie d'Alzheimer10. On pense que les pertes de mémoire en question sont liées à la formation hippocampique, où justement la production de neurones granulaires diminue11. Il est donc possible qu'elles soient liées à la diminution de la neurogenèse. A l'heure actuelle, cette relation n'est qu'une corrélation, mais la possibilité - fascinante - existe qu'un abaissement des taux de corticoïdes chez les personnes âgées puisse relancer la neurogenèse et corriger leurs troubles de la mémoire.
Des modifications de la neurogenèse interviennent peut-être aussi dans d'autres troubles hippocampiques comme la maladie d'Alzheimer, les pertes de mémoire consécutives aux accidents vasculaires cérébraux, ou l'épilepsie12 . Si ces hypothèses se vérifiaient, une normalisation de la prolifération des neurones granulaires pourrait contribuer à guérir ces différentes maladies cérébrales. Mais il y a plus encore : on saura peut-être un jour provoquer une régénération dans des populations neuronales qui ne se renouvellent pas normalement, ce qui permettrait de remplacer dans l'ensemble du cerveau les cellules perdues à la suite de lésions ou de maladies. Cependant, rien n'indique encore qu'il soit possible de forcer à se renouveler des neurones qui ne le font pas normalement chez l'adulte. A cette fin, il faudrait tout d'abord comprendre pourquoi la plupart des neurones ne se reproduisent pas à l'âge adulte. On pourrait ainsi se demander quelles sont les caractéristiques communes à ceux qui conservent au contraire cette capacité. A plusieurs égards, ces sous-types de neurones sont très différents les uns des autres. Les neurones granulaires du bulbe olfactif sont inhibiteurs, alors que ceux de l'hippocampe sont excitateurs. Dans le bulbe olfactif, ce sont des interneurones, renvoyant des signaux aux cellules qui leur ont adressé des messages, alors que les grains du gyrus dentatus sont des neurones projectifs, qui envoient des axones véhiculant le principal signal d'entrée des neurones pyramidaux de l'hippocampe. Les neurones corticaux nouveau-nés ont un axone, mais on ne sait pas encore s'ils sont excitateurs ou inhibiteurs, ou s'il en existe des deux types. Néanmoins, ces deux populations possèdent des points communs, le plus manifeste étant bien entendu leur dénomination : cellules granulaires, ou grains. Dans les deux cas, ils furent baptisés par les anciens anatomistes en raison de leur corps cellulaire arrondi et très petit. En outre, ces deux types cellulaires ont tous les deux un arbre dendritique relativement simple, peu ramifié, c'est-à-dire une structure probablement plus facile à produire dans le cerveau mature où l'espace libre est bien moins abondant que dans le cerveau en développement.
Il est possible que les précurseurs neuronaux persistant dans le cerveau adulte n'aient que des possibilités limitées et ne puissent se différencier que pour donner des neurones dotés seulement de ces structures élémentaires. Pourtant, même des cellules immatures transplantées à partir d'un cerveau embryonnaire se révèlent incapables de produire des neurones dans des régions du cerveau adulte où il n'y a pas normalement de neurogenèse. Il existerait donc, dans ces régions particulières, des signaux contrôlant quels types de neurones pourront, ou non, se régénérer à l'âge adulte. De tels signaux existent pendant le développement. Produits au moment voulu et provenant de diverses localisations, ils sont essentiels au développement morphologique des neurones et à l'établissement de leurs connexions, mais ils sont presque certainement absents dans la plus grande part du cerveau adulte. En effet, avec la maturation du système nerveux, les neurotransmetteurs de l'embryogenèse et de l'enfance sont remplacés par ceux de l'âge adulte. Point intéressant, le développement des deux populations de neurones qui se régénèrent à l'âge adulte commence très tard ; les premiers neurones granulaires des deux types apparaissent deux jours avant la naissance chez le rat, à un moment où cesse la production de la plupart des autres neurones. Ce détail est peut-être important, parce que cela signifie que les signaux nécessaires au développement de ces cellules proviennent probablement de neurones relativement matures, qui pourraient persister à l'âge adulte.
Malheureusement, on sait actuellement très peu de chose sur les signaux qui commandent normalement la différenciation et l'intégration en réseaux de la plupart des neurones. Dans le gyrus dentatus adulte, les nouveaux neurones granulaires envoient leur axone en direction des bonnes cellules cibles les cellules pyramidales CA3, et les connexions s'établissent assez rapidement - dans les quatre à dix jours après la fin de la division cellulaire13. Il ressort par ailleurs que cette intégration en circuits est essentielle à la survie des nouveaux neurones ; chez le rat de laboratoire normal, la moitié environ des neurones granulaires nouveau-nés meurent entre une et deux semaines après leur apparition, mais le taux de survie est beaucoup plus élevé si on soumet les rats à des tâches d'apprentissage. Cet effet ne s'observe que si les tâches en question font intervenir l'hippocampe, et s'il y a apprentissage véritable, et non pas seulement activation hippocampique. Peu après la connexion des nouvelles cellules à d'autres neurones, une activation spécifique des circuits ainsi établis est donc probablement nécessaire pour que les nouveaux neurones survivent. Comme l'activation des récepteurs NMDA est un élément essentiel de l'apprentissage hippocampique, il est probable que ces récepteurs sont importants pour la survie et pour la production de nouveaux neurones granulaires dans le gyrus dentatus . Serait-ce l'un des signaux recherchés ? Quoi qu'il en soit, pour remplacer les neurones disparus partout dans le cerveau, il faudra résoudre le problème complexe consistant à fournir tous les signaux nécessaires à leur bonne maturation morphologique et à leur intégration spatiale et temporelle.
Outre le fait qu'elle ouvre des perspectives en matière de réparation du cerveau, la neurogenèse à l'âge adulte modifie la manière dont il faut envisager le fonctionnement normal du cerveau. Depuis quelques années, on observe de plus en plus de signes de plasticité anatomique du cerveau adulte, à plusieurs niveaux, et notamment en ce qui concerne la forme et le nombre des synapses. Cependant, certains scientifiques tiennent encore pour une forme très rigoureuse d'hypothèse du cerveau stable, selon laquelle il n'y aurait aucune plasticité anatomique du cerveau adulte, et notamment du cortex ; ils estiment que la plasticité fonctionnelle qui sous-tend les mécanismes d'apprentissage suppose des modifications de la force des synapses, produites par une modification des récepteurs ou de l'environnement intracellulaire des neurones, au niveau moléculaire. Mais on sait désormais que certains neurones de régions importantes dans les processus d'apprentissage se renouvellent continuellement - ce qui constitue une modification anatomique relativement importante. Les populations de neurones où persiste une neurogenèse échangent toutes des informations avec d'autres populations considérées comme stables pendant toute la vie. Le remplacement de ces sous-populations disséminées signifie que des populations neuronales stables interagissent continuellement avec des populations qui ne cessent de changer, et que les neurones à longue durée de vie doivent établir de nouvelles synapses, ce qui modifie probablement la forme de leur arborescence dendritique. On a observé une formation et une disparition rapide des synapses au niveau des cellules pyramidales de l'hippocampe, mais il est probable que le même phénomène se produise aussi dans d'autres régions cérébrales. Même les populations non neurogènes pourraient donc être moins fixes morphologiquement qu'on ne le pensait auparavant. On est donc conduit à imaginer un modèle complexe de la plasticité cérébrale, dans lequel différentes sous-populations neuronales interagissent et font intervenir des types de plasticité différents, concernant l'expression des protéines, la morphologie cellulaire ou le renouvellement des neurones.
Ce modèle s'oppose à l'hypothèse d'un cerveau anatomiquement stable, mais il n'entre pas forcément en contradiction avec l'idée selon laquelle une population stable de neurones serait nécessaire à la conservation des souvenirs à long terme. Après tout, l'expérience nous apprend que le cerveau est performant pour garder des souvenirs sur des dizaines d'années, mais qu'il sait aussi bien oublier. Notre cerveau reçoit chaque jour tant d'informations nouvelles qu'il est absolument essentiel de les trier et d'éliminer des données sans importance ou dont nous n'avons plus besoin. On ne sait pratiquement rien de la manière dont s'effectuent ces processus, mais il est intéressant de rappeler que l'une des fonctions attribuées à l'hippocampe serait celle de transformer les souvenirs à court terme en souvenirs durables. Il est possible que les neurones à longue durée de vie, peu plastiques, soient essentiels pour la mémoire à long terme, ainsi que pour des fonctions sensitives et motrices qui n'ont pas besoin de changer beaucoup à l'âge adulte, alors que les neurones qui régénèrent interviendraient dans les processus rapides d'apprentissage et de mémoire à court terme.
Par Heather Cameron
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|