|
|
|
|
 |
|
NOTRE CERVEAU ... |
|
|
|
|
|
Notre cerveau aurait une capacité de stockage proche de celle du Web !
Lise LouméPar Lise Loumé
Voir tous ses articles
Publié le 25-01-2016 à 17h45
Le cerveau humain aurait des capacités 10 fois supérieures à celles supposées par les scientifiques jusqu'à présent, révèlent des chercheurs américains.
Nos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk InstituteNos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk Institute
Notre cerveau est-il comparable à Internet ?
"La méditation déstructure et transforme le rapport au temps"
"Les Big data vont révolutionner nos vies, notre travail et notre pensée"
"Ce résultat a l'effet d'une véritable bombe dans le domaine des neurosciences", annonce fièrement dans un communiqué Terry Sejnowski, neuroscientifique du Salk Institute à La Jolla, en Californie (États-Unis). Avec son équipe, il a mesuré la capacité de stockage du cerveau, et surprise : celle-ci est 10 fois supérieure aux estimations précédentes ! "L'équivalent d'au moins 1 pétaoctet (10 puissance 15), soit une capacité de grandeur proche de celle du World Wide Web", résume-t-il (une estimation a minima basée sur l'étude d'une petite zone du cerveau qu'il faudrait toutefois réévaluer nettement pour qu'elle soit réellement comparable au Web : même si la capacité de stockage de ce dernier est impossible à estimer, les 4 géants que sont Google, Facebook, Amazon et Microsoft stockeraient à eux seuls 1.200 pétaoctets de données...). Cette étude lève également le voile sur un mystère du cerveau. "Nous avons découvert la clé permettant de comprendre comment les neurones de l'hippocampe fonctionnent à pleine puissance en utilisant peu d'énergie, mais à pleine puissance", se réjouit le chercheur du Salk Institute, dont les travaux sont publiés dans la revue eLife. Explications.
Grâce à l'analyse de tissus cérébraux de rats, l'équipe de recherche a reproduit en 3D une petite partie de l'hippocampe, région jouant un rôle fondamental dans la mémoire. Une infime partie même, puisque la zone reconstituée fait à peine la taille d'un globule rouge, soit quelques micromètres. Toutefois, reconstituer l'ensemble des neurones, synapses (voir encadré ci-dessous) et cellules gliales (jouant un rôle de soutien et de protection du tissu nerveux) de cette zone s'est avéré laborieux. "Nous avons été quelque peu déconcertés par la complexité et la diversité des synapses", commente Kristen Harris, qui a pris part à ces travaux.
SYNAPSES. Nos pensées et nos souvenirs sont gérés par l’activité chimique et électrique de notre cerveau. Ces activités résident principalement dans les connexions entre les neurones : les synapses. Chaque neurone peut avoir des milliers de synapses, le connectant à de milliers d'autres cellules.
Cette reconstitution 3D (à découvrir dans la vidéo ci-dessous) a permis aux chercheurs de remarquer une activité inhabituelle pour 10 % des connexions synaptiques : un seul axone ("tête" du neurone) formé de deux synapses touche un seul dendrite ("queue" du neurone) d'un deuxième neurone, et non deux dendrites, ce qui signifie qu'un neurone envoie un double message à un deuxième neurone. Afin de mesurer la différence de taille entre cette paire de synapses utilisées par le neurone pour envoyer son double message, les chercheurs ont poussé la reconstitution des connectivités neuronales à un niveau nanomoléculaire, à l'aide d'une microscopie de pointe et d'algorithmes de calculs poussés. Et là, surprise : alors que les synapses sont habituellement classées en 3 catégories (petites, moyennes et grandes), les chercheurs ont découvert des tailles intermédiaires. "Nous avons été surpris de constater que la différence dans les tailles des paires de synapses étaient très petites, environ 8 % de différence de taille seulement", explique Tom Bartol, co-auteur de l'étude. "Personne n'imaginait une si petite différence." En fait, il n'existe pas 3 catégories de synapses, mais 26 selon ces travaux !
Un grand stockage en consommant peu d'énergie
L'intérêt de cette découverte est qu'elle permet de mesurer le nombre d'informations pouvant être stockées dans les connexions synaptiques. "En langage informatique, 26 tailles de synapses correspondent à 4,7 bits d'information, précise Tom Bartol. Or, auparavant, nous pensions que le cerveau n’était capable que de stocker l’équivalent d'un ou deux bits de mémoire de courte et longue durée dans l'hippocampe." De plus, un cerveau adulte génère une puissance continue d'environ 20 watts (l’équivalent d’une ampoule basse consommation), ce qui signifie qu’il peut stocker des informations précises avec peu d’énergie.
Enfin, les calculs des chercheurs suggèrent que les synapses changent de taille et de capacité en fonction des transmissions neuronales. La réception de 1.500 transmissions réduit la taille des synapses, ce qui prend une vingtaine de minutes, tandis que quelques centaines ont tendance à les agrandir, ce qui prend une à deux minutes. "Cela signifie que toutes les 2 à 20 minutes, vos synapses grandissent ou rétrécissent. Elles s'adaptent en fonction des signaux reçus", résume Tom Bartol. Pour les chercheurs, leurs travaux pourront contribuer à développer des ordinateurs plus efficaces et peu énergivores. "Derrière le chaos apparent du cerveau, il y a une véritable précision quant à la taille et la forme des synapses qui nous avait toujours échappé", conclut Terry Sejnowski.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
 |
|
LE CHROMOSOME X MAÎTRE DU SILENCE ... |
|
|
|
|
|
Le chromosome X maître du silence
dossier - par Sandrine Augui ,Edith Heard ,Cécile Klingler dans mensuel n°385 daté avril 2005 à la page 34 (3487 mots)
Pour les cellules des mammifères femelles, X + X = X. Le fait est surprenant : sur les deux chromosomes X que renferment ces cellules, un seul est actif. L'autre est réduit au silence. Un phénomène emblématique d'un pan méconnu de la régulation de l'expression des gènes : l'épigénétique.
Deux X pour les femelles, un seul pour les mâles : la balance est inégale. Certes, les mâles possèdent un chromosome Y. Mais il ne porte que très peu de gènes, alors que l'X en contient environ 1 500. Qui plus est, les gènes du chromosome Y sont essentiellement impliqués dans un même phénomène, la différenciation des voies sexuelles mâles, alors que ceux du X interviennent dans des processus très divers. Si les deux chromosomes X des cellules femelles s'exprimaient, il y aurait deux fois plus de produits géniques - ARN et protéines - dans les cellules femelles que dans les cellules mâles. Avec de graves conséquences en perspective. En effet, la cellule constitue un environnement très équilibré, qui supporte mal les variations au niveau de la quantité de ses constituants. Preuve en est, par exemple, l'effet d'un chromosome surnuméraire on parle de trisomie : lorsqu'il n'est pas létal, ce surnombre est à l'origine de nombreuses malformations.
Chez les mammifères, ce déséquilibre est compensé dès le tout début du développement de l'embryon femelle par l'inactivation d'un des deux chromosomes X. Autrement dit, la quasi-totalité des gènes portés par ce chromosome est éteinte. Quant à ceux qui sont exprimés, environ une centaine, ils possèdent pour la plupart un homologue sur le chromosome Y. Leurs produits sont donc présents en quantité égale chez les mâles et les femelles. L'inactivation du chromosome X représente le seul exemple connu d'extinction génique à l'échelle de presque tout un chromosome. Par son ampleur, c'est l'un des cas les plus frappants de régulation des gènes au cours du développement. Son étude a du reste ouvert tout un champ de recherches dans ce domaine. Un champ où l'ADN, pour une fois, n'est pas au coeur des débats !
Corpuscule compact
Ce champ, c'est celui des mécanismes moléculaires dits « épigénétiques ». Ce terme, introduit par Conrad Waddington dans les années quarante, fait de nos jours référence aux informations qui sont transmises au cours des divisions cellulaires, alors même qu'elles n'impliquent pas de modifications de la séquence d'ADN. C'est précisément le cas de l'inactivation de l'X, qui est établie puis maintenue au cours de la vie de la cellule, et transmise aux générations cellulaires suivantes, sans que la séquence d'ADN de l'X cible soit en aucune façon modifiée.
Historiquement, l'idée de l'inactivation est née de la conjonction de plusieurs résultats. En 1949, l'existence d'un corpuscule sombre et caractéristique dans les cellules femelles de mammifères est mise en évidence par les Canadiens Murray Barr et Ewart Bertram. Dix ans plus tard, le Japonais Susumo Ohno réalise que ce corpuscule, appelé corpuscule de Barr, est l'un des deux chromosomes X de la femelle, sous forme compactée. Au même moment, on découvre que des souris femelles porteuses d'un seul chromosome X, au lieu des deux habituels, sont des femelles viables et fertiles. Cela suggère qu'un seul chromosome X actif suffit au développement d'une femelle normale, contrairement aux chromosomes non sexuels les autosomes, pour lesquels la perte d'un exemplaire est létale. Les premières preuves génétiques arrivent ensuite. L'étude de souris présentant des mutations sur des gènes du chromosome X qui régissent la couleur ou la texture du pelage fournit des résultats étonnants. Tandis que les mâles porteurs de ces mutations ont un pelage uniformément modifié de type mutant, les femelles porteuses des mêmes mutations présentent un pelage mosaïque composé de zones d'apparence normale type sauvage et de zones d'apparence modifiée type mutant.
Mosaïque cellulaire
L'ensemble de ces observations permit en 1961 à Mary Lyon, du Medical Research Council d'Oxford, en Grande-Bretagne, d'émettre l'hypothèse de l'inactivation du chromosome X [1]. Selon cette hypothèse, l'un des deux chromosomes X serait génétiquement inactivé durant l'embryogenèse, et se condenserait pour former le corpuscule de Barr. Le chromosome inactivé étant choisi au hasard, l'embryon se trouve composé de deux populations de cellules, ayant chacune un chromosome X inactivé différent. C'est ce que l'on appelle le mosaïcisme. L'hétérogénéité du pelage des animaux qui possèdent des mutations sur le chromosome X s'expliquerait donc par l'existence de zones constituées de cellules provenant de chacune des deux populations cellulaires, l'une ayant gardé actif le gène sauvage, l'autre le gène muté. Ajoutons que cet effet de l'inactivation aléatoire d'un des deux chromosomes X sur la couleur du pelage se retrouve chez d'autres mammifères, comme les chattes tricolores. Et que, plus généralement, les effets du mosaïcisme ne se limitent pas à la couleur du pelage. Par exemple, une pathologie liée à un gène défectueux sur l'X sera atténuée chez la femelle par rapport au mâle, puisque seule la moitié de ses cellules exprimera l'allèle défectueux, l'autre moitié exprimant l'allèle normal lire « Avantage au double X ? », p. 30.
Centre d'inactivation
De nombreuses découvertes ont permis depuis de confirmer l'hypothèse de Mary Lyon et de mieux comprendre les mécanismes mis en oeuvre. Dans les années soixante-dix-quatre-vingt, l'analyse de cellules femelles ayant subi des remaniements chromosomiques mit en évidence une région du chromosome X qui contrôle la mise en place de l'inactivation [2]. Ces remaniements étaient des translocations, à savoir des échanges de portions de séquence entre chromosomes. Lorsqu'une certaine région du X était déplacée sur un chromosome non sexuel, ce dernier pouvait être inactivé. Inversement, le chromosome X privé de cette région restait toujours actif. D'où la conclusion que la région en question était critique pour la mise en place de l'inactivation. Elle fut donc baptisée « centre d'inactivation » Xic, pour X Inactivation Center.
En 1981, la mise au point, chez la souris, du mode opératoire permettant de prélever et de mettre en culture des cellules souches embryonnaires cellules ES fournit un outil de choix pour aller plus avant [3]. Ces cellules indifférenciées sont pluripotentes, c'est-à-dire qu'elles peuvent se différencier en cellules de n'importe quel tissu coeur, foie, peau.... Elles sont prélevées dans des embryons de souris âgés de cinq jours, au stade blastocyste précoce. À ce stade, leurs deux chromosomes X sont actifs. Mais, lorsque l'on provoque leur différenciation en changeant les conditions de culture, l'un des deux chromosomes X est inactivé, suivant un schéma général similaire à ce qui se passe dans l'embryon au-delà du cinquième jour. En particulier, l'inactivation y est aléatoire : dans certaines cellules, c'est le X paternel qui est inactivé, dans d'autres, le X maternel, ce qui fait que la population cellulaire est une population mosaïque. Ces cellules sont donc très rapidement devenues un modèle dans la recherche sur l'inactivation, rendant ainsi possibles de nombreuses études que la rareté et la petite taille des embryons n'auraient pas permis d'envisager.
Comptage approprié
Dès 1985, Sohaila Rastan et Elizabeth Robertson montrèrent, en utilisant différentes lignées de cellules souches dites EK, semblables aux cellules ES, qu'il n'y avait plus aucun processus d'inactivation chez celles ayant spontanément perdu le centre d'inactivation d'un de leurs deux chromosomes X [4]. Tout se passait comme si la cellule, n'ayant plus qu'un seul centre d'inactivation au lieu de deux, ne considérait plus comme nécessaire d'initier un quelconque processus d'inactivation. Le centre d'inactivation semblait donc responsable non seulement de l'initiation de l'inactivation en elle-même, mais également du « comptage » du nombre de chromosomes X présents dans la cellule. Une étape de comptage indispensable à la bonne régulation du processus, puisqu'elle permet par exemple d'éviter que l'unique chromosome X des mâles soit inactivé.
ARN non codant
Il fallut encore quelques années avant qu'un pas absolument décisif fût franchi. Car bien que l'existence d'un centre d'inactivation ait été établie, sa localisation exacte, ainsi que son mode de fonctionnement n'avaient toujours pas été élucidés. En 1991, l'équipe de Huntington Willard, alors à l'université Stanford, découvrit que le centre d'inactivation humain contenait un gène très particulier, qui n'était actif que sur le chromosome X inactivé [5]. Ce résultat pour le moins paradoxal poussa Willard à proposer l'hypothèse suivante : le produit de ce gène était à l'origine de l'inactivation de tout le reste du chromosome. Ce gène fut nommé Xist pour X Inactive Specific Transcript. Peu de temps après, son homologue était découvert chez la souris.
Le point le plus intéressant fut que le produit de ce gène Xist se révéla être un ARN non codant, autrement dit un ARN qui, contrairement aux ARN messagers, n'est jamais traduit en protéine. De plus, l'ARN Xist reste dans le noyau cellulaire, plus particulièrement autour du chromosome X inactif, qu'il recouvre dans sa quasi-totalité. Cette étonnante observation fit immédiatement supposer que l'ARN Xist avait un rôle fonctionnel dans l'inactivation de l'X. Un ARN impliqué dans l'extinction transcriptionnelle de tout un chromosome..., c'était là une notion totalement nouvelle ! Xist devait de ce fait fortement attirer l'attention de la communauté scientifique. Son implication dans l'inactivation de l'X allait être largement confirmée au cours des années suivantes.
Dans les années quatre-vingt-dix, de nombreuses études ont en effet montré que le gène Xist était l'élément clé indispensable à la mise en place de l'inactivation [6]. D'une part, plusieurs équipes ont effectué des délétions* de ce gène au niveau d'un des deux chromosomes X de cellules femelles. Elles ont observé que, systématiquement, le chromosome X ainsi délété ne pouvait plus être inactivé. D'autre part, d'autres groupes ont introduit, par transgenèse, différentes parties du centre d'inactivation au sein de chromosomes non sexuels. Ils ont alors observé que, lorsque le gène Xist fait partie de la séquence transférée et qu'il est transcrit, l'ARN qu'il produit recouvre l'autosome qui le porte comme s'il s'agissait d'un chromosome X, ce qui aboutit à l'inactivation des gènes de cet autosome. C'est également le cas lorsque Xist est transféré seul, et qu'il est transcrit. L'ensemble de ces études démontrait donc que l'ARN Xist était non seulement nécessaire, mais même suffisant, à la mise en place de l'inactivation [7].
Toutefois, la fenêtre de temps durant laquelle il peut agir est limitée. Anton Wutz et Rudolph Jaenisch, du Whitehead Institute for Biomedical Research, aux États-Unis, ont en effet observé, en 2000, que, si l'on retarde l'expression du gène Xist, l'ARN recouvre toujours le chromosome dont il est issu mais n'a plus aucun effet sur la transcription de ses gènes. Inversement, une fois l'inactivation du chromosome établie, l'élimination de Xist n'a plus aucun effet sur l'extinction des gènes. Xist n'est donc nécessaire qu'à l'initiation de l'inactivation, et non à son maintien.
Région conservée
Enfin, en 2002, le même groupe a démontré que l'ARN Xist contenait une région spécifique très conservée entre les différentes espèces de mammifères, région sans laquelle il ne peut plus induire l'inactivation, alors même qu'il recouvre toujours le chromosome dont il est issu [8]. Il semble donc que cette région particulière de Xist serait la clé de l'extinction transcriptionnelle des gènes.
S'il est désormais établi que Xist est le facteur déclencheur de l'inactivation, son mode d'action reste encore un mystère. On sait toutefois que le recouvrement par Xist constitue le premier pas d'une longue suite d'événements transformant l'X destiné à être inactivé. Car si l'X inactif ne subit aucune modification au niveau de sa séquence ADN, il n'en est pas moins modifié - à un autre niveau. En effet, un chromosome n'est pas constitué uniquement d'ADN, mais aussi de complexes protéiques appelés nucléosomes formés de protéines nommées histones, autour desquels l'ADN est embobiné. Le tout forme la chromatine constituant les chromosomes. Or, la chromatine existe sous deux formes. La chromatine ouverte, ou euchromatine, est en général associée aux gènes actifs. La chromatine condensée, ou hétérochromatine, est, elle, associée aux régions transcriptionnellement éteintes des chromosomes, leur centromère* par exemple. C'est également sous forme condensée que se trouve l'ensemble des chromosomes lors des divisions cellulaires, d'où leur apparence typique en bâtonnets à ce moment-là. Et c'est sous forme d'hétérochromatine que se trouve le chromosome inactivé - le corpuscule de Barr.
Marques épigénétiques
Si euchromatine et hétérochromatine diffèrent par leur conformation visualisable au microscope électronique, elles diffèrent également par la constitution de leurs nucléosomes. En effet, les histones constituant les nucléosomes peuvent, comme toutes les protéines, subir des modifications après qu'elles ont été synthétisées. En l'occurrence, elles sont modifiées par des enzymes qui viennent leur ajouter un ou plusieurs groupements chimiques. Ces modifications sont souvent caractéristiques de l'une ou de l'autre forme de la chromatine, et les connaissances actuelles laissent penser qu'elles seraient impliquées dans la régulation transcriptionnelle des gènes associés, suivant ce que l'on commence à appeler le « code histone » lire « Un code non génétique », p. 37.
Or, les histones du chromosome X inactivé présentent ce genre de modifications, qui le différencient du X actif [9]. Certaines sont communes à toutes les régions hétérochromatiques du génome, dont l'X inactif fait partie, tandis que d'autres lui sont spécifiques. Par ailleurs, les gènes de l'X inactif sont la cible d'un autre type de modification épigénétique bien connu : la fixation de groupements méthyles sur certaines bases de l'ADN. Cette modification est courante chez les gènes « éteints », qu'ils soient situés sur le chromosome X ou sur un autre chromosome. Comme il a été démontré, dans des cellules ES, que ces modifications épigénétiques qui affectent les histones et l'ADN accompagnent l'extinction des gènes, cela laisse supposer qu'elles jouent un rôle dans la mise en place de l'inactivation elle-même. Et comme toutes ont lieu après le recouvrement du chromosome X par Xist, elles seraient - directement ou non - provoquées par ce dernier [fig.1].
Tout cela n'explique cependant pas comment la cellule peut traiter différemment ses deux chromosomes X a priori identiques, faisant en sorte qu'un seul des deux exprime Xist et s'inactive. Parmi toutes les hypothèses envisagées, l'une des plus attractives est celle d'une compartimentation différente des deux chromosomes X dans le noyau de la cellule.
Compartiment nucléaire
La notion de compartiment nucléaire est une notion relativement floue puisque aucune membrane ne délimite de domaines dans le noyau. Toutefois, il apparaît nettement que certaines régions nucléaires sont enrichies en molécules spécifiques, et il est de plus en plus admis que la localisation d'un gène donné dans une de ces régions pourrait jouer un rôle dans la régulation de son expression [10]. En ce qui concerne les chromosomes X, on peut par exemple supposer que l'un d'entre eux serait séquestré dans un compartiment nucléaire donné, où il serait mis à l'abri de l'inactivation. Cela reste toutefois une hypothèse parmi d'autres, et aucune, à ce jour, n'a encore été démontrée.
D'un mammifère à l'autre
Ce phénomène d'inactivation d'un seul des deux chromosomes X est d'autant plus mystérieux que les paramètres régissant sa mise en place diffèrent d'une espèce de mammifère à l'autre. Ainsi, chez l'homme, l'inactivation est aléatoire tant dans l'embryon que dans les tissus extra-embryonnaires comme le placenta [11]. En revanche, chez les marsupiaux, qui sont proches des mammifères ancestraux, l'inactivation est soumise à une empreinte parentale dans tous les tissus. En l'occurrence, c'est l'X d'origine paternelle qui est systématiquement inactivé. Chez les rongeurs et les bovins, la situation est intermédiaire. L'inactivation est soumise à une empreinte dans les tissus extra-embryonnaires, avec inactivation exclusive de l'X paternel, mais elle est aléatoire dans les cellules de l'embryon lui-même, comme nous l'avons décrit précédemment. Il a de ce fait été suggéré que l'inactivation soumise à une empreinte parentale serait la forme ancestrale du processus, tandis que l'inactivation aléatoire en serait la forme évoluée. Cependant, cette hypothèse, très attractive, d'une inactivation soumise à empreinte « ancêtre » de l'inactivation aléatoire mérite d'être discutée. Car le mécanisme de l'inactivation soumise à empreinte semble très différent chez les marsupiaux et dans les tissus extra-embryonnaires des rongeurs. En effet, aucun homologue du gène Xist n'a pu être identifié chez les marsupiaux. En outre, certaines marques épigénétiques n'existent pas chez ces animaux, alors qu'elles sont cruciales chez les rongeurs, tant pour l'inactivation aléatoire que pour celle soumise à empreinte. Une seconde hypothèse peut alors être envisagée, celle que l'inactivation soumise à empreinte aurait pu apparaître plusieurs fois au cours de l'évolution, selon les différentes pressions de sélections, spécifiques à chaque espèce de mammifères.
Quoi qu'il en soit, lorsque empreinte il y a, pourquoi est-ce toujours l'X paternel qui est inactivé ? À la fin 2003, l'équipe de Jeannie Lee, à la Harvard Medical School, a proposé que le chromosome X paternel pourrait arriver déjà inactivé au moment de la fécondation [12]. En effet, les chromosomes X et Y sont inactifs dans les cellules précurseurs des spermatozoïdes. On peut donc supposer que le chromosome X reste inactif dans les spermatozoïdes et est transmis sous cette forme à l'embryon. Toutefois, cette hypothèse reste à prouver, et de nombreux contre-arguments existent. D'une part, si le chromosome X est bien inactif durant la plus grande partie de la spermatogenèse, il est réactivé au cours des dernières étapes produisant les spermatozoïdes [13]. D'autre part, il semble bien que les deux chromosomes X sont actifs chez le tout jeune embryon de deux cellules. Autrement dit, l'inactivation du X a lieu plus tard.
Mais quand ? Jusqu'à l'an dernier, il était admis que, chez les rongeurs, les premiers signes d'une inactivation apparaissaient 3,5 jours après fécondation dans le trophectoderme futur placenta, puis 6,5 jours après fécondation dans l'amas de cellules blotties au coeur du blastocyste, le bouton embryonnaire. Une inactivation soumise à empreinte dans le trophectoderme, et aléatoire dans le bouton embryonnaire ainsi que dans les cellules ES dérivées de ce bouton embryonnaire. Or, il est maintenant clair que l'inactivation apparaît pour la première fois bien avant dans l'embryon, au stade quatre/huit cellules [fig.2]. Notre équipe et celle de Jeannie Lee ont en effet démontré que les cellules de ce tout jeune embryon de deux jours ont déjà un de leurs chromosomes X recouvert par Xist, et qu'il commence à s'inactiver. Cet X est toujours d'origine paternelle, et reste éteint jusqu'au stade blastocyste précoce.
Dès lors, comment expliquer l'inactivation aléatoire observée dans le bouton embryonnaire des blastocystes de six jours, ou dans les cellules souches qui en proviennent ? Notre équipe et celle de Neil Brockdorff ont résolu cette contradiction l'an dernier [14] : tandis qu'il reste éteint dans les tissus extra-embryonnaires, le chromosome X paternel inactivé est réactivé 4,5 jours après fécondation dans le bouton embryonnaire. Un second processus d'inactivation, aléatoire cette fois, se met alors en place dans ces cellules. Notons que cette seconde inactivation n'est pas non plus totalement définitive. En effet, dans la lignée germinale la lignée donnant les gamètes, le chromosome X est à nouveau réactivé 10,5 jours après fécondation, afin de produire des gamètes dont le chromosome X est actif [fig.2].
Reprogrammation active
Ce phénomène de réactivation suivi d'une seconde inactivation montre que les cellules du bouton embryonnaire sont capables d'effectuer une reprogrammation active de leur contenu génétique en effaçant les marques qui y sont apposées. Très important sur le plan de l'épigénétique fondamentale, ce résultat pourrait aussi intéresser les spécialistes du clonage par transfert de noyau somatique lire « Le clonage », page 73. En effet, le génome des cellules somatiques présente des marques épigénétiques différentes de celles des cellules embryonnaires. Ces marques sont entre autres responsables de l'extinction des gènes nécessaires au développement de l'embryon. La problématique est donc de reprogrammer ce génome.
Classiquement, on considère qu'une telle reprogrammation ne peut avoir lieu que dans les heures suivant la fusion entre la cellule somatique et l'ovocyte. Or, nous le voyons bien avec le chromosome X, les cellules du bouton embryonnaire sont capables de réactiver des gènes dont elles ont besoin et d'effacer des marques épigénétiques. Il existe donc au moins deux étapes, et non une seule, durant lesquelles une reprogrammation génétique est possible au cours d'un clonage : au moment du transfert du noyau somatique dans l'ovocyte et lors du passage par le bouton embryonnaire du blastocyste. Si la première étape est très limitée dans le temps, la seconde peut être prolongée artificiellement. En effet, les blastocystes, du moins ceux de rongeurs, peuvent être mis en diapause, c'est-à-dire en vie ralentie. Procéder ainsi lors des opérations de clonage prolongerait le temps durant lequel les cellules de l'embryon se trouvent dans le bouton embryonnaire. L'efficacité du clonage pourrait ainsi se voir accrue, puisque le temps alloué à la reprogrammation du noyau somatique serait augmenté.
Nous l'avons vu, l'étude de l'inactivation de l'X doit permettre de comprendre le rôle et la dynamique de marques épigénétiques au cours du développement. Indirectement, elle devrait aussi permettre de mieux comprendre comment est instaurée et maintenue la dérégulation de l'expression des gènes que l'on observe lors de l'établissement et du développement de maladies comme le cancer. En effet, il devient de plus en plus évident qu'outre le rôle des mutations génétiques dans ces phénomènes des modifications épigénétiques peuvent aussi intervenir. L'étude des contrôles épigénétiques qui sous-tendent l'extinction transcriptionnelle du chromosome X pourrait être riche d'enseignements en la matière. Ce qui est d'ailleurs illustré par le fait que certaines protéines impliquées dans le cancer jouent aussi un rôle dans l'inactivation du X [15].
Par Sandrine Augui ,Edith Heard ,Cécile Klingler
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
GÉNOME,POSTGÉNOME |
|
|
|
|
|
Génome, postgénome
biologie - par Evelyn Fox Keller dans mensuel n°376 daté juin 2004 à la page 30 (3436 mots)
Les biologistes vivraient-ils, sous nos yeux, un changement de paradigme ? Le réductionnisme génétique qui a caractérisé la biologie du XXe siècle céderait la place à une vision plus globale de la cellule et de l'organisme. Un terrain sur lequel physiciens et informaticiens pourraient intervenir avec profit.
De nombreux pièges guettent les historiens du présent, le plus dangereux étant sans doute -et encore plus à une époque -comme la nôtre- que l'histoire avance bien plus vite qu'ils ne sont capables d'écrire. Il y a trois ans et demi, je publiais un livre où je tentais de retracer le chemin parcouru par le concept de gène, depuis l'époque de la redécouverte des lois de -Mendel, en 1900, jusqu'au séquençage du génome humain, en 2000. Le Siècle du gène célébrait la productivité du concept de gène tout au long du XXe siècle, et expliquait pourquoi il fallait poursuivre et entrer dans ce que j'appelais «le siècle au-delà du gène». J'entendais par là que, si le XXe siècle était le siècle du gène, le XXIe serait vraisemblablement celui de la génétique, ou plus exactement des systèmes génétiques.
La différence est de taille et mérite une explication. Pour moi, la génétique consiste en l'étude du fonctionnement de l'ADN dans la construction du phénotype, alors que les gènes sont les entités historiquement considérées comme porteuses de l'hérédité. Je considère la première comme les interactions biochimiques sous-tendant la construction des organismes vivants, et les seconds comme un schéma conceptuel hypothétique.
Le principal bagage historique du concept de gène -remonte à l'époque où les gènes étaient considérés comme les unités de base de la vie. Mais qu'est-ce qu'un gène? En réalité, les biologistes moléculaires emploient plusieurs définitions différentes, et de nombreuses variantes de celles-ci. Selon l'une de ces définitions, les gènes sont des parties spécifiques de l'ADN, transmis inchangés de génération en génération. Mais alors, quelles parties de l'ADN ? Celles qui codent les protéines? Ou bien aussi celles qui codent des ARN jamais traduits en protéines, mais essentiels à la régulation ?
Même si l'on considère qu'un gène est la séquence de codage correspondant à une protéine donnée, on se heurte encore à un problème: cette séquence, chez les organismes supérieurs, existe seulement sous forme d'ARN messager. Elle n'est pas présente telle quelle dans l'ADN. En effet, ce n'est que par l'épissage* correct de la molécule d'ARN dit prémessager, image de la portion d'ADN qui contient les fragments codants, qu'est construite cette molécule d'ARN messager. Plus subtil encore, le cas des protéines construites à partir d'ARN messagers spécifiquement modifiés à des stades de développement particuliers. En effet, on ne peut trouver pour ces protéines aucune séquence correspondante sur l'ADN, même en prenant en compte le phénomène d'épissage. Ainsi, quand nous demandons combien de gènes compte le génome humain, la réponse dépendra de la définition à laquelle on se réfère.
Donner vie au génome
Contrairement au gène, nous savons ce qu'est l'ADN: nous pouvons «épeler» sa séquence, et en observer la remarquable stabilité au fil des générations. Mais nous avons surtout appris que la signification de n'importe quelle séquence d'ADN est relationnelle -c'est-à-dire que, pour comprendre le développement d'une maladie, ce sont les schémas de l'expression génétique qui comptent avant tout. Or, ces schémas obéissent à un système de régulation très complexe et sont imprédictibles d'après la seule séquence.
Alors qu'il y a trois ans le nombre de généticiens moléculaires prêts à renoncer à leur paradigme de réductionnisme génétique était encore relativement restreint, les biologistes semblent aujourd'hui connaître un changement de paradigme sous nos yeux. Quasiment du jour au lendemain, les départements de biologie de par le monde se sont tournés vers la «systems biology» terme que l'on traduira ici par «biologie intégrative».
Voici quelques exemples qui illustreront mon propos, comme cette annonce faite par le nouveau Bauer Center for Genomics Research de l'université de Harvard: «La réussite du séquençage du génome humain a marqué un virage en biologie moléculaire et a suscité un intérêt indéniable pour des approches systémiques de la complexité biologique. La question essentielle n'est plus “Qui sont les acteurs?”, mais “Quel est le scénario?”, “Comment le jeu de chaque acteur détermine-t-il un comportement collectif?”» Ou, comme le propose cet article d'un numéro récent de The Scientist [1]: «Depuis cinquante ans, les biologistes cherchent à réduire la vie à ses différents composants, en partant de la cellule pour arriver au génome. Toutefois, de tels succès ont fait prendre conscience des quantités inouïes d'informations obtenues. Comme le professeur Denis Noble, de l'université -d'Oxford, le déclare: “Nous avons défait le puzzle; nous devons maintenant retrouver comment le reconstruire.”» Quant au département américain de l'Énergie DOE, où le projet de séquençage du génome humain le Projet Génome Humain a été lancé en 1990, on lui doit un nouveau programme, baptisé «Amener le génome à la vie». Il se présente ainsi: «Depuis le séquençage de tout le génome, la nouvelle biologie aspire à construire une nouvelle compréhension, complète et profonde, des systèmes vivants complexes Le paradigme actuel en biologie -indifféremment décrit comme “gène unique”, “réductionniste” ou “linéaire”- a peu de chances de réussir seul et les approches existantes de la recherche seront enrichies par une “approche des systèmes”.» À un moment, les chercheurs ont compris que le génome n'était pas doué de vie par lui-même. Que la vie, ainsi que Linus Pauling* nous le rappelait il y a longtemps, ne réside pas dans les molécules mais dans les relations entre ces dernières. Comme les responsables du nouveau programme du DOE l'écrivent: «Nous avons besoin de comprendre les interactions entre ces différents éléments.» Bref, il nous faut une «biologie intégrative».
Deux questions évidentes se posent: premièrement, comment expliquer ce nouvel engouement? Et deuxièmement, qu'entend-on par «biologie intégrative» ? La réponse à la première question est relativement facile, la réponse à la seconde l'est moins.
Commençons par la première. Il ressort clairement des citations précédentes qu'il existe un sentiment largement répandu que, grâce à l'accomplissement des premiers objectifs du Projet Génome Humain, la phase réductionniste de la recherche en génétique est désormais terminée. Sydney Brenner* se fait l'interprète de nombreux chercheurs quand il écrit: «Le séquençage du génome humain représente une sorte d'apothéose de réductionnisme chimique», et désormais «nous devons avancer». C'est que le succès de la première phase du Projet Génome Humain apporte aussi sa part de déception. En effet, comme l'énonce le DOE, nous avons listé les éléments, et nous voyons bien que la connaissance de ces éléments, et même la connaissance de leurs fonctions, ne suffit pas.
Toutefois, le Projet Génome Humain et la génétique moléculaire en général nous ont aussi fourni les outils pour aller au-delà de chaque élément, des outils pour sonder la complexité de la dynamique cellulaire. La consé-quence immédiate de ces progrès technologiques s'est manifestée par un afflux d'informations. Mais plus nous en apprenons sur le fonctionnement des éléments entre eux, plus la situation apparaît confuse, et plus le besoin de trouver de nouveaux outils et de nouvelles manières de s'exprimer se fait pressant. Selon Brenner: «Le premier défi intellectuel de l'avenir consiste à mettre en place un cadre théorique adapté pour la biologie.» J'ajouterais qu'il se révèle tout aussi pressant de créer un cadre linguistique qui nous emmène au-delà de l'assemblage du tout à partir d'éléments et qui prenne en considération la construction historique des éléments et des touts -thème si central de la biologie évolutionniste.
Les bienfaits de la sociabilité
Grâce aux extraordinaires développements techniques de ces dernières années, il est désormais possible d'explorer les interactions dynamiques, qui non seulement lient les éléments en touts, mais aussi qui révèlent de quelle manière ces interactions constituent les éléments mêmes. En conséquence, les généticiens créent une nouvelle manière d'aborder la fonction biologique, en cherchant les clés de cette fonction non seulement dans des gènes particuliers ou dans la structure de l'ADN, mais aussi dans les réseaux de communication dont l'ADN fait partie. On pourrait dire que la communication est devenue le nouveau mot à la mode, en même temps que les biologistes, réductionnistes par tradition, commencent à découvrir les bienfaits de la sociabilité.
Toutefois, avant d'embrasser un changement, les chercheurs doivent aussi avoir la certitude qu'il existe une autre voie. Cette certitude a été apportée par les développements techniques en informatique, en particulier depuis l'association des outils informatiques avec les techniques de l'analyse moléculaire. Elle découle également du rapprochement opéré ces dernières années avec l'analyse informatique computationnelle, pour traiter des quantités massives de données complexes. Mais je vois que j'ai déjà commencé à empiéter sur ma seconde question, à savoir: Qu'entendons-nous par «système» et Qu'est-ce que la «biologie intégrative»?
Pour résumer, je dirais que, jusqu'à présent, il s'agit d'un -concept en attente de définition. Le terme lui-même remonte au biologiste et psychologue autrichien Ludwig von Bertalanffy, qui écrivait dans les années -trente: «La notion de système peut être considérée simplement comme un terme générique désignant la corrélation étroite et dynamique entre les composants.» Aujourd'hui, toutefois, les défenseurs de la «biologie intégrative» ont plus de matière avec laquelle travailler, et ils sont par conséquent moins modestes. Pour beaucoup, la compréhension au niveau systémique signifie: «Comprendre les comportements du système, comprendre comment contrô-ler le système, et comment concevoir le système.»
Le concept n'en demeure pas moins extrêmement souple. Il offre des visages multiples, faisant appel à une grande variété de compétences, et promettant un éventail de résultats tout aussi vaste. Il s'agit d'un appel irrésistible pour les scientifiques issus de disciplines auxquelles la biologie expérimentale fait traditionnellement peu appel, par exemple l'ingénierie, l'informatique, la physique ou les mathématiques. Mais ce sont là des disciplines où le manque de cadre théorique commun est manifeste, et y chercher le «cadre théorique approprié» de Sydney Brenner nous rappelle quelque peu les six personnages en quête d'auteur de Pirandello. Alors, d'où peut-on espérer voir émerger un tel cadre? Et à quoi ressemblerait-il?
Je ne possède pas de boule de cristal, mais je discerne malgré tout des candidats évidents, dont l'un appartient à la discipline qui a de tout temps arbitré la théorie dans les sciences naturelles: la physique. En effet, pour de nombreux scientifiques, les termes «théorie» et «physique» sont presque synonymes, et les physiciens et les mathématiciens cherchent dans les sciences de la vie de nouveaux domaines dans lesquels appliquer leurs connais-sances. Pour certains, c'est là que se situe désormais l'action intellectuelle et scientifique: si le siècle dernier appartenait à la physique, le nouveau appartient à la biologie. À titre d'exemple, voici quelques citations tirées de la littérature récente: «La biologie aujourd'hui se trouve là où se trouvait la physique au début du XXe siècle», ou encore: «La physique nous aide à mieux comprendre, et elle peut apporter à la biologie des explications fondamentales.» D'autres y voient un but plus pragmatique: c'est là que se trouve désormais l'argent.
Mais les observateurs remarquent aussi que la transition de la physique à la biologie n'est pas aussi simple, qu'il existe un certain décalage culturel à combler entre ces disciplines, que les biologistes et les physiciens ont des buts et des traditions différents, qu'ils ne posent pas les mêmes types de questions, et ne cherchent peut-être pas le même type de réponses. En outre, il s'agit quasiment de la première fois dans l'histoire que des physiciens et des mathématiciens se tournent vers la biologie, pour y trouver de nouveaux problèmes et de nouveaux terrains à explorer. Les exemples du passé se sont soldés par des échecs, et les biologistes ont manifesté un intérêt limité dans les tentatives pour mathématiser ou théoriser leur discipline. Leur état d'esprit semble avoir évolué.
Double culture
De nos jours, biologistes expérimentaux, physiciens et mathématiciens collaborent en permanence, et le rôle des mathématiques en biologie semble être entré dans une ère nouvelle. Au cours des dernières années, aux États-Unis, la National Science Foundation NSF et les National Institutes of Health NIH ont lancé plusieurs initiatives à grande échelle, destinées plus particulièrement à rendre compte du potentiel des approches mathématiques et informatiques en biologie. Depuis 1983, la proportion du financement pour la recherche mathématique et informatique provenant de la division biologie de la NSF a été multipliée par cinquante, et l'on déplore surtout aujourd'hui le manque de candidats, plutôt que le manque de financement.
L'augmentation du financement se traduit à la fois par une croissance du nombre de publications et par la création de nouveaux cursus en mathématiques et en bio-informatique. Contrairement à leurs précurseurs, bon nombre d'entre eux sont désormais accueillis par des départements de biologie expérimentale. Les nouveaux étudiants ne se contentent pas de simplement collaborer avec des biologistes expérimentaux: ils deviennent souvent eux-mêmes biologistes. À l'inverse, les biologistes n'ont plus besoin de transmettre leurs questions et leurs données à d'autres. Grâce notamment à une meilleure connaissance de l'informatique, et aussi au développement de programmes informatiques «conviviaux» qui mettent les techniques d'analyse mathématique à la portée des béotiens en la matière, ils peuvent construire leurs propres modèles «mathématiques/théoriques». Cela se traduit par l'émergence d'une culture entièrement nouvelle, à la fois théorique et expérimentale, tout autant imprégnée d'équations différentielles que de données réelles.
Si, comme l'affirment désormais de nombreuses personnes, «une nouvelle biologie mathématique est en train de naître», elle s'accompagne non seulement de nouvelles compétences, mais aussi de nouvelles valeurs épistémiques. La discipline naissante ne présente de ce fait qu'une vague ressemblance avec les tentatives passées pour faire de la biologie une science théorique à l'instar de la physique. Cela ne promet pas tant une justification des échecs passés qu'une transformation des méthodes, des buts et des bases épistémologiques des tentatives antérieures.
Tentons de résumer les défis à venir. Tout d'abord, les efforts de modélisation les plus réussis suggèrent la nécessité de redéfinir des termes comme «essentiel» et «fondamental». L'essence d'un processus ne doit plus être recherchée dans des lois abstraites ou simples, mais dans la spécificité confuse d'adaptations particulières qui ont vu le jour au cours des processus désordonnés de l'évolution. Bien trop souvent, ce sont les particularités fortuites d'une structure biologique celle de l'ADN par exemple qui sont fondamentales. Par conséquent, si les physiciens veulent pouvoir participer à la création d'un cadre théorique approprié, ils devront repenser certaines de leurs hypothèses les plus élémentaires. Le fait est que la biologie vient bouleverser toutes nos hypothèses classiques concernant ce qui doit être considéré comme profond ou fondamental, ce qui doit être considéré comme une explication, et même ce qui doit être considéré comme un progrès.
Partenaires prometteurs ?
De plus, les systèmes biologiques sont, nous le savons, extraordinairement complexes. Mais, toujours à cause de l'évolution, leur complexité est de nature quelque peu différente de celle des systèmes physiques. Déjà, ils sont toujours et inévitablement hiérarchiques. Ainsi, les notions familières d'émergence, ancrées dans la dynamique non linéaire des systèmes uniformes gaz ou fluides, par exemple, ne conviennent pas. Les inhomogénéités et les particularités ordonnées des systèmes biologiques sont essentielles à leur fonctionnement. Les ignorer, c'est risquer le manque de pertinence biologique qui a historiquement été le destin de tant de modèles mathématiques en biologie. Par ailleurs, étant donné la nature de la complexité biologique, les modèles utiles de systèmes biologiques tendent à être informatiques plutôt que mathématiques. À la place de quelques équations différentielles simples, la nouvelle biologie théorique apparaît comme un entrelacs d'algorithmes, de vastes systèmes d'équations différentielles, d'analyses statistiques et de simulations. Qui plus est, de tels modèles ne peuvent être formulés avec succès que dans une très intime relation de va-et-vient avec l'expérimentation.
Enfin, les distinctions entre «pure» et «appliquée», entre «théorique» et «pratique» -des distinctions si basiques à notre vision contemporaine de la physique- doivent aussi disparaître. C'est en grande partie une conséquence de la technologie même qui a permis de recueillir une telle quantité de données. Les techniques de l'«ADN recombinant» permettent en effet d'intervenir directement dans la dynamique interne du développement. Elles ont transformé les marqueurs génétiques en autant d'outils pour réaliser tel ou tel changement. En résumé, la technologie qui a ouvert la voie de la biologie théorique, a aussi, et simultanément, fait du génie génétique une réalité. La biologie devient une science pratique en même temps qu'elle devient théorique.
Le deuxième candidat pour un nouveau cadre théorique et peut-être le plus prometteur est suggéré par l'engouement actuel pour la comparaison de l'organisme avec un ordinateur, et celle de la biologie avec une science numérique. Je dis «plus prometteur» à cause des riches outils pratiques que l'informatique nous a donnés pour envisager des systèmes interactifs - des outils et des métaphores qui, en bien des façons, nous rapprochent beaucoup plus de la complexité des systèmes biologiques que les modèles traditionnels de la physique théorique. Mais ce serait une grave erreur de vouloir trop se concentrer sur les aspects numériques du fonctionnement génétique, et de négliger la nature fondamentalement analogique de la chimie qui sous-tend tout ce processus.
Une parenté avec l'ingénierie?
En outre, il y a là aussi une leçon à tirer de l'histoire. En tant que scientifiques, notre manière d'envisager des phénomènes que nous ne comprenons pas est, comme elle l'a toujours été, et comme elle doit l'être par nécessité, de comparer l'inconnu au connu. Ainsi, la comparaison de l'organisme avec une machine remonte à d'anciennes théories sur la nature de la vie -la seule différence étant le type de machine que nous prenons en considération. En nous fondant sur des poulies, des pompes hydrauliques, des horloges, des moteurs à vapeur, nous avons fait preuve d'une ingéniosité extraordinaire pour construire des machines encore plus polyvalentes et enthousiasmantes. Comparer l'organisme à chacune de ces machines s'est révélé instructif dans le passé, comme comparer l'organisme à nos machines les plus modernes se montre instructif de nos jours. Mais il ne serait guère raisonnable de supposer que notre ingéniosité s'épuise, que nous ne construirons pas bientôt des machines plus proches de la vie. En fait, nos meilleurs informaticiens parient sur notre capacité à le faire, et, une fois encore, ils cherchent l'inspiration dans la biologie.
Alors, allons, et adoptons les termes et les images de l'informatique pour nous aider à penser les propriétés systémiques des cellules et des organismes. N'oublions pas, toutefois, que ces systèmes biologiques n'ont pas livré tous leurs secrets à nos ingénieurs. De nombreuses personnes avancent que la «biologie intégrative» aura plus de liens de parenté avec l'ingénierie qu'avec la physique. Elles ont peut-être raison. Toutefois, il reste à nos ingénieurs à construire un système qui soit à la fois autoconcepteur et autogénérateur, un système que nous aurions envie de qualifier de vivant. Je ne peux affirmer qu'une telle tâche est impossible, mais seulement que nos ordinateurs actuels et nos systèmes Internet de pointe n'en sont pas encore capables.
Que manque-t-il pour douer le génome de vie? Je l'ignore, mais si je devais me prononcer, je m'attacherais à observer attentivement où les limites actuelles de la conception en ingénierie et de la génomique se situent. Et je demanderais, avec nos ingénieurs les plus brillants: Avons-nous suffisamment tenu compte de la dynamique de nos systèmes? Avons-nous prêté suffisamment d'attention à leur organisation temporelle? Suffit-il de considérer que les gènes sont activés ou pas, ou les généticiens doivent-ils commencer à étudier les moments précis de passage d'un état à l'autre, à la fois les uns par rapport aux autres, et aussi par rapport à la dynamique temporelle des processus globaux dans la cellule? Je parierais que notre prochaine avancée significative se situera là.
Bien entendu, il ne s'agit que d'hypothèses -comme je l'ai dit, ma boule de cristal est trouble. Toutefois, il ne fait presque plus aucun doute aujourd'hui que la biologie moléculaire postgénomique exige de nouvelles méthodes d'analyse, et de nouveaux cadres conceptuels. Appelez cela la «biologie intégrative» si vous le souhaitez, mais ce n'est qu'en avançant que nous comprendrons exactement de quoi il s'agit.
EN DEUX MOTS : L'obtention de la séquence du génome humain signe-t-elle l'entrée de la biologie dans une ère nouvelle? Oui, selon l'historienne Evelyn Fox Keller, qui se réfère aux propos tenus par les spécialistes de la génomique. Tous soulignent la nécessité de donner un sens au génome: la question n'est plus «Qui sont les acteurs?» mais «Quel est le scénario?» Toutefois, confrontée à l'incroyable afflux de données issues du séquençage, il est peu probable que la biologie puisse élaborer seule ce scénario. Physique, mathématiques et informatique sont autant de partenaires potentiels dans cette quête de sens. Evelyn Fox Keller se risque à prédire leurs chances d'être ou non élus, tandis que trois scientifiques français réagissent au tableau qu'elle brosse.
Par Evelyn Fox Keller
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
LES ABEILLES ET LE GAUCHO... |
|
|
|
|
|
Le Gaucho ® est-il l'ennemi des abeilles ?
livres - par Minh-Hà Pham-Delègue dans mensuel n°347 daté novembre 2001 à la page 70 (2726 mots)
Les apiculteurs français d’un côté, l’industriel Bayer de l’autre. Au milieu, une administration, un ministre, les médias et toute une population de scientifiques. L’insecticide Gaucho® est-il ou non un danger pour les abeilles ? Quatre ans de controverses parfois houleuses et d’études scientifiques n’ont pas permis de départager les protagonistes. Est-ce un échec ?
L’affaire éclate en 1997 quand les apiculteurs français, déplorant depuis quelques années le dépeuplement massif des ruches juste au moment de la floraison du tournesol et la chute des récoltes de miel dans l’ouest de la France, désignent le Gaucho®, un insecticide, comme responsable probable et saisissent les pouvoirs publics .
Lors d’une première réunion avec les représentants de deux ministères, du groupe Bayer qui produit l’insecticide et plusieurs scientifiques, les délégués des syndicats apicoles expliquent leurs soupçons : le phénomène coïncide avec le début de l’utilisation du Gaucho® sur le tournesol en 1993. D’après leur enquête, le produit utilisé sur les semences de tournesol pour éliminer les insectes nuisibles pourrait avoir un effet inattendu sur les abeilles : ils suspectent en effet que la matière active, l’imidaclopride, un neurotoxique pour les insectes, se retrouve bien après le traitement dans le capitule des fleurs que visitent les butineuses. Bayer conteste cette hypothèse. Assez vite alerté, il avait mené des expérimentations entre en 1995 et 1997. Or, il n’avait observé, sous tunnel, aucune différence de mortalité ou d’activité de butinage entre des abeilles visitant des tournesols traités ou non. De plus, selon ses analyses, le produit ne resterait pas assez longtemps dans la plante pour entraîner une exposition des abeilles.
Un premier état des lieux sur les effets potentiels du Gaucho® réalisé par deux biologistes de l’INRA à la demande de la Commission des toxiques* du ministère de l’Agriculture paraît en décembre 19971. Au vu de ce rapport, qui n’exclut pas la responsabilité potentielle de l’insecticide, le comité d’homologation du même ministère considère : « E n l’état actuel des connaissances, le caractère toxique de ce produit sur les abeilles ne peut être ni confirmé ni infirmé. Il est nécessaire de poursuivre les études, avec notamment des zones témoins où le produit sera interdit par arrêté préfectoral. » Dans la foulée, il est convenu de suspendre l’emploi de semences de tournesol traitées avec du Gaucho® en Vendée, dans l’Indre puis dans les Deux-Sèvres, les départements les plus touchés. Des études complémentaires dans ces zones sont alors lancées, et les bases d’un programme de recherche à l’échelle nationale sont posées en janvier 1998. A l’exception des deux laboratoires de chimie CNRS Orléans et Girpa Angers, recrutés sur un appel d’offres spécifique, le ministère de l’Agriculture désigne pour ce programme des chercheurs appartenant au groupe abeille* de la Commission des toxiques. C’est a priori une garantie de leur compétence. Mais avec le recul on peut déplorer l’absence d’appel d’offres classiques qui aurait optimisé les possibilités de contribution. L’inconvénient majeur aurait sans doute été la perte de temps liée à cette procédure.
Le comité de pilotage est ainsi constitué de scientifiques équipes de l’Agence française de sécurité sanitaire des aliments - Afssa - de Sophia-Antipolis, INRA Avignon, Lusignan et Bures, CNRS Orléans et Girpa Angers, de représentants de la production agricole et d’apiculteurs, d’instituts techniques, des ministères de l’Agriculture et de l’Environnement et de Bayer. Le ministère de l’Agriculture confie la coordination administrative du programme à Gilbert Maurin de l’Association de coordination technique agricole et me demande d’assurer la coordination scientifique des expérimentations.
Méthodes inadaptées. La recherche se heurte vite à un premier écueil : pour les abeilles aucune procédure de référence adaptée à l’étude spécifique de ce type d’insecticide n’est disponible. Celles en vigueur concernent des produits de traitement aérien. Or, pour ceux utilisés en enrobage de semences comme le Gaucho®, on s’attend à une exposition plus longue des abeilles à des doses faibles, puisque le produit évolue dans la plante pendant tout ou partie de son cycle. Et surtout ces méthodes s’appuient principalement sur l’enregistrement de la mortalité, alors que ce sont des perturbations du comportement des abeilles empêchant le retour à la ruche qui sont décrites. En l’absence de méthodologie validée, chaque équipe scientifique soumet des propositions qui sont avalisées au cours de réunions pratiquement mensuelles du comité de pilotage. Les questions deviennent multiples et d’ordre plus fondamental. Peut-on mettre en évidence des disparitions d’abeilles en plaçant des colonies d’abeilles en présence de tournesols traités ? A quelles doses sont exposées les abeilles qui butinent les tournesols ? Quels comportements peuvent être perturbés, s’agit-il de capacités d’apprentissage nécessaires à l’orientation des abeilles ? Globalement, le programme se partage en expérimentations de laboratoire ou tunnels d’une part et en champ d’autre part. Les premières visent à caractériser les éventuels symptômes et les seuils de toxicité. Les secondes ont à la fois pour but de vérifier et de quantifier les effets observés par les apiculteurs en condition de terrain et de doser l’insecticide présent dans différents substrats pour déterminer si les abeilles sont réellement exposées à des doses toxiques.
Le calendrier opérationnel est serré : les essais débutent au printemps, les observations en champ et les prélèvements d’échantillons en été lors de la floraison, et les analyses chimiques au cours de l’automne. Les résultats étant attendus pour la fin de l’année, les chercheurs bouclent leurs rapports courant octobre, souvent dans l’urgence.
Après différentes discussions et présentations des résultats préliminaires à l’automne, le rapport final est clos mi-décembre 1998. Les deux chimistes ayant analysé les résidus et moi-même sommes alors chacun auditionné par la Commission des toxiques pour présenter les conclusions finales2 : quelles sont-elles ? En conditions contrôlées, sous tunnel ou au laboratoire, les essais montrent des effets sur différents aspects de la biologie et du comportement des abeilles, y compris à des doses très faibles : les premiers effets sur les performances d’apprentissage sont observés à partir de 4 ppb* voir la figure : « Résultats des études en conditions contrôlées ». Sur le terrain, les dosages de résidus dans diverses matrices indiquent la présence de faibles quantités d’imidaclopride, y compris dans certains échantillons prélevés dans des parcelles non traitées. Elles sont inférieures à 10 ppb. Ce point crucial mérite explication. En commençant les recherches, on ne pensait pas trouver des effets à de si faibles doses. Le premier cahier des charges pour l’analyse des résidus avait donc fixé la limite de quantification* à 10 ppb. Cela signifie qu’au-dessus de cette limite les mesures précises étaient possibles mais en dessous on pouvait seulement détecter leur présence. La présence en champ de doses inférieures à 10 ppb indiquait donc une exposition potentielle des abeilles à des doses affectant leur comportement. Et pourtant, les expérimentations en champ, sur sites traités et non traités, n’indiquaient aucune différence notable concernant l’activité de butinage, les mortalités, l’évolution des colonies et la récolte de miel.
Quels résultats ? La controverse rebondit : comment expliquer que les résultats de laboratoire contredisent les observations en plein champ et pourquoi détecte-t-on de l’imidaclopride dans les zones non traitées ? Pour Bayer, les résultats en champ doivent primer : il plaide pour le maintien du traitement des semences. Au contraire, pour les apiculteurs, l’existence de perturbations comportementales à très faibles doses et une exposition possible des abeilles à ces doses confirment la responsabilité du Gaucho®. Et en raison de la présence d’imidaclopride dans des zones non traitées, ils contestent la validité des zones témoins, et donc des expérimentations de terrain. Pour se faire entendre, ils manifestent en décembre 1998, à Paris, au pied de la tour Eiffel. Ils me convient à leur congrès pour présenter les résultats du programme et s’étonnent vivement que je ne prenne pas position en leur faveur, que je « reste au milieu du gué » . Après des mois de travail intense, cette prise à partie assez brutale est vécue douloureusement, d’autant que nous devons aussi défendre nos résultats face à Bayer.
Témoins gênants. Il est vrai que de l’imidaclopride a été détectée en zones non traitées, et l’hypothèse d’une rémanence du produit après un traitement antérieur ne peut être écartée. Mais cela pose aussi d’autres questions. Dans les champs traités, tous les prélèvements sont positifs alors qu’en zones témoins, il s’agit en gros d’un échantillon sur trois. On aurait donc dû observer une différence de comportement des abeilles. Par ailleurs, si l’on admet une présence du produit dans tous les essais, comment expliquer l’absence de dépeuplement des ruches ? Pour moi, il existe encore trop d’inconnues pour se prononcer, et il faut aussi étudier l’hypothèse d’une cause multifactorielle.
La Commission des toxiques conclut finalement : « Les risques encourus ne paraissent pas suffisants pour interdire l’utilisation de l’imidaclopride » . Mais elle demande des études complémentaires. Et, dans l’attente des résultats qui devront être fournis dans un délai maximal de deux ans, elle préconise la reconduite des zones d’interdiction provisoire. En janvier 1999, Jean Glavany, ministre de l’Agriculture, va au-delà : il retire « de façon provisoire l’autorisation de mise sur le marché du Gaucho ® pour le traitement de semences de tournesol dans l’attente des résultats d’études scientifiques complémentaires demandées à la société Bayer et d’une enquête épidémiologique complémentaire pour déterminer si d’autres facteurs pourraient être responsables ou coresponsables des phénomènes observés sur les abeilles » .
Cette décision est plutôt bien accueillie par les apiculteurs. C’est à leurs yeux une première étape satisfaisante, même s’ils n’obtiennent pas qu’elle s’étende à d’autres cultures sources de pollen maïs, blé et orge. L’industriel, lui, fait bonne figure, il salue la mise en place d’une enquête épidémiologique multifactorielle dont il espère qu’elle fera la preuve de l’innocuité du Gaucho®3. Malgré cette satisfaction apparente, chacun cherche à renforcer sa position. Et surtout l’organisation des recherches change : il n’y a plus de programme centralisé. Conformément à la procédure d’homologation d’un produit phytosanitaire, la responsabilité des travaux revient à Bayer. Excepté l’enquête épidémiologique dont il annonce le démarrage en juin 1999, le ministère de l’Agriculture n’est plus chargé d’études. Et de son côté, la coordination des apiculteurs, désireuse d’une contre-expertise, soutient dans le cadre du règlement européen pour l’apiculture les projets de plusieurs équipes INRA Avignon, Toulouse et Bures, CNRS d’Orléans, Afssa Sophia-Antipolis sans véritable coordination scientifique.
Qui doit financer ? Cela soulève le problème de la constitution des dossiers d’homologation dans ce genre de situation : doit-elle rester à la charge des industriels, y compris pour les aspects éco-toxicologiques, ou bien des organismes indépendants doivent-ils conduire ces études ? Dans ce cas, avec quels moyens ? En filigrane, c’est la question de l’indépendance même des scientifiques qui se pose quand on sait que déjà lors du programme de 1998, qui pouvait pourtant être considéré comme indépendant voir l’encadré ci-dessus, certains scientifiques se sont vu reprocher des liens avec Bayer.
En fin d’année 1999, Bayer, dont la demande d’annulation du retrait provisoire du Gaucho® devant le Conseil d’Etat vient d’être rejetée, présente un nouveau rapport qui confirme ses résultats précédents4. Quant à l’enquête d’épidémio-surveillance, elle ne révèle pas de problème mais est très contestée par les apiculteurs : ils reprochent de ne pas avoir été consultés pour élaborer le questionnaire, inadapté à leurs yeux.
A partir de mars 2000, les autres études commencent à donner leurs fruits. Pour notre part, nous transmettons les résultats de nouveaux tests. Ils montrent que les performances des abeilles sont affectées pour des doses ingérées plus fortes que celles indiquées par nos données de 1998. Cela vaut à la direction générale de l’INRA un courrier de la coordination des apiculteurs dénonçant nos résultats. Ceci m’amène alors à rappeler à la coordination des apiculteurs ma ligne de conduite : produire des résultats scientifiques en toute indépendance, même par rapport à une demande sociale légitime.
Nos expériences ultérieures en conditions contrôlées établissent que la sensibilité au produit varie avec la saison : les abeilles d’été réagissent à des doses plus faibles 6-12 ppb que les abeilles d’hiver 24-48 ppb. J’apprends par un article de La France Agricole que les résultats de l’équipe de l’INRA d’Avignon indiquent des seuils encore plus bas, avec des effets dès 3 ppb5. Dose susceptible d’exister sur le capitule de tournesol, comme l’indiquent les nouvelles mesures des chercheurs du CNRS d’Orléans. On peut s’étonner du fait que les résultats soient communiqués par voie de presse : c’est là une des limites d’une science « en ligne » ,où les résultats dont disposent les experts portent la seule garantie de leurs auteurs. En effet, faute de temps, tous ces travaux n’ont pas encore passé la procédure habituelle de validation nécessaire à la publication dans une revue scientifique spécialisée : l’évaluation par un comité de pairs garantissant, en principe, la qualité des résultats. Le rythme de production de résultats scientifiques s’accommode mal des urgences sociétales. De fait, les premières publications scientifiques ont commencé seulement à paraître en 20006.
Manque de consensus. On a beaucoup polémiqué sur la divergence des résultats. Mais est-ce le coeur du problème ? Les effets du produit ont été recherchés sur des comportements divers impliquant des observations et des mécanismes différents. Il n’est donc pas étonnant qu’ils soient observés pour des quantités différentes.
Moins d’un facteur dix sépare ces valeurs qui indiquent toutes une grande toxicité du produit pour l’abeille. L’absence de consensus ne vient donc pas tant des résultats eux-mêmes que de leur interprétation et de l’absence de discussions préalables entre les différents scientifiques. Mais la question centrale est évidemment de relier ces seuils aux quantités présentes sur le terrain et aux effets qui y sont observés : c’est bien là toute la difficulté !
l’automne 2000, la pression médiatique monte d’un cran avec des articles dans la presse quotidienne7. Les apiculteurs organisent plusieurs manifestations8. Considérant la responsabilité du Gaucho® avérée, ils réitèrent leur demande de retrait du produit. Et l’étendent à tous les produits d’enrobage de semences utilisés sur des plantes attirant les abeilles.
La commission des toxiques demande des précisions sur les protocoles et auditionne toutes les parties impliquées. A l’issue des consultations, la commission estime en décembre que rien ne permet d’« incriminer formellement et exclusivement la préparation Gaucho® dans l’ensemble des problèmes, au demeurant très complexes, rapportés par les apiculteurs ». Toutefois, s’appuyant sur les « altérations des performances d’apprentissage olfactif des abeilles observées en laboratoire à des concentrations proches des niveaux de résidus présents dans les parties de la plante accessibles à l’abeille », et sur « la persistance de l’imidaclopride dans les sols [...], la commission ne peut conclure à l’absence de risque pour les abeilles... ». Elle justifie cet avis pour le moins mitigé par « l’absence de coordination entre les différents protocoles, et le manque de précisions sur des données brutes rendant difficile l’interprétation des résultats ».
Le 2 février 2001, Jean Glavany prolonge « pour deux années supplémentaires la suspension de l’autorisation du Gaucho® dans le traitement des semences de tournesol » . Une décision à réviser au vu de toute avancée scientifique suffisamment convaincante. Le ministre confie également « à un comité d’experts indépendants une étude épidémiologique de grande envergure qui analysera l’ensemble des facteurs qui peuvent affecter la santé des abeilles » .
En gros, il prolonge sa décision de 1999, sans interdiction définitive et sans suspension d’autres usages. Il réitère sa demande d’une enquête épidémiologique à grande échelle et réclame des informations approfondies sur la persistance du produit dans les sols. Cette fois, comme les apiculteurs, Bayer se déclare déçu. Chacun campe sur ses positions. Quant à l’enquête, elle est soutenue par Bayer mais rejetée par la coordination des apiculteurs qui ne croit pas à son bien-fondé9. Or sans leur appui, l’entreprise semble compromise.
Au final, trois années d’études pluridisciplinaires, conduites par divers organismes publics, techniques ou privés, n’ont pas permis aux autorités de conclure. Est-ce un échec, compte tenu de l’effort engagé en termes humains et financiers ? Ou au contraire ce bilan est-il exemplaire d’une nouvelle forme d’expertise, mêlant science « à chaud » et demande sociétale, qui serait la règle à l’avenir ? Il est en tout cas un exemple emblématique de l’application du principe de précaution.
Cas d’école. On retrouve dans cette affaire, tous les acteurs que décrit Bernard Chevassus-au-Louis, président de l’Afssa, dans son analyse de l’expertise scientifique10 : le citoyen les apiculteurs et Bayer, le scientifique les chercheurs, l’expert les membres des Commissions, le décideur le ministre de l’Agriculture. Dans ce cas précis, les citoyens ont été directement impliqués puisqu’ils ont participé au débat depuis le début. Ces interactions ont certainement contribué à une perception plus complète du problème, mais il n’est pas sûr qu’elles aient facilité la décision en matière de gestion du risque...
Par Minh-Hà Pham-Delègue
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|