|
|
|
|
 |
|
« La biologie de synthèse a besoin de la sociologie » |
|
|
|
|
|
« La biologie de synthèse a besoin de la sociologie »
Marie-Laure Théodule dans mensuel 488
LA RECHERCHE : Quand le concept de biologie de synthèse est-il apparu ?
PIERRE-BENOÎT JOLY : L'expression a été utilisée pour la première fois au début du XXe siècle par un chimiste français, Stéphane Leduc. Ce dernier réalise alors des expériences où il tente de créer des cellules artificielles pour mieux comprendre le vivant. Et il les décrit dans La Biologie synthétique, ouvrage publié en 1912. Il s'en suit une série de travaux tout au long du XXe siècle, dont l'objectif est de fabriquer une cellule primitive, une protocellule.
Mais, un tout autre courant va naître au début du XXIe siècle à la suite des avancées majeures de la génomique. On peut situer son commencement en 2004, année où une fondation nommée « BioBricks » organise au MIT, aux États-Unis, la conférence Biologie synthétique 1.0, qui va réunir 500 personnes dès sa première édition.
En quoi ce courant se démarque-t-il du précédent ?
P.-B.J. L'objectif principal n'est plus de comprendre le vivant, mais de fabriquer des organismes artificiels dotés de fonctions complexes permettant de résoudre certains problèmes. Ils auront par exemple un meilleur rendement énergétique que des organismes naturels ou bien ils synthétiseront de nouvelles molécules thérapeutiques. Pour cela, la biologie de synthèse s'appuie sur les outils de la génomique : séquençage des génomes à grande échelle, synthèse et assemblage de séquences d'ADN, etc. Mais elle ambitionne d'aller beaucoup plus loin en utilisant les méthodes de l'ingénieur pour produire plus vite et à moindre coût des organismes artificiels. Car aujourd'hui on sait seulement introduire de manière artisanale quelques gènes dans une cellule pour fabriquer des organismes génétiquement modifiés (OGM).
Qu'apportent de plus les méthodes de l'ingénieur ?
P.-B.J. Comme il s'agit d'introduire une cascade de gènes voire un génome entier dans une cellule, l'idée est de s'aider des outils mathématiques et informatiques utilisés par les ingénieurs pour comprendre et modéliser les interactions de ces gènes. À terme, on espère concevoir des systèmes biologiques à partir de composants standardisés et avec des méthodes elles-mêmes standardisées, comme on le fait en électronique. Concrètement, on programme le développement d'un nouveau système biologique en quatre phases : la conception (développement d'un modèle mathématique du système biologique et simulation), la construction avec la volonté de standardiser les procédés et les composants pour gagner du temps, puis la mise en oeuvre et la validation. Cette dernière étape peut conduire à réviser la modélisation initiale.
Cela a-t-il déjà donné des résultats ?
P.-B.J. Il y a eu des avancées spectaculaires. En suivant une approche dite « top-down » - concevoir un génome minimal auquel on pourra ajouter en fonction des besoins des séquences de gènes conçues par ordinateur - le biologiste américain Craig Venter a créé en 2010 une bactérie au génome synthétique de 1,08 million de paires de bases (l'enchaînement des lettres qui constituent l'alphabet de l'ADN) [1]. Et en mars 2014, une équipe internationale dirigée par Jef Boeke, de l'université de New York, a réussi à synthétiser l'un des seize chromosomes de la levure du boulanger [2]. C'est une étape cruciale vers la synthèse du génome d'un eucaryote, une forme du vivant bien plus complexe que de simples bactéries. Une autre approche dite « bottum-up » consiste à standardiser des séquences de gènes dans le but d'appareiller des bactéries ou des levures avec ces briques. À l'origine de cette démarche, la Fondation BioBricks a créé une base de données de séquences qu'elle met à la disposition de la communauté scientifique en accès libre, à l'image des logiciels en open source. Elle a lancé le concours international Igem destiné aux étudiants de premier cycle universitaire afin qu'ils conçoivent des systèmes biologiques artificiels à partir de ces briques.
Ce concours a-t-il un effet d'entraînement ?
P.-B.J. Il stimule la créativité des étudiants avec son approche à la fois boy-scout et branchée. Pour concourir, il faut constituer une équipe pluridisciplinaire incluant au moins un spécialiste de sciences humaines, présenter un site web, un concept voire un prototype. En 2013, pour la première fois, une équipe française soutenue par le Centre de recherche interdisciplinaire du biologiste François Taddei, de l'université Paris-Descartes, a remporté le prix. Ils ont montré comment une bactérie de laboratoire pouvait accélérer la détection de molécules contre la tuberculose [3]. En parallèle, avec une étude sur la parité homme/femme dans la recherche, ils ont révélé que les équipes Igem, qui respectent le plus la parité, sont aussi celles qui obtiennent les meilleurs résultats au concours.
Au-delà de ces démarches pionnières, y a-t-il déjà des réalisations commerciales ?
P.-B.J. La réponse à votre question est l'objet d'une polémique. L'équipe de Jay Keasling de l'université de Californie, à Berkeley aux États-Unis, a réussi en 2003 à transférer dans des bactéries et des levures les douze gènes de l'artémisinine, molécule antipaludéenne naturellement synthétisée par une plante, l'armoise. Depuis, le processus de production est en cours d'industrialisation chez Sanofi Aventis. Certains, dont Jay Keasling, considèrent qu'il s'agit du premier produit de la biologie de synthèse. Mais d'autres, même s'ils saluent l'exploit (réussir à transférer douze gènes soit bien plus qu'auparavant) font remarquer à raison que la méthode employée est finalement assez classique. Chaque gène a été introduit un à un « à la main » sans recourir aux méthodes prônées par la biologie de synthèse, censées rendre ce travail beaucoup plus facile et rapide, donc moins coûteux.
Des sociologues ont été associés dès le départ à ce domaine. Pourquoi ?
P.-B.J. Beaucoup de biologistes ont été traumatisés par les craintes suscitées par les OGM. Cela a conduit à favoriser dès le départ une meilleure interaction entre la biologie synthétique et les sciences humaines et sociales, notamment la sociologie. Cette démarche s'inscrit dans le cadre des bonnes pratiques du financement de la recherche, lancées avec le projet de séquençage du génome humain au début des années 1990 et généralisées depuis lors au niveau international : tout programme de recherche touchant au vivant doit consacrer de 3 % à 5 % de ses ressources aux aspects éthiques, légaux et sociaux. On pense ainsi renforcer l'acceptabilité de la nouveauté.
Comment cela se traduit-il concrètement ?
P.-B.J. Dans les pays anglo-saxons, certains sociologues sont « embarqués » : ils travaillent au côté des biologistes au sein de leurs laboratoires. Ainsi, au Royaume-Uni, une sociologue française, Claire Marris, est actuellement embarquée dans un programme de recherche interdisciplinaire qui associe deux établissements londoniens l'Imperial College, pour la biologie, et King's College pour les sciences humaines. Son travail porte en particulier sur les questions de risque et de propriété intellectuelle. Dans ce cadre, elle a récemment organisé un colloque sur le thème : « L'open source en biologie de synthèse ». Autre exemple, aux États-Unis, l'anthropologue américain Paul Rabinow a été embarqué dans SynBERC, consortium dédié à la biologie de synthèse lancé en 2006 par Jay Keasling à l'université de Californie. Mais ce projet s'est terminé par un conflit.
Que s'est-il passé ?
P.-B.J. Paul Rabinow était censé contribuer à l'établissement de nouvelles règles concernant la biosécurité ou l'éthique de la recherche en observant les chercheurs associés à SynBERC et en interagissant avec eux. Or son projet n'a jamais abouti. Selon les biologistes, Paul Rabinow se contentait d'observer sans vraiment rien produire d'original. Selon ce dernier, ses propositions étaient refusées parce qu'elles impliquaient des changements de pratiques qui auraient pu retarder les chercheurs et les handicaper dans la compétition internationale. Au-delà de la polémique, cet exemple est révélateur de la difficulté qu'il y a à faire travailler ensemble biologistes et sociologues.
Et vous, avez-vous une approche différente ?
P.-B.J. Dans mon laboratoire, nous étudions la biologie de synthèse en ayant recours aux outils classiques des sciences sociales. Par exemple, nous utilisons la bibliométrie, et des enquêtes et des observations sur le terrain afin de saisir les caractéristiques de ce champ émergent. Nous avons montré qu'il est de petite dimension : environ 3 000 articles ont été publiés au total sur le sujet depuis environ dix ans, contre plusieurs millions pour les nanosciences et les nanotechnologies ! Mais le taux de croissance des publications est très élevé, de 20 % à 30 % par an. Cependant, sur les 10 000 auteurs qui apparaissent dans le corpus, une minorité est spécialisée en biologie de synthèse : 70 % ont publié une seule fois sur le sujet. En revanche, les 100 articles les plus cités appartiennent bien au domaine, car leurs auteurs travaillent dans des laboratoires états-uniens, développent des approches bottom-up et sont rattachés à un noyau d'institutions qui jouent un rôle crucial dans la structuration de ce domaine, le concours Igem, les conférences, la Fondation BioBricks, etc. Le champ a donc déjà une forte autonomie.
Mais s'agit-il d'une discipline à part entière ?
P.-B.J. C'est un champ avec beaucoup d'intermittents qui viennent d'autres domaines que la biologie (informatique, mathématiques, ingénierie), et caractérisé par l'importance des recherches liées aux applications. Cela ne suffit pas pour en faire une discipline à part entière. Il lui manque des caractéristiques institutionnelles : un enseignement spécifique, des diplômes, des professeurs, une société savante, des colloques. En France, vous ne pouvez pas dire qu'une discipline existe si elle ne possède pas ces caractéristiques. C'est différent dans les pays anglo-saxons, où le verrou institutionnel est moins fort. Le second problème est qu'une discipline scientifique se construit en général autour d'une énigme centrale à résoudre. La biologie synthétique se construit, elle, autour d'une promesse.
Autour d'une promesse, que voulez-vous dire ?
P.-B.J. La promesse porte sur la santé, l'énergie, la chimie verte et l'environnement avec l'objectif de concevoir des molécules synthétiques pour tous ces secteurs. C'est pourquoi des scientifiques considèrent qu'il ne s'agit pas d'une science, mais d'une technologie qui s'inscrit dans la droite ligne des biotechnologies. Certains vont jusqu'à dire que la biologie de synthèse n'existe pas. Au contraire, ceux qui y croient prétendent qu'elle va révolutionner le génie génétique en le rendant plus simple, plus accessible et plus créatif. En tant que sociologue, nous constatons que science et technologie sont tellement imbriquées dans ce domaine qu'on peut le considérer comme une « technoscience ».
La biologie de synthèse n'est-elle pas un peu survendue ?
P.-B.J. Son ambition est si élevée que cela peut en effet générer des effets pervers. Pour avoir des crédits on fait miroiter des applications utiles à l'homme. Si ces attentes ne sont pas satisfaites, on provoquera des déceptions, qui affecteront en retour le domaine. Autre exemple, le champ se développe dans l'idée que la seule source de solutions aux grands problèmes actuels de la planète, c'est la science et la technologie. Or il faut aussi des transformations sociales. Ainsi, on peut avoir une science médicale qui progresse et des conditions d'accès aux soins qui se dégradent, comme aux États-Unis. En résumé, la biologie de synthèse suscite des attentes mais aussi des craintes, qui sont toutes démesurées.
Certaines craintes ne sont-elles pas justifiées ?
P.-B.J. La biologie de synthèse suscite trois types de craintes classiques dès que l'on touche au vivant : les risques de contamination et de bioterrorisme, les dangers d'ordre plus ontologique qu'il y aurait à réduire le vivant à des machines et à brouiller les frontières entre nature et artifice, et enfin les questions liées aux brevets sur le vivant. Comme ce champ est en émergence, il est trop tôt pour dire si ces craintes sont justifiées. On peut reconnaître qu'elles sont légitimes. Pour en tenir compte, le ministre de l'Enseignement supérieur et de la Recherche a créé en France en 2012 un observatoire de la biologie de synthèse [4]. C'est un lieu d'échange pluridisciplinaire, auquel je collabore. Nous essayons d'associer la société civile à l'émergence du domaine afin de réfléchir à l'impact de son développement sur la société. Il ne faut pas attendre que les chercheurs se mettent d'accord sur ce qu'est la biologie de synthèse pour mener ce type de débat. Au contraire !
* Pierre-Benoît Joly, économiste et sociologue, est directeur de recherche à l'INRA et dirige l'Institut francilien recherche innovation et société. Ce spécialiste de l'étude des sciences et des techniques a écrit avec Christian Bonneuil Sciences, techniques et société, ouvrage paru en 2013 aux éditions La Découverte. Il est également coauteur de « Biologie de synthèse : conditions d'un dialogue avec la société », rapport commandé en 2011 par le ministère de l'Enseignement supérieur et de la Recherche.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
Inventer des génomes sur mesure |
|
|
|
|
|
Inventer des génomes sur mesure
Cécile Klingler dans mensuel 445
En mai dernier, le généticien américain Craig Venter créait la première bactérie ayant un génome synthétique. Quels organismes inédits pourraient voir le jour dans les années à venir ? La biologie de synthèse va-t-elle révolutionner le vivant ?
E lle porte un nom du troisième type : Mycoplasma mycoides JCVI-syn1.0. Le 20 mai dernier, le concepteur de cette bactérie, le biologiste et généticien américain Craig Venter, l'a présentée en ces termes à un parterre de journalistes : « Nous sommes ici, aujourd'hui, pour annoncer l'obtention de la première cellule synthétique, faite en partant d'un génome conçu par ordinateur, en construisant le chromosome à partir de quatre bouteilles de produits chimiques, en l'assemblant dans des levures, en le transplantant dans une cellule bactérienne réceptrice, et en transformant cett e cellule en une nouvelle espèce bactérienne . » Et d'asséner, d'un ton calme, posé, presque monocorde : « Il s'agit, sur cette planète, de la première espèce capable de se reproduire ayant pour parent un ordinateur. »
Transformation
La formule, percutante, n'étonne pas de la part d'un homme qui a l'art des déclarations fracassantes. Elle a immédiatement fait le tour du monde. Mais la bactérie Mycoplasma mycoides JCVI-syn1.0, présentée pour l'occasion comme l'emblème de la « biologie de synthèse » ou « biologie synthétique », symbolise-t-elle vraiment un tournant dans la biologie ?
Contrairement à ce qu'ont titré bon nombre de journaux, les biologistes du John Craig Venter Institute n'ont en tout cas pas « créé la vie ». Pourquoi ? L'expérience qu'ils ont menée parle d'elle-même. D'abord, ils ont synthétisé, in vitro , un long fragment d'ADN. Pas n'importe lequel : sa séquence, c'est-à-dire la succession de « briques élémentaires » qui le constitue ce que l'on appelle les bases, est à quelques modifications près celle du génome de la bactérie Mycoplasma mycoides . Ce n'est donc pas un génome inventé ex nihilo . Puis ce génome a été transplanté dans une bactérie d'une espèce voisine, Mycoplasma capricolum , on ne peut plus naturelle. Il s'y est alors exprimé, et Mycoplasma capricolum s'est peu à peu transformée en Mycoplasma mycoides [1] . Le rôle « créateur » de l'homme est donc infime.
Pourtant, ce travail représente une avancée majeure. Pas sur le plan de la connaissance fondamentale : « Dès 2003, Venter avait montré qu'un ADN synthétisé in vitro, à partir de sa séquence "virtuelle", pouvait fonctionner dans une cellule », rappelle Miroslav Radman, qui dirige l'équipe « biologie de la robustesse » de l'Inserm.
À l'époque, Venter et ses collaborateurs avaient synthétisé in vitro le génome d'un virus de bactérie, d'après sa séquence enregistrée dans les banques de données. Puis ils l'avaient injecté dans la bactérie Escherichia coli . La bactérie avait alors répliqué cet ADN synthétique et synthétisé les protéines qu'il code, avec comme résultat final la production de virus actifs. « C'était un travail splendide ! ajoute Radman. Avec ses derniers travaux, Venter n'a, conceptuellement, rien démontré de plus. »
En revanche, les avancées technologiques sont indéniables. Miroslav Radman souligne par exemple la performance technologique que représente la transplantation d'un chromosome synthétique long d'un million de paires de bases, donc très fragile, dans une bactérie : l'équipe de Venter a réussi à contourner ce problème, en concevant un protocole où le génome synthétique est mis en contact avec les bactéries receveuses, sans qu'on ait à le manipuler.
Quant à Philippe Marlière, spécialiste de biologie synthétique au Génopole d'Évry et fondateur de la société Global Bioenergies, il s'enthousiasme devant la longueur de l'ADN synthétisé, et les perspectives que cela ouvre. « Un million de paires de bases, dit-il, c'est à mi-chemin des 2 millions de paires de bases d'un génome bactérien fonctionnel mais simplifié, dans lequel on insérerait les gènes correspondant à des voies métaboliques conçues sur mesure. Cela permettrait de produire telle ou telle molécule. »
Définition
« Concevoir sur mesure » et « produire » : voilà lâchés les deux mots qui définissent le mieux la biologie de synthèse. Car même si les travaux des équipes se réclamant de cette discipline permettront certainement de mieux comprendre le fonctionnement des cellules, les objectifs affichés sont, en général, très concrets. Pour Venter et la plupart des « biologistes de synthèse », il s'agit de transformer des bactéries, des levures, voire des cellules humaines, en usines de production de composés chimiques, de médicaments, ou encore de biocarburants. Comment ? En transférant dans ces cellules des gènes qu'elles ne possèdent normalement pas.
Voilà qui semble bien banal : après tout, voilà trente ans que l'on sait faire produire à des bactéries, par transfert de gène, des molécules qu'elles sont normalement incapables de synthétiser. Cela s'appelle du génie génétique. Que l'on transfère le gène humain codant l'insuline à une bactérie Escherichia coli ce qui a été réalisé en 1978, et elle produit de l'insuline. La biologie synthétique ne serait-elle donc qu'un nouveau mot pour une même approche ?
De fait, les trois exemples systématiquement vantés comme étant des succès de biologie synthétique ne révèlent pas de différences flagrantes avec le génie génétique. Il s'agit d'abord de l'obtention, par les biochimistes de la compagnie DuPont, d'une bactérie Escherichia coli capable de synthétiser, à partir de glucose, une molécule jusque-là dérivée du pétrole : le 1,3-propanediol, très utilisé dans la fabrication des matières synthétiques. Des milliers de tonnes sont aujourd'hui produites par ces bactéries, mises au point à la fin des années 1990.
Puis Jay Keasling, de l'université de Berkeley, a réussi en 2003 à transférer dans des bactéries et des levures des gènes végétaux leur permettant de produire de l'artémisinine, une molécule antipaludéenne normalement synthétisée par une plante, l'armoise Artemisiana annua . Le processus est actuellement en cours d'industrialisation chez Sanofi-Aventis. Enfin, une collaboration entre Bruno Dumas, de Sanofi-Aventis, et Denis Pompon, du CNRS de Gif-sur-Yvette, a abouti à l'obtention d'une levure synthétisant de l'hydrocortisone, une hormone humaine jusque-là produite par synthèse chimique.
Dans ces trois cas, les gènes introduits dans le micro-organisme utilisé comme usine de production sont des gènes naturels, provenant d'autres organismes. Alors, génie génétique ou biologie de synthèse ? « Peut-être faut-il plutôt parler de biologie présynthétique, suggère Jean-Loup Faulon, directeur de l'institut de biologie synthétique et systémique créé au Génopole d'Évry en janvier 2010. "Synthétique", car la synthèse de ces molécules a nécessité le transfert d'au moins une dizaine de gènes, soit beaucoup plus que ce que l'on faisait précédemment. Et "pré ", car ces travaux ont été réalisés "à la main". Chaque gène a été introduit un à un, avec les outils de biologie moléculaire classiques. »
Comme Philippe Marlière, il préfère, pour illustrer ce que peut être la biologie de synthèse, mettre l'accent sur une autre approche plus innovante, la « rétrosynthèse » : les gènes transférés et les protéines qu'ils codent ne sont pas utilisés pour ce qu'ils font dans les cellules d'origine, mais pour ce qu'ils peuvent faire en théorie. C'est en particulier le cas des enzymes, ces protéines qui, dans les cellules, catalysent c'est-à-dire rendent possible la transformation d'une molécule en une autre. Il se trouve que, dans une cellule, une enzyme donnée catalyse une réaction précise. Mais en théorie, elle est capable d'en catalyser d'autres. Si elle ne le fait pas, c'est parce que la molécule susceptible d'être transformée n'est pas présente. Par conséquent, si on la lui fournit, la réaction potentielle a lieu.
L'équipe de Global Bioenergies, pionnière dans ce domaine, a utilisé avec succès cette approche pour produire un hydrocarbure dans une bactérie. Après avoir imaginé la chaîne de réactions enzymatiques susceptible d'aboutir à cette substance, elle a transféré dans des bactéries les gènes des enzymes censées effectuer ces réactions. Puis, elle a fourni à ces micro-organismes la molécule censée réagir avec la première enzyme. La réaction a eu lieu, et, après elle, l'ensemble des réactions prévues. « Il s'agit donc vraiment de biologie de synthèse, souligne Philippe Marlière, car nous faisons apparaître des réactions enzymatiques et des molécules qui n'existent pas au naturel. »
Démarche d'ingénieur
Cela dit, le propre de la biologie de synthèse tient peut-être autant à la façon de voir la biologie qui anime ses promoteurs - plus souvent physiciens, informaticiens ou ingénieurs chimistes que biologistes - qu'aux manipulations effectuées. « Nous suivons une démarche d'ingénieurs, explique Jean-Loup Faulon, avec ses quatre phases classiques de conception, de construction, d'implémentation et de validation. Et nous le faisons de façon systématique et formalisée. » Cette démarche s'accompagne d'ailleurs d'un langage particulier : les chercheurs évoquent par exemple leur ambition de concevoir un « châssis », autrement dit un génome de « base » auquel on pourrait ajouter, en fonction des besoins, des séquences de gènes soigneusement conçues par ordinateur.
Cette approche d'ingénieur est encore plus prononcée dans d'autres travaux relevant de la biologie de synthèse. Les cellules, en général des bactéries Escherichia coli, y sont alors considérées comme des minirobots que l'on appareille avec des outils dans les faits, des molécules codées par des gènes, pour leur permettre d'accomplir des tâches précises par exemple, détecter tel ou tel type de cellules. Le programme qui leur est implémenté, sous forme d'une combinaison de gènes, vise à leur faire accomplir une série de tâches complexes, en fonction de leur environnement. Cette approche à d'ores et déjà donné de premiers résultats [fig.2] .
Là encore, la notion de « génome standard » est présente. Avec en plus l'ambition, pour certains, de standardiser les « outils », c'est-à-dire les séquences de gènes qui permettent d'accomplir telle ou telle action. Le Massachusetts Institute of Technology a ainsi créé une base de données en accès libre qui répertorie plusieurs de ces séquences, appelées BioBricks.
À ce stade, les interrogations pointent. Certes, la bactérie de Venter, Mycoplasma mycoides JCVI-syn1.0 , est anodine. Mais si l'on combine les potentialités qu'elle ouvre - recombiner des gènes à bien plus large échelle qu'on ne le fait actuellement - avec les innovations métaboliques et fonctionnelles présentées plus haut, on franchit bel et bien une frontière par rapport au génie génétique classique. D'autant que les possibilités de manipuler les génomes sont facilitées par l'apparition des registres de BioBricks, mais aussi par le développement d'entreprises, nommées « gene foundries », qui synthétisent à la demande les fragments d'ADN qu'on leur commande.
L'équipe de Venter a travaillé avec l'une de ces compagnies, BlueHeronBiotechnologies. Or, à peu près n'importe qui peut leur passer commande : il suffit d'un mail avec la séquence souhaitée. Et les séquences, elles, reposent dans des bases de données informatiques en libre accès. Certains pointent donc du doigt les risques de bioterrorisme - les trois principales « gene foundries » ont du reste mis en place des systèmes d'analyse des séquences commandées, de façon à repérer, par exemple, un gène pathogène.
Mais sans négliger cette menace, Philippe Marlière souligne qu'elle n'est peut-être pas la plus dangereuse : il est beaucoup plus facile d'utiliser un organisme pathogène existant déjà. « Imaginons plutôt une cyanobactérie modifiée pour produire tel ou tel biocarburant, dit-il. Les cyanobactéries sont des bactéries photosynthétiques à la base du fonctionnement des écosystèmes aquatiques, et qui n'ont besoin que de soleil et de dioxyde de carbone pour synthétiser des molécules carbonées. C'est précisément pour cela qu'elles sont intéressantes. Bien sûr, il est prévu de les faire travailler dans des enceintes confinées - qu'il va falloir inventer, puisque qu'elles doivent impérativement recevoir le rayonnement solaire. Mais si jamais elles s'échappent ? »
Anticiper les risques
Certes, il est possible que les modifications dont elles auront fait l'objet les handicapent par rapport à leurs homologues naturelles, et qu'elles ne puissent proliférer. Mais c'est loin d'être certain. « Or, on ne peut pas courir ce risque, martèle Philippe Marlière. Aujourd'hui, il est encore hypothétique, car on est loin de savoir reprogrammer ces bactéries. Mais justement, c'est le moment d'anticiper. »
Certains, telle l'organisation non gouvernementale canadienne ETC Group, voudraient un moratoire suspendant ces recherches. Philippe Marlière, lui, ambitionne, en lien avec d'autres laboratoires européens, de concevoir des bactéries permettant de réduire à zéro le risque de pollution génétique. « À zéro , insiste-t-il. On ne peut pas se contenter d'une obligation de moyens, il faut une obligation de résultats. » La solution préconisée est de faire en sorte que le génome de ces bactéries soit tellement différent de celui des êtres vivants actuels qu'ils ne puissent pas se croiser. Pour y parvenir, il s'agit de créer une troisième forme d'acide nucléique, différente de l'ADN et de l'ARN. C'est l'un des objectifs du projet de recherche européen Xenome, coordonné par le Génopole d'Évry.
Sur le plan de la connaissance scientifique et de la « création de vie », voilà qui est beaucoup plus innovant que Mycoplasma mycoides JCVI-syn1.0 ! Mais en dépit de la charte de bonne conduite que les principaux chercheurs européens sont en train de formaliser, et qu'ils s'engagent à signer, il n'est pas certain que cela suffise à lever les inquiétudes. À quand une réflexion mondiale, sur la gouvernance des recherches et des applications de la biologie de synthèse ?
[1] D.G. Gibson et al., Science, 329, 52, 2010.
L'ESSENTIEL
EN MAI 2010, l'équipe du généticien américain Craig Venter a annoncé avoir créé une bactérie ayant un génome synthétique.
LES POSSIBILITÉS DE MANIPULER les génomes vont aujourd'hui au-delà de celles offertes par le génie génétique classique.
FACE À CELA, il est nécessaire d'engager une réflexion sur les développements et les applications potentielles de la biologie de synthèse.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
Le vivant a sa matière noire |
|
|
|
|
|
LE VIVANT A SA MATIÈRE NOIRE
Une nouvelle technique révèle une biodiversité insoupçonnée qui bouscule nos connaissances biologiques. Une matière noire « bio » dans laquelle pourraient se dissimuler les indices d’un quatrième domaine du vivant.
Les biologistes seraient-ils passés à côté de 85 à 99 % des micro-organismes vivant sur Terre ? Les avancées de la métagénomique leur ont en tout cas permis de mettre en évidence l’existence d’une « matière noire » biologique, surnommée ainsi en référence à la mystérieuse matière sombre dont la masse empêche la dislocation des galaxies et des amas galactiques. Un monde biologique qui révèle peu à peu ses secrets et ses surprises.
Trois domaines répertoriés pour le vivant
Les premières classifications du vivant, établies au XVIIIe siècle par Carl von Linné, se basaient principalement sur des critères morphologiques. Ce système, efficient pour de gros organismes tels les mammifères ou les arbres, l’est beaucoup moins dès qu’il s’agit de classer l’ensemble du vivant, micro-organismes compris.
Les chercheurs se sont alors tournés vers des critères moléculaires universels. Ainsi, quelle que soit l’espèce, toutes les cellules biologiques contiennent des ribosomes, des organites qui servent à synthétiser les protéines. Les variations dans les séquences de ces gènes « ribosomaux présents chez tous les organismes vivants » sont utilisées pour évaluer la distance entre espèces et établir les grandes divisions de l’arbre du vivant. C’est notamment en analysant ces gènes chez les procaryotes que, dans les années 1970, Carl Woese a établi la distinction entre le domaine des bactéries et celui des archées.
Les eucaryotes, les bactéries et les archées sont depuis considérés comme les trois domaines du vivant. Les cellules des eucaryotes se caractérisent par la présence d’un noyau et, généralement, de mitochondries. La quasi-totalité des organismes pluricellulaires appartient au domaine eucaryote, qui comprend également des espèces unicellulaires. Bactéries et archées sont dépourvues de noyau, mais ces dernières se distinguent notamment par la composition de leurs membranes.
Un problème de culture
Pour classer la multitude de microbes qu’ils continuent de découvrir, les chercheurs cherchent donc d’abord à séquencer leur génome individuel. Mais cela implique que ces lignées cellulaires puissent être isolées et cultivées, ce qui, finalement, est rarement le cas. Éric Bapteste, chercheur à l’unité Évolution Paris-Seine de l’Institut de biologie Paris-Seine1, rappelle dans sa dernière étude2 qu’au moins 85 % des microbes connus ne sont pas cultivables.
Le fait que les
microbes ne vivent
pas seuls rend
la culture pure
difficile.
« Le fait que les microbes ne vivent pas seuls rend la culture pure difficile, explique Éric Bapteste. Ils appartiennent à des collectifs et à diverses formes de symbioses. Parfois, certaines espèces se succèdent dans le temps et il faudrait donc d’abord cultiver leurs précurseurs et reproduire toute la succession. Les chercheurs se trouvent devant un véritable défi biologique, biochimique et temporel. »
Divers outils permettent néanmoins de séquencer une grande partie des gènes présents dans un environnement donné, sans forcément les attribuer à des espèces particulières. On parle de métagénomique. Ces études peuvent aussi bien s’appliquer à notre flore intestinale qu’à des recoins extrêmes de notre planète, comme les geysers.
La métagénomique a permis de révéler une biodiversité inconnue, y compris dans des environnements extrêmes comme les geysers (parc de Yellowstone, États-Unis).
BERZINA/FOTOLIA.COM
Partager
Les chercheurs inventorient les séquences génétiques obtenues dans ces analyses métagénomiques, puis en retranchent celles qui correspondent aux organismes connus et cultivés. Pour explorer la diversité des séquences génétiques, l’équipe d’Éric Bapteste et de son collègue Philippe Lopez a employé une méthode en deux temps. Ils ont cherché dans l’environnement des séquences ressemblant à celles déjà connues, puis ont ensuite effectué une seconde analyse pour établir des liens supplémentaires.
« Si l’on prend l’exemple d’une recherche de parenté à partir de photos de famille, précise Éric Bapteste, la ressemblance entre un individu et son grand-père ne sera pas forcément évidente. Des liens peuvent cependant être trouvés si l’on rapproche l’enfant de son père, puis son paternel de son grand-père. Le lien indirect entre les individus de ces trois générations apparaît alors. »
A-t-on découvert un quatrième domaine ?
Une partie des très nombreuses séquences qui restent non attribuées pourraient provenir d’espèces nouvelles incultivables. Certaines séquences sont particulièrement intrigantes. Bien qu’elles se rattachent à des familles de gènes connus, elles en divergent tellement qu’on a pu se demander si elles ne provenaient pas d’organismes eux-mêmes très divergents, appartenant à un quatrième domaine inconnu du vivant.
« Il revient aux systématiciens de dire à quel moment une forme de vie doit rentrer dans une nouvelle case, modère toutefois Éric Bapteste. Les chercheurs se basent sur des critères métaboliques, structuraux ou génétiques, mais il n’existe pas de recette fixe pour affirmer l’existence d’un nouveau domaine. Le processus n’a rien d’automatique, il réclame des arguments et un consensus parmi les chercheurs. À ce stade, nous n’avons aucune raison de dire qu’un nouveau domaine a été découvert. »
Certains gènes
peuvent évoluer
très vite. Ils se
retrouvent alors à
une place étrange
dans un arbre
phylogénétique.
Le même type d’interrogation avait suivi la découverte en 2013 de deux virus géants, Pandoravirus salinus et Pandoravirus dulcis. En effet, seuls 7 % des gènes de ces virus correspondaient à des séquences connues, et ces derniers étaient dépourvus de capside, la structure qui entoure normalement le matériel génétique des virus.
Purificación Lopez-Garcia, chercheuse au laboratoire Écologie, systématique et évolution3, estime que les analyses phylogénétiques n’ont pas permis d’étayer l’appartenance des virus géants à un quatrième domaine du vivant.
Virus géants Vue au microscope de quatre familles de virus géants qui ont été découvertes récemment par les chercheurs : Mollivirus (2015), Megavirus (2010), Pithovirus (2014) et Pandoravirus (2013).
AMU/IGS/CNRS PHOTOTHEQUE
Partager
« Il peut être tentant d’affirmer que certains gènes forment un quatrième domaine, prévient Purificación Lopez-Garcia, mais certains peuvent évoluer très vite, par exemple à cause des duplications géniques, à la suite de transferts horizontaux ou de leur capture par un génome viral. Ils se retrouvent alors à une place étrange dans un arbre phylogénétique. Cela n’implique pas que l’organisme auquel ils appartiennent constitue pour autant une espèce complètement à part. On ne peut rien dire tant que les génomes n’ont pas été reliés à des organismes précis ; or, pour l’instant, tout ce qui a été lié à un microbe cultivé ou à un organisme reconstruit à partir de métagénomes rentre bien dans les trois domaines du vivant. »
Une matière noire aux effets visibles
Si elle n’a pas débouché sur l’inauguration d’un quatrième domaine de la vie, l’étude de la matière noire biologique a en tout cas produit de très beaux fruits. Dusko Ehrlich, directeur de recherche émérite au projet MetaGenoPolis de l’Institut national de la recherche agronomique et directeur du Centre d’interaction entre hôte et microbiome du King’s College de Londres, a ainsi travaillé sur la diversité de notre flore intestinale. Il souligne les énormes progrès réalisés depuis 2008 au sein du projet européen MetaHIT (link is external), consacré à la métagénomique.
Une première étude publiée en 20104, portant sur 124 individus européens, a ainsi inventorié 3,3 millions de gènes microbiens intestinaux, soit 150 fois plus que les 23 000 gènes de notre génome. Lorsque l’équipe a augmenté sa cohorte à 1 200 personnes, c’est 9,9 millions de gènes qui ont été identifiés. De cette diversité génétique, 750 groupes de plus 700 gènes bactériens ont été identifiés, et 85 % des espèces de bactéries se sont révélées nouvelles.
Bactérie e-coli Bactéries «E. coli» dans l’intestin humain.
D. KUNKEL MICROSCOPY, INC./VISUALS UNLIMITED/CORBIS
Partager
Ces travaux ont permis de caractériser le microbiome intestinal de l’homme. On a pu ensuite comparer les microbiomes de personnes malades et saines. Un lien a ainsi été découvert entre la composition de certains microbiomes et le risque de cirrhose5. Cela a débouché sur une méthode de diagnostic fiable à 95 % basée sur le séquençage des selles. Une avancée qui pourrait remplacer la très invasive biopsie hépatique.
Ces bactéries
représentent
en chacun de nous
une masse qui
peut-être plus
importante
que le cerveau.
Une autre étude6 a montré que la perte de diversité du microbiome intestinal est associée à une prédisposition au diabète, aux maladies hépatiques, à certains cancers et aux maladies cardiovasculaires. Or sept de ces maladies entrent dans les dix causes les plus fréquentes de mort dans le monde.
« Le microbiome intestinal fonctionne comme un organe négligé, déplore Dusko Ehrlich. Ces bactéries représentent en chacun de nous une masse qui peut-être plus importante que le cerveau. Pourtant, le grand public ne se rend pas compte de sa vulnérabilité. Il jugerait pourtant absolument catastrophiques de telles atteintes à ses autres organes. »
Qu’elle se cache dans le sol, dans les océans ou à l’intérieur de nos intestins, le rôle biologique joué par la matière noire se révèle donc capital tant du point de vue quantitatif – sa masse totale semble colossale – que qualitatif – de par sa contribution à l’équilibre des écosystèmes, quelle que soit l’échelle considérée. L’éclairage nouveau permis par la métagénomique promet en tout cas de dévoiler une diversité biologique aux ramifications jusqu’ici insoupçonnées.
Lire aussi: Les microbes, pilotes de nos conflits intérieurs?
Notes
1. Unité CNRS/UPMC/Inserm.
2. « Highly divergent ancient gene families in metagenomic samples are compatible with additional divisions of life », Lopez et al., Biology Direct, 26 octobre 2015, vol. 10 : 64.
3. Unité CNRS/Univ. Paris Sud/AgroParisTech.
4. « A human gut microbial gene catalogue established by metagenomic sequencing », Qin et al., Nature, 4 mars 2010, vol. 464 : 59-65.
5. « Alterations of the human gut microbiome in liver cirrhosis », Qin et al., Nature, 4 septembre 2014, vol. 513 : 59-64.
6. « Richness of human gut microbiome correlates with metabolic markers », Le Chatelier et al., Nature, 29 août 2013, vol. 500 : 541–546.
DOCUMENT cnrs le journal LIEN
Inscrivez le titre complet dans la rubrique " cnrs le journal " |
|
|
|
|
 |
|
VIE ET MORT DES NEURONES ... |
|
|
|
|
|
Vie et mort des neurones dans le cerveau vieillissant
mensuel 322
Deux idées fausses sont répandues. Tout d'abord, notre cerveau perdrait un nombre important de neurones au cours du vieillissement normal. Ensuite, cela expliquerait les troubles de la mémoire qui apparaissent avec l'âge. Or une mort cellulaire étendue ne survient que dans les démences neurodégénératives, comme la maladie d'Alzheimer. Dans le vieillissement normal, il s'agit plutôt alors d'un changement des propriétés des neurones.
Certainesmaladies neurodégénératives maladies d'Alzheimer ou de Parkinson, par exemple sont souvent associées au vieillissement. Il s'agit pourtant de phénomènes bien distincts, comme nous allons le voir. La mort cellulaire est le propre des pathologies neurodégénératives : certains circuits nerveux majeurs sont interrompus par la mort de neurones et la perte de synapses*, en général de manière sélective. Ainsi, la maladie de Parkinson est-elle caractérisée par la dégénérescence quasi totale d'une structure appelée " substance noire ". Quant à la maladie d'Alzheimer, le tableau clinique est hétérogène. En ce qui concerne le cortex, on distingue des zones primaires, qui traitent l'information sur un mode unique visuel, auditif, moteur... et des zones associatives, qui comme leur nom l'indique, traitent l'information de manière intégrée, plus complexe, et sont impliquées dans les fonctions dites supérieures comme le langage, la reconnaissance des visages, etc. Les premières ne souffrent que de pertes minimales, mais les dégâts sont importants dans les secondes. Le circuit le plus vulnérable est la connexion entre deux structures essentielles à la mémoire : le cortex entorhinal* et l'hippocampe*. Elle est appelée « voie perforante ».
Anatomie. Le cortex entorhinal CE est une région d'extraordinaire convergence, réunissant des informations en provenance de tout le cortex associatif, une sorte d'entonnoir dans lequel passent des données déjà traitées ailleurs dans le cerveau, avant d'aller rejoindre l'hippocampe. Ce dernier, quant à lui, joue un rôle primordial dans les processus de mémorisation. Les deux struc-tures cérébrales sont contiguës. Et si l'ensemble occupe dans l'espace une forme compliquée, le trajet de l'information est linéaire, en première approximation : du cortex entorhinal, l'information pénètre dans l'hippocampe via la voie perforante, jusqu'à une zone appelée gyrus denté. De là, elle repart vers une autre zone de l'hippocampe, CA3 CA pour corne d'Ammon puis vers une troisième, appelée CA1 fig. 2.
Les neurones de la voie perforante forment un ensemble particulier. Ils se situent pour la plupart dans la deuxième des six couches du cortex. Chez les sujets souffrant de la maladie d'Alzheimer, même très légèrement, on observe une perte assez étendue de neurones dans cette couche du cortex entorhinal, pouvant atteindre 50 %. Cette perte est parfois directement observable par imagerie IRM*, par exemple. Dans les cas sévères de la maladie d'Alzheimer, 90 % de ces neurones disparaissent. La destruction de la voie perforante peut alors mener à une interruption globale des connexions entre les zones associatives du cortex et de l'hippocampe, ce qui pourrait expliquer au moins une partie des troubles mnésiques liés à la maladie. Cette mort neuronale est sélective. D'autres parties de l'hippocampe, tels le gyrus denté ou de la région CA3, sont très résistantes à la dégénérescence chez le malade1.
Deux signes neuropathologiques s'ajoutent à la dégénérescence dans la maladie d'Alzheimer. On observe tout d'abord dans les tissus atteints la présence de plaques séniles : des structures sphériques microscopiques formées d'un coeur de protéines insolubles, et entourées de prolongements nerveux anormaux. Elles sont composées, en partie, de la protéine b-amyloïde. Les dégénérescences neurofibrillaires DNF constituent le deuxième signe. Celles-ci se situent à l'intérieur des cellules. Ce sont également des accumulations de protéines anormales, cette fois en rubans ou en faisceaux. Plaques séniles et dégénérescences neurofibrillaires sont considérées comme le reflet de la progression de la maladie et signalent une perturbation des circuits cérébraux. Elles conditionnent le diagnostic de la maladie. Cependant, leur seule présence ne suffit pas à expliquer la démence observée chez les patients puisqu'elles existent également chez des individus âgés sains. Dans le vieillissement normal, le nombre de DNF est extrêmement faible. Si la vaste majorité des humains après 55 ans ont certes quelques DNF, ou des neurones « en transition » vers une DNF dans la deuxième couche du cortex entorhinal fig. 1, ces individus sont a priori asymptomatiques, et ne souffrent d'aucune perte de mémoire manifeste. Cette observation contraste avec les analyses post mortem de patients atteints de la maladie d'Alzheimer : les DNF sont répandues dans tout le cortex associatif fig. 3.
Une relation trouble. Finalement, la relation entre la présence des DNF et la maladie reste assez obscure. Il n'existe ainsi aucun argument reliant la formation de DNF qui survient dans le vieillissement normal avec une dégénérescence ultérieure plus grave, comme la maladie d'Alzheimer. De plus, il est improbable que le déclin de la mémoire dans le vieillissement normal résulte de la présence minime de DNF dans le cortex entorhinal. Enfin, il faut remarquer que la démence dans la maladie d'Alzheimer va bien au-delà de la perte de mémoire. Sa sévérité est plutôt corrélée avec le nombre de DNF du cortex en général qu'avec ceux du cortex entorhinal ou l'hippocampe2.
Mais que se passe-t-il alors dans le vieillissement cérébral normal ?
Mort neuronale. L'idée d'une mort neuronale conséquence inévitable du vieillissement s'est répandue à partir des années 1950. Quelques articles démontrèrent une mort de neurones en l'absence de maladie neurodégénérative, chez l'être humain âgé, aussi bien que chez des primates non humains ou des rongeurs. Ces études présentaient des résultats disparates, mais leur ensemble suggérait que la plupart des aires du cortex et certaines parties de l'hippocampe perdaient de 25 % à 50 % de leurs neurones avec l'âge. A la fin des années 1980, la littérature fut analysé rigoureusement par Paul Coleman et Dorothy Flood de l'université de Rochester3. Leur conclusion confirma qu'il existe une perte importante de neurones avec l'âge. Cependant, dans certains cas, de l'avis même des auteurs, les données pouvaient être mises en doute à cause de différences entre espèces ou souches, traitement des tissus, ou méthode expérimentale. Dans toutes ces études passées, les chercheurs mesuraient la densité des neurones dans une structure donnée, et non pas leur nombre. Ces mesures de densité pouvaient être biaisées par des changements de la taille des neurones ou des structures étudiées, que ce soit à cause de la préparation du tissu pour l'observation, ou à cause du processus de vieillissement lui-même. Le développement de méthodes plus rigoureuses pour compter le nombre et non plus la densité des neurones, en particulier les techniques dites stéréologiques a infirmé cet ancien point de vue fig. 4. Ces nouvelles techniques reposent à la fois sur l'observation en volume de coupes plus épaisses et sur des techniques d'imagerie et de comptage informatique. Leur application à différentes espèces, y compris les humains, a mené à la conclusion que la chute du nombre de neurones n'est pas significative dans le vieillissement normal, au moins en ce qui concerne les deux structures cérébrales qui nous intéressent ici : le cortex entorhinal et l'hippocampe.
Etude fonctionnelle. Les travaux les plus intéressants pour le vieillissement sont ceux qui ont étudié une région cérébrale donnée, en association avec certaines fonctions. En particulier, P.R.. Rapp et M. Gallagher, à l'époque à l'université de Stony Brook à New York, ont analysé les données stéréologiques de l'hippocampe de rats âgés, et étudié simultanément leur comportement4. Ils ont montré que la mort neuronale n'est probablement pas la cause du déclin fonctionnel. Dans leur étude, ils n'observent pas de diminution du nombre de neurones dans les différents champs de l'hippocampe, chez le rat âgé en comparaison avec le rat jeune. Des résultats similaires ont été obtenus grâce à des modèles de vieillissement cognitif avec des primates non humains.
Chez les personnes âgées non démentes, il n'y a aucune perte neuronale dans le cortex entorhinal ou dans la partie CA1 de l'hippocampe, les deux régions les plus impliquées dans la fonction mnésique.
Il existe pourtant des baisses fonctionnelles claires, liées à des circuits identifiés. Un certain nombre de tâches comportementales spécifiques de la fonction hippocampique ont révélé un défaut mnésique associé avec l'âge à la fois chez les rongeurs et les singes. Il existe également des données très fortes en faveur de troubles similaires chez l'homme. Comment les expliquer alors ?
Au niveau psychologique déjà, il semblerait que les troubles mnésiques liés à l'âge chez l'être humain diffèrent de ceux observés dans les formes précoces de la maladie d'Alzheimer. Tandis que les malades ne peuvent retenir que très peu de nouvelles informations, les personnes agées saines peuvent le faire, même si cela leur est plus difficile et prend plus de temps que dans leur jeunesse.
Changements qualitatifs. Il existe en fait dans le vieillissement normal des changements neuroanatomiques autres que la mort cellulaire : des modifications de la quantité et de la qualité des connexions entre les neurones. Diverses hypothèses ont été envisagées. A. Peters et ses collègues de la faculté de médecine de Boston ont décrit des singes âgés sans perte neuronale dans le cortex préfrontal, mais avec des troubles cognitifs démontrables, ce qu'ils ont attribué à une rupture de l'enveloppe de myéline qui entoure les neurones, et favorise la transmission des informations. Les connexions de et vers le cortex préfrontal seraient intactes, mais atteintes fonctionnellement5. Quant à Y. Geinisman, de la faculté de médecine de Chicago, il a montré chez le rat une perte du nombre de synapses dans la zone terminale de la voie perforante, ce qui pourrait affecter la fonction de ce circuit, mais cela ne semble pas survenir chez le singe6. Par ailleurs, la forme des dendrites*, et la morphologie des synapses pourraient être transformées, à la fois chez le rongeur et l'homme7. Ces changements pourraient avoir un impact sur les circuits hippocampaux.
A un niveau encore plus fin, celui de la transmission synaptique, de nombreux aspects ne sont pas affectés, ou bien les troubles sont compensés, au cours du vieillissement dans l'hippocampe du rat, ainsi que le prouvent les études électrophysiologiques, comme celles de Carol Barnes au département de psychologie de l'université de l'Arizona8. Ce type d'étude permet de mesurer l'activité synaptique des réseaux des neurones. Une composante de la transmission synaptique apparaît cependant invariablement compromise dans le vieillissement, c'est la plasticité des synapses.
Qu'est-ce donc ? On considère en général aujourd'hui que l'expérience individuelle s'inscrit dans le cerveau au travers de modifications des connexions entre les neurones. Certaines deviennent plus importantes, d'autres moins, en fonction de l'activité, ininterrompue, du cerveau. La plasticité synaptique recoupe plusieurs types d'événements. Le plus étudié d'entre eux s'appelle potentialisation à long terme PLT ou LTP en anglais. C'est l'augmentation réversible de l'efficacité d'une connexion dans des conditions particulières.
Elle a été comparée par certains auteurs au conditionnement pavlovien, à un niveau cellulaire : si une cellule est active en même temps qu'une autre, leur connexion est « renforcée » voir l'encadré. La plupart des neurobiologistes admettent ainsi que de telles transformations permettent de stocker des souvenirs dans le cerveau, bien que ce ne soit pas absolument démontré. C'est dans l'hippocampe que la PLT a été mise en évidence pour la première fois. Or, la capacité à obtenir une PLT diminue avec l'âge. Ce cerait là le substrat biologique du vieillissement cognitif. Ces changements sont dépendants de certains récepteurs, appelés NMDA, acteurs essentiels de la PLT. Ces récepteurs sont des protéines, plus faciles à mesurer que ce phénomène assez fin qu'est la plasticité. C'est pourquoi ils sont utilisés comme marqueurs pour l'étudier. Nous avons montré récemment, chez le singe, que le nombre de ces récepteurs diminuait spécifiquement dans la voie perforante9 fig. 6.
Mémoire spatiale. A ce propos, les résultats les plus fascinants concernent une forme de mémoire spatiale chez le rat. Il existe chez cet animal, comme chez les primates d'ailleurs, des « cellules de localisation ». Ce sont des neurones de l'hippocampe qui enregistrent un environnement familier. Ils s'activent quand l'animal est dans un endroit particulier qu'il reconnaît. Plusieurs neurones de localisation associés peuvent former ensemble une sorte de carte, qui permettrait à l'animal de se repérer dans un endroit qu'il aurait déjà fréquenté fig. 5. Ce type de cartes est généralement interprété comme un substrat de la mémoire spatiale. La formation des cartes, c'est-à-dire le stockage de nouvelles informations dans les neurones de localisation, est un exemple typique de plasticité synaptique. De manière intéressante, les cellules de localisation fonctionnent normalement chez le rat âgé, tant que celui-ci reste dans son environnement familier. Mais s'il change d'environnement, le rat âgé est alors dans l'incapacité de recréer ou de retrouver une nouvelle carte. Le parallèle est frappant avec la désorientation spatiale que l'on observe chez de nombreuses personnes âgées, et qu'elles ressentent en « étant perdu ». Les auteurs de l'étude, Carol Barnes et ses collègues, supposent que le déficit est lié à la défaillance, due à l'âge, des mécanismes de la PLT10. Il s'agirait là donc d'un substrat cellulaire au vieillissement mnésique.
Les événements neurodégénératifs sous-tendant la maladie d'Alzheimer semblent donc bien distincts de ceux impliquant la perte de mémoire liée à l'âge. Il semble qu'il existe cependant un point commun très marquant aux deux phénomènes : le rôle des oestrogènes des hormones sexuelles. Bruce McEwen et ses collègues de l'université Rockefeller ont démontré que les oestrogènes induisent une augmentation de la densité des synapses dans les cellules de CA1, ce qui peut être associé à une PLT. Récemment, nous avons montré que lorsqu'on ôte à des rats femelles leurs ovaires producteurs d'oestrogènes, les quantités de récepteurs NMDA diminuent. Cela pourrait suggèrer une diminution corrélée de la PLT11.
D'un autre côté, des expérience cliniques récentes chez la femme ont démontré que les oestrogènes ont un effet protecteur sur le déclenchement de la maladie d'Alzheimer. In vitro , les oestrogènes peuvent protéger des neurones en culture contre une toxicité induite par l'amyloïde présente dans les DNF. Aussi, bien qu'il n'y ait pas de données directe indiquant si les oestrogènes empêchent ou non la mort neuronale, ces données suggèrent qu'ils protègent contre la neurodégénérescence.
Ménopause et neurones. Il semblerait donc que les oestrogènes soient un participant essentiel dans les processus qui mènent à une incapacité mnésique et cognitive, qu'ils soient neurodégénératifs ou non. Ce rôle est d'une importance évidente pour les femmes ménopausées. Les liens entre oestrogènes, récepteurs NMDA, circuits hippocampiques et mémoire représentent une zone particulièrement active de recherches en gérontologie, qui attire un nombre croissant d'équipes de recherches.
La sénescence reproductive ménopause pourrait ainsi avoir un impact aux multiples facettes sur la perte de mémoire et le déclin cognitif, au travers d'une baisse de la régulation de circuits hippocampiques intacts, comme au travers d'une baisse de la protection contre la neurodégéneration. Peut-être n'est-il pas surprenant que les oestrogènes, des molécules si cruciales pour l'espèce, au travers de la régulation du système reproductif féminin, jouent également un rôle dans la régulation de multiples processus neuronaux qui confèrent une valeur de survivance. L'importance de telles influences neuroendocrines sur le vieillissement pour les mâles reste à éclaircir.
1 T. Gómez-Isla et al., J. Neurosci., 16 , 4491, 1996.
2 L.M. Bierer et al., Arch. Neurol., 52, 81, 1995.
3 P.D. Coleman et D.G. Flood, Neurobiol. Aging, 8 , 521, 1987.
4 P.R. Rapp et M. Gallagher, Proc. Natl. Acad. Sci. USA, 93 , 9926, 1997.
5 A. Peters, J. Comp. Neurol., 371 , 153, 1996.
6 Y. Geinisman et al., Prog. Neurobiol., 45 , 223, 1995.
7 F.L.F. Chang et al., Neurobiol. Aging, 12 , 517, 1991.
8 C.A. Barnes, Trends Neurosci., 17 , 13, 1994.
9 A.H. Gazzaley et al., Proc. Natl. Acad. Sci. USA, 93 , 3121, 1996.
10 C.A. Barnes et al., Nature, 388 , 272, 1997.
11 A.H. Gazzaley et al., J. Neurosci., 16 , 6830, 1996.
NOTES
*UNE SYNAPSE correspond à l'interface entre un neurone et une autre cellule neurone, cellule musculaire.... C'est par elle qu'est transmise l'information.
*L'HIPPOCAMPE est une circonvolution de la face interne de cortex temporal. Il est notamment impliqué dans les mécanismes de mémorisation et dans les crises d'épilepsie.
*Dans le lobe temporal interne, LE CORTEX ENTORHINAL est situé entre l'hippocampe et la scissure rhinale. C'est une zone de convergence pour des informations venues d'autres parties du cortex, qui sont ensuite envoyées vers l'hippocampe.
*L'IRM ou imagerie par résonance magnétique est une des techniques les plus fines d'imagerie cérébrale in vivo .
*Prolongements du corps cellulaire, LES DENDRITES forment l'antenne réceptrice d'un neurone.
SQUELETTE CELLULAIRE ET ALZHEIMER
Le constituant majeur des dégénérescences neurofibrillaires DNF de la maladie d'Alzheimer est une protéine, appelée protéine tau. Normalement, c'est à dire de façon non pathologique, elle s'associe aux microtubules qui forment le squelette des cellules. Par ailleurs, les DNF surviennent principalement dans les neurones qui contiennent de grandes quantités de neurofilaments, un autre composant du cytosquelette fig. 1. Des altérations de ce dernier seraient-elles un attribut commun aux processus dégénératifs?
De nombreuses maladies neurodégénératives possèdent une caractéristique commune, la présence dans les cellules de sortes de petites lésions, appelés corps d'inclusion, constitués, au moins en partie, de protéines de neurofilaments. Par exemple, les corps de Lewy dans les neurones de la substance noire permettent un diagnostic de la maladie de Parkinson. Dans le cortex cérébral, ils sont associés à certaines formes de démence. Les corps de Pick dans le cortex cérébral sont la lésion neuropathologique qui permet de définir la maladie du même nom, et les cellules atteintes dans la sclérose latérale amyotrophique montrent des inclusions dans les muscles moteurs.
Des expériences semblent montrer un lien entre squelette cellulaire et maladie neurodégénrative. Ainsi, des souris transgéniques qui surexpriment certaines proteines normales des neurofilaments montrent des troubles des neurones moteurs similaires à la sclérose amyotropique. De plus, les souris transgéniques qui expriment une protéines humaine de neurofilament montrent des profils pathologiques multiples, ressemblant aux dégénérescences neurofibrillaires, ou aux corps de Pick...
L'implication des protéines des neurofilaments n'exclue pas un rôle tout aussi important du stress oxydatif, ou même d'autres mécanismes. En fait, ces derniers pouraient même augmenter la rupture de l'assemblage ou du transport des neurofilaments. Reste à savoir pourquoi ces protéines deviennent pathogènes.
LA POTENTIALISATION À LONG TERME
Le réseau des neurones du cerveau est en perpétuel changement. Parmi les divers phénomènes impliqués, la potentialisation à long terme PLT est sans doute le plus étudié. Découvert pour la première fois en 1966, dans l'hippocampe, c'est aujourd'hui encore dans cette structure que de nombreuses études s'attachent à en élucider les mécanismes.
Le principe général est le suivant. Un ensemble B de fibres nerveuses active un ou plusieurs autres neurones A dont on enregistre la réponse. Tant que la stimulation reste constante, la réponse l'est aussi. Cependant, si on intercale une série de stimulations à très haute fréquence appelé tetanus, la réponse augmente alors, et cela même après la reprise du rythme initial.
Dans le modèle classique, les fibres A libèrent une molécule excitatrice, le glutamate. Celui-ci se fixe sur des récepteurs à la surface de la cellule B et provoque la réponse que l'on enregistre. Le glutamate exerce son action par au moins deux catégories de récepteurs. Les premiers s'appellent AMPA, les seconds NMDA, du nom de composés qui servent à les identifier. Les premiers véhiculent la réponse. Les seconds forment des " détecteurs de coïncidence ". Ils ne s'activent que lorsque deux conditions sont remplies: quand les fibres A sont activées, et quand le neurone B l'est aussi ce qui est le cas lors d'un tetanus. C'est en quelque sorte un transistor biolo- gique. L'activation du récepteur NMDA déclenche toute une cascade de réactions biochimiques qui aboutissent in fine à l'augmentation prolon- gée de la réponse: la PLT.
Bien que l'on ait découvert de nombreux autres mécanismes qui puissent agir comme détecteur de coïncidence, le récepteur NMDA en reste l'archétype. A ce titre, sa présence est extrêmement surveillée dans les études sur la plasticité. Ainsi, des expériences de manipulation génétique des récepteurs NMDA ont mené à des troubles de la PLT et de l'apprentissage en l'absence de changements dégénératifs. Par ailleurs, une présence moindre des récepteurs NMDA, dans l'hippocampe, a été associée au vieillissement chez le singe.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|