|
|
|
|
|
|
Inventer des génomes sur mesure |
|
|
|
|
|
Inventer des génomes sur mesure
Cécile Klingler dans mensuel 445
En mai dernier, le généticien américain Craig Venter créait la première bactérie ayant un génome synthétique. Quels organismes inédits pourraient voir le jour dans les années à venir ? La biologie de synthèse va-t-elle révolutionner le vivant ?
E lle porte un nom du troisième type : Mycoplasma mycoides JCVI-syn1.0. Le 20 mai dernier, le concepteur de cette bactérie, le biologiste et généticien américain Craig Venter, l'a présentée en ces termes à un parterre de journalistes : « Nous sommes ici, aujourd'hui, pour annoncer l'obtention de la première cellule synthétique, faite en partant d'un génome conçu par ordinateur, en construisant le chromosome à partir de quatre bouteilles de produits chimiques, en l'assemblant dans des levures, en le transplantant dans une cellule bactérienne réceptrice, et en transformant cett e cellule en une nouvelle espèce bactérienne . » Et d'asséner, d'un ton calme, posé, presque monocorde : « Il s'agit, sur cette planète, de la première espèce capable de se reproduire ayant pour parent un ordinateur. »
Transformation
La formule, percutante, n'étonne pas de la part d'un homme qui a l'art des déclarations fracassantes. Elle a immédiatement fait le tour du monde. Mais la bactérie Mycoplasma mycoides JCVI-syn1.0, présentée pour l'occasion comme l'emblème de la « biologie de synthèse » ou « biologie synthétique », symbolise-t-elle vraiment un tournant dans la biologie ?
Contrairement à ce qu'ont titré bon nombre de journaux, les biologistes du John Craig Venter Institute n'ont en tout cas pas « créé la vie ». Pourquoi ? L'expérience qu'ils ont menée parle d'elle-même. D'abord, ils ont synthétisé, in vitro , un long fragment d'ADN. Pas n'importe lequel : sa séquence, c'est-à-dire la succession de « briques élémentaires » qui le constitue ce que l'on appelle les bases, est à quelques modifications près celle du génome de la bactérie Mycoplasma mycoides . Ce n'est donc pas un génome inventé ex nihilo . Puis ce génome a été transplanté dans une bactérie d'une espèce voisine, Mycoplasma capricolum , on ne peut plus naturelle. Il s'y est alors exprimé, et Mycoplasma capricolum s'est peu à peu transformée en Mycoplasma mycoides [1] . Le rôle « créateur » de l'homme est donc infime.
Pourtant, ce travail représente une avancée majeure. Pas sur le plan de la connaissance fondamentale : « Dès 2003, Venter avait montré qu'un ADN synthétisé in vitro, à partir de sa séquence "virtuelle", pouvait fonctionner dans une cellule », rappelle Miroslav Radman, qui dirige l'équipe « biologie de la robustesse » de l'Inserm.
À l'époque, Venter et ses collaborateurs avaient synthétisé in vitro le génome d'un virus de bactérie, d'après sa séquence enregistrée dans les banques de données. Puis ils l'avaient injecté dans la bactérie Escherichia coli . La bactérie avait alors répliqué cet ADN synthétique et synthétisé les protéines qu'il code, avec comme résultat final la production de virus actifs. « C'était un travail splendide ! ajoute Radman. Avec ses derniers travaux, Venter n'a, conceptuellement, rien démontré de plus. »
En revanche, les avancées technologiques sont indéniables. Miroslav Radman souligne par exemple la performance technologique que représente la transplantation d'un chromosome synthétique long d'un million de paires de bases, donc très fragile, dans une bactérie : l'équipe de Venter a réussi à contourner ce problème, en concevant un protocole où le génome synthétique est mis en contact avec les bactéries receveuses, sans qu'on ait à le manipuler.
Quant à Philippe Marlière, spécialiste de biologie synthétique au Génopole d'Évry et fondateur de la société Global Bioenergies, il s'enthousiasme devant la longueur de l'ADN synthétisé, et les perspectives que cela ouvre. « Un million de paires de bases, dit-il, c'est à mi-chemin des 2 millions de paires de bases d'un génome bactérien fonctionnel mais simplifié, dans lequel on insérerait les gènes correspondant à des voies métaboliques conçues sur mesure. Cela permettrait de produire telle ou telle molécule. »
Définition
« Concevoir sur mesure » et « produire » : voilà lâchés les deux mots qui définissent le mieux la biologie de synthèse. Car même si les travaux des équipes se réclamant de cette discipline permettront certainement de mieux comprendre le fonctionnement des cellules, les objectifs affichés sont, en général, très concrets. Pour Venter et la plupart des « biologistes de synthèse », il s'agit de transformer des bactéries, des levures, voire des cellules humaines, en usines de production de composés chimiques, de médicaments, ou encore de biocarburants. Comment ? En transférant dans ces cellules des gènes qu'elles ne possèdent normalement pas.
Voilà qui semble bien banal : après tout, voilà trente ans que l'on sait faire produire à des bactéries, par transfert de gène, des molécules qu'elles sont normalement incapables de synthétiser. Cela s'appelle du génie génétique. Que l'on transfère le gène humain codant l'insuline à une bactérie Escherichia coli ce qui a été réalisé en 1978, et elle produit de l'insuline. La biologie synthétique ne serait-elle donc qu'un nouveau mot pour une même approche ?
De fait, les trois exemples systématiquement vantés comme étant des succès de biologie synthétique ne révèlent pas de différences flagrantes avec le génie génétique. Il s'agit d'abord de l'obtention, par les biochimistes de la compagnie DuPont, d'une bactérie Escherichia coli capable de synthétiser, à partir de glucose, une molécule jusque-là dérivée du pétrole : le 1,3-propanediol, très utilisé dans la fabrication des matières synthétiques. Des milliers de tonnes sont aujourd'hui produites par ces bactéries, mises au point à la fin des années 1990.
Puis Jay Keasling, de l'université de Berkeley, a réussi en 2003 à transférer dans des bactéries et des levures des gènes végétaux leur permettant de produire de l'artémisinine, une molécule antipaludéenne normalement synthétisée par une plante, l'armoise Artemisiana annua . Le processus est actuellement en cours d'industrialisation chez Sanofi-Aventis. Enfin, une collaboration entre Bruno Dumas, de Sanofi-Aventis, et Denis Pompon, du CNRS de Gif-sur-Yvette, a abouti à l'obtention d'une levure synthétisant de l'hydrocortisone, une hormone humaine jusque-là produite par synthèse chimique.
Dans ces trois cas, les gènes introduits dans le micro-organisme utilisé comme usine de production sont des gènes naturels, provenant d'autres organismes. Alors, génie génétique ou biologie de synthèse ? « Peut-être faut-il plutôt parler de biologie présynthétique, suggère Jean-Loup Faulon, directeur de l'institut de biologie synthétique et systémique créé au Génopole d'Évry en janvier 2010. "Synthétique", car la synthèse de ces molécules a nécessité le transfert d'au moins une dizaine de gènes, soit beaucoup plus que ce que l'on faisait précédemment. Et "pré ", car ces travaux ont été réalisés "à la main". Chaque gène a été introduit un à un, avec les outils de biologie moléculaire classiques. »
Comme Philippe Marlière, il préfère, pour illustrer ce que peut être la biologie de synthèse, mettre l'accent sur une autre approche plus innovante, la « rétrosynthèse » : les gènes transférés et les protéines qu'ils codent ne sont pas utilisés pour ce qu'ils font dans les cellules d'origine, mais pour ce qu'ils peuvent faire en théorie. C'est en particulier le cas des enzymes, ces protéines qui, dans les cellules, catalysent c'est-à-dire rendent possible la transformation d'une molécule en une autre. Il se trouve que, dans une cellule, une enzyme donnée catalyse une réaction précise. Mais en théorie, elle est capable d'en catalyser d'autres. Si elle ne le fait pas, c'est parce que la molécule susceptible d'être transformée n'est pas présente. Par conséquent, si on la lui fournit, la réaction potentielle a lieu.
L'équipe de Global Bioenergies, pionnière dans ce domaine, a utilisé avec succès cette approche pour produire un hydrocarbure dans une bactérie. Après avoir imaginé la chaîne de réactions enzymatiques susceptible d'aboutir à cette substance, elle a transféré dans des bactéries les gènes des enzymes censées effectuer ces réactions. Puis, elle a fourni à ces micro-organismes la molécule censée réagir avec la première enzyme. La réaction a eu lieu, et, après elle, l'ensemble des réactions prévues. « Il s'agit donc vraiment de biologie de synthèse, souligne Philippe Marlière, car nous faisons apparaître des réactions enzymatiques et des molécules qui n'existent pas au naturel. »
Démarche d'ingénieur
Cela dit, le propre de la biologie de synthèse tient peut-être autant à la façon de voir la biologie qui anime ses promoteurs - plus souvent physiciens, informaticiens ou ingénieurs chimistes que biologistes - qu'aux manipulations effectuées. « Nous suivons une démarche d'ingénieurs, explique Jean-Loup Faulon, avec ses quatre phases classiques de conception, de construction, d'implémentation et de validation. Et nous le faisons de façon systématique et formalisée. » Cette démarche s'accompagne d'ailleurs d'un langage particulier : les chercheurs évoquent par exemple leur ambition de concevoir un « châssis », autrement dit un génome de « base » auquel on pourrait ajouter, en fonction des besoins, des séquences de gènes soigneusement conçues par ordinateur.
Cette approche d'ingénieur est encore plus prononcée dans d'autres travaux relevant de la biologie de synthèse. Les cellules, en général des bactéries Escherichia coli, y sont alors considérées comme des minirobots que l'on appareille avec des outils dans les faits, des molécules codées par des gènes, pour leur permettre d'accomplir des tâches précises par exemple, détecter tel ou tel type de cellules. Le programme qui leur est implémenté, sous forme d'une combinaison de gènes, vise à leur faire accomplir une série de tâches complexes, en fonction de leur environnement. Cette approche à d'ores et déjà donné de premiers résultats [fig.2] .
Là encore, la notion de « génome standard » est présente. Avec en plus l'ambition, pour certains, de standardiser les « outils », c'est-à-dire les séquences de gènes qui permettent d'accomplir telle ou telle action. Le Massachusetts Institute of Technology a ainsi créé une base de données en accès libre qui répertorie plusieurs de ces séquences, appelées BioBricks.
À ce stade, les interrogations pointent. Certes, la bactérie de Venter, Mycoplasma mycoides JCVI-syn1.0 , est anodine. Mais si l'on combine les potentialités qu'elle ouvre - recombiner des gènes à bien plus large échelle qu'on ne le fait actuellement - avec les innovations métaboliques et fonctionnelles présentées plus haut, on franchit bel et bien une frontière par rapport au génie génétique classique. D'autant que les possibilités de manipuler les génomes sont facilitées par l'apparition des registres de BioBricks, mais aussi par le développement d'entreprises, nommées « gene foundries », qui synthétisent à la demande les fragments d'ADN qu'on leur commande.
L'équipe de Venter a travaillé avec l'une de ces compagnies, BlueHeronBiotechnologies. Or, à peu près n'importe qui peut leur passer commande : il suffit d'un mail avec la séquence souhaitée. Et les séquences, elles, reposent dans des bases de données informatiques en libre accès. Certains pointent donc du doigt les risques de bioterrorisme - les trois principales « gene foundries » ont du reste mis en place des systèmes d'analyse des séquences commandées, de façon à repérer, par exemple, un gène pathogène.
Mais sans négliger cette menace, Philippe Marlière souligne qu'elle n'est peut-être pas la plus dangereuse : il est beaucoup plus facile d'utiliser un organisme pathogène existant déjà. « Imaginons plutôt une cyanobactérie modifiée pour produire tel ou tel biocarburant, dit-il. Les cyanobactéries sont des bactéries photosynthétiques à la base du fonctionnement des écosystèmes aquatiques, et qui n'ont besoin que de soleil et de dioxyde de carbone pour synthétiser des molécules carbonées. C'est précisément pour cela qu'elles sont intéressantes. Bien sûr, il est prévu de les faire travailler dans des enceintes confinées - qu'il va falloir inventer, puisque qu'elles doivent impérativement recevoir le rayonnement solaire. Mais si jamais elles s'échappent ? »
Anticiper les risques
Certes, il est possible que les modifications dont elles auront fait l'objet les handicapent par rapport à leurs homologues naturelles, et qu'elles ne puissent proliférer. Mais c'est loin d'être certain. « Or, on ne peut pas courir ce risque, martèle Philippe Marlière. Aujourd'hui, il est encore hypothétique, car on est loin de savoir reprogrammer ces bactéries. Mais justement, c'est le moment d'anticiper. »
Certains, telle l'organisation non gouvernementale canadienne ETC Group, voudraient un moratoire suspendant ces recherches. Philippe Marlière, lui, ambitionne, en lien avec d'autres laboratoires européens, de concevoir des bactéries permettant de réduire à zéro le risque de pollution génétique. « À zéro , insiste-t-il. On ne peut pas se contenter d'une obligation de moyens, il faut une obligation de résultats. » La solution préconisée est de faire en sorte que le génome de ces bactéries soit tellement différent de celui des êtres vivants actuels qu'ils ne puissent pas se croiser. Pour y parvenir, il s'agit de créer une troisième forme d'acide nucléique, différente de l'ADN et de l'ARN. C'est l'un des objectifs du projet de recherche européen Xenome, coordonné par le Génopole d'Évry.
Sur le plan de la connaissance scientifique et de la « création de vie », voilà qui est beaucoup plus innovant que Mycoplasma mycoides JCVI-syn1.0 ! Mais en dépit de la charte de bonne conduite que les principaux chercheurs européens sont en train de formaliser, et qu'ils s'engagent à signer, il n'est pas certain que cela suffise à lever les inquiétudes. À quand une réflexion mondiale, sur la gouvernance des recherches et des applications de la biologie de synthèse ?
[1] D.G. Gibson et al., Science, 329, 52, 2010.
L'ESSENTIEL
EN MAI 2010, l'équipe du généticien américain Craig Venter a annoncé avoir créé une bactérie ayant un génome synthétique.
LES POSSIBILITÉS DE MANIPULER les génomes vont aujourd'hui au-delà de celles offertes par le génie génétique classique.
FACE À CELA, il est nécessaire d'engager une réflexion sur les développements et les applications potentielles de la biologie de synthèse.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
Le vivant a sa matière noire |
|
|
|
|
|
LE VIVANT A SA MATIÈRE NOIRE
Une nouvelle technique révèle une biodiversité insoupçonnée qui bouscule nos connaissances biologiques. Une matière noire « bio » dans laquelle pourraient se dissimuler les indices d’un quatrième domaine du vivant.
Les biologistes seraient-ils passés à côté de 85 à 99 % des micro-organismes vivant sur Terre ? Les avancées de la métagénomique leur ont en tout cas permis de mettre en évidence l’existence d’une « matière noire » biologique, surnommée ainsi en référence à la mystérieuse matière sombre dont la masse empêche la dislocation des galaxies et des amas galactiques. Un monde biologique qui révèle peu à peu ses secrets et ses surprises.
Trois domaines répertoriés pour le vivant
Les premières classifications du vivant, établies au XVIIIe siècle par Carl von Linné, se basaient principalement sur des critères morphologiques. Ce système, efficient pour de gros organismes tels les mammifères ou les arbres, l’est beaucoup moins dès qu’il s’agit de classer l’ensemble du vivant, micro-organismes compris.
Les chercheurs se sont alors tournés vers des critères moléculaires universels. Ainsi, quelle que soit l’espèce, toutes les cellules biologiques contiennent des ribosomes, des organites qui servent à synthétiser les protéines. Les variations dans les séquences de ces gènes « ribosomaux présents chez tous les organismes vivants » sont utilisées pour évaluer la distance entre espèces et établir les grandes divisions de l’arbre du vivant. C’est notamment en analysant ces gènes chez les procaryotes que, dans les années 1970, Carl Woese a établi la distinction entre le domaine des bactéries et celui des archées.
Les eucaryotes, les bactéries et les archées sont depuis considérés comme les trois domaines du vivant. Les cellules des eucaryotes se caractérisent par la présence d’un noyau et, généralement, de mitochondries. La quasi-totalité des organismes pluricellulaires appartient au domaine eucaryote, qui comprend également des espèces unicellulaires. Bactéries et archées sont dépourvues de noyau, mais ces dernières se distinguent notamment par la composition de leurs membranes.
Un problème de culture
Pour classer la multitude de microbes qu’ils continuent de découvrir, les chercheurs cherchent donc d’abord à séquencer leur génome individuel. Mais cela implique que ces lignées cellulaires puissent être isolées et cultivées, ce qui, finalement, est rarement le cas. Éric Bapteste, chercheur à l’unité Évolution Paris-Seine de l’Institut de biologie Paris-Seine1, rappelle dans sa dernière étude2 qu’au moins 85 % des microbes connus ne sont pas cultivables.
Le fait que les
microbes ne vivent
pas seuls rend
la culture pure
difficile.
« Le fait que les microbes ne vivent pas seuls rend la culture pure difficile, explique Éric Bapteste. Ils appartiennent à des collectifs et à diverses formes de symbioses. Parfois, certaines espèces se succèdent dans le temps et il faudrait donc d’abord cultiver leurs précurseurs et reproduire toute la succession. Les chercheurs se trouvent devant un véritable défi biologique, biochimique et temporel. »
Divers outils permettent néanmoins de séquencer une grande partie des gènes présents dans un environnement donné, sans forcément les attribuer à des espèces particulières. On parle de métagénomique. Ces études peuvent aussi bien s’appliquer à notre flore intestinale qu’à des recoins extrêmes de notre planète, comme les geysers.
La métagénomique a permis de révéler une biodiversité inconnue, y compris dans des environnements extrêmes comme les geysers (parc de Yellowstone, États-Unis).
BERZINA/FOTOLIA.COM
Partager
Les chercheurs inventorient les séquences génétiques obtenues dans ces analyses métagénomiques, puis en retranchent celles qui correspondent aux organismes connus et cultivés. Pour explorer la diversité des séquences génétiques, l’équipe d’Éric Bapteste et de son collègue Philippe Lopez a employé une méthode en deux temps. Ils ont cherché dans l’environnement des séquences ressemblant à celles déjà connues, puis ont ensuite effectué une seconde analyse pour établir des liens supplémentaires.
« Si l’on prend l’exemple d’une recherche de parenté à partir de photos de famille, précise Éric Bapteste, la ressemblance entre un individu et son grand-père ne sera pas forcément évidente. Des liens peuvent cependant être trouvés si l’on rapproche l’enfant de son père, puis son paternel de son grand-père. Le lien indirect entre les individus de ces trois générations apparaît alors. »
A-t-on découvert un quatrième domaine ?
Une partie des très nombreuses séquences qui restent non attribuées pourraient provenir d’espèces nouvelles incultivables. Certaines séquences sont particulièrement intrigantes. Bien qu’elles se rattachent à des familles de gènes connus, elles en divergent tellement qu’on a pu se demander si elles ne provenaient pas d’organismes eux-mêmes très divergents, appartenant à un quatrième domaine inconnu du vivant.
« Il revient aux systématiciens de dire à quel moment une forme de vie doit rentrer dans une nouvelle case, modère toutefois Éric Bapteste. Les chercheurs se basent sur des critères métaboliques, structuraux ou génétiques, mais il n’existe pas de recette fixe pour affirmer l’existence d’un nouveau domaine. Le processus n’a rien d’automatique, il réclame des arguments et un consensus parmi les chercheurs. À ce stade, nous n’avons aucune raison de dire qu’un nouveau domaine a été découvert. »
Certains gènes
peuvent évoluer
très vite. Ils se
retrouvent alors à
une place étrange
dans un arbre
phylogénétique.
Le même type d’interrogation avait suivi la découverte en 2013 de deux virus géants, Pandoravirus salinus et Pandoravirus dulcis. En effet, seuls 7 % des gènes de ces virus correspondaient à des séquences connues, et ces derniers étaient dépourvus de capside, la structure qui entoure normalement le matériel génétique des virus.
Purificación Lopez-Garcia, chercheuse au laboratoire Écologie, systématique et évolution3, estime que les analyses phylogénétiques n’ont pas permis d’étayer l’appartenance des virus géants à un quatrième domaine du vivant.
Virus géants Vue au microscope de quatre familles de virus géants qui ont été découvertes récemment par les chercheurs : Mollivirus (2015), Megavirus (2010), Pithovirus (2014) et Pandoravirus (2013).
AMU/IGS/CNRS PHOTOTHEQUE
Partager
« Il peut être tentant d’affirmer que certains gènes forment un quatrième domaine, prévient Purificación Lopez-Garcia, mais certains peuvent évoluer très vite, par exemple à cause des duplications géniques, à la suite de transferts horizontaux ou de leur capture par un génome viral. Ils se retrouvent alors à une place étrange dans un arbre phylogénétique. Cela n’implique pas que l’organisme auquel ils appartiennent constitue pour autant une espèce complètement à part. On ne peut rien dire tant que les génomes n’ont pas été reliés à des organismes précis ; or, pour l’instant, tout ce qui a été lié à un microbe cultivé ou à un organisme reconstruit à partir de métagénomes rentre bien dans les trois domaines du vivant. »
Une matière noire aux effets visibles
Si elle n’a pas débouché sur l’inauguration d’un quatrième domaine de la vie, l’étude de la matière noire biologique a en tout cas produit de très beaux fruits. Dusko Ehrlich, directeur de recherche émérite au projet MetaGenoPolis de l’Institut national de la recherche agronomique et directeur du Centre d’interaction entre hôte et microbiome du King’s College de Londres, a ainsi travaillé sur la diversité de notre flore intestinale. Il souligne les énormes progrès réalisés depuis 2008 au sein du projet européen MetaHIT (link is external), consacré à la métagénomique.
Une première étude publiée en 20104, portant sur 124 individus européens, a ainsi inventorié 3,3 millions de gènes microbiens intestinaux, soit 150 fois plus que les 23 000 gènes de notre génome. Lorsque l’équipe a augmenté sa cohorte à 1 200 personnes, c’est 9,9 millions de gènes qui ont été identifiés. De cette diversité génétique, 750 groupes de plus 700 gènes bactériens ont été identifiés, et 85 % des espèces de bactéries se sont révélées nouvelles.
Bactérie e-coli Bactéries «E. coli» dans l’intestin humain.
D. KUNKEL MICROSCOPY, INC./VISUALS UNLIMITED/CORBIS
Partager
Ces travaux ont permis de caractériser le microbiome intestinal de l’homme. On a pu ensuite comparer les microbiomes de personnes malades et saines. Un lien a ainsi été découvert entre la composition de certains microbiomes et le risque de cirrhose5. Cela a débouché sur une méthode de diagnostic fiable à 95 % basée sur le séquençage des selles. Une avancée qui pourrait remplacer la très invasive biopsie hépatique.
Ces bactéries
représentent
en chacun de nous
une masse qui
peut-être plus
importante
que le cerveau.
Une autre étude6 a montré que la perte de diversité du microbiome intestinal est associée à une prédisposition au diabète, aux maladies hépatiques, à certains cancers et aux maladies cardiovasculaires. Or sept de ces maladies entrent dans les dix causes les plus fréquentes de mort dans le monde.
« Le microbiome intestinal fonctionne comme un organe négligé, déplore Dusko Ehrlich. Ces bactéries représentent en chacun de nous une masse qui peut-être plus importante que le cerveau. Pourtant, le grand public ne se rend pas compte de sa vulnérabilité. Il jugerait pourtant absolument catastrophiques de telles atteintes à ses autres organes. »
Qu’elle se cache dans le sol, dans les océans ou à l’intérieur de nos intestins, le rôle biologique joué par la matière noire se révèle donc capital tant du point de vue quantitatif – sa masse totale semble colossale – que qualitatif – de par sa contribution à l’équilibre des écosystèmes, quelle que soit l’échelle considérée. L’éclairage nouveau permis par la métagénomique promet en tout cas de dévoiler une diversité biologique aux ramifications jusqu’ici insoupçonnées.
Lire aussi: Les microbes, pilotes de nos conflits intérieurs?
Notes
1. Unité CNRS/UPMC/Inserm.
2. « Highly divergent ancient gene families in metagenomic samples are compatible with additional divisions of life », Lopez et al., Biology Direct, 26 octobre 2015, vol. 10 : 64.
3. Unité CNRS/Univ. Paris Sud/AgroParisTech.
4. « A human gut microbial gene catalogue established by metagenomic sequencing », Qin et al., Nature, 4 mars 2010, vol. 464 : 59-65.
5. « Alterations of the human gut microbiome in liver cirrhosis », Qin et al., Nature, 4 septembre 2014, vol. 513 : 59-64.
6. « Richness of human gut microbiome correlates with metabolic markers », Le Chatelier et al., Nature, 29 août 2013, vol. 500 : 541–546.
DOCUMENT cnrs le journal LIEN
Inscrivez le titre complet dans la rubrique " cnrs le journal " |
|
|
|
|
|
|
VIE ET MORT DES NEURONES ... |
|
|
|
|
|
Vie et mort des neurones dans le cerveau vieillissant
mensuel 322
Deux idées fausses sont répandues. Tout d'abord, notre cerveau perdrait un nombre important de neurones au cours du vieillissement normal. Ensuite, cela expliquerait les troubles de la mémoire qui apparaissent avec l'âge. Or une mort cellulaire étendue ne survient que dans les démences neurodégénératives, comme la maladie d'Alzheimer. Dans le vieillissement normal, il s'agit plutôt alors d'un changement des propriétés des neurones.
Certainesmaladies neurodégénératives maladies d'Alzheimer ou de Parkinson, par exemple sont souvent associées au vieillissement. Il s'agit pourtant de phénomènes bien distincts, comme nous allons le voir. La mort cellulaire est le propre des pathologies neurodégénératives : certains circuits nerveux majeurs sont interrompus par la mort de neurones et la perte de synapses*, en général de manière sélective. Ainsi, la maladie de Parkinson est-elle caractérisée par la dégénérescence quasi totale d'une structure appelée " substance noire ". Quant à la maladie d'Alzheimer, le tableau clinique est hétérogène. En ce qui concerne le cortex, on distingue des zones primaires, qui traitent l'information sur un mode unique visuel, auditif, moteur... et des zones associatives, qui comme leur nom l'indique, traitent l'information de manière intégrée, plus complexe, et sont impliquées dans les fonctions dites supérieures comme le langage, la reconnaissance des visages, etc. Les premières ne souffrent que de pertes minimales, mais les dégâts sont importants dans les secondes. Le circuit le plus vulnérable est la connexion entre deux structures essentielles à la mémoire : le cortex entorhinal* et l'hippocampe*. Elle est appelée « voie perforante ».
Anatomie. Le cortex entorhinal CE est une région d'extraordinaire convergence, réunissant des informations en provenance de tout le cortex associatif, une sorte d'entonnoir dans lequel passent des données déjà traitées ailleurs dans le cerveau, avant d'aller rejoindre l'hippocampe. Ce dernier, quant à lui, joue un rôle primordial dans les processus de mémorisation. Les deux struc-tures cérébrales sont contiguës. Et si l'ensemble occupe dans l'espace une forme compliquée, le trajet de l'information est linéaire, en première approximation : du cortex entorhinal, l'information pénètre dans l'hippocampe via la voie perforante, jusqu'à une zone appelée gyrus denté. De là, elle repart vers une autre zone de l'hippocampe, CA3 CA pour corne d'Ammon puis vers une troisième, appelée CA1 fig. 2.
Les neurones de la voie perforante forment un ensemble particulier. Ils se situent pour la plupart dans la deuxième des six couches du cortex. Chez les sujets souffrant de la maladie d'Alzheimer, même très légèrement, on observe une perte assez étendue de neurones dans cette couche du cortex entorhinal, pouvant atteindre 50 %. Cette perte est parfois directement observable par imagerie IRM*, par exemple. Dans les cas sévères de la maladie d'Alzheimer, 90 % de ces neurones disparaissent. La destruction de la voie perforante peut alors mener à une interruption globale des connexions entre les zones associatives du cortex et de l'hippocampe, ce qui pourrait expliquer au moins une partie des troubles mnésiques liés à la maladie. Cette mort neuronale est sélective. D'autres parties de l'hippocampe, tels le gyrus denté ou de la région CA3, sont très résistantes à la dégénérescence chez le malade1.
Deux signes neuropathologiques s'ajoutent à la dégénérescence dans la maladie d'Alzheimer. On observe tout d'abord dans les tissus atteints la présence de plaques séniles : des structures sphériques microscopiques formées d'un coeur de protéines insolubles, et entourées de prolongements nerveux anormaux. Elles sont composées, en partie, de la protéine b-amyloïde. Les dégénérescences neurofibrillaires DNF constituent le deuxième signe. Celles-ci se situent à l'intérieur des cellules. Ce sont également des accumulations de protéines anormales, cette fois en rubans ou en faisceaux. Plaques séniles et dégénérescences neurofibrillaires sont considérées comme le reflet de la progression de la maladie et signalent une perturbation des circuits cérébraux. Elles conditionnent le diagnostic de la maladie. Cependant, leur seule présence ne suffit pas à expliquer la démence observée chez les patients puisqu'elles existent également chez des individus âgés sains. Dans le vieillissement normal, le nombre de DNF est extrêmement faible. Si la vaste majorité des humains après 55 ans ont certes quelques DNF, ou des neurones « en transition » vers une DNF dans la deuxième couche du cortex entorhinal fig. 1, ces individus sont a priori asymptomatiques, et ne souffrent d'aucune perte de mémoire manifeste. Cette observation contraste avec les analyses post mortem de patients atteints de la maladie d'Alzheimer : les DNF sont répandues dans tout le cortex associatif fig. 3.
Une relation trouble. Finalement, la relation entre la présence des DNF et la maladie reste assez obscure. Il n'existe ainsi aucun argument reliant la formation de DNF qui survient dans le vieillissement normal avec une dégénérescence ultérieure plus grave, comme la maladie d'Alzheimer. De plus, il est improbable que le déclin de la mémoire dans le vieillissement normal résulte de la présence minime de DNF dans le cortex entorhinal. Enfin, il faut remarquer que la démence dans la maladie d'Alzheimer va bien au-delà de la perte de mémoire. Sa sévérité est plutôt corrélée avec le nombre de DNF du cortex en général qu'avec ceux du cortex entorhinal ou l'hippocampe2.
Mais que se passe-t-il alors dans le vieillissement cérébral normal ?
Mort neuronale. L'idée d'une mort neuronale conséquence inévitable du vieillissement s'est répandue à partir des années 1950. Quelques articles démontrèrent une mort de neurones en l'absence de maladie neurodégénérative, chez l'être humain âgé, aussi bien que chez des primates non humains ou des rongeurs. Ces études présentaient des résultats disparates, mais leur ensemble suggérait que la plupart des aires du cortex et certaines parties de l'hippocampe perdaient de 25 % à 50 % de leurs neurones avec l'âge. A la fin des années 1980, la littérature fut analysé rigoureusement par Paul Coleman et Dorothy Flood de l'université de Rochester3. Leur conclusion confirma qu'il existe une perte importante de neurones avec l'âge. Cependant, dans certains cas, de l'avis même des auteurs, les données pouvaient être mises en doute à cause de différences entre espèces ou souches, traitement des tissus, ou méthode expérimentale. Dans toutes ces études passées, les chercheurs mesuraient la densité des neurones dans une structure donnée, et non pas leur nombre. Ces mesures de densité pouvaient être biaisées par des changements de la taille des neurones ou des structures étudiées, que ce soit à cause de la préparation du tissu pour l'observation, ou à cause du processus de vieillissement lui-même. Le développement de méthodes plus rigoureuses pour compter le nombre et non plus la densité des neurones, en particulier les techniques dites stéréologiques a infirmé cet ancien point de vue fig. 4. Ces nouvelles techniques reposent à la fois sur l'observation en volume de coupes plus épaisses et sur des techniques d'imagerie et de comptage informatique. Leur application à différentes espèces, y compris les humains, a mené à la conclusion que la chute du nombre de neurones n'est pas significative dans le vieillissement normal, au moins en ce qui concerne les deux structures cérébrales qui nous intéressent ici : le cortex entorhinal et l'hippocampe.
Etude fonctionnelle. Les travaux les plus intéressants pour le vieillissement sont ceux qui ont étudié une région cérébrale donnée, en association avec certaines fonctions. En particulier, P.R.. Rapp et M. Gallagher, à l'époque à l'université de Stony Brook à New York, ont analysé les données stéréologiques de l'hippocampe de rats âgés, et étudié simultanément leur comportement4. Ils ont montré que la mort neuronale n'est probablement pas la cause du déclin fonctionnel. Dans leur étude, ils n'observent pas de diminution du nombre de neurones dans les différents champs de l'hippocampe, chez le rat âgé en comparaison avec le rat jeune. Des résultats similaires ont été obtenus grâce à des modèles de vieillissement cognitif avec des primates non humains.
Chez les personnes âgées non démentes, il n'y a aucune perte neuronale dans le cortex entorhinal ou dans la partie CA1 de l'hippocampe, les deux régions les plus impliquées dans la fonction mnésique.
Il existe pourtant des baisses fonctionnelles claires, liées à des circuits identifiés. Un certain nombre de tâches comportementales spécifiques de la fonction hippocampique ont révélé un défaut mnésique associé avec l'âge à la fois chez les rongeurs et les singes. Il existe également des données très fortes en faveur de troubles similaires chez l'homme. Comment les expliquer alors ?
Au niveau psychologique déjà, il semblerait que les troubles mnésiques liés à l'âge chez l'être humain diffèrent de ceux observés dans les formes précoces de la maladie d'Alzheimer. Tandis que les malades ne peuvent retenir que très peu de nouvelles informations, les personnes agées saines peuvent le faire, même si cela leur est plus difficile et prend plus de temps que dans leur jeunesse.
Changements qualitatifs. Il existe en fait dans le vieillissement normal des changements neuroanatomiques autres que la mort cellulaire : des modifications de la quantité et de la qualité des connexions entre les neurones. Diverses hypothèses ont été envisagées. A. Peters et ses collègues de la faculté de médecine de Boston ont décrit des singes âgés sans perte neuronale dans le cortex préfrontal, mais avec des troubles cognitifs démontrables, ce qu'ils ont attribué à une rupture de l'enveloppe de myéline qui entoure les neurones, et favorise la transmission des informations. Les connexions de et vers le cortex préfrontal seraient intactes, mais atteintes fonctionnellement5. Quant à Y. Geinisman, de la faculté de médecine de Chicago, il a montré chez le rat une perte du nombre de synapses dans la zone terminale de la voie perforante, ce qui pourrait affecter la fonction de ce circuit, mais cela ne semble pas survenir chez le singe6. Par ailleurs, la forme des dendrites*, et la morphologie des synapses pourraient être transformées, à la fois chez le rongeur et l'homme7. Ces changements pourraient avoir un impact sur les circuits hippocampaux.
A un niveau encore plus fin, celui de la transmission synaptique, de nombreux aspects ne sont pas affectés, ou bien les troubles sont compensés, au cours du vieillissement dans l'hippocampe du rat, ainsi que le prouvent les études électrophysiologiques, comme celles de Carol Barnes au département de psychologie de l'université de l'Arizona8. Ce type d'étude permet de mesurer l'activité synaptique des réseaux des neurones. Une composante de la transmission synaptique apparaît cependant invariablement compromise dans le vieillissement, c'est la plasticité des synapses.
Qu'est-ce donc ? On considère en général aujourd'hui que l'expérience individuelle s'inscrit dans le cerveau au travers de modifications des connexions entre les neurones. Certaines deviennent plus importantes, d'autres moins, en fonction de l'activité, ininterrompue, du cerveau. La plasticité synaptique recoupe plusieurs types d'événements. Le plus étudié d'entre eux s'appelle potentialisation à long terme PLT ou LTP en anglais. C'est l'augmentation réversible de l'efficacité d'une connexion dans des conditions particulières.
Elle a été comparée par certains auteurs au conditionnement pavlovien, à un niveau cellulaire : si une cellule est active en même temps qu'une autre, leur connexion est « renforcée » voir l'encadré. La plupart des neurobiologistes admettent ainsi que de telles transformations permettent de stocker des souvenirs dans le cerveau, bien que ce ne soit pas absolument démontré. C'est dans l'hippocampe que la PLT a été mise en évidence pour la première fois. Or, la capacité à obtenir une PLT diminue avec l'âge. Ce cerait là le substrat biologique du vieillissement cognitif. Ces changements sont dépendants de certains récepteurs, appelés NMDA, acteurs essentiels de la PLT. Ces récepteurs sont des protéines, plus faciles à mesurer que ce phénomène assez fin qu'est la plasticité. C'est pourquoi ils sont utilisés comme marqueurs pour l'étudier. Nous avons montré récemment, chez le singe, que le nombre de ces récepteurs diminuait spécifiquement dans la voie perforante9 fig. 6.
Mémoire spatiale. A ce propos, les résultats les plus fascinants concernent une forme de mémoire spatiale chez le rat. Il existe chez cet animal, comme chez les primates d'ailleurs, des « cellules de localisation ». Ce sont des neurones de l'hippocampe qui enregistrent un environnement familier. Ils s'activent quand l'animal est dans un endroit particulier qu'il reconnaît. Plusieurs neurones de localisation associés peuvent former ensemble une sorte de carte, qui permettrait à l'animal de se repérer dans un endroit qu'il aurait déjà fréquenté fig. 5. Ce type de cartes est généralement interprété comme un substrat de la mémoire spatiale. La formation des cartes, c'est-à-dire le stockage de nouvelles informations dans les neurones de localisation, est un exemple typique de plasticité synaptique. De manière intéressante, les cellules de localisation fonctionnent normalement chez le rat âgé, tant que celui-ci reste dans son environnement familier. Mais s'il change d'environnement, le rat âgé est alors dans l'incapacité de recréer ou de retrouver une nouvelle carte. Le parallèle est frappant avec la désorientation spatiale que l'on observe chez de nombreuses personnes âgées, et qu'elles ressentent en « étant perdu ». Les auteurs de l'étude, Carol Barnes et ses collègues, supposent que le déficit est lié à la défaillance, due à l'âge, des mécanismes de la PLT10. Il s'agirait là donc d'un substrat cellulaire au vieillissement mnésique.
Les événements neurodégénératifs sous-tendant la maladie d'Alzheimer semblent donc bien distincts de ceux impliquant la perte de mémoire liée à l'âge. Il semble qu'il existe cependant un point commun très marquant aux deux phénomènes : le rôle des oestrogènes des hormones sexuelles. Bruce McEwen et ses collègues de l'université Rockefeller ont démontré que les oestrogènes induisent une augmentation de la densité des synapses dans les cellules de CA1, ce qui peut être associé à une PLT. Récemment, nous avons montré que lorsqu'on ôte à des rats femelles leurs ovaires producteurs d'oestrogènes, les quantités de récepteurs NMDA diminuent. Cela pourrait suggèrer une diminution corrélée de la PLT11.
D'un autre côté, des expérience cliniques récentes chez la femme ont démontré que les oestrogènes ont un effet protecteur sur le déclenchement de la maladie d'Alzheimer. In vitro , les oestrogènes peuvent protéger des neurones en culture contre une toxicité induite par l'amyloïde présente dans les DNF. Aussi, bien qu'il n'y ait pas de données directe indiquant si les oestrogènes empêchent ou non la mort neuronale, ces données suggèrent qu'ils protègent contre la neurodégénérescence.
Ménopause et neurones. Il semblerait donc que les oestrogènes soient un participant essentiel dans les processus qui mènent à une incapacité mnésique et cognitive, qu'ils soient neurodégénératifs ou non. Ce rôle est d'une importance évidente pour les femmes ménopausées. Les liens entre oestrogènes, récepteurs NMDA, circuits hippocampiques et mémoire représentent une zone particulièrement active de recherches en gérontologie, qui attire un nombre croissant d'équipes de recherches.
La sénescence reproductive ménopause pourrait ainsi avoir un impact aux multiples facettes sur la perte de mémoire et le déclin cognitif, au travers d'une baisse de la régulation de circuits hippocampiques intacts, comme au travers d'une baisse de la protection contre la neurodégéneration. Peut-être n'est-il pas surprenant que les oestrogènes, des molécules si cruciales pour l'espèce, au travers de la régulation du système reproductif féminin, jouent également un rôle dans la régulation de multiples processus neuronaux qui confèrent une valeur de survivance. L'importance de telles influences neuroendocrines sur le vieillissement pour les mâles reste à éclaircir.
1 T. Gómez-Isla et al., J. Neurosci., 16 , 4491, 1996.
2 L.M. Bierer et al., Arch. Neurol., 52, 81, 1995.
3 P.D. Coleman et D.G. Flood, Neurobiol. Aging, 8 , 521, 1987.
4 P.R. Rapp et M. Gallagher, Proc. Natl. Acad. Sci. USA, 93 , 9926, 1997.
5 A. Peters, J. Comp. Neurol., 371 , 153, 1996.
6 Y. Geinisman et al., Prog. Neurobiol., 45 , 223, 1995.
7 F.L.F. Chang et al., Neurobiol. Aging, 12 , 517, 1991.
8 C.A. Barnes, Trends Neurosci., 17 , 13, 1994.
9 A.H. Gazzaley et al., Proc. Natl. Acad. Sci. USA, 93 , 3121, 1996.
10 C.A. Barnes et al., Nature, 388 , 272, 1997.
11 A.H. Gazzaley et al., J. Neurosci., 16 , 6830, 1996.
NOTES
*UNE SYNAPSE correspond à l'interface entre un neurone et une autre cellule neurone, cellule musculaire.... C'est par elle qu'est transmise l'information.
*L'HIPPOCAMPE est une circonvolution de la face interne de cortex temporal. Il est notamment impliqué dans les mécanismes de mémorisation et dans les crises d'épilepsie.
*Dans le lobe temporal interne, LE CORTEX ENTORHINAL est situé entre l'hippocampe et la scissure rhinale. C'est une zone de convergence pour des informations venues d'autres parties du cortex, qui sont ensuite envoyées vers l'hippocampe.
*L'IRM ou imagerie par résonance magnétique est une des techniques les plus fines d'imagerie cérébrale in vivo .
*Prolongements du corps cellulaire, LES DENDRITES forment l'antenne réceptrice d'un neurone.
SQUELETTE CELLULAIRE ET ALZHEIMER
Le constituant majeur des dégénérescences neurofibrillaires DNF de la maladie d'Alzheimer est une protéine, appelée protéine tau. Normalement, c'est à dire de façon non pathologique, elle s'associe aux microtubules qui forment le squelette des cellules. Par ailleurs, les DNF surviennent principalement dans les neurones qui contiennent de grandes quantités de neurofilaments, un autre composant du cytosquelette fig. 1. Des altérations de ce dernier seraient-elles un attribut commun aux processus dégénératifs?
De nombreuses maladies neurodégénératives possèdent une caractéristique commune, la présence dans les cellules de sortes de petites lésions, appelés corps d'inclusion, constitués, au moins en partie, de protéines de neurofilaments. Par exemple, les corps de Lewy dans les neurones de la substance noire permettent un diagnostic de la maladie de Parkinson. Dans le cortex cérébral, ils sont associés à certaines formes de démence. Les corps de Pick dans le cortex cérébral sont la lésion neuropathologique qui permet de définir la maladie du même nom, et les cellules atteintes dans la sclérose latérale amyotrophique montrent des inclusions dans les muscles moteurs.
Des expériences semblent montrer un lien entre squelette cellulaire et maladie neurodégénrative. Ainsi, des souris transgéniques qui surexpriment certaines proteines normales des neurofilaments montrent des troubles des neurones moteurs similaires à la sclérose amyotropique. De plus, les souris transgéniques qui expriment une protéines humaine de neurofilament montrent des profils pathologiques multiples, ressemblant aux dégénérescences neurofibrillaires, ou aux corps de Pick...
L'implication des protéines des neurofilaments n'exclue pas un rôle tout aussi important du stress oxydatif, ou même d'autres mécanismes. En fait, ces derniers pouraient même augmenter la rupture de l'assemblage ou du transport des neurofilaments. Reste à savoir pourquoi ces protéines deviennent pathogènes.
LA POTENTIALISATION À LONG TERME
Le réseau des neurones du cerveau est en perpétuel changement. Parmi les divers phénomènes impliqués, la potentialisation à long terme PLT est sans doute le plus étudié. Découvert pour la première fois en 1966, dans l'hippocampe, c'est aujourd'hui encore dans cette structure que de nombreuses études s'attachent à en élucider les mécanismes.
Le principe général est le suivant. Un ensemble B de fibres nerveuses active un ou plusieurs autres neurones A dont on enregistre la réponse. Tant que la stimulation reste constante, la réponse l'est aussi. Cependant, si on intercale une série de stimulations à très haute fréquence appelé tetanus, la réponse augmente alors, et cela même après la reprise du rythme initial.
Dans le modèle classique, les fibres A libèrent une molécule excitatrice, le glutamate. Celui-ci se fixe sur des récepteurs à la surface de la cellule B et provoque la réponse que l'on enregistre. Le glutamate exerce son action par au moins deux catégories de récepteurs. Les premiers s'appellent AMPA, les seconds NMDA, du nom de composés qui servent à les identifier. Les premiers véhiculent la réponse. Les seconds forment des " détecteurs de coïncidence ". Ils ne s'activent que lorsque deux conditions sont remplies: quand les fibres A sont activées, et quand le neurone B l'est aussi ce qui est le cas lors d'un tetanus. C'est en quelque sorte un transistor biolo- gique. L'activation du récepteur NMDA déclenche toute une cascade de réactions biochimiques qui aboutissent in fine à l'augmentation prolon- gée de la réponse: la PLT.
Bien que l'on ait découvert de nombreux autres mécanismes qui puissent agir comme détecteur de coïncidence, le récepteur NMDA en reste l'archétype. A ce titre, sa présence est extrêmement surveillée dans les études sur la plasticité. Ainsi, des expériences de manipulation génétique des récepteurs NMDA ont mené à des troubles de la PLT et de l'apprentissage en l'absence de changements dégénératifs. Par ailleurs, une présence moindre des récepteurs NMDA, dans l'hippocampe, a été associée au vieillissement chez le singe.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
NOTRE CERVEAU ... |
|
|
|
|
|
Notre cerveau aurait une capacité de stockage proche de celle du Web !
Lise LouméPar Lise Loumé
Voir tous ses articles
Publié le 25-01-2016 à 17h45
Le cerveau humain aurait des capacités 10 fois supérieures à celles supposées par les scientifiques jusqu'à présent, révèlent des chercheurs américains.
Nos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk InstituteNos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk Institute
Notre cerveau est-il comparable à Internet ?
"La méditation déstructure et transforme le rapport au temps"
"Les Big data vont révolutionner nos vies, notre travail et notre pensée"
"Ce résultat a l'effet d'une véritable bombe dans le domaine des neurosciences", annonce fièrement dans un communiqué Terry Sejnowski, neuroscientifique du Salk Institute à La Jolla, en Californie (États-Unis). Avec son équipe, il a mesuré la capacité de stockage du cerveau, et surprise : celle-ci est 10 fois supérieure aux estimations précédentes ! "L'équivalent d'au moins 1 pétaoctet (10 puissance 15), soit une capacité de grandeur proche de celle du World Wide Web", résume-t-il (une estimation a minima basée sur l'étude d'une petite zone du cerveau qu'il faudrait toutefois réévaluer nettement pour qu'elle soit réellement comparable au Web : même si la capacité de stockage de ce dernier est impossible à estimer, les 4 géants que sont Google, Facebook, Amazon et Microsoft stockeraient à eux seuls 1.200 pétaoctets de données...). Cette étude lève également le voile sur un mystère du cerveau. "Nous avons découvert la clé permettant de comprendre comment les neurones de l'hippocampe fonctionnent à pleine puissance en utilisant peu d'énergie, mais à pleine puissance", se réjouit le chercheur du Salk Institute, dont les travaux sont publiés dans la revue eLife. Explications.
Grâce à l'analyse de tissus cérébraux de rats, l'équipe de recherche a reproduit en 3D une petite partie de l'hippocampe, région jouant un rôle fondamental dans la mémoire. Une infime partie même, puisque la zone reconstituée fait à peine la taille d'un globule rouge, soit quelques micromètres. Toutefois, reconstituer l'ensemble des neurones, synapses (voir encadré ci-dessous) et cellules gliales (jouant un rôle de soutien et de protection du tissu nerveux) de cette zone s'est avéré laborieux. "Nous avons été quelque peu déconcertés par la complexité et la diversité des synapses", commente Kristen Harris, qui a pris part à ces travaux.
SYNAPSES. Nos pensées et nos souvenirs sont gérés par l’activité chimique et électrique de notre cerveau. Ces activités résident principalement dans les connexions entre les neurones : les synapses. Chaque neurone peut avoir des milliers de synapses, le connectant à de milliers d'autres cellules.
Cette reconstitution 3D (à découvrir dans la vidéo ci-dessous) a permis aux chercheurs de remarquer une activité inhabituelle pour 10 % des connexions synaptiques : un seul axone ("tête" du neurone) formé de deux synapses touche un seul dendrite ("queue" du neurone) d'un deuxième neurone, et non deux dendrites, ce qui signifie qu'un neurone envoie un double message à un deuxième neurone. Afin de mesurer la différence de taille entre cette paire de synapses utilisées par le neurone pour envoyer son double message, les chercheurs ont poussé la reconstitution des connectivités neuronales à un niveau nanomoléculaire, à l'aide d'une microscopie de pointe et d'algorithmes de calculs poussés. Et là, surprise : alors que les synapses sont habituellement classées en 3 catégories (petites, moyennes et grandes), les chercheurs ont découvert des tailles intermédiaires. "Nous avons été surpris de constater que la différence dans les tailles des paires de synapses étaient très petites, environ 8 % de différence de taille seulement", explique Tom Bartol, co-auteur de l'étude. "Personne n'imaginait une si petite différence." En fait, il n'existe pas 3 catégories de synapses, mais 26 selon ces travaux !
Un grand stockage en consommant peu d'énergie
L'intérêt de cette découverte est qu'elle permet de mesurer le nombre d'informations pouvant être stockées dans les connexions synaptiques. "En langage informatique, 26 tailles de synapses correspondent à 4,7 bits d'information, précise Tom Bartol. Or, auparavant, nous pensions que le cerveau n’était capable que de stocker l’équivalent d'un ou deux bits de mémoire de courte et longue durée dans l'hippocampe." De plus, un cerveau adulte génère une puissance continue d'environ 20 watts (l’équivalent d’une ampoule basse consommation), ce qui signifie qu’il peut stocker des informations précises avec peu d’énergie.
Enfin, les calculs des chercheurs suggèrent que les synapses changent de taille et de capacité en fonction des transmissions neuronales. La réception de 1.500 transmissions réduit la taille des synapses, ce qui prend une vingtaine de minutes, tandis que quelques centaines ont tendance à les agrandir, ce qui prend une à deux minutes. "Cela signifie que toutes les 2 à 20 minutes, vos synapses grandissent ou rétrécissent. Elles s'adaptent en fonction des signaux reçus", résume Tom Bartol. Pour les chercheurs, leurs travaux pourront contribuer à développer des ordinateurs plus efficaces et peu énergivores. "Derrière le chaos apparent du cerveau, il y a une véritable précision quant à la taille et la forme des synapses qui nous avait toujours échappé", conclut Terry Sejnowski.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|