|
|
|
|
 |
|
VIE ET MORT DES NEURONES ... |
|
|
|
|
|
Vie et mort des neurones dans le cerveau vieillissant
mensuel 322
Deux idées fausses sont répandues. Tout d'abord, notre cerveau perdrait un nombre important de neurones au cours du vieillissement normal. Ensuite, cela expliquerait les troubles de la mémoire qui apparaissent avec l'âge. Or une mort cellulaire étendue ne survient que dans les démences neurodégénératives, comme la maladie d'Alzheimer. Dans le vieillissement normal, il s'agit plutôt alors d'un changement des propriétés des neurones.
Certainesmaladies neurodégénératives maladies d'Alzheimer ou de Parkinson, par exemple sont souvent associées au vieillissement. Il s'agit pourtant de phénomènes bien distincts, comme nous allons le voir. La mort cellulaire est le propre des pathologies neurodégénératives : certains circuits nerveux majeurs sont interrompus par la mort de neurones et la perte de synapses*, en général de manière sélective. Ainsi, la maladie de Parkinson est-elle caractérisée par la dégénérescence quasi totale d'une structure appelée " substance noire ". Quant à la maladie d'Alzheimer, le tableau clinique est hétérogène. En ce qui concerne le cortex, on distingue des zones primaires, qui traitent l'information sur un mode unique visuel, auditif, moteur... et des zones associatives, qui comme leur nom l'indique, traitent l'information de manière intégrée, plus complexe, et sont impliquées dans les fonctions dites supérieures comme le langage, la reconnaissance des visages, etc. Les premières ne souffrent que de pertes minimales, mais les dégâts sont importants dans les secondes. Le circuit le plus vulnérable est la connexion entre deux structures essentielles à la mémoire : le cortex entorhinal* et l'hippocampe*. Elle est appelée « voie perforante ».
Anatomie. Le cortex entorhinal CE est une région d'extraordinaire convergence, réunissant des informations en provenance de tout le cortex associatif, une sorte d'entonnoir dans lequel passent des données déjà traitées ailleurs dans le cerveau, avant d'aller rejoindre l'hippocampe. Ce dernier, quant à lui, joue un rôle primordial dans les processus de mémorisation. Les deux struc-tures cérébrales sont contiguës. Et si l'ensemble occupe dans l'espace une forme compliquée, le trajet de l'information est linéaire, en première approximation : du cortex entorhinal, l'information pénètre dans l'hippocampe via la voie perforante, jusqu'à une zone appelée gyrus denté. De là, elle repart vers une autre zone de l'hippocampe, CA3 CA pour corne d'Ammon puis vers une troisième, appelée CA1 fig. 2.
Les neurones de la voie perforante forment un ensemble particulier. Ils se situent pour la plupart dans la deuxième des six couches du cortex. Chez les sujets souffrant de la maladie d'Alzheimer, même très légèrement, on observe une perte assez étendue de neurones dans cette couche du cortex entorhinal, pouvant atteindre 50 %. Cette perte est parfois directement observable par imagerie IRM*, par exemple. Dans les cas sévères de la maladie d'Alzheimer, 90 % de ces neurones disparaissent. La destruction de la voie perforante peut alors mener à une interruption globale des connexions entre les zones associatives du cortex et de l'hippocampe, ce qui pourrait expliquer au moins une partie des troubles mnésiques liés à la maladie. Cette mort neuronale est sélective. D'autres parties de l'hippocampe, tels le gyrus denté ou de la région CA3, sont très résistantes à la dégénérescence chez le malade1.
Deux signes neuropathologiques s'ajoutent à la dégénérescence dans la maladie d'Alzheimer. On observe tout d'abord dans les tissus atteints la présence de plaques séniles : des structures sphériques microscopiques formées d'un coeur de protéines insolubles, et entourées de prolongements nerveux anormaux. Elles sont composées, en partie, de la protéine b-amyloïde. Les dégénérescences neurofibrillaires DNF constituent le deuxième signe. Celles-ci se situent à l'intérieur des cellules. Ce sont également des accumulations de protéines anormales, cette fois en rubans ou en faisceaux. Plaques séniles et dégénérescences neurofibrillaires sont considérées comme le reflet de la progression de la maladie et signalent une perturbation des circuits cérébraux. Elles conditionnent le diagnostic de la maladie. Cependant, leur seule présence ne suffit pas à expliquer la démence observée chez les patients puisqu'elles existent également chez des individus âgés sains. Dans le vieillissement normal, le nombre de DNF est extrêmement faible. Si la vaste majorité des humains après 55 ans ont certes quelques DNF, ou des neurones « en transition » vers une DNF dans la deuxième couche du cortex entorhinal fig. 1, ces individus sont a priori asymptomatiques, et ne souffrent d'aucune perte de mémoire manifeste. Cette observation contraste avec les analyses post mortem de patients atteints de la maladie d'Alzheimer : les DNF sont répandues dans tout le cortex associatif fig. 3.
Une relation trouble. Finalement, la relation entre la présence des DNF et la maladie reste assez obscure. Il n'existe ainsi aucun argument reliant la formation de DNF qui survient dans le vieillissement normal avec une dégénérescence ultérieure plus grave, comme la maladie d'Alzheimer. De plus, il est improbable que le déclin de la mémoire dans le vieillissement normal résulte de la présence minime de DNF dans le cortex entorhinal. Enfin, il faut remarquer que la démence dans la maladie d'Alzheimer va bien au-delà de la perte de mémoire. Sa sévérité est plutôt corrélée avec le nombre de DNF du cortex en général qu'avec ceux du cortex entorhinal ou l'hippocampe2.
Mais que se passe-t-il alors dans le vieillissement cérébral normal ?
Mort neuronale. L'idée d'une mort neuronale conséquence inévitable du vieillissement s'est répandue à partir des années 1950. Quelques articles démontrèrent une mort de neurones en l'absence de maladie neurodégénérative, chez l'être humain âgé, aussi bien que chez des primates non humains ou des rongeurs. Ces études présentaient des résultats disparates, mais leur ensemble suggérait que la plupart des aires du cortex et certaines parties de l'hippocampe perdaient de 25 % à 50 % de leurs neurones avec l'âge. A la fin des années 1980, la littérature fut analysé rigoureusement par Paul Coleman et Dorothy Flood de l'université de Rochester3. Leur conclusion confirma qu'il existe une perte importante de neurones avec l'âge. Cependant, dans certains cas, de l'avis même des auteurs, les données pouvaient être mises en doute à cause de différences entre espèces ou souches, traitement des tissus, ou méthode expérimentale. Dans toutes ces études passées, les chercheurs mesuraient la densité des neurones dans une structure donnée, et non pas leur nombre. Ces mesures de densité pouvaient être biaisées par des changements de la taille des neurones ou des structures étudiées, que ce soit à cause de la préparation du tissu pour l'observation, ou à cause du processus de vieillissement lui-même. Le développement de méthodes plus rigoureuses pour compter le nombre et non plus la densité des neurones, en particulier les techniques dites stéréologiques a infirmé cet ancien point de vue fig. 4. Ces nouvelles techniques reposent à la fois sur l'observation en volume de coupes plus épaisses et sur des techniques d'imagerie et de comptage informatique. Leur application à différentes espèces, y compris les humains, a mené à la conclusion que la chute du nombre de neurones n'est pas significative dans le vieillissement normal, au moins en ce qui concerne les deux structures cérébrales qui nous intéressent ici : le cortex entorhinal et l'hippocampe.
Etude fonctionnelle. Les travaux les plus intéressants pour le vieillissement sont ceux qui ont étudié une région cérébrale donnée, en association avec certaines fonctions. En particulier, P.R.. Rapp et M. Gallagher, à l'époque à l'université de Stony Brook à New York, ont analysé les données stéréologiques de l'hippocampe de rats âgés, et étudié simultanément leur comportement4. Ils ont montré que la mort neuronale n'est probablement pas la cause du déclin fonctionnel. Dans leur étude, ils n'observent pas de diminution du nombre de neurones dans les différents champs de l'hippocampe, chez le rat âgé en comparaison avec le rat jeune. Des résultats similaires ont été obtenus grâce à des modèles de vieillissement cognitif avec des primates non humains.
Chez les personnes âgées non démentes, il n'y a aucune perte neuronale dans le cortex entorhinal ou dans la partie CA1 de l'hippocampe, les deux régions les plus impliquées dans la fonction mnésique.
Il existe pourtant des baisses fonctionnelles claires, liées à des circuits identifiés. Un certain nombre de tâches comportementales spécifiques de la fonction hippocampique ont révélé un défaut mnésique associé avec l'âge à la fois chez les rongeurs et les singes. Il existe également des données très fortes en faveur de troubles similaires chez l'homme. Comment les expliquer alors ?
Au niveau psychologique déjà, il semblerait que les troubles mnésiques liés à l'âge chez l'être humain diffèrent de ceux observés dans les formes précoces de la maladie d'Alzheimer. Tandis que les malades ne peuvent retenir que très peu de nouvelles informations, les personnes agées saines peuvent le faire, même si cela leur est plus difficile et prend plus de temps que dans leur jeunesse.
Changements qualitatifs. Il existe en fait dans le vieillissement normal des changements neuroanatomiques autres que la mort cellulaire : des modifications de la quantité et de la qualité des connexions entre les neurones. Diverses hypothèses ont été envisagées. A. Peters et ses collègues de la faculté de médecine de Boston ont décrit des singes âgés sans perte neuronale dans le cortex préfrontal, mais avec des troubles cognitifs démontrables, ce qu'ils ont attribué à une rupture de l'enveloppe de myéline qui entoure les neurones, et favorise la transmission des informations. Les connexions de et vers le cortex préfrontal seraient intactes, mais atteintes fonctionnellement5. Quant à Y. Geinisman, de la faculté de médecine de Chicago, il a montré chez le rat une perte du nombre de synapses dans la zone terminale de la voie perforante, ce qui pourrait affecter la fonction de ce circuit, mais cela ne semble pas survenir chez le singe6. Par ailleurs, la forme des dendrites*, et la morphologie des synapses pourraient être transformées, à la fois chez le rongeur et l'homme7. Ces changements pourraient avoir un impact sur les circuits hippocampaux.
A un niveau encore plus fin, celui de la transmission synaptique, de nombreux aspects ne sont pas affectés, ou bien les troubles sont compensés, au cours du vieillissement dans l'hippocampe du rat, ainsi que le prouvent les études électrophysiologiques, comme celles de Carol Barnes au département de psychologie de l'université de l'Arizona8. Ce type d'étude permet de mesurer l'activité synaptique des réseaux des neurones. Une composante de la transmission synaptique apparaît cependant invariablement compromise dans le vieillissement, c'est la plasticité des synapses.
Qu'est-ce donc ? On considère en général aujourd'hui que l'expérience individuelle s'inscrit dans le cerveau au travers de modifications des connexions entre les neurones. Certaines deviennent plus importantes, d'autres moins, en fonction de l'activité, ininterrompue, du cerveau. La plasticité synaptique recoupe plusieurs types d'événements. Le plus étudié d'entre eux s'appelle potentialisation à long terme PLT ou LTP en anglais. C'est l'augmentation réversible de l'efficacité d'une connexion dans des conditions particulières.
Elle a été comparée par certains auteurs au conditionnement pavlovien, à un niveau cellulaire : si une cellule est active en même temps qu'une autre, leur connexion est « renforcée » voir l'encadré. La plupart des neurobiologistes admettent ainsi que de telles transformations permettent de stocker des souvenirs dans le cerveau, bien que ce ne soit pas absolument démontré. C'est dans l'hippocampe que la PLT a été mise en évidence pour la première fois. Or, la capacité à obtenir une PLT diminue avec l'âge. Ce cerait là le substrat biologique du vieillissement cognitif. Ces changements sont dépendants de certains récepteurs, appelés NMDA, acteurs essentiels de la PLT. Ces récepteurs sont des protéines, plus faciles à mesurer que ce phénomène assez fin qu'est la plasticité. C'est pourquoi ils sont utilisés comme marqueurs pour l'étudier. Nous avons montré récemment, chez le singe, que le nombre de ces récepteurs diminuait spécifiquement dans la voie perforante9 fig. 6.
Mémoire spatiale. A ce propos, les résultats les plus fascinants concernent une forme de mémoire spatiale chez le rat. Il existe chez cet animal, comme chez les primates d'ailleurs, des « cellules de localisation ». Ce sont des neurones de l'hippocampe qui enregistrent un environnement familier. Ils s'activent quand l'animal est dans un endroit particulier qu'il reconnaît. Plusieurs neurones de localisation associés peuvent former ensemble une sorte de carte, qui permettrait à l'animal de se repérer dans un endroit qu'il aurait déjà fréquenté fig. 5. Ce type de cartes est généralement interprété comme un substrat de la mémoire spatiale. La formation des cartes, c'est-à-dire le stockage de nouvelles informations dans les neurones de localisation, est un exemple typique de plasticité synaptique. De manière intéressante, les cellules de localisation fonctionnent normalement chez le rat âgé, tant que celui-ci reste dans son environnement familier. Mais s'il change d'environnement, le rat âgé est alors dans l'incapacité de recréer ou de retrouver une nouvelle carte. Le parallèle est frappant avec la désorientation spatiale que l'on observe chez de nombreuses personnes âgées, et qu'elles ressentent en « étant perdu ». Les auteurs de l'étude, Carol Barnes et ses collègues, supposent que le déficit est lié à la défaillance, due à l'âge, des mécanismes de la PLT10. Il s'agirait là donc d'un substrat cellulaire au vieillissement mnésique.
Les événements neurodégénératifs sous-tendant la maladie d'Alzheimer semblent donc bien distincts de ceux impliquant la perte de mémoire liée à l'âge. Il semble qu'il existe cependant un point commun très marquant aux deux phénomènes : le rôle des oestrogènes des hormones sexuelles. Bruce McEwen et ses collègues de l'université Rockefeller ont démontré que les oestrogènes induisent une augmentation de la densité des synapses dans les cellules de CA1, ce qui peut être associé à une PLT. Récemment, nous avons montré que lorsqu'on ôte à des rats femelles leurs ovaires producteurs d'oestrogènes, les quantités de récepteurs NMDA diminuent. Cela pourrait suggèrer une diminution corrélée de la PLT11.
D'un autre côté, des expérience cliniques récentes chez la femme ont démontré que les oestrogènes ont un effet protecteur sur le déclenchement de la maladie d'Alzheimer. In vitro , les oestrogènes peuvent protéger des neurones en culture contre une toxicité induite par l'amyloïde présente dans les DNF. Aussi, bien qu'il n'y ait pas de données directe indiquant si les oestrogènes empêchent ou non la mort neuronale, ces données suggèrent qu'ils protègent contre la neurodégénérescence.
Ménopause et neurones. Il semblerait donc que les oestrogènes soient un participant essentiel dans les processus qui mènent à une incapacité mnésique et cognitive, qu'ils soient neurodégénératifs ou non. Ce rôle est d'une importance évidente pour les femmes ménopausées. Les liens entre oestrogènes, récepteurs NMDA, circuits hippocampiques et mémoire représentent une zone particulièrement active de recherches en gérontologie, qui attire un nombre croissant d'équipes de recherches.
La sénescence reproductive ménopause pourrait ainsi avoir un impact aux multiples facettes sur la perte de mémoire et le déclin cognitif, au travers d'une baisse de la régulation de circuits hippocampiques intacts, comme au travers d'une baisse de la protection contre la neurodégéneration. Peut-être n'est-il pas surprenant que les oestrogènes, des molécules si cruciales pour l'espèce, au travers de la régulation du système reproductif féminin, jouent également un rôle dans la régulation de multiples processus neuronaux qui confèrent une valeur de survivance. L'importance de telles influences neuroendocrines sur le vieillissement pour les mâles reste à éclaircir.
1 T. Gómez-Isla et al., J. Neurosci., 16 , 4491, 1996.
2 L.M. Bierer et al., Arch. Neurol., 52, 81, 1995.
3 P.D. Coleman et D.G. Flood, Neurobiol. Aging, 8 , 521, 1987.
4 P.R. Rapp et M. Gallagher, Proc. Natl. Acad. Sci. USA, 93 , 9926, 1997.
5 A. Peters, J. Comp. Neurol., 371 , 153, 1996.
6 Y. Geinisman et al., Prog. Neurobiol., 45 , 223, 1995.
7 F.L.F. Chang et al., Neurobiol. Aging, 12 , 517, 1991.
8 C.A. Barnes, Trends Neurosci., 17 , 13, 1994.
9 A.H. Gazzaley et al., Proc. Natl. Acad. Sci. USA, 93 , 3121, 1996.
10 C.A. Barnes et al., Nature, 388 , 272, 1997.
11 A.H. Gazzaley et al., J. Neurosci., 16 , 6830, 1996.
NOTES
*UNE SYNAPSE correspond à l'interface entre un neurone et une autre cellule neurone, cellule musculaire.... C'est par elle qu'est transmise l'information.
*L'HIPPOCAMPE est une circonvolution de la face interne de cortex temporal. Il est notamment impliqué dans les mécanismes de mémorisation et dans les crises d'épilepsie.
*Dans le lobe temporal interne, LE CORTEX ENTORHINAL est situé entre l'hippocampe et la scissure rhinale. C'est une zone de convergence pour des informations venues d'autres parties du cortex, qui sont ensuite envoyées vers l'hippocampe.
*L'IRM ou imagerie par résonance magnétique est une des techniques les plus fines d'imagerie cérébrale in vivo .
*Prolongements du corps cellulaire, LES DENDRITES forment l'antenne réceptrice d'un neurone.
SQUELETTE CELLULAIRE ET ALZHEIMER
Le constituant majeur des dégénérescences neurofibrillaires DNF de la maladie d'Alzheimer est une protéine, appelée protéine tau. Normalement, c'est à dire de façon non pathologique, elle s'associe aux microtubules qui forment le squelette des cellules. Par ailleurs, les DNF surviennent principalement dans les neurones qui contiennent de grandes quantités de neurofilaments, un autre composant du cytosquelette fig. 1. Des altérations de ce dernier seraient-elles un attribut commun aux processus dégénératifs?
De nombreuses maladies neurodégénératives possèdent une caractéristique commune, la présence dans les cellules de sortes de petites lésions, appelés corps d'inclusion, constitués, au moins en partie, de protéines de neurofilaments. Par exemple, les corps de Lewy dans les neurones de la substance noire permettent un diagnostic de la maladie de Parkinson. Dans le cortex cérébral, ils sont associés à certaines formes de démence. Les corps de Pick dans le cortex cérébral sont la lésion neuropathologique qui permet de définir la maladie du même nom, et les cellules atteintes dans la sclérose latérale amyotrophique montrent des inclusions dans les muscles moteurs.
Des expériences semblent montrer un lien entre squelette cellulaire et maladie neurodégénrative. Ainsi, des souris transgéniques qui surexpriment certaines proteines normales des neurofilaments montrent des troubles des neurones moteurs similaires à la sclérose amyotropique. De plus, les souris transgéniques qui expriment une protéines humaine de neurofilament montrent des profils pathologiques multiples, ressemblant aux dégénérescences neurofibrillaires, ou aux corps de Pick...
L'implication des protéines des neurofilaments n'exclue pas un rôle tout aussi important du stress oxydatif, ou même d'autres mécanismes. En fait, ces derniers pouraient même augmenter la rupture de l'assemblage ou du transport des neurofilaments. Reste à savoir pourquoi ces protéines deviennent pathogènes.
LA POTENTIALISATION À LONG TERME
Le réseau des neurones du cerveau est en perpétuel changement. Parmi les divers phénomènes impliqués, la potentialisation à long terme PLT est sans doute le plus étudié. Découvert pour la première fois en 1966, dans l'hippocampe, c'est aujourd'hui encore dans cette structure que de nombreuses études s'attachent à en élucider les mécanismes.
Le principe général est le suivant. Un ensemble B de fibres nerveuses active un ou plusieurs autres neurones A dont on enregistre la réponse. Tant que la stimulation reste constante, la réponse l'est aussi. Cependant, si on intercale une série de stimulations à très haute fréquence appelé tetanus, la réponse augmente alors, et cela même après la reprise du rythme initial.
Dans le modèle classique, les fibres A libèrent une molécule excitatrice, le glutamate. Celui-ci se fixe sur des récepteurs à la surface de la cellule B et provoque la réponse que l'on enregistre. Le glutamate exerce son action par au moins deux catégories de récepteurs. Les premiers s'appellent AMPA, les seconds NMDA, du nom de composés qui servent à les identifier. Les premiers véhiculent la réponse. Les seconds forment des " détecteurs de coïncidence ". Ils ne s'activent que lorsque deux conditions sont remplies: quand les fibres A sont activées, et quand le neurone B l'est aussi ce qui est le cas lors d'un tetanus. C'est en quelque sorte un transistor biolo- gique. L'activation du récepteur NMDA déclenche toute une cascade de réactions biochimiques qui aboutissent in fine à l'augmentation prolon- gée de la réponse: la PLT.
Bien que l'on ait découvert de nombreux autres mécanismes qui puissent agir comme détecteur de coïncidence, le récepteur NMDA en reste l'archétype. A ce titre, sa présence est extrêmement surveillée dans les études sur la plasticité. Ainsi, des expériences de manipulation génétique des récepteurs NMDA ont mené à des troubles de la PLT et de l'apprentissage en l'absence de changements dégénératifs. Par ailleurs, une présence moindre des récepteurs NMDA, dans l'hippocampe, a été associée au vieillissement chez le singe.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
NOTRE CERVEAU ... |
|
|
|
|
|
Notre cerveau aurait une capacité de stockage proche de celle du Web !
Lise LouméPar Lise Loumé
Voir tous ses articles
Publié le 25-01-2016 à 17h45
Le cerveau humain aurait des capacités 10 fois supérieures à celles supposées par les scientifiques jusqu'à présent, révèlent des chercheurs américains.
Nos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk InstituteNos souvenirs et nos pensées dépendent de l’activité chimique et électrique de notre cerveau. © Salk Institute
Notre cerveau est-il comparable à Internet ?
"La méditation déstructure et transforme le rapport au temps"
"Les Big data vont révolutionner nos vies, notre travail et notre pensée"
"Ce résultat a l'effet d'une véritable bombe dans le domaine des neurosciences", annonce fièrement dans un communiqué Terry Sejnowski, neuroscientifique du Salk Institute à La Jolla, en Californie (États-Unis). Avec son équipe, il a mesuré la capacité de stockage du cerveau, et surprise : celle-ci est 10 fois supérieure aux estimations précédentes ! "L'équivalent d'au moins 1 pétaoctet (10 puissance 15), soit une capacité de grandeur proche de celle du World Wide Web", résume-t-il (une estimation a minima basée sur l'étude d'une petite zone du cerveau qu'il faudrait toutefois réévaluer nettement pour qu'elle soit réellement comparable au Web : même si la capacité de stockage de ce dernier est impossible à estimer, les 4 géants que sont Google, Facebook, Amazon et Microsoft stockeraient à eux seuls 1.200 pétaoctets de données...). Cette étude lève également le voile sur un mystère du cerveau. "Nous avons découvert la clé permettant de comprendre comment les neurones de l'hippocampe fonctionnent à pleine puissance en utilisant peu d'énergie, mais à pleine puissance", se réjouit le chercheur du Salk Institute, dont les travaux sont publiés dans la revue eLife. Explications.
Grâce à l'analyse de tissus cérébraux de rats, l'équipe de recherche a reproduit en 3D une petite partie de l'hippocampe, région jouant un rôle fondamental dans la mémoire. Une infime partie même, puisque la zone reconstituée fait à peine la taille d'un globule rouge, soit quelques micromètres. Toutefois, reconstituer l'ensemble des neurones, synapses (voir encadré ci-dessous) et cellules gliales (jouant un rôle de soutien et de protection du tissu nerveux) de cette zone s'est avéré laborieux. "Nous avons été quelque peu déconcertés par la complexité et la diversité des synapses", commente Kristen Harris, qui a pris part à ces travaux.
SYNAPSES. Nos pensées et nos souvenirs sont gérés par l’activité chimique et électrique de notre cerveau. Ces activités résident principalement dans les connexions entre les neurones : les synapses. Chaque neurone peut avoir des milliers de synapses, le connectant à de milliers d'autres cellules.
Cette reconstitution 3D (à découvrir dans la vidéo ci-dessous) a permis aux chercheurs de remarquer une activité inhabituelle pour 10 % des connexions synaptiques : un seul axone ("tête" du neurone) formé de deux synapses touche un seul dendrite ("queue" du neurone) d'un deuxième neurone, et non deux dendrites, ce qui signifie qu'un neurone envoie un double message à un deuxième neurone. Afin de mesurer la différence de taille entre cette paire de synapses utilisées par le neurone pour envoyer son double message, les chercheurs ont poussé la reconstitution des connectivités neuronales à un niveau nanomoléculaire, à l'aide d'une microscopie de pointe et d'algorithmes de calculs poussés. Et là, surprise : alors que les synapses sont habituellement classées en 3 catégories (petites, moyennes et grandes), les chercheurs ont découvert des tailles intermédiaires. "Nous avons été surpris de constater que la différence dans les tailles des paires de synapses étaient très petites, environ 8 % de différence de taille seulement", explique Tom Bartol, co-auteur de l'étude. "Personne n'imaginait une si petite différence." En fait, il n'existe pas 3 catégories de synapses, mais 26 selon ces travaux !
Un grand stockage en consommant peu d'énergie
L'intérêt de cette découverte est qu'elle permet de mesurer le nombre d'informations pouvant être stockées dans les connexions synaptiques. "En langage informatique, 26 tailles de synapses correspondent à 4,7 bits d'information, précise Tom Bartol. Or, auparavant, nous pensions que le cerveau n’était capable que de stocker l’équivalent d'un ou deux bits de mémoire de courte et longue durée dans l'hippocampe." De plus, un cerveau adulte génère une puissance continue d'environ 20 watts (l’équivalent d’une ampoule basse consommation), ce qui signifie qu’il peut stocker des informations précises avec peu d’énergie.
Enfin, les calculs des chercheurs suggèrent que les synapses changent de taille et de capacité en fonction des transmissions neuronales. La réception de 1.500 transmissions réduit la taille des synapses, ce qui prend une vingtaine de minutes, tandis que quelques centaines ont tendance à les agrandir, ce qui prend une à deux minutes. "Cela signifie que toutes les 2 à 20 minutes, vos synapses grandissent ou rétrécissent. Elles s'adaptent en fonction des signaux reçus", résume Tom Bartol. Pour les chercheurs, leurs travaux pourront contribuer à développer des ordinateurs plus efficaces et peu énergivores. "Derrière le chaos apparent du cerveau, il y a une véritable précision quant à la taille et la forme des synapses qui nous avait toujours échappé", conclut Terry Sejnowski.
DOCUMENT sciencesetavenir.fr LIEN |
|
|
|
|
 |
|
LE CHROMOSOME X MAÃŽTRE DU SILENCE ... |
|
|
|
|
|
Le chromosome X maître du silence
dossier - par Sandrine Augui ,Edith Heard ,Cécile Klingler dans mensuel n°385 daté avril 2005 à la page 34 (3487 mots)
Pour les cellules des mammifères femelles, X + X = X. Le fait est surprenant : sur les deux chromosomes X que renferment ces cellules, un seul est actif. L'autre est réduit au silence. Un phénomène emblématique d'un pan méconnu de la régulation de l'expression des gènes : l'épigénétique.
Deux X pour les femelles, un seul pour les mâles : la balance est inégale. Certes, les mâles possèdent un chromosome Y. Mais il ne porte que très peu de gènes, alors que l'X en contient environ 1 500. Qui plus est, les gènes du chromosome Y sont essentiellement impliqués dans un même phénomène, la différenciation des voies sexuelles mâles, alors que ceux du X interviennent dans des processus très divers. Si les deux chromosomes X des cellules femelles s'exprimaient, il y aurait deux fois plus de produits géniques - ARN et protéines - dans les cellules femelles que dans les cellules mâles. Avec de graves conséquences en perspective. En effet, la cellule constitue un environnement très équilibré, qui supporte mal les variations au niveau de la quantité de ses constituants. Preuve en est, par exemple, l'effet d'un chromosome surnuméraire on parle de trisomie : lorsqu'il n'est pas létal, ce surnombre est à l'origine de nombreuses malformations.
Chez les mammifères, ce déséquilibre est compensé dès le tout début du développement de l'embryon femelle par l'inactivation d'un des deux chromosomes X. Autrement dit, la quasi-totalité des gènes portés par ce chromosome est éteinte. Quant à ceux qui sont exprimés, environ une centaine, ils possèdent pour la plupart un homologue sur le chromosome Y. Leurs produits sont donc présents en quantité égale chez les mâles et les femelles. L'inactivation du chromosome X représente le seul exemple connu d'extinction génique à l'échelle de presque tout un chromosome. Par son ampleur, c'est l'un des cas les plus frappants de régulation des gènes au cours du développement. Son étude a du reste ouvert tout un champ de recherches dans ce domaine. Un champ où l'ADN, pour une fois, n'est pas au coeur des débats !
Corpuscule compact
Ce champ, c'est celui des mécanismes moléculaires dits « épigénétiques ». Ce terme, introduit par Conrad Waddington dans les années quarante, fait de nos jours référence aux informations qui sont transmises au cours des divisions cellulaires, alors même qu'elles n'impliquent pas de modifications de la séquence d'ADN. C'est précisément le cas de l'inactivation de l'X, qui est établie puis maintenue au cours de la vie de la cellule, et transmise aux générations cellulaires suivantes, sans que la séquence d'ADN de l'X cible soit en aucune façon modifiée.
Historiquement, l'idée de l'inactivation est née de la conjonction de plusieurs résultats. En 1949, l'existence d'un corpuscule sombre et caractéristique dans les cellules femelles de mammifères est mise en évidence par les Canadiens Murray Barr et Ewart Bertram. Dix ans plus tard, le Japonais Susumo Ohno réalise que ce corpuscule, appelé corpuscule de Barr, est l'un des deux chromosomes X de la femelle, sous forme compactée. Au même moment, on découvre que des souris femelles porteuses d'un seul chromosome X, au lieu des deux habituels, sont des femelles viables et fertiles. Cela suggère qu'un seul chromosome X actif suffit au développement d'une femelle normale, contrairement aux chromosomes non sexuels les autosomes, pour lesquels la perte d'un exemplaire est létale. Les premières preuves génétiques arrivent ensuite. L'étude de souris présentant des mutations sur des gènes du chromosome X qui régissent la couleur ou la texture du pelage fournit des résultats étonnants. Tandis que les mâles porteurs de ces mutations ont un pelage uniformément modifié de type mutant, les femelles porteuses des mêmes mutations présentent un pelage mosaïque composé de zones d'apparence normale type sauvage et de zones d'apparence modifiée type mutant.
Mosaïque cellulaire
L'ensemble de ces observations permit en 1961 à Mary Lyon, du Medical Research Council d'Oxford, en Grande-Bretagne, d'émettre l'hypothèse de l'inactivation du chromosome X [1]. Selon cette hypothèse, l'un des deux chromosomes X serait génétiquement inactivé durant l'embryogenèse, et se condenserait pour former le corpuscule de Barr. Le chromosome inactivé étant choisi au hasard, l'embryon se trouve composé de deux populations de cellules, ayant chacune un chromosome X inactivé différent. C'est ce que l'on appelle le mosaïcisme. L'hétérogénéité du pelage des animaux qui possèdent des mutations sur le chromosome X s'expliquerait donc par l'existence de zones constituées de cellules provenant de chacune des deux populations cellulaires, l'une ayant gardé actif le gène sauvage, l'autre le gène muté. Ajoutons que cet effet de l'inactivation aléatoire d'un des deux chromosomes X sur la couleur du pelage se retrouve chez d'autres mammifères, comme les chattes tricolores. Et que, plus généralement, les effets du mosaïcisme ne se limitent pas à la couleur du pelage. Par exemple, une pathologie liée à un gène défectueux sur l'X sera atténuée chez la femelle par rapport au mâle, puisque seule la moitié de ses cellules exprimera l'allèle défectueux, l'autre moitié exprimant l'allèle normal lire « Avantage au double X ? », p. 30.
Centre d'inactivation
De nombreuses découvertes ont permis depuis de confirmer l'hypothèse de Mary Lyon et de mieux comprendre les mécanismes mis en oeuvre. Dans les années soixante-dix-quatre-vingt, l'analyse de cellules femelles ayant subi des remaniements chromosomiques mit en évidence une région du chromosome X qui contrôle la mise en place de l'inactivation [2]. Ces remaniements étaient des translocations, à savoir des échanges de portions de séquence entre chromosomes. Lorsqu'une certaine région du X était déplacée sur un chromosome non sexuel, ce dernier pouvait être inactivé. Inversement, le chromosome X privé de cette région restait toujours actif. D'où la conclusion que la région en question était critique pour la mise en place de l'inactivation. Elle fut donc baptisée « centre d'inactivation » Xic, pour X Inactivation Center.
En 1981, la mise au point, chez la souris, du mode opératoire permettant de prélever et de mettre en culture des cellules souches embryonnaires cellules ES fournit un outil de choix pour aller plus avant [3]. Ces cellules indifférenciées sont pluripotentes, c'est-à-dire qu'elles peuvent se différencier en cellules de n'importe quel tissu coeur, foie, peau.... Elles sont prélevées dans des embryons de souris âgés de cinq jours, au stade blastocyste précoce. À ce stade, leurs deux chromosomes X sont actifs. Mais, lorsque l'on provoque leur différenciation en changeant les conditions de culture, l'un des deux chromosomes X est inactivé, suivant un schéma général similaire à ce qui se passe dans l'embryon au-delà du cinquième jour. En particulier, l'inactivation y est aléatoire : dans certaines cellules, c'est le X paternel qui est inactivé, dans d'autres, le X maternel, ce qui fait que la population cellulaire est une population mosaïque. Ces cellules sont donc très rapidement devenues un modèle dans la recherche sur l'inactivation, rendant ainsi possibles de nombreuses études que la rareté et la petite taille des embryons n'auraient pas permis d'envisager.
Comptage approprié
Dès 1985, Sohaila Rastan et Elizabeth Robertson montrèrent, en utilisant différentes lignées de cellules souches dites EK, semblables aux cellules ES, qu'il n'y avait plus aucun processus d'inactivation chez celles ayant spontanément perdu le centre d'inactivation d'un de leurs deux chromosomes X [4]. Tout se passait comme si la cellule, n'ayant plus qu'un seul centre d'inactivation au lieu de deux, ne considérait plus comme nécessaire d'initier un quelconque processus d'inactivation. Le centre d'inactivation semblait donc responsable non seulement de l'initiation de l'inactivation en elle-même, mais également du « comptage » du nombre de chromosomes X présents dans la cellule. Une étape de comptage indispensable à la bonne régulation du processus, puisqu'elle permet par exemple d'éviter que l'unique chromosome X des mâles soit inactivé.
ARN non codant
Il fallut encore quelques années avant qu'un pas absolument décisif fût franchi. Car bien que l'existence d'un centre d'inactivation ait été établie, sa localisation exacte, ainsi que son mode de fonctionnement n'avaient toujours pas été élucidés. En 1991, l'équipe de Huntington Willard, alors à l'université Stanford, découvrit que le centre d'inactivation humain contenait un gène très particulier, qui n'était actif que sur le chromosome X inactivé [5]. Ce résultat pour le moins paradoxal poussa Willard à proposer l'hypothèse suivante : le produit de ce gène était à l'origine de l'inactivation de tout le reste du chromosome. Ce gène fut nommé Xist pour X Inactive Specific Transcript. Peu de temps après, son homologue était découvert chez la souris.
Le point le plus intéressant fut que le produit de ce gène Xist se révéla être un ARN non codant, autrement dit un ARN qui, contrairement aux ARN messagers, n'est jamais traduit en protéine. De plus, l'ARN Xist reste dans le noyau cellulaire, plus particulièrement autour du chromosome X inactif, qu'il recouvre dans sa quasi-totalité. Cette étonnante observation fit immédiatement supposer que l'ARN Xist avait un rôle fonctionnel dans l'inactivation de l'X. Un ARN impliqué dans l'extinction transcriptionnelle de tout un chromosome..., c'était là une notion totalement nouvelle ! Xist devait de ce fait fortement attirer l'attention de la communauté scientifique. Son implication dans l'inactivation de l'X allait être largement confirmée au cours des années suivantes.
Dans les années quatre-vingt-dix, de nombreuses études ont en effet montré que le gène Xist était l'élément clé indispensable à la mise en place de l'inactivation [6]. D'une part, plusieurs équipes ont effectué des délétions* de ce gène au niveau d'un des deux chromosomes X de cellules femelles. Elles ont observé que, systématiquement, le chromosome X ainsi délété ne pouvait plus être inactivé. D'autre part, d'autres groupes ont introduit, par transgenèse, différentes parties du centre d'inactivation au sein de chromosomes non sexuels. Ils ont alors observé que, lorsque le gène Xist fait partie de la séquence transférée et qu'il est transcrit, l'ARN qu'il produit recouvre l'autosome qui le porte comme s'il s'agissait d'un chromosome X, ce qui aboutit à l'inactivation des gènes de cet autosome. C'est également le cas lorsque Xist est transféré seul, et qu'il est transcrit. L'ensemble de ces études démontrait donc que l'ARN Xist était non seulement nécessaire, mais même suffisant, à la mise en place de l'inactivation [7].
Toutefois, la fenêtre de temps durant laquelle il peut agir est limitée. Anton Wutz et Rudolph Jaenisch, du Whitehead Institute for Biomedical Research, aux États-Unis, ont en effet observé, en 2000, que, si l'on retarde l'expression du gène Xist, l'ARN recouvre toujours le chromosome dont il est issu mais n'a plus aucun effet sur la transcription de ses gènes. Inversement, une fois l'inactivation du chromosome établie, l'élimination de Xist n'a plus aucun effet sur l'extinction des gènes. Xist n'est donc nécessaire qu'à l'initiation de l'inactivation, et non à son maintien.
Région conservée
Enfin, en 2002, le même groupe a démontré que l'ARN Xist contenait une région spécifique très conservée entre les différentes espèces de mammifères, région sans laquelle il ne peut plus induire l'inactivation, alors même qu'il recouvre toujours le chromosome dont il est issu [8]. Il semble donc que cette région particulière de Xist serait la clé de l'extinction transcriptionnelle des gènes.
S'il est désormais établi que Xist est le facteur déclencheur de l'inactivation, son mode d'action reste encore un mystère. On sait toutefois que le recouvrement par Xist constitue le premier pas d'une longue suite d'événements transformant l'X destiné à être inactivé. Car si l'X inactif ne subit aucune modification au niveau de sa séquence ADN, il n'en est pas moins modifié - à un autre niveau. En effet, un chromosome n'est pas constitué uniquement d'ADN, mais aussi de complexes protéiques appelés nucléosomes formés de protéines nommées histones, autour desquels l'ADN est embobiné. Le tout forme la chromatine constituant les chromosomes. Or, la chromatine existe sous deux formes. La chromatine ouverte, ou euchromatine, est en général associée aux gènes actifs. La chromatine condensée, ou hétérochromatine, est, elle, associée aux régions transcriptionnellement éteintes des chromosomes, leur centromère* par exemple. C'est également sous forme condensée que se trouve l'ensemble des chromosomes lors des divisions cellulaires, d'où leur apparence typique en bâtonnets à ce moment-là. Et c'est sous forme d'hétérochromatine que se trouve le chromosome inactivé - le corpuscule de Barr.
Marques épigénétiques
Si euchromatine et hétérochromatine diffèrent par leur conformation visualisable au microscope électronique, elles diffèrent également par la constitution de leurs nucléosomes. En effet, les histones constituant les nucléosomes peuvent, comme toutes les protéines, subir des modifications après qu'elles ont été synthétisées. En l'occurrence, elles sont modifiées par des enzymes qui viennent leur ajouter un ou plusieurs groupements chimiques. Ces modifications sont souvent caractéristiques de l'une ou de l'autre forme de la chromatine, et les connaissances actuelles laissent penser qu'elles seraient impliquées dans la régulation transcriptionnelle des gènes associés, suivant ce que l'on commence à appeler le « code histone » lire « Un code non génétique », p. 37.
Or, les histones du chromosome X inactivé présentent ce genre de modifications, qui le différencient du X actif [9]. Certaines sont communes à toutes les régions hétérochromatiques du génome, dont l'X inactif fait partie, tandis que d'autres lui sont spécifiques. Par ailleurs, les gènes de l'X inactif sont la cible d'un autre type de modification épigénétique bien connu : la fixation de groupements méthyles sur certaines bases de l'ADN. Cette modification est courante chez les gènes « éteints », qu'ils soient situés sur le chromosome X ou sur un autre chromosome. Comme il a été démontré, dans des cellules ES, que ces modifications épigénétiques qui affectent les histones et l'ADN accompagnent l'extinction des gènes, cela laisse supposer qu'elles jouent un rôle dans la mise en place de l'inactivation elle-même. Et comme toutes ont lieu après le recouvrement du chromosome X par Xist, elles seraient - directement ou non - provoquées par ce dernier [fig.1].
Tout cela n'explique cependant pas comment la cellule peut traiter différemment ses deux chromosomes X a priori identiques, faisant en sorte qu'un seul des deux exprime Xist et s'inactive. Parmi toutes les hypothèses envisagées, l'une des plus attractives est celle d'une compartimentation différente des deux chromosomes X dans le noyau de la cellule.
Compartiment nucléaire
La notion de compartiment nucléaire est une notion relativement floue puisque aucune membrane ne délimite de domaines dans le noyau. Toutefois, il apparaît nettement que certaines régions nucléaires sont enrichies en molécules spécifiques, et il est de plus en plus admis que la localisation d'un gène donné dans une de ces régions pourrait jouer un rôle dans la régulation de son expression [10]. En ce qui concerne les chromosomes X, on peut par exemple supposer que l'un d'entre eux serait séquestré dans un compartiment nucléaire donné, où il serait mis à l'abri de l'inactivation. Cela reste toutefois une hypothèse parmi d'autres, et aucune, à ce jour, n'a encore été démontrée.
D'un mammifère à l'autre
Ce phénomène d'inactivation d'un seul des deux chromosomes X est d'autant plus mystérieux que les paramètres régissant sa mise en place diffèrent d'une espèce de mammifère à l'autre. Ainsi, chez l'homme, l'inactivation est aléatoire tant dans l'embryon que dans les tissus extra-embryonnaires comme le placenta [11]. En revanche, chez les marsupiaux, qui sont proches des mammifères ancestraux, l'inactivation est soumise à une empreinte parentale dans tous les tissus. En l'occurrence, c'est l'X d'origine paternelle qui est systématiquement inactivé. Chez les rongeurs et les bovins, la situation est intermédiaire. L'inactivation est soumise à une empreinte dans les tissus extra-embryonnaires, avec inactivation exclusive de l'X paternel, mais elle est aléatoire dans les cellules de l'embryon lui-même, comme nous l'avons décrit précédemment. Il a de ce fait été suggéré que l'inactivation soumise à une empreinte parentale serait la forme ancestrale du processus, tandis que l'inactivation aléatoire en serait la forme évoluée. Cependant, cette hypothèse, très attractive, d'une inactivation soumise à empreinte « ancêtre » de l'inactivation aléatoire mérite d'être discutée. Car le mécanisme de l'inactivation soumise à empreinte semble très différent chez les marsupiaux et dans les tissus extra-embryonnaires des rongeurs. En effet, aucun homologue du gène Xist n'a pu être identifié chez les marsupiaux. En outre, certaines marques épigénétiques n'existent pas chez ces animaux, alors qu'elles sont cruciales chez les rongeurs, tant pour l'inactivation aléatoire que pour celle soumise à empreinte. Une seconde hypothèse peut alors être envisagée, celle que l'inactivation soumise à empreinte aurait pu apparaître plusieurs fois au cours de l'évolution, selon les différentes pressions de sélections, spécifiques à chaque espèce de mammifères.
Quoi qu'il en soit, lorsque empreinte il y a, pourquoi est-ce toujours l'X paternel qui est inactivé ? À la fin 2003, l'équipe de Jeannie Lee, à la Harvard Medical School, a proposé que le chromosome X paternel pourrait arriver déjà inactivé au moment de la fécondation [12]. En effet, les chromosomes X et Y sont inactifs dans les cellules précurseurs des spermatozoïdes. On peut donc supposer que le chromosome X reste inactif dans les spermatozoïdes et est transmis sous cette forme à l'embryon. Toutefois, cette hypothèse reste à prouver, et de nombreux contre-arguments existent. D'une part, si le chromosome X est bien inactif durant la plus grande partie de la spermatogenèse, il est réactivé au cours des dernières étapes produisant les spermatozoïdes [13]. D'autre part, il semble bien que les deux chromosomes X sont actifs chez le tout jeune embryon de deux cellules. Autrement dit, l'inactivation du X a lieu plus tard.
Mais quand ? Jusqu'à l'an dernier, il était admis que, chez les rongeurs, les premiers signes d'une inactivation apparaissaient 3,5 jours après fécondation dans le trophectoderme futur placenta, puis 6,5 jours après fécondation dans l'amas de cellules blotties au coeur du blastocyste, le bouton embryonnaire. Une inactivation soumise à empreinte dans le trophectoderme, et aléatoire dans le bouton embryonnaire ainsi que dans les cellules ES dérivées de ce bouton embryonnaire. Or, il est maintenant clair que l'inactivation apparaît pour la première fois bien avant dans l'embryon, au stade quatre/huit cellules [fig.2]. Notre équipe et celle de Jeannie Lee ont en effet démontré que les cellules de ce tout jeune embryon de deux jours ont déjà un de leurs chromosomes X recouvert par Xist, et qu'il commence à s'inactiver. Cet X est toujours d'origine paternelle, et reste éteint jusqu'au stade blastocyste précoce.
Dès lors, comment expliquer l'inactivation aléatoire observée dans le bouton embryonnaire des blastocystes de six jours, ou dans les cellules souches qui en proviennent ? Notre équipe et celle de Neil Brockdorff ont résolu cette contradiction l'an dernier [14] : tandis qu'il reste éteint dans les tissus extra-embryonnaires, le chromosome X paternel inactivé est réactivé 4,5 jours après fécondation dans le bouton embryonnaire. Un second processus d'inactivation, aléatoire cette fois, se met alors en place dans ces cellules. Notons que cette seconde inactivation n'est pas non plus totalement définitive. En effet, dans la lignée germinale la lignée donnant les gamètes, le chromosome X est à nouveau réactivé 10,5 jours après fécondation, afin de produire des gamètes dont le chromosome X est actif [fig.2].
Reprogrammation active
Ce phénomène de réactivation suivi d'une seconde inactivation montre que les cellules du bouton embryonnaire sont capables d'effectuer une reprogrammation active de leur contenu génétique en effaçant les marques qui y sont apposées. Très important sur le plan de l'épigénétique fondamentale, ce résultat pourrait aussi intéresser les spécialistes du clonage par transfert de noyau somatique lire « Le clonage », page 73. En effet, le génome des cellules somatiques présente des marques épigénétiques différentes de celles des cellules embryonnaires. Ces marques sont entre autres responsables de l'extinction des gènes nécessaires au développement de l'embryon. La problématique est donc de reprogrammer ce génome.
Classiquement, on considère qu'une telle reprogrammation ne peut avoir lieu que dans les heures suivant la fusion entre la cellule somatique et l'ovocyte. Or, nous le voyons bien avec le chromosome X, les cellules du bouton embryonnaire sont capables de réactiver des gènes dont elles ont besoin et d'effacer des marques épigénétiques. Il existe donc au moins deux étapes, et non une seule, durant lesquelles une reprogrammation génétique est possible au cours d'un clonage : au moment du transfert du noyau somatique dans l'ovocyte et lors du passage par le bouton embryonnaire du blastocyste. Si la première étape est très limitée dans le temps, la seconde peut être prolongée artificiellement. En effet, les blastocystes, du moins ceux de rongeurs, peuvent être mis en diapause, c'est-à-dire en vie ralentie. Procéder ainsi lors des opérations de clonage prolongerait le temps durant lequel les cellules de l'embryon se trouvent dans le bouton embryonnaire. L'efficacité du clonage pourrait ainsi se voir accrue, puisque le temps alloué à la reprogrammation du noyau somatique serait augmenté.
Nous l'avons vu, l'étude de l'inactivation de l'X doit permettre de comprendre le rôle et la dynamique de marques épigénétiques au cours du développement. Indirectement, elle devrait aussi permettre de mieux comprendre comment est instaurée et maintenue la dérégulation de l'expression des gènes que l'on observe lors de l'établissement et du développement de maladies comme le cancer. En effet, il devient de plus en plus évident qu'outre le rôle des mutations génétiques dans ces phénomènes des modifications épigénétiques peuvent aussi intervenir. L'étude des contrôles épigénétiques qui sous-tendent l'extinction transcriptionnelle du chromosome X pourrait être riche d'enseignements en la matière. Ce qui est d'ailleurs illustré par le fait que certaines protéines impliquées dans le cancer jouent aussi un rôle dans l'inactivation du X [15].
Par Sandrine Augui ,Edith Heard ,Cécile Klingler
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
GÉNOME,POSTGÉNOME |
|
|
|
|
|
Génome, postgénome
biologie - par Evelyn Fox Keller dans mensuel n°376 daté juin 2004 à la page 30 (3436 mots)
Les biologistes vivraient-ils, sous nos yeux, un changement de paradigme ? Le réductionnisme génétique qui a caractérisé la biologie du XXe siècle céderait la place à une vision plus globale de la cellule et de l'organisme. Un terrain sur lequel physiciens et informaticiens pourraient intervenir avec profit.
De nombreux pièges guettent les historiens du présent, le plus dangereux étant sans doute -et encore plus à une époque -comme la nôtre- que l'histoire avance bien plus vite qu'ils ne sont capables d'écrire. Il y a trois ans et demi, je publiais un livre où je tentais de retracer le chemin parcouru par le concept de gène, depuis l'époque de la redécouverte des lois de -Mendel, en 1900, jusqu'au séquençage du génome humain, en 2000. Le Siècle du gène célébrait la productivité du concept de gène tout au long du XXe siècle, et expliquait pourquoi il fallait poursuivre et entrer dans ce que j'appelais «le siècle au-delà du gène». J'entendais par là que, si le XXe siècle était le siècle du gène, le XXIe serait vraisemblablement celui de la génétique, ou plus exactement des systèmes génétiques.
La différence est de taille et mérite une explication. Pour moi, la génétique consiste en l'étude du fonctionnement de l'ADN dans la construction du phénotype, alors que les gènes sont les entités historiquement considérées comme porteuses de l'hérédité. Je considère la première comme les interactions biochimiques sous-tendant la construction des organismes vivants, et les seconds comme un schéma conceptuel hypothétique.
Le principal bagage historique du concept de gène -remonte à l'époque où les gènes étaient considérés comme les unités de base de la vie. Mais qu'est-ce qu'un gène? En réalité, les biologistes moléculaires emploient plusieurs définitions différentes, et de nombreuses variantes de celles-ci. Selon l'une de ces définitions, les gènes sont des parties spécifiques de l'ADN, transmis inchangés de génération en génération. Mais alors, quelles parties de l'ADN ? Celles qui codent les protéines? Ou bien aussi celles qui codent des ARN jamais traduits en protéines, mais essentiels à la régulation ?
Même si l'on considère qu'un gène est la séquence de codage correspondant à une protéine donnée, on se heurte encore à un problème: cette séquence, chez les organismes supérieurs, existe seulement sous forme d'ARN messager. Elle n'est pas présente telle quelle dans l'ADN. En effet, ce n'est que par l'épissage* correct de la molécule d'ARN dit prémessager, image de la portion d'ADN qui contient les fragments codants, qu'est construite cette molécule d'ARN messager. Plus subtil encore, le cas des protéines construites à partir d'ARN messagers spécifiquement modifiés à des stades de développement particuliers. En effet, on ne peut trouver pour ces protéines aucune séquence correspondante sur l'ADN, même en prenant en compte le phénomène d'épissage. Ainsi, quand nous demandons combien de gènes compte le génome humain, la réponse dépendra de la définition à laquelle on se réfère.
Donner vie au génome
Contrairement au gène, nous savons ce qu'est l'ADN: nous pouvons «épeler» sa séquence, et en observer la remarquable stabilité au fil des générations. Mais nous avons surtout appris que la signification de n'importe quelle séquence d'ADN est relationnelle -c'est-à-dire que, pour comprendre le développement d'une maladie, ce sont les schémas de l'expression génétique qui comptent avant tout. Or, ces schémas obéissent à un système de régulation très complexe et sont imprédictibles d'après la seule séquence.
Alors qu'il y a trois ans le nombre de généticiens moléculaires prêts à renoncer à leur paradigme de réductionnisme génétique était encore relativement restreint, les biologistes semblent aujourd'hui connaître un changement de paradigme sous nos yeux. Quasiment du jour au lendemain, les départements de biologie de par le monde se sont tournés vers la «systems biology» terme que l'on traduira ici par «biologie intégrative».
Voici quelques exemples qui illustreront mon propos, comme cette annonce faite par le nouveau Bauer Center for Genomics Research de l'université de Harvard: «La réussite du séquençage du génome humain a marqué un virage en biologie moléculaire et a suscité un intérêt indéniable pour des approches systémiques de la complexité biologique. La question essentielle n'est plus “Qui sont les acteurs?”, mais “Quel est le scénario?”, “Comment le jeu de chaque acteur détermine-t-il un comportement collectif?”» Ou, comme le propose cet article d'un numéro récent de The Scientist [1]: «Depuis cinquante ans, les biologistes cherchent à réduire la vie à ses différents composants, en partant de la cellule pour arriver au génome. Toutefois, de tels succès ont fait prendre conscience des quantités inouïes d'informations obtenues. Comme le professeur Denis Noble, de l'université -d'Oxford, le déclare: “Nous avons défait le puzzle; nous devons maintenant retrouver comment le reconstruire.”» Quant au département américain de l'Énergie DOE, où le projet de séquençage du génome humain le Projet Génome Humain a été lancé en 1990, on lui doit un nouveau programme, baptisé «Amener le génome à la vie». Il se présente ainsi: «Depuis le séquençage de tout le génome, la nouvelle biologie aspire à construire une nouvelle compréhension, complète et profonde, des systèmes vivants complexes Le paradigme actuel en biologie -indifféremment décrit comme “gène unique”, “réductionniste” ou “linéaire”- a peu de chances de réussir seul et les approches existantes de la recherche seront enrichies par une “approche des systèmes”.» À un moment, les chercheurs ont compris que le génome n'était pas doué de vie par lui-même. Que la vie, ainsi que Linus Pauling* nous le rappelait il y a longtemps, ne réside pas dans les molécules mais dans les relations entre ces dernières. Comme les responsables du nouveau programme du DOE l'écrivent: «Nous avons besoin de comprendre les interactions entre ces différents éléments.» Bref, il nous faut une «biologie intégrative».
Deux questions évidentes se posent: premièrement, comment expliquer ce nouvel engouement? Et deuxièmement, qu'entend-on par «biologie intégrative» ? La réponse à la première question est relativement facile, la réponse à la seconde l'est moins.
Commençons par la première. Il ressort clairement des citations précédentes qu'il existe un sentiment largement répandu que, grâce à l'accomplissement des premiers objectifs du Projet Génome Humain, la phase réductionniste de la recherche en génétique est désormais terminée. Sydney Brenner* se fait l'interprète de nombreux chercheurs quand il écrit: «Le séquençage du génome humain représente une sorte d'apothéose de réductionnisme chimique», et désormais «nous devons avancer». C'est que le succès de la première phase du Projet Génome Humain apporte aussi sa part de déception. En effet, comme l'énonce le DOE, nous avons listé les éléments, et nous voyons bien que la connaissance de ces éléments, et même la connaissance de leurs fonctions, ne suffit pas.
Toutefois, le Projet Génome Humain et la génétique moléculaire en général nous ont aussi fourni les outils pour aller au-delà de chaque élément, des outils pour sonder la complexité de la dynamique cellulaire. La consé-quence immédiate de ces progrès technologiques s'est manifestée par un afflux d'informations. Mais plus nous en apprenons sur le fonctionnement des éléments entre eux, plus la situation apparaît confuse, et plus le besoin de trouver de nouveaux outils et de nouvelles manières de s'exprimer se fait pressant. Selon Brenner: «Le premier défi intellectuel de l'avenir consiste à mettre en place un cadre théorique adapté pour la biologie.» J'ajouterais qu'il se révèle tout aussi pressant de créer un cadre linguistique qui nous emmène au-delà de l'assemblage du tout à partir d'éléments et qui prenne en considération la construction historique des éléments et des touts -thème si central de la biologie évolutionniste.
Les bienfaits de la sociabilité
Grâce aux extraordinaires développements techniques de ces dernières années, il est désormais possible d'explorer les interactions dynamiques, qui non seulement lient les éléments en touts, mais aussi qui révèlent de quelle manière ces interactions constituent les éléments mêmes. En conséquence, les généticiens créent une nouvelle manière d'aborder la fonction biologique, en cherchant les clés de cette fonction non seulement dans des gènes particuliers ou dans la structure de l'ADN, mais aussi dans les réseaux de communication dont l'ADN fait partie. On pourrait dire que la communication est devenue le nouveau mot à la mode, en même temps que les biologistes, réductionnistes par tradition, commencent à découvrir les bienfaits de la sociabilité.
Toutefois, avant d'embrasser un changement, les chercheurs doivent aussi avoir la certitude qu'il existe une autre voie. Cette certitude a été apportée par les développements techniques en informatique, en particulier depuis l'association des outils informatiques avec les techniques de l'analyse moléculaire. Elle découle également du rapprochement opéré ces dernières années avec l'analyse informatique computationnelle, pour traiter des quantités massives de données complexes. Mais je vois que j'ai déjà commencé à empiéter sur ma seconde question, à savoir: Qu'entendons-nous par «système» et Qu'est-ce que la «biologie intégrative»?
Pour résumer, je dirais que, jusqu'à présent, il s'agit d'un -concept en attente de définition. Le terme lui-même remonte au biologiste et psychologue autrichien Ludwig von Bertalanffy, qui écrivait dans les années -trente: «La notion de système peut être considérée simplement comme un terme générique désignant la corrélation étroite et dynamique entre les composants.» Aujourd'hui, toutefois, les défenseurs de la «biologie intégrative» ont plus de matière avec laquelle travailler, et ils sont par conséquent moins modestes. Pour beaucoup, la compréhension au niveau systémique signifie: «Comprendre les comportements du système, comprendre comment contrô-ler le système, et comment concevoir le système.»
Le concept n'en demeure pas moins extrêmement souple. Il offre des visages multiples, faisant appel à une grande variété de compétences, et promettant un éventail de résultats tout aussi vaste. Il s'agit d'un appel irrésistible pour les scientifiques issus de disciplines auxquelles la biologie expérimentale fait traditionnellement peu appel, par exemple l'ingénierie, l'informatique, la physique ou les mathématiques. Mais ce sont là des disciplines où le manque de cadre théorique commun est manifeste, et y chercher le «cadre théorique approprié» de Sydney Brenner nous rappelle quelque peu les six personnages en quête d'auteur de Pirandello. Alors, d'où peut-on espérer voir émerger un tel cadre? Et à quoi ressemblerait-il?
Je ne possède pas de boule de cristal, mais je discerne malgré tout des candidats évidents, dont l'un appartient à la discipline qui a de tout temps arbitré la théorie dans les sciences naturelles: la physique. En effet, pour de nombreux scientifiques, les termes «théorie» et «physique» sont presque synonymes, et les physiciens et les mathématiciens cherchent dans les sciences de la vie de nouveaux domaines dans lesquels appliquer leurs connais-sances. Pour certains, c'est là que se situe désormais l'action intellectuelle et scientifique: si le siècle dernier appartenait à la physique, le nouveau appartient à la biologie. À titre d'exemple, voici quelques citations tirées de la littérature récente: «La biologie aujourd'hui se trouve là où se trouvait la physique au début du XXe siècle», ou encore: «La physique nous aide à mieux comprendre, et elle peut apporter à la biologie des explications fondamentales.» D'autres y voient un but plus pragmatique: c'est là que se trouve désormais l'argent.
Mais les observateurs remarquent aussi que la transition de la physique à la biologie n'est pas aussi simple, qu'il existe un certain décalage culturel à combler entre ces disciplines, que les biologistes et les physiciens ont des buts et des traditions différents, qu'ils ne posent pas les mêmes types de questions, et ne cherchent peut-être pas le même type de réponses. En outre, il s'agit quasiment de la première fois dans l'histoire que des physiciens et des mathématiciens se tournent vers la biologie, pour y trouver de nouveaux problèmes et de nouveaux terrains à explorer. Les exemples du passé se sont soldés par des échecs, et les biologistes ont manifesté un intérêt limité dans les tentatives pour mathématiser ou théoriser leur discipline. Leur état d'esprit semble avoir évolué.
Double culture
De nos jours, biologistes expérimentaux, physiciens et mathématiciens collaborent en permanence, et le rôle des mathématiques en biologie semble être entré dans une ère nouvelle. Au cours des dernières années, aux États-Unis, la National Science Foundation NSF et les National Institutes of Health NIH ont lancé plusieurs initiatives à grande échelle, destinées plus particulièrement à rendre compte du potentiel des approches mathématiques et informatiques en biologie. Depuis 1983, la proportion du financement pour la recherche mathématique et informatique provenant de la division biologie de la NSF a été multipliée par cinquante, et l'on déplore surtout aujourd'hui le manque de candidats, plutôt que le manque de financement.
L'augmentation du financement se traduit à la fois par une croissance du nombre de publications et par la création de nouveaux cursus en mathématiques et en bio-informatique. Contrairement à leurs précurseurs, bon nombre d'entre eux sont désormais accueillis par des départements de biologie expérimentale. Les nouveaux étudiants ne se contentent pas de simplement collaborer avec des biologistes expérimentaux: ils deviennent souvent eux-mêmes biologistes. À l'inverse, les biologistes n'ont plus besoin de transmettre leurs questions et leurs données à d'autres. Grâce notamment à une meilleure connaissance de l'informatique, et aussi au développement de programmes informatiques «conviviaux» qui mettent les techniques d'analyse mathématique à la portée des béotiens en la matière, ils peuvent construire leurs propres modèles «mathématiques/théoriques». Cela se traduit par l'émergence d'une culture entièrement nouvelle, à la fois théorique et expérimentale, tout autant imprégnée d'équations différentielles que de données réelles.
Si, comme l'affirment désormais de nombreuses personnes, «une nouvelle biologie mathématique est en train de naître», elle s'accompagne non seulement de nouvelles compétences, mais aussi de nouvelles valeurs épistémiques. La discipline naissante ne présente de ce fait qu'une vague ressemblance avec les tentatives passées pour faire de la biologie une science théorique à l'instar de la physique. Cela ne promet pas tant une justification des échecs passés qu'une transformation des méthodes, des buts et des bases épistémologiques des tentatives antérieures.
Tentons de résumer les défis à venir. Tout d'abord, les efforts de modélisation les plus réussis suggèrent la nécessité de redéfinir des termes comme «essentiel» et «fondamental». L'essence d'un processus ne doit plus être recherchée dans des lois abstraites ou simples, mais dans la spécificité confuse d'adaptations particulières qui ont vu le jour au cours des processus désordonnés de l'évolution. Bien trop souvent, ce sont les particularités fortuites d'une structure biologique celle de l'ADN par exemple qui sont fondamentales. Par conséquent, si les physiciens veulent pouvoir participer à la création d'un cadre théorique approprié, ils devront repenser certaines de leurs hypothèses les plus élémentaires. Le fait est que la biologie vient bouleverser toutes nos hypothèses classiques concernant ce qui doit être considéré comme profond ou fondamental, ce qui doit être considéré comme une explication, et même ce qui doit être considéré comme un progrès.
Partenaires prometteurs ?
De plus, les systèmes biologiques sont, nous le savons, extraordinairement complexes. Mais, toujours à cause de l'évolution, leur complexité est de nature quelque peu différente de celle des systèmes physiques. Déjà, ils sont toujours et inévitablement hiérarchiques. Ainsi, les notions familières d'émergence, ancrées dans la dynamique non linéaire des systèmes uniformes gaz ou fluides, par exemple, ne conviennent pas. Les inhomogénéités et les particularités ordonnées des systèmes biologiques sont essentielles à leur fonctionnement. Les ignorer, c'est risquer le manque de pertinence biologique qui a historiquement été le destin de tant de modèles mathématiques en biologie. Par ailleurs, étant donné la nature de la complexité biologique, les modèles utiles de systèmes biologiques tendent à être informatiques plutôt que mathématiques. À la place de quelques équations différentielles simples, la nouvelle biologie théorique apparaît comme un entrelacs d'algorithmes, de vastes systèmes d'équations différentielles, d'analyses statistiques et de simulations. Qui plus est, de tels modèles ne peuvent être formulés avec succès que dans une très intime relation de va-et-vient avec l'expérimentation.
Enfin, les distinctions entre «pure» et «appliquée», entre «théorique» et «pratique» -des distinctions si basiques à notre vision contemporaine de la physique- doivent aussi disparaître. C'est en grande partie une conséquence de la technologie même qui a permis de recueillir une telle quantité de données. Les techniques de l'«ADN recombinant» permettent en effet d'intervenir directement dans la dynamique interne du développement. Elles ont transformé les marqueurs génétiques en autant d'outils pour réaliser tel ou tel changement. En résumé, la technologie qui a ouvert la voie de la biologie théorique, a aussi, et simultanément, fait du génie génétique une réalité. La biologie devient une science pratique en même temps qu'elle devient théorique.
Le deuxième candidat pour un nouveau cadre théorique et peut-être le plus prometteur est suggéré par l'engouement actuel pour la comparaison de l'organisme avec un ordinateur, et celle de la biologie avec une science numérique. Je dis «plus prometteur» à cause des riches outils pratiques que l'informatique nous a donnés pour envisager des systèmes interactifs - des outils et des métaphores qui, en bien des façons, nous rapprochent beaucoup plus de la complexité des systèmes biologiques que les modèles traditionnels de la physique théorique. Mais ce serait une grave erreur de vouloir trop se concentrer sur les aspects numériques du fonctionnement génétique, et de négliger la nature fondamentalement analogique de la chimie qui sous-tend tout ce processus.
Une parenté avec l'ingénierie?
En outre, il y a là aussi une leçon à tirer de l'histoire. En tant que scientifiques, notre manière d'envisager des phénomènes que nous ne comprenons pas est, comme elle l'a toujours été, et comme elle doit l'être par nécessité, de comparer l'inconnu au connu. Ainsi, la comparaison de l'organisme avec une machine remonte à d'anciennes théories sur la nature de la vie -la seule différence étant le type de machine que nous prenons en considération. En nous fondant sur des poulies, des pompes hydrauliques, des horloges, des moteurs à vapeur, nous avons fait preuve d'une ingéniosité extraordinaire pour construire des machines encore plus polyvalentes et enthousiasmantes. Comparer l'organisme à chacune de ces machines s'est révélé instructif dans le passé, comme comparer l'organisme à nos machines les plus modernes se montre instructif de nos jours. Mais il ne serait guère raisonnable de supposer que notre ingéniosité s'épuise, que nous ne construirons pas bientôt des machines plus proches de la vie. En fait, nos meilleurs informaticiens parient sur notre capacité à le faire, et, une fois encore, ils cherchent l'inspiration dans la biologie.
Alors, allons, et adoptons les termes et les images de l'informatique pour nous aider à penser les propriétés systémiques des cellules et des organismes. N'oublions pas, toutefois, que ces systèmes biologiques n'ont pas livré tous leurs secrets à nos ingénieurs. De nombreuses personnes avancent que la «biologie intégrative» aura plus de liens de parenté avec l'ingénierie qu'avec la physique. Elles ont peut-être raison. Toutefois, il reste à nos ingénieurs à construire un système qui soit à la fois autoconcepteur et autogénérateur, un système que nous aurions envie de qualifier de vivant. Je ne peux affirmer qu'une telle tâche est impossible, mais seulement que nos ordinateurs actuels et nos systèmes Internet de pointe n'en sont pas encore capables.
Que manque-t-il pour douer le génome de vie? Je l'ignore, mais si je devais me prononcer, je m'attacherais à observer attentivement où les limites actuelles de la conception en ingénierie et de la génomique se situent. Et je demanderais, avec nos ingénieurs les plus brillants: Avons-nous suffisamment tenu compte de la dynamique de nos systèmes? Avons-nous prêté suffisamment d'attention à leur organisation temporelle? Suffit-il de considérer que les gènes sont activés ou pas, ou les généticiens doivent-ils commencer à étudier les moments précis de passage d'un état à l'autre, à la fois les uns par rapport aux autres, et aussi par rapport à la dynamique temporelle des processus globaux dans la cellule? Je parierais que notre prochaine avancée significative se situera là.
Bien entendu, il ne s'agit que d'hypothèses -comme je l'ai dit, ma boule de cristal est trouble. Toutefois, il ne fait presque plus aucun doute aujourd'hui que la biologie moléculaire postgénomique exige de nouvelles méthodes d'analyse, et de nouveaux cadres conceptuels. Appelez cela la «biologie intégrative» si vous le souhaitez, mais ce n'est qu'en avançant que nous comprendrons exactement de quoi il s'agit.
EN DEUX MOTS : L'obtention de la séquence du génome humain signe-t-elle l'entrée de la biologie dans une ère nouvelle? Oui, selon l'historienne Evelyn Fox Keller, qui se réfère aux propos tenus par les spécialistes de la génomique. Tous soulignent la nécessité de donner un sens au génome: la question n'est plus «Qui sont les acteurs?» mais «Quel est le scénario?» Toutefois, confrontée à l'incroyable afflux de données issues du séquençage, il est peu probable que la biologie puisse élaborer seule ce scénario. Physique, mathématiques et informatique sont autant de partenaires potentiels dans cette quête de sens. Evelyn Fox Keller se risque à prédire leurs chances d'être ou non élus, tandis que trois scientifiques français réagissent au tableau qu'elle brosse.
Par Evelyn Fox Keller
DOCUMENT larecherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 ] Précédente - Suivante |
|
|
|
|
|
|