ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

QUELS ANTIBACTÉRIENS ...

 


 

 

 

Quels antibactériens pour après-demain?


antibiotiques : la resistance des bactéries - dans mensuel n°314 daté novembre 1998 à la page 70 (2731 mots)
Les chercheurs de l'industrie pharmaceutique retournent à leurs paillasses. Leur travail est facilité par l'émergence de nouveaux outils comme la chimie combinatoire, le criblage à haut débit, la bioinformatique et la robotique. Mais comment trouver des antibiotiques vraiment innovants ? En cherchant des molécules qui s'attaquent à des processus récemment explorés par la microbiologie moléculaire: mécanismes de résistance, réplication de l'ADN et division bactérienne, voies de communications intercellulaires... En sachant également quels sont les gènes indispensables à la survie ou à l'infectiosité des micro-organismes. Ce que devrait, à terme, révéler le séquençage des génomes et l'étude des protéines bactériennes.

Dans les années 1970, l'industrie pharmaceutique pensait son arsenal thérapeutique suffisant pour combattre les maladies infectieuses. Cantonnés au milieu hospitalier, les phénomènes de résistance microbienne semblaient contrôlés. Les principales firmes, chacune spécialisée dans une ou deux familles d'antibiotiques, ont exploité leur expertise chimique. Elles ont perfectionné leurs molécules, augmentant leur tolérance, élargissant leur spectre d'activité... Mais nombre d'entre elles ont tourné leurs efforts de recherche vers d'autres médicaments antimicrobiens, anti-viraux ou anti-fongiques, et certaines se sont même totalement détournées de ce domaine. Les besoins du marché leur semblaient comblés.

Ce point de vue est démenti depuis la fin des années 1980, avec l'apparition des multirésistances, et celle des résistances en médecine de ville. L'industrie pharmaceutique se tourne donc à nouveau vers la recherche. Son but est, bien sûr, de développer des antibiotiques et vaccins innovants mais aussi, à plus long terme, des classes d'agents antibactériens complètement nouvelles permettant de contourner les phénomènes de résistance. En effet, au lieu de tuer les bactéries comme le font les antibiotiques, ces nouveaux médicaments devraient atténuer le pouvoir pathogène des bactéries en ciblant leurs facteurs de virulence* ou en jouant sur les molécules de communication intercellulaire.

Lors du processus de découverte d'un médicament, chimistes et biologistes s'attachent à identifier ce que l'on appelle des « pistes chimiques ", des composés sélectionnés selon un premier crible, c'est-à-dire un test permettant de repérer les molécules susceptibles d'avoir l'activité recherchée. Ils valident ensuite ces molécules avec un deuxième criblage, fondé sur un test plus spécifique. C'est ainsi qu'ils repèrent les " têtes de série », dont ils étudient la relation structure-activité pour ensuite affiner leur activité pharmacologique.

Les chercheurs puisent les composés testés dans ce qu'ils appellent leur trésor, des banques de molécules ou pharmacothèques, aujourd'hui constituées le plus souvent par chimie combinatoire voir l'encadré : " La chimie combinatoire, source de diversité moléculaire ". De quels types de banques de molécules disposent-ils? Ils peuvent, dans un premier temps, faire appel à des banques d'aide à la recherche, dites exploratoires. Elles sont créées sur écran d'ordinateur à partir de banques virtuelles, générées par modélisation moléculaire. Plus rationnelles, les pharmacothèques dirigées comportent des molécules dont les caractéristiques sont déduites de la connaissance du site de liaison de la cible bactérienne. Enfin, les banques d'optimisation contiennent des molécules qui dérivent déjà d'une première piste chimique. La modélisation moléculaire, y compris les études de structure tridimensionnelle, facilite la conception rationnelle de ces pharmacothèques.

Mais elles n'ont d'intérêt que si l'on dispose conjointement d'outils performants de criblage, basés sur des cibles bactériennes originales: test enzymatique in vitro, tests sur bactérie entière ou recombinante... Ces outils de criblage, dits à haut flux ou à haut débit, sont issus des progrès de la robotique. Ce sont des systèmes capables de réaliser des tâches séquentielles indépendantes telles que dilution, pipettage et répartition de composés dans des cupules ou puits, agitation, incubation, lecture de résultats. Ils sont pilotés par des logiciels spécifiquement adaptés au type d'analyse que l'on réalise. Pour visualiser l'effet des composés testés, les méthodologies le plus souvent utilisées sont la fluorescence, la radioactivité, la scintillation par proximité* SPA: scintillation proximity assay , les tests cellulaires bactériens. Un criblage à haut débit permet d'analyser sur un crible défini, de 100 000 à 500 000 molécules en quelques semaines1. L'efficacité d'un crible est directement liée à la pertinence de la cible bactérienne choisie. Depuis dix ans, la recherche publique mondiale a fourni nombre de résultats dans des domaines variés de la bactériologie générale structure, biochimie, physiologie et virulence bactérienne et des mécanismes de résistance.

Quelles sont les cibles bactériennes sur lesquelles pensent pouvoir agir les laboratoires pharmaceutiques ? Et, tout d'abord, quelles stratégies employer pour contrer la résistance bactérienne aux antibiotiques? Deux grandes stratégies se dégagent: rechercher de nouvelles familles de molécules qui s'attaquent à des cibles bactériennes originales, échappant donc au problème de résistance croisée avec les antibiotiques des familles actuellement utilisées ; ou bloquer les mécanismes de résistance des bactéries. Passons en revue quelques-unes des différentes pistes explorées, sachant qu'à l'heure actuelle il est bien difficile de dire quelles sont les plus prometteuses.

L'approche visant à bloquer les mécanismes de résistance a déjà été mise en oeuvre quand on a découvert les bêta-lactamases, ces enzymes bactériennes qui inactivent différents antibiotiques de la famille de la pénicilline les bétâ-lactamines. C'est alors qu'ont été mis au point les inhibiteurs de bêta-lactamases. La multirésistance de certaines bactéries peut également être liée à un effet barrière des enveloppes bactériennes, effet qui empêche l'antibiotique d'atteindre sa cible dans le corps bactérien voir l'article de P. Trieu-Cuot et C. Poyart, dans ce numéro2. Pour répondre à ces problèmes d'enveloppe, plusieurs solutions : rechercher des molécules déstabilisant la membrane externe des bactéries à Gram négatif*, pour la rendre perméable aux antibiotiques ; rechercher des antibactériens dont la structure chimique échappe à l'action des pompes d'efflux, ces protéines insérées dans la membrane bactérienne qui rejettent les molécules dans le milieu extérieur ; ou encore développer des molécules interférant avec la synthèse des éléments de structure de ces pompes. Pour le premier déstabilisation de la membrane externe et le troisième cas inhibition des pompes, les molécules issues de cette recherche seraient utilisées en complément des antibiotiques déjà commercialisés. Dans le deuxième cas molécule échappant aux pompes d'efflux, on obtiendra une nouvelle famille d'antibiotique ou un antibiotique dérivé des familles existantes.

Autre piste, le processus de réplication de l'ADN bactérien offre aussi des cibles intéressantes. Chez Escherichia coli, par exemple, plus de trente protéines sont impliquées dans la réplication de l'ADN. La mutation des gènes codant ces protéines entraîne généralement un blocage de la réplication, suivi d'un arrêt de la croissance et souvent de la mort bactérienne. D'autre part, la machinerie de réplication est similaire chez la plupart des bactéries. De ce fait, un inhibiteur de la réplication a toutes les chances d'avoir un spectre d'activité large. A l'heure actuelle une famille d'antibactériens, les quinolones, a pour cible les topoisomérases, enzymes impliquées dans les changements de conformation de l'ADN. Mais on connaît maintenant une vingtaine d'enzymes polymérase III holoenzyme et ses sous- unités, ou encore DnaA, DnaB et DnaC... qui interviennent dans la phase initiale de réplication de l'ADN: ce sont autant de cibles potentielles pour de nouveaux agents antibactériens3.

La division cellulaire est un autre exemple de cible, d'ailleurs liée à la précédente. En effet, le processus de formation de la membrane la septation qui va séparer une bactérie en deux cellules filles est intimement coordonné au début de la réplication de l'ADN.

Un ensemble de protéines appelées Fts régulent et coordonnent la division d'une bactérie. L'une d'entre elles nommée FtsZ est impliquée dans la phase précoce de division et régule par sa concentration la fréquence de septation. Une faible augmentation de la production de cette protéine entraîne la formation de mini- cellules, alors qu'une forte augmentation de cette même protéine conduit à une filamentation et à la mort bactérienne4. Des composés interférant avec FtsZ pourraient donc être de bons candidats antibiotiques.

Dans un avenir plus lointain, un autre domaine, récemment mis en lumière, pourrait générer des cibles originales. Ce sont les voies de communication intercellulaires des bactéries. Bien qu'étant des organismes unicellulaires, les bactéries, lorsqu'elles se multiplient, sont intégrées dans une organisation multicellulaire générant des comportements de groupe liés à la densité microbienne dans un environnement donné. Ces comportements de groupes sont régulés par des signaux extracellulaires, véhiculés par des substances appelées phéromones. Chez les bactéries à Gram positif, ces phéromones sont des peptides. Chez les bactéries à Gram négatif, ce sont généralement des métabolites de la N-acylhomosérine lactone*. Ces systèmes de régulation du comportement des populations microbiennes, regroupés sous le terme anglais " quorum sensing », contrôlent nombre de fonctions d'une population bactérienne dans son environnement immédiat5. Les bactéries possèdent également des systèmes dits à deux composants, constitués d'un détecteur de surface capable de recevoir des signaux de l'environnement proche, et d'un transducteur permettant de transférer l'information jusqu'à certains gènes de l'ADN. L'activation de ces derniers modifie le comportement de la cellule bactérienne pour répondre au signal reçu. Enfin de nombreuses bactéries peuvent dialoguer avec les cellules-hôtes cellules épithéliales*, endothéliales* ou encore phagocytaires*. Elles produisent dans le milieu extérieur des molécules qui interfèrent avec la cellule-hôte et détournent certaines de ses activités à leur profit6. Que l'on bloque la production de phéromones, le détecteur ou le transducteur du système à deux composants, l'idée sous-jacente est d'empêcher la bactérie de s'adapter à son environnement sans porter atteinte à sa survie, ce qui devrait éviter l'apparition de résistances.

Un dernier exemple de cible potentielle est la capacité d'adhérence des bactéries aux cellules qu'elles infectent. Pour beaucoup d'agents pathogènes, la première phase de la colonisation d'un hôte se caractérise par l'attachement spécifique des bactéries aux cellules d'un tissu ou à un biomatériau implanté cathéter, prothèse.... Généralement, cette adhérence résulte de l'interaction spécifique d'une adhésine bactérienne, le plus souvent de nature protéique, et d'un récepteur cellulaire servant de lien entre la bactérie et l'hôte cellule ou biomatériau. La connaissance approfondie de ces systèmes d'adhérence chez différentes bactéries pathogènes, telles que les colibacilles, les staphylocoques ou encore les streptocoques, permet d'envisager le développement de molécules capables de les bloquer et donc de prévenir l'installation de l'infection voir figure7.

A plus long terme, l'innovation devrait également venir de la génomique, c'est- à-dire de la caractérisation et du séquençage total du génome et de son exploitation. Depuis quelques années, le décryp- tage systématique des génomes des bactéries pathogènes monte en puissance. Depuis le premier séquençage d'un génome bactérien, celui d' Haemophilus influenzae en 1995, une dizaine d'autres ont déjà été totalement séquencés, par des réseaux de laboratoires publics ou par des sociétés privées8. On peut s'attendre à ce que le génome de la majorité des bactéries pathogènes pour l'homme soit séquencé au début des années 2000.

Un génome bactérien correctement reconstitué et annoté dont les gènes sont identifiés doit apporter de nouvelles cibles. Mais le chemin sera long, car seuls certains gènes intéressent la recherche antibactérienne: ainsi un génome contenant, par exemple, 2 000 gènes comporte probablement 10 % de gènes essentiels à la croissance in vitro, et quelques pour-cent pour l'expression de la virulence. Mais la constitution de banques de séquences de gènes n'est que la première étape d'un travail colossal qui doit mener à l'étude de la fonction des nouveaux gènes découverts, et à une meilleure compréhension du rôle des gènes déjà connus. Ce n'est que lorsque la fonction des gènes sera élucidée que nous pourront identifier des cibles innovantes. Pour exploiter l'énorme masse de données du séquençage, il faut disposer d'outils moléculaires nouveaux et performants voir l'encadré: " Biopuces et peignage d'ADN ". L'exploitation des banques de gènes grâce à la bioinformatique permet, par étude d'homologie de séquences, d'accéder à la fonction d'une partie des gènes nouvellement identifiés. Une autre méthode consiste à étudier l'impact de l'inactivation de ces gènes sur la croissance bactérienne.

Il est également possible de rechercher des gènes qui ne s'expriment qu' in vivo, lors des phases d'infection et de multi- plication9. On sait peu de choses de ces gènes qui gouvernent l'expression de la pathogénicité chez l'hôte, pour la simple raison que la majorité des études de microbiologie moléculaires ont été réalisées sur des bactéries cultivées en tubes à essai et non dans un organisme vivant. Mais aujourd'hui plusieurs méthodes expérimentales permettent de les identifier:

- la technique d'expression de gènes in vivo IVET, pour in vivo expression technology . Les chercheurs travaillent avec des souches bactériennes mutantes qui, par exemple, ne peuvent survivre que si on leur fournit une base azotée, la purine on dit qu'elles sont auxotrophes à la purine. Ils construisent des plasmides* contenant le gène codant la purine et un gène marqueur celui d'une enzyme, la galactosidase, mais pas de promoteur séquence d'ADN qui déclenche l'expression d'autres gènes. Ces plasmides sont introduits dans les bactéries et s'intègrent dans leur chromosome. Après avoir injecté les bactéries ainsi modifiées à une souris, on recherche celles qui ont pu se multiplier in vivo . Si oui, c'est qu'un promoteur de la bactérie s'est exprimé, permettant la production de purine. On peut alors l'identifier grâce au gène marqueur puis, enfin, le repérer dans la souche bactérienne. Outre l'auxotrophie à la purine, les chercheurs se servent, par exemple, de souches résistantes au chloramphénicol ;

- la méthode d'induction différentielle de fluorescence DFI, pour differential fluorescence induction . Elle repose sur le même principe que la précédente. Mais dans ce cas le plasmide contient le gène d'une protéine vert fluorescent GFP, pour green fluorescent protein , facilement repérable in vivo s'il est activé par un promoteur bactérien ;

- la mutagenèse dirigée STM, pour signature-tagged mutagenesis . Elle est fondée sur l'emploi d'un pool de souches bactériennes mutantes. Ce sont des mutants dits d'insertion, c'est-à-dire que l'on a introduit au hasard dans leur génome des fragments d'ADN, ce qui bloque l'expression des gènes. On injecte ces bactéries à la souris, puis on compare les souches cultivées in vitro à celles qui se sont multipliées in vivo . Si l'on ne retrouve pas certaines souches chez l'animal, c'est qu'on a muté un gène essentiel pour l'infection ;

- la transformation d'une souche non pathogène en pathogène. Il s'agit d'introduire dans des bactéries avirulentes des gènes issus de souches virulentes, dont on pense qu'ils ont un rôle important dans l'infection. Puis d'évaluer le pouvoir pathogène chez l'animal des souches ainsi créées ;

- la technique d'hybridation soustractive d'ARN messagers. Son but est d'éliminer la majorité des gènes dits domestiques ceux du métabolisme de base ne jouant pas un rôle majeur in vivo .

Complémentaire de la génomique, un nouveau champ de recherche se développe rapidement : la protéomique. Il s'agit de l'analyse systématique de toutes les protéines d'une bactérie, grâce à l'emploi conjoint de techniques éprouvées d'analyse des protéines, de la robotique et de l'informatique voir l'encadré : " Qu'est-ce que la protéomique ? ". En recherche antibactérienne, elle permet l'étude des protéines intervenant dans les mécanismes de résistance aux antibiotiques ou des facteurs de virulence.

Revenons, entre autres, au processus de développement du médicament. On a identifié une cible innovante, mis au point le criblage primaire des pharmacothèques, sélectionné les composés répondant positivement à ce crible, validés les pistes chimiques, identifié et optimisé les têtes de série. Les meilleures candidates, quand elles ont une activité antibiotique classique inhibition de la croissance ou activité létale, entrent alors dans le processus bien défini de prédéveloppement études bactériologiques précliniques in vitro et infections expérimentales10. Mais il n'en va pas de même si l'on s'intéresse à des molécules dont l'activité s'exerce sur la capacité d'une bactérie à maîtriser son environnement immédiat cellules ou tissus de l'hôte, ou encore sur les facteurs de virulence responsables de la pathogénicité du micro-organisme. Dans ce cas, les molécules n'ont pas ou peu d'impact sur la croissance bactérienne. Il va falloir, par exemple, démontrer que l'on protège l'animal, ou que l'on diminue la durée de l'infection. Mais il n'existe pas encore de méthodes d'évaluation d'activité référencées permettant de juger directement ou indirectement de l'activité d'une molécule sur un facteur de virulence. Il nous faut mettre au point des tests sur animaux, des modèles cellulaires par exemple inhibition de la capacité d'adhérence de la bactérie à des cellules épithéliales, des modèles d'étude d'activité curative molécule seule ou associée à un antibiotique classique ou prophylactique.

Il n'est pas exagéré d'écrire que la recherche pharmaceutique dans le domaine des antibactériens entre dans une nouvelle époque. Les connaissances en microbiologie fondamentale, médicale et moléculaire, s'accumulent rapidement. Les outils de recherche de nouvelles molécules actives sur les bactéries sont de plus en plus performants. Les pro- chaines années verront sans aucun doute apparaître de véritables innovations thérapeutiques et prophylactiques. Elles devraient répondre, au moins en partie, au problème de la multirésistance aux familles d'antibiotiques disponibles. Rappelons toutefois qu'il faut une dizaine d'années pour développer un nouveau médicament, et qu'une bactérie, grâce à son remarquable pouvoir d'adaptation, est toujours capable de contourner une difficulté majeure mettant en cause sa pérennité.

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

COEUR ARTIFICIEL

 


 

 

 

 

 

La longue marche vers le coeur artificiel
autre - par Florence Rosier dans mensuel n°297 daté avril 1997 à la page 72 (3374 mots)


La première implantation d'un coeur artificiel a eu lieu il y a quarante ans, sur un chien. Elle a ensuite connu une longue histoire d'échecs. Les techniques se sont cependant améliorées, et, depuis une dizaine d'années, des dispositifs bien supportés par les malades sont utilisés cliniquement. Une partie de leur appareillage, notamment la source d'énergie, reste cependant à l'extérieur du corps. L'intégration intracorporelle de cet élément se situe à un horizon encore lointain.

Lesmaladies cardio-vasculaires sont dans les pays occidentaux la cause la plus fréquente de mortalité. Au premier rang de ces décès, l'insuffisance cardiaque, c'est- à-dire l'incapacité du coeur à assurer la circulation du sang qui apporte l'oxygène à l'organisme. Cette maladie entraîne entre 10 000 et 30 000 décès par an dans notre pays. Mais les transplantations, dont les possibilités plafonnent à quelque 800 par an dans notre pays, ne peuvent couvrir tous les besoins existants, en raison du nombre limité de donneurs de coeur1. Pour remédier à cette pénurie, on étudie depuis une quarantaine d'années des substituts mécaniques du muscle cardiaque, qui commencent à être utilisés quotidiennement. Dans l'idéal, ils s'adressent aux patients âgés de moins de 65 ans ne présentant pas d'autre maladie infectieuse ou cancéreuse que leur insuffisance cardiaque.

Il existe aujourd'hui de nombreux systèmes d'assistance ou de suppléance cardiaque. Ils restent des « coeurs partiels » : les plus élaborés sont les ventricules artificiels, qui déchargent les ventricules défaillants de leur fonction. Ils sont branchés en dérivation sur le coeur malade, qui est laissé en place et conserve ainsi une chance de récupérer. Les ventricules artificiels ont été conçus pour une implantation temporaire, dans l'attente d'une transplantation. Mais comme ces attentes sont parfois très longues, on commence à les utiliser de façon plus durable. Ces systèmes constituent des modèles précieux pour la mise au point du coeur artificiel total. Celui-ci devra répondre à trois exigences : être entièrement implantable, se substituer définitivement au coeur naturel et prendre entièrement en charge la fonction des deux ventricules.

Avant de décrire ces substituts, il faut se rappeler comment fonctionne le coeur humain. Ce muscle compte quatre cavités : deux oreillettes et deux ventricules. Il a une fonction de pompe, exercée en deux temps : durant la diastole, le coeur se relâche et les valves entre les oreillettes et les ventricules s'ouvrent, laissant le sang remplir les ventricules ; durant la systole, les ventricules se contractent et chassent le sang vers les poumons et le reste du corps. Ce sont ces ventricules, principalement le gauche, qui travaillent et fatiguent le plus.

L'histoire du coeur artificiel commence en 1957, quand les chirurgiens américains Kolff et Akutsu parviennent à maintenir un chien en vie avec un coeur en plastique fonctionnant à l'air comprimé. Si l'exploit technique est considérable, la survie n'excède guère une heure. Durant la décennie suivante, plusieurs autres systèmes sont expérimentés chez l'animal. La première implantation humaine d'un appareil placé en dérivation sur le coeur malade est réalisée en 1962 par Mikaël de Bakey, à Houston. Après une assistance de huit jours, le malade survivra avec son propre coeur pendant une dizaine d'années. Le 2 avril 1969, la première implantation en substitut du coeur déficient excisé est tentée chez l'homme par Denton Cooley et Domingo Liotta à l'hôpital St Luke de Houston sur un malade dont l'état est désespéré, et qui meurt le 8 avril. Peu après, deux autres malades sont opérés et meurent peu après eux aussi.

Ces échecs freinent la recherche, et ce n'est qu'en 1982 qu'elle est vraiment relancée. A Salt Lake City, l'implan-tation effectuée sur un homme pesant 100 kg, Barney Clark, est suivie par les médias du monde entier. L'appareil implanté, conçu par William Kols et réalisé par Robert Jarvik, est un coeur mécanique à deux ventricules, branché sur les oreillettes en lieu et place des ventricules natifs. Il est activé par un système externe à air comprimé. Le malade doit être réopéré et meurt 112 jours plus tard, à l'issue de complications infectieuses. En 1984, cinq opérations similaires sont menées dans l'optique d'un remplacement définitif. La Food and Drug Administration oblige alors les chirurgiens à mettre un terme à ces essais, compte tenu de la survie trop brève des malades opérés.

« Le seul intérêt de ces tentatives a été de mettre en lumière les problèmes existants, déjà identifiés par l'expérience animale : prothèses trop volumineuses, risques d'embolie et d'infection , dit le professeur Daniel Loisance, de l'hôpital Henri- Mondor de Créteil. Les recherches se sont alors orientées dans d'autres directions , si bien que l'on dispose aujourd'hui de tout un éventail de systèmes d'assistance cardiaque qui se rapprochent progressivement du coeur artificiel idéal, tout en présentant des bénéfices thérapeutiques immédiats pour le malade. »

Ces systèmes restent réservés aux malades atteints d'insuffisance cardia-que terminale , c'est-à-dire dont la vie est menacée à court terme. Avant d'en arriver là, les médecins disposent d'un arsenal thérapeutique qui a beaucoup progressé au cours des dernières années. Ce sont avant tout les traitements médicamenteux qui retardent et parfois enrayent la progression de la maladie. Ce peut être également une nouvelle technique chirurgicale : la cardiomyoplastie. Développée dans les années 1980, principalement sous l'impulsion du professeur Carpentier, de l'hôpital Broussais, à Paris, cette méthode consiste à renforcer la contraction cardiaque en greffant sur le coeur malade un muscle squelettique* prélevé sur le patient lui-même. Cette technique n'est toutefois d'aucun secours lorsque l'insuffisance cardiaque est parvenue à un stade terminal.

Après une défaillance cardiaque aiguë, comme un infarctus ou une myocardite inflammation du coeur, il arrive dans moins de 25 % des cas que le muscle récupère une partie de ses capacités, au bout de quelques jours ou de quelques semaines. C'est pourquoi, lorsque les médecins espèrent une récupération en cas de crise aiguë, ils tentent de préserver le coeur en le déchargeant temporairement de son travail.

Les systèmes de circulation extracorporelle en sont l'instrument. Ils sont formés d'un circuit conduisant le sang du corps vers une pompe extracorporelle et, lorsque le malade est en situation d'arrêt ventilatoire, vers un oxygénateur, d'où le sang revient oxygéné dans le corps. Ce circuit est établi entre une artère et une veine périphériques par de petits tuyaux appelés « canules » qui traversent la peau. Le sang est aspiré à travers une pompe extracorporelle centrifuge : c'est un dispositif muni d'aubes radiales qui, en tournant, propulse le sang avec un débit proportionnel à la vitesse de rotation.

Cependant, ce circuit provoque un important traumatisme sanguin : éclatement des globules rouges, dû au choc mécanique, mais aussi dénaturation des protéines du sang et réaction inflammatoire liée à l'activation des globules blancs principaux effecteurs de l'immunité et des plaquettes cellules responsables de la coagulation du sang. C'est pourquoi l'assistance extracorporelle ne peut excéder quelques jours. En outre, pour pallier les risques d'embolie, le malade doit absor-ber des médicaments anticoagulants généralement de l'héparine, dont les effets secondaires, saignements ou réaction allergique, ne sont pas négligeables.

Une alternative consiste à mettre en place, au sein même du ventricule gauche, une hélice de type « vis sans fin » , qui aspire le sang dans la cavité ventriculaire et l'éjecte dans l'aorte2. Cette hélice a été conçue en 1985 par un ingénieur américain, Richard Wampler, qui s'est inspiré de l'observation en Egypte de meuniers utilisant une vis sans fin pour hisser leur grain. L'hélice environ 9 millimètres de long est introduite par l'artère fémorale au moyen d'un cathéter souple. Une fois en place, elle est entraînée à grande vitesse 25 000 tours par minute par un câble, protégé par une gaine en Téflon et mû par un moteur électrique extracorporel. Ce système, baptisé « hémopompe » , soulage notablement le ventricule défaillant. Se passant d'oxygénateur, il est adapté aux cas où la fonction pulmonaire reste assurée. Il a cependant ses limites, liées aux difficultés d'insertion, à la formation de caillots dans la cavité ventriculaire et à l'insuffisance du débit sanguin qu'il autorise : 3,5 litres de sang par minute, contre 5 à 6 pour un coeur sain. Son emploi ne peut donc excéder quelques jours.

La deuxième grande catégorie de systèmes regroupe les appareils destinés aux malades dont le coeur ne pourra pas récupérer spontanément ses fonctions, permettent une assistance cardiaque prolongée. Ainsi les « coeurs de Jarvik » du nom de leur premier concepteur, sont implantés en lieu et place du coeur natif. Le chirurgien excise les deux ventricules malades. Puis, sur les oreillettes laissées en place, il branche les substi-tuts ventriculaires implantés dans la cage thoracique. Ces substituts sont des chambres cloisonnées par une membrane en deux compartiments. L'un contient le sang, l'autre de l'air pulsé. L'air déplace la membrane à intervalles réguliers, chassant ainsi le sang vers l'artère pulmonaire ou vers l'aorte. Des canules traversent la peau au niveau du thorax, reliant le compartiment gazeux à un compresseur extracorporel, volumineux et peu mobile, qui produit l'air comprimé actionnant la membrane.

Ce dispositif, commercialisé par la société Cardiawest, de Tucson Arizona, présente de sérieux inconvénients : l'autonomie du malade, relié en permanence au compresseur, reste très limitée. De surcroît, le risque infectieux dû aux tuyaux qui traversent la peau est important. Enfin les chambres ventriculaires sont encombrantes 900 cm3 et compriment poumons et oreillettes, altérant les fonctions pulmonaire et circulatoire. Néanmoins, « ce système reste parfois la seule solution, notamment quand un infarctus provoque la rupture de la cloison entre les deux ventricules » dit Daniel Loisance.

Un autre procédé de suppléance durable consiste à laisser le coeur intact et à brancher les ventricules artificiels en dérivation sur les ventricules naturels. Ceux-ci continuent de laisser passer le sang, mais ils battent à vide, indépendamment du ou des ventricules artificiels. Les chambres ventriculaires, intra- ou extracorporelles, sont reliées au coeur natif par des tubes. Le sang est aspiré dans une des oreillettes et réinjecté dans l'artère pulmonaire ventricule droit ou dans l'aorte ventri-cule gauche. Ces ventricules artificiels sont constitués de cinq éléments. La chambre ventriculaire proprement dite contient le compartiment sanguin, où le sang est pompé grâce à divers types d'énergie : pneumatique dispositif à air pulsé, hydraulique modèle similaire, où l'air est remplacé par de l'huile, centrifuge le sang est propulsé par la rotation d'un système à aubes, électrique le compartiment sanguin est un sac que vient comprimer le déplacement d'un piston mû par énergie électrique ou électromagnétique le compartiment sanguin est comprimé par le brusque rapprochement de deux bobines de fil conducteur au passage d'un courant.

Deuxième élément : des valves qui, à l'entrée et à la sortie de la chambre ventriculaire, assurent la progression du sang dans la bonne direction.

Troisième élément : le transformateur, implanté, convertit l'énergie électrique en une forme utilisable pour le pompage du sang. Ainsi, dans le modèle électrique, la rotation du moteur électrique génère un mouvement de trans-lation alternative dans un système de cames : la pièce rotative est munie de saillies qui, à chaque tour, soulèvent un levier s'appuyant sur elles. Ce levier adopte alors un mouvement de va-et-vient qui actionne le piston comprimant le compartiment sanguin.

Quatrième élément : la source d'énergie, toujours extracorporelle dans les modèles actuels. Il s'agit d'un compresseur dans les modèles pneumatiques, d'un moteur électrique ou de batteries dans les modèles centrifuge, électrique ou électromagnétique. Enfin, un système de régulation adapte le débit du sang aux besoins de l'organisme en oxygène. Ces besoins sont évalués par la mesure du débit du sang qui revient aux ventricules.

Parmi les dispositifs que nous venons de décrire, les ventricules extracorporels assurent une assistance de quelques semaines. La plupart fonctionnent à l'énergie pneumatique. En 1983, un premier malade était équipé d'un mono-ventricule pneumatique extracorporel par les professeurs Don Hill et John Farrar, au Medical Pacific Center de San Francisco. En 1986, un premier malade français a bénéficié d'un biven-tricule extracorporel, dans l'équipe d'Alain Carpentier. Ce patient, qui a pu être transplanté ultérieurement avec succès, vit encore aujourd'hui.

Le caractère extracorporel d'une partie de ces dispositifs les rend difficiles à supporter pour le malade. Le compresseur, volumineux 1 mètre de haut sur 0,60 mètre de large et autant de profondeur, est très peu mobile. Le patient doit rester hospitalisé jusqu'à ce qu'il soit greffé. Enfin, le risque infectieux n'est pas négligeable, du fait des canules qui traversent la peau. Le coût d'un ventricule pneumatique extracorporel varie de 100 000 à 250 000 francs, à quoi il faut ajouter le coût de la surveillance du malade pendant la durée de l'assistance.

Pour se rapprocher du véritable coeur artificiel Ñ entièrement implantable, biventriculaire et quasi définitif Ñ il fallait donc réduire l'encombrement des prothèses, en s'affranchissant de l'élément le plus volumineux : le compresseur. C'est pourquoi l'on s'est progressivement tourné vers des systèmes à énergie électrique, dont la source est facilement miniaturisable sous forme de piles.

Dans ces systèmes intracorporels , le ventricule artificiel gauche, presque toujours est implanté dans la paroi abdominale, tout comme le transformateur d'énergie. Il est branché en dérivation entre la pointe du ventricule natif gauche, qui reste en place, et l'aorte. Seuls sont déportés en dehors du corps le système de régulation et la source d'énergie. Celle-ci est constituée de batteries rechargeables, d'une autonomie d'environ quatre heures. Les batteries sont portées à la ceinture ou en bandoulière. Le malade peut donc se déplacer librement, l'énergie électrique étant transmise au ventricule artificiel par un câble électrique qui traverse la peau. Ces systèmes peuvent rester implantés plusieurs mois voire plusieurs années.

Deux modèles, tous deux américains, sont utilisés en clinique humaine : le ventricule Novacor de la compagnie Baxter et le ventricule TCI de Heartmate. Le système Novacor, dans sa version actuelle, a été implanté pour la première fois chez l'homme en 1993, dans le service de Daniel Loisance. Il s'agit d'un système électromagnétique : la chambre ventriculaire comporte une bobine de fil électrique à deux bras, reliés par des ressorts au compartiment sanguin constitué d'un sac en polyuréthane. Au passage d'un courant, les deux bras se rapprochent et les ressorts viennent comprimer le compartiment sanguin, éjectant un volume de 70 millilitres de sang. L'ensemble est encapsulé dans une enceinte rigide en époxy 16 cm de long sur 13 cm de large et 6 cm d'épaisseur, qui pèse 850 grammes.

Pour permettre le remplissage et le vidage du compartiment sanguin, l'intérieur de la chambre ventriculaire est mis en communication avec l'atmosphère extérieure par un conduit contenu dans le câble d'alimentation électrique. Un filtre, placé à l'interface avec la peau, assure la stérilité de l'air ainsi introduit. Cependant, le malade ne doit prendre ni bain, ni douche, afin d'éviter la pénétration de l'eau.

Le modèle électrique TCI, plus récent que Novacor, est en cours d'évaluation depuis dix-huit mois aux Etats-Unis. Il n'est pas encore utilisé en France. Dans ce système, le compartiment sanguin est comprimé par une membrane en polyuréthane recouverte de fibres de Dacron. Cette membrane est déplacée par un piston, lui-même animé par un moteur électrique via un système de cames. Le volume de sang éjecté à chaque cycle est de 80 millilitres. La surface du compartiment sanguin est recouverte de billes de titane. « Ce revêtement rugueux pourrait diminuer le risque de thrombose et d'embolie » indique le professeur Jean-Raoul Monties, de l'hôpital de La Timone à Marseille.

Au total, plus de 600 patients dans le monde ont été équipés de ces prothèses, dont environ 500 avec le système Novacor une quarantaine en France. Dans la moitié des cas, les malades ont pu être greffés par la suite, avec un taux de succès de 90 %. Dans l'autre moitié, malheureusement, les malades sont décédés des suites de leur maladie, le plus souvent au cours du premier mois après l'opération. Ces morts sont généralement imputables à une déchéance multi-organes liée à l'insuffisance cardiaque : reins, poumons et cerveau étaient déjà sévèrement atteints au moment de l'opération.

Mais les résultats sont parfois spectaculaires : grâce à leur ventricule artificiel, certains patients, jadis en situation désespérée, ont pu retourner vivre à leur domicile et poursuivre diverses activités. Certains vivent avec leur prothèse depuis maintenant plus de deux ans, recul maximal dont on dispose aujourd'hui. « Ces systèmes permettent une attente dédramatisée de la greffe , dit Daniel Loisance. En outre, le ventricule gauche malade semble capable de récupérer, au bout de plusieurs mois, chez 10 à 15 % des insuffisants cardiaques chroni-ques. Ces patients pourraient alors être sevrés de leur prothèse. »

Pour autant, ces substituts cardiaques ne sont pas sans défaut. Si les risques d'infection, de thrombose ou d'embolie sont de mieux en mieux maîtrisés, il n'en va pas de même des problèmes techniques. Ainsi, les ventricules électromagnétiques sont relativement bruyants. Curieusement, ce problème est mieux toléré par le malade lui-même que par son entourage. Autre problème : les valves utilisées, les sacs ventriculaires en plastique et les systè-mes de cames sont soumis à une usure importante. Leur fonctionnement est garanti deux ans, ce qui correspond à la durée maximale d'implantation actuelle. Passé ce délai, comment se comporteront ces systèmes ? Faudra-t-il remplacer certaines pièces défec-tueuses ?

D'autre part, le coût de ces appareillages est important : « Environ 1,5 million de francs, si l'on inclut l'installation et la surveillance d'une prothèse implantée en permanence » estime Jean-Raoul Monties. Néanmoins, ce coût serait comparable à celui de la prise en charge médicamenteuse des insuffisants cardiaques, selon Daniel Loisance.

Un progrès technique attendu est l'affranchissement du câble électrique transcutané. L'énergie des batteries sera transmise au système à travers la peau par induction électromagnétique. Un courant électrique alternatif passera à travers une bobine placée à l'extérieur du corps dans un appareil porté à la ceinture ; il y créera un champ magnétique dont la variation induira le passage d'un courant à travers une seconde bobine implantée dans l'abdomen en prolongement de la première bobine. D'autre part, comme on supprimera le câble transcutané permettant la communication de la chambre ventriculaire avec l'atmosphère extérieure, il faudra compenser autrement les variations de volume liées à la compression du compartiment sanguin. On envisage d'implanter dans le thorax une « chambre de compensation volumétrique » remplie de gaz, qui injectera à intervalles réguliers un volume de gaz équivalent au volume comprimé dans la chambre ventriculaire. Cependant, cette chambre augmentera l'encombrement de l'appareil. De plus, les chambres actuellement étudiées ne sont pas parfaitement étanches, ni imperméables aux gaz.

Si ces dispositifs deviennent opérationnels, on aura quasiment réussi à faire un coeur artificiel total. Il faudrait alors systématiser le substitut biventriculaire, et pas seulement monoventri-culaire. Il ne resterait plus ensuite qu'à parvenir à réaliser une source d'énergie implantable pour atteindre l'objectif.

La conception d'un coeur artificiel total se heurte encore à de nombreux problèmes. Pour Daniel Loisance, le premier d'entre eux est clinique3 : les indications respectives des systèmes actuels restent à préciser, en regard des besoins potentiels en coeurs artificiels. Par ailleurs, on ne dispose pas à l'heure actuelle de biomatériaux parfaitement inertes. La mise en place d'une prothèse s'accompagne toujours d'un risque de réactions locales ou générales telles que thrombose, embolie ou réaction inflammatoire. La miniaturisation des prothèses constitue un autre obstacle technologique : les systèmes actuels sont trop volumineux la chambre ventriculaire occupe environ 1 250 cm3 et trop lourds la chambre ventriculaire pèse environ 0,8 kg, le transformateur 0,8 kg, la batterie 1,2 kg. Quant à la mise au point d'un système de régulation capable d'adapter le débit sanguin à l'effort physique, à l'émotion ou à un accident, elle reste à réaliser.

Sur un autre plan, l'acceptation par la société des coeurs artificiels reste à conquérir. Leur coût important imposera en effet des choix délicats, relevant de l'économie autant que de l'éthique : comme dans toute médecine de pointe, la question se posera de savoir jusqu'où il faut aller dans la tentative de prolonger une existence menacée, et à quel prix.

Mais arrivera-t-on vraiment à réaliser le coeur artificiel total et, si oui, dans quel délai ? Les avis des spécialistes divergent. « D'ici 2 à 50 ans » répond, énigmatique, Alain Carpentier, qui étu-die depuis sept ans un projet de coeur artificiel total en partenariat avec un industriel français. « Pas avant l'an 2000, pour un ventricule artificiel permanent, et pas avant l'an 2010 pour un coeur artificiel total » renchérit Jean-Raoul Monties qui travaille sur un autre pro-jet. Daniel Loisance est plus réservé : « A mesure que les systèmes d'assistance ou de suppléance cardiaque actuels seront de mieux en mieux maîtrisés, et leurs indications de plus en plus précises, on découvrira peut-être que les besoins en ce véritable coeur artificiel sont limités, voire exceptionnels » .

Par Florence Rosier

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LA MÉMOIRE

 

LA  MÉMOIRE

Notre mémoire se structure en sous-systèmes regroupant, chacun, des souvenirs différents. Le modèle le plus courant consiste à les distinguer en fonction de la durabilité des souvenirs.

Mémoire à court terme

Appelée également mémoire de travail, elle a une capacité limitée : elle permet de conserver un petit nombre d'items en tête pendant quelques dizaines de secondes. Cette forme de mémoire permet la répétition immédiate d'une information - un numéro de téléphone par exemple -, qui peut parfois être « manipulée », pour faire du calcul mental.

Mémoire à long terme

Elle permet de conserver durablement des informations pendant des jours, voire des années. Elle est subdivisée en quatre formes de mémoire différentes : la mémoire épisodique, sémantique, perceptive et procédurale.

1 Mémoire épisodique

Elle conserve les événements personnellement vécus par l'individu, ainsi que leur contexte date, émotions.... Elle donne au sujet l'impression de revivre l'événement initial.

2 Mémoire sémantique

Elle permet le stockage des connaissances générales sur le monde et sur soi profession, taille, âge, etc.. Elle conserve également tout ce qui se rapporte au langage.

3 Mémoire perceptive

Elle conserve les informations apportées par les sens sur la forme des objets, leur texture, leur odeur, et est souvent sollicitée à l'insu du sujet, de façon automatique.

4 Mémoire procédurale

Elle enregistre les gestes dont l'utilisation devient automatique au fil du temps faire ses lacets, conduire une voiture, etc., ainsi que les procédures mentales protocole pour résoudre un problème de mathématiques, par exemple.


  DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

CERVEAU - SOUVENIRS

 

Neuro-modelage des souvenirs


la mémoire et l'oubli - par Serge Laroche dans mensuel n°344 daté juillet 2001 à la page 20 (3412 mots) | Gratuit
Comment les neurones parviennent-ils à enregistrer nos souvenirs de façon durable ? Les controverses sont vives. Néanmoins, le puzzle se constitue peu à peu autour d'une pièce centrale : la plasticité du cerveau. Variation de l'activité de certaines synapses, croissance de nouvelles d'entre elles, et peut-être même formation de nouveaux neurones semblent impliquées dans la formation de traces mnésiques au niveau cellulaire.

Plusieurs centaines de milliards de neurones, chacun relié directement à dix ou vingt mille autres neurones par des connexions appelées synapses : voilà la formidable machine de plus d'un million de milliards de connexions qui nous permet de percevoir, de construire nos souvenirs, mais aussi de savoir, de croire, de décider et d'agir.

La clé de ses capacités réside en une propriété étonnante : celle de pouvoir remodeler, reconfigurer ses propres circuits. A cette aune, qu'est-ce que la mémoire ? Le modèle général considère qu'à chaque souvenir correspondrait une configuration unique d'activité dans de vastes réseaux neuronaux. Or, on sait depuis longtemps que cette activité est, par nature, évanescente. Elle ne peut donc constituer une trace stable à long terme, compatible avec la quasi-permanence des souvenirs. Alors, comment ceux-ci s'inscrivent-ils ? Quelle est leur trace matérielle ?

L'idée d'une reconfiguration des circuits neuronaux naît en 1894, lorsque le neuroanatomiste Santiago Ramón y Cajal propose, au cours d'une conférence à la Royal Society de Londres, une hypothèse révolutionnaire : l'apprentissage faciliterait l'expansion et la croissance de protubérances - elles allaient bientôt s'appeler les synapses - qui connectent les neurones entre eux. Cette première formulation du concept de plasticité neuronale est, à l'époque, d'autant plus frappante que les études anatomiques du cerveau et de son développement révèlent la précision et la stabilité des assemblages neuronaux. Sans arguments expérimentaux directs, les positions théoriques s'affrontent entre les tenants de l'hypothèse de la plasticité et ceux qui, comme Lorente de Nó, un élève de Cajal, et Deslisle Burns, prônent une conception plus dynamique impliquant la circulation en boucle de l'activité neuronale dans des chaînes de neurones. En 1949, le psychologue canadien Donald Hebb énonce une hypothèse forte, qui permet de concilier les deux points de vue. Hebb propose que l'activité électrique que l'on observe dans des assemblées de neurones lors d'un apprentissage persiste pendant un certain temps, comme pour frayer un chemin, et que cela entraîne des modifications cellulaires ou biochimiques des neurones activés, de sorte que la force synaptique entre eux augmente. Un demi-siècle après la publication de l'ouvrage de Hebb, le postulat selon lequel l'activité simultanée de neurones connectés modifie les connexions synaptiques entre ces neurones est devenu la pierre angulaire de notre compréhension des bases cellulaires de la mémoire.

Mais un postulat n'a pas force de théorème. Comment prouver la réalité de cette plasticité ? Un premier argument en sa faveur est venu de l'étude de formes simples d'apprentissage en l'occurrence, du conditionnement chez un mollusque marin, l'aplysie. En 1970, Eric Kandel et ses collaborateurs mettent en évidence des changements fonctionnels des synapses de l'aplysie, corrélativement à cet apprentissage1. Ces résultats ne devaient trouver leur pendant chez les mammifères qu'en 1973. Timothy Bliss et Terje Lømo démontrent alors, en travaillant sur des lapins, l'extraordinaire capacité de plasticité des synapses de l'hippocampe - structure qui joue un rôle fondamental dans de nombreux types de mémoire voir l'article de Bruno Poucet dans ce numéro. Cette plasticité est désormais connue sous le nom de potentialisation à long terme, ou LTP2. Dans leur découverte initiale, les auteurs montrent qu'une brève stimulation à haute fréquence d'une voie neuronale envoyant des informations sensorielles du cortex à l'hippocampe, induit une augmentation importante et durable de l'efficacité de la transmission synaptique : les neurones cibles de l'hippocampe acquièrent une plus grande sensibilité à toute stimulation ultérieure. Le plus remarquable dans cette forme de plasticité, induite en quelques dizaines de millisecondes, est sa persistance : les synapses restent modifiées pour des semaines, voire des mois. Cette découverte suscita un enthousiasme considérable dans la communauté scientifique. Avait-on là le mécanisme du stockage de l'information dans le cerveau, que l'on cherchait depuis l'énoncé de la théorie de Hebb ? En étudiant les mécanismes de la LTP au niveau cellulaire, allait-on découvrir les mécanismes de la mémoire ? Cela semblait plausible à de nombreux chercheurs. Dès lors, un très grand nombre d'équipes ont orienté leurs travaux vers l'étude de ce modèle de plasticité.

Mécanismes de plasticité. Un premier courant, de loin le plus important en efforts de recherche, se penchait sur les mécanismes de la LTP au niveau cellulaire et moléculaire3. Les synapses concernées par le phénomène de plasticité utilisent le glutamate comme neuromédiateur. On en trouve dans l'hippocampe, bien sûr, mais aussi dans la plupart des structures corticales et sous-corticales du cerveau. Pour que ces synapses puissent être modifiées, il est impératif qu'elles soient d'abord activées, soit, en d'autres termes, que l'influx nerveux qui arrive au niveau du neurone présynaptique se propage au neurone post-synaptique. C'est le récepteur AMPA du glutamate qui permet la propagation de cet influx nerveux fig. 1. Si le neurone post-synaptique est suffisamment activé, un second récepteur jusqu'alors inactif, le récepteur NMDA, subit une modification qui fait que sa stimulation par le glutamate entraîne l'entrée de calcium dans la cellule. En découle l'activation de nombreuses protéines, en particulier des kinases* dont la calmoduline-kinase II CaMK II et les MAP kinases. Au moins deux types de mécanismes sont alors déclenchés : la phosphorylation* des récepteurs du glutamate tant NMDA que AMPA, et l'activation de la machinerie génique. Ainsi qu'on peut le voir en microscopie électronique, ces modifications aboutissent à un profond remodelage des circuits neuronaux : changement de la forme et de la taille des synapses, insertion de récepteurs du glutamate et transformation de synapses silencieuses en synapses actives, et croissance de nouvelles synapses.

Comment mettre à jour l'hypothétique lien entre plasticité synaptique et processus d'apprentissage et de mémorisation ? Le chemin était difficile, et l'histoire, encore jeune, de ces recherches est jalonnée de constantes fluctuations entre le rejet et l'acceptation de l'hypothèse. Toutefois, les connaissances sur les mécanismes moléculaires de la mémoire ont progressé ces dix dernières années à un rythme étonnant, et de plus en plus de résultats montrent que ces mécanismes de plasticité sont un élément déterminant du stockage des souvenirs.

Dans les années 1980, plusieurs laboratoires ont étudié des formes simples d'apprentissage associatif chez le rat, comme l'association d'un son avec un léger choc électrique. Après une certaine période de conditionnement, l'animal réagit au son seul comme il réagissait au choc électrique. Parallèlement, les neurones de nombreuses structures, y compris l'hippocampe, présentent une augmentation importante et sélective de leur fréquence de décharge. De plus, l'efficacité de la transmission synaptique dans les circuits de l'hippocampe augmente parallèlement aux progrès de l'apprentissage. Mais ces données n'ont qu'une valeur de corrélation, et ne sont pas la preuve d'une relation de cause à effet. Sans compter que les variations d'efficacité synaptique pen-dant l'apprentissage sont techniquement difficiles à mettre en évidence, car la transmission synaptique moyenne sur une large population de neurones reste relativement constante. De fait, des données suggèrent que le renforcement de certaines populations de synapses s'accompagne de l'affaiblissement d'autres. Ceci n'est pas si surprenant : comment concevoir que l'efficacité de très nombreuses synapses augmente chaque fois que l'on apprend ? Un tel système serait probablement très vite saturé. La dépression à long terme LTD, un mécanisme de plasticité inverse de la LTP que l'on peut observer dans certaines conditions d'activation synaptique, interviendrait-elle à ce niveau en évitant la saturation du système d'encodage et en augmentant le contraste entre synapses potentialisées et déprimées ? Ou jouerait-elle un rôle dans l'oubli comme le prédisent certains modèles théoriques ? Si des modifications synaptiques de type LTP ou LTD ont pu être observées dans différentes structures du cerveau en fonction de l'information à mémoriser, une analyse précise nécessitera le développement de nouvelles méthodes électro-physiologiques permettant d'isoler de petites populations de synapses.

La pharmacologie et la génétique ont apporté des réponses là où l'électrophysiologie se heurtait à ses limites. Le blocage de la LTP, obtenu en faisant appel à des techniques relevant de l'un ou l'autre de ces deux domaines, modifie-t-il les capacités d'apprentissage d'un animal ? A la fin des années 1980, le groupe de Richard Morris à Edimbourg montre que l'administration à des rats d'un antagoniste* des récepteurs NMDA, qui bloque la plasticité des synapses sans perturber la transmission des messages neuronaux assurée par le récepteur AMPA, rend ces animaux incapables d'apprendre une tâche de navigation spatiale. A mesure que les doses d'antagoniste augmentent, la plasticité synaptique diminue, et les déficits mnésiques se renforcent4. De notre côté, nous constations qu'en présence d'un antagoniste des récepteurs NMDA les neurones de l'hippocampe ne modifient plus leur activité pendant un apprentissage associatif, suggérant que ces mécanismes de plasticité sont nécessaires à la construction d'une représentation neuronale de l'information à mémoriser. Et, alors que l'équipe de Bruce McNaughton à Tucson montrait que la saturation de la LTP dans l'hippocampe par de multiples stimulations électriques perturbait l'apprentissage spatial, l'enthousiasme pour considérer que la LTP représentait un modèle des mécanismes de l'apprentissage grandissait. Mais le scepticisme quant au rôle de la LTP dans la mémoire s'installa de nouveau lorsque plusieurs équipes ne purent reproduire ce résultat. Il a fallu plusieurs années pour inverser la tendance et montrer que l'on observe un réel déficit mnésique pour peu que l'on s'approche autant que possible de la saturation maximale de la LTP, saturation qui empêche les synapses d'être modifiées pendant l'apprentissage.

Une autre approche déterminante a consisté à d'abord rechercher les mécanismes biochimiques et moléculaires de la mémoire, puis à voir s'ils étaient similaires à ceux de la plasticité. Les premières études que nous avons réalisées avec Tim Bliss au milieu des années 1980 ont ainsi mis en évidence une augmentation de la capacité de libération synaptique du glutamate dans différentes régions de l'hippocampe après un apprentissage associatif, par des mécanismes neurochimiques identiques à ceux de la LTP. Ces résultats ont été confirmés lors de la réalisation d'autres tâches d'apprentissage, comme l'apprentissage spatial. Nombre d'autres études ont montré que la phosphorylation de différentes kinases ou l'augmentation de la sensibilité des récepteurs du glutamate - ainsi que d'autres mécanismes cellulaires impliqués dans la LTP - sont activées lorsqu'un animal apprend5. Et inversement le blocage de ces événements biochimiques perturbe invariablement l'apprentissage.

Apports très récents. Plus récemment, les techniques de modification génique chez la souris ont permis d'apporter des réponses encore plus démonstratives. D'un grand nombre d'études il ressort que l'inactivation génétique de molécules importantes pour la plasticité perturbe corrélativement l'apprentissage. Des souris chez lesquelles les neurones de certaines zones de l'hippocampe n'expriment pas le récepteur NMDA se sont révélées particulièrement riches en enseignements. Chez ces souris, la LTP est abolie dans la région hippocampique concernée, la stabilité des cellules de lieu est altérée voir l'article de Bruno Poucet dans ce numéro et les animaux présentent corrélativement des déficits importants de mémoire spatiale6. Inversement, en augmentant, chez d'autres souris, l'expression d'un gène qui code une protéine du récepteur NMDA, l'équipe de Joe Tsien à Princeton a observé de nettes améliorations des performances mnésiques dans de nombreuses tâches d'apprentissage7. Au vu de ces résultats, il semble indéniable que le récepteur NMDA est un acteur clé de la mémoire. Mais, de façon surprenante, les déficits mnésiques observés chez les souris dépourvues de récepteur NMDA peuvent être compensés par une période d'élevage dans un environnement riche en stimulations sensorielles8 voir l'article de Claire Rampon. S'agit-il de la compensation de mécanismes moléculaires défectueux par d'autres ? La fonction déficiente est-elle prise en charge par d'autres circuits ? Il est encore trop tôt pour le dire, mais ce type de données montre qu'on ne saurait restreindre les capacités mnésiques d'un animal à la présence du récepteur NMDA dans telle zone du cerveau.

L'idée que la mémorisation repose sur des modifications synaptiques implique que ces modifications soient stabilisées et consolidées. Comment peuvent-elles perdurer en résistant au renouvellement des molécules de la cellule ? On a constaté que l'administration d'inhibiteurs de la synthèse protéique pendant l'apprentissage perturbe la mémoire à long terme sans altérer la mémoire à court terme. Il semble donc que ces deux types de mémoires reposent sur des mécanismes biologiques distincts - la mémoire à long terme requérant la synthèse de protéines. On observe du reste une dichotomie analogue dans la plasticité synaptique, dont seule la phase durable nécessite l'apport de nouvelles protéines. Déduction logique : les mécanismes de plasticité neuronale et de consolidation mnésique impliquent très probablement des régulations de gènes. C'est au début des années 1990 que les premières évidences en la matière ont été mises à jour : l'induction de la LTP dans l'hippocampe conduit à l'activation de gènes dans le noyau des neurones activés. Ces régulations transcriptionnelles commencent par l'activation rapide en quelques dizaines de minutes et transitoire jusqu'à quelques heures d'une classe de gènes appelés « gènes précoces ». Certains d'entre eux codent des protéines qui agissent directement au niveau de la synapse. Mais une fraction importante, dont fait partie le gène zif268 , code des facteurs de transcription nucléaires modifiant l'expression d'autres gènes appelés, eux, effecteurs tardifs5,9. La réponse transcriptionnelle globale se traduit, sur plusieurs jours, par des vagues successives d'expression de différents gènes. Par exemple, l'expression des kinases est augmentée dans une fenêtre temporelle de quelques heures à un jour, alors que les récepteurs du glutamate sont, quant à eux, surexprimés entre 2 et 4 jours après l'induction de la LTP.

Commutateur moléculaire. Ce sont les kinases activées par l'entrée de calcium induite par la stimulation du récepteur NMDA, et en particulier les MAP kinases, qui sont à l'origine de l'expression des gènes précoces. Une fois phosphorylées, ces kinases activent des facteurs de transcription tels que CREB, qui se fixent sur des sites spécifiques de promoteurs de gènes dans le noyau et modifient leur expression10. Plusieurs études montrent que ces mécanismes jouent un rôle important dans la mémoire : les MAP kinases sont rapidement phosphorylées lors de l'apprentissage et le blocage de leur phosphorylation pendant l'acquisition perturbe l'apprentissage. L'activation des gènes précoces serait, quant à elle, l'étape cruciale permettant le déroulement complet du programme cellulaire de transcription génique qui entraîne une modification durable de la connectivité neuronale. Les groupes d'Alcino Silva et d'Eric Kandel ont, par exemple, montré que l'inactivation génétique de CREB chez des souris mutantes conduit à un déclin rapide de la LTP hippocampique et à des déficits de mémoire dans de nombreuses tâches11,12. En collaboration avec Tim Bliss, nous avons montré que, chez des souris mutantes chez lesquelles le gène zif268 est invalidé, les neurones de l'hippocampe conservent leurs propriétés de plasticité, mais à court terme seulement. Corrélativement, seule la mémoire à court terme des souris mutantes est intacte : elles sont incapables de retenir une information au-delà de quelques heures dans des tâches de mémorisation de l'espace, de reconnaissance d'objets familiers ou des tests de mémoire olfactive ou gustative. Ainsi, les gènes précoces tels que zif268 joueraient-ils le rôle de commutateurs moléculaires permettant d'enclencher les changements synaptiques durables nécessaires à la formation de souvenirs à long terme13.

Nouveaux neurones. Le fait que les activations de gènes, et donc la synthèse de protéines, soient d'une telle importance lors de la LTP et de l'apprentissage a soulevé un autre problème : comment les nouvelles protéines synthétisées pouvaient-elles être dirigées vers les synapses activées, et seulement elles, sans être distribuées à toutes les synapses d'un neurone ? La question paraissait si difficile qu'on était amené à penser que la plasticité ne serait peut-être qu'un mécanisme non spécifique de facilitation globale de circuits. Mais, en 1997, Uwe Frey et Richard Morris démontrent par élimination de différentes hypothèses que le seul mécanisme possible est le marquage des synapses activées, marquage qui différencierait ces synapses des synapses non activées, et leur permettrait de « capter » les protéines nouvellement synthétisées14. La nature de ce marqueur est, pour l'heure, inconnue. La découverte d'ARN messagers et de ribosomes dans les dendrites, alors qu'on les pensait cantonnés au corps cellulaire du neurone, a, elle aussi, révolutionné l'approche du mécanisme de modification des synapses. Certains ARN messagers, comme celui qui code la kinase CaMKII, ont une expression dendritique qui augmente fortement dans la demi-heure qui suit l'induction de la plasticité et l'apprentissage. Il semble que ces ARNm migrent le long des dendrites, et soient capturés par les ribosomes qui se trouvent à proximité immédiate des synapses activées - mais pas par ceux qui se trouvent à proximité des synapses inactives fig. 2. Il n'est donc pas impossible que la synthèse locale de protéines soit un mécanisme important assurant la spécificité de la plasticité synaptique et du frayage neuronal.

Qui dit souvenirs à long terme, dit stabilisation de tout un relais synaptique. La plasticité se propage-t-elle dans des réseaux de neurones interconnectés ? On relève, là encore, l'importance des régulations de gènes. Prenons l'exemple du gène de la syntaxine, une protéine qui intervient dans la libération du neuromédiateur. Nous savions déjà que, après l'induction de la LTP, son expression augmente pendant plusieurs heures dans les neurones postsynaptiques d'une zone de l'hippocampe appelée gyrus denté. Une fois synthétisée, la protéine migre vers l'extrémité axonale de ces neurones, extrémité qui se trouve dans une autre zone de l'hippocampe, la zone CA3. Là, elle favorise la libération synaptique de glutamate, donc l'activation d'autres neurones, et l'induction d'une LTP à leur niveau. Il apparaît que la régulation de l'expression de la syntaxine intervient également lors d'un apprentissage. Lors d'une tâche de mémoire spatiale, son expression augmente non seulement dans les neurones de l'hippocampe, mais aussi dans des régions du cortex préfrontal15, ce qui suggère le frayage de réseaux neuronaux, en partie par son intermédiaire, lors de la mémorisation.

Comme on l'a vu, les recherches actuelles montrent que les expériences sensorielles laissent des traces dans le cerveau en modifiant l'efficacité des synapses entre neurones et en créant de nouvelles synapses. Et si de nouveaux neurones se créaient aussi ? Impossible, aurait-on dit, il y a encore peu de temps. Nous perdons des neurones en permanence parce que les neurones qui meurent continuellement dans le cerveau adulte ne sont pas remplacés, ce qui est probablement l'une des causes majeures de nombreux désordres neurologiques. Pourtant, des travaux de Joseph Altman à la fin des années 1960 suggéraient que de nouveaux neurones étaient générés dans le gyrus denté de l'hippocampe pendant la vie postnatale et chez le jeune adulte. D'autres travaux montraient aussi une neurogenèse dans certaines régions cérébrales impliquées dans la mémoire des chants chez les canaris. Ces recherches sont longtemps restées dans l'ombre car elles semblaient n'être que des exceptions face au dogme prévalent. Mais, en 1998, Elizabeth Gould et son équipe démontrent qu'une neurogenèse se produit dans le gyrus denté chez le singe adulte et, la même année, Freg Gage au Salk Institute en Californie et ses collègues suédois de l'université de Göteborg observent le même phénomène chez l'homme en étudiant les cerveaux de patients âgés de 57 à 72 ans16I. Ces nouveaux neurones sont produits à partir d'une population de cellules progénitrices qui migrent dans le gyrus denté et se différencient en neurones. D'autres études ont montré que cette neurogenèse chez l'adulte se produit aussi dans des régions corticales. Quel pourrait être le rôle fonctionnel de ce nouveau type de plasticité ? S'agit-il d'un mécanisme de remplacement compensant partiellement les pertes neuronales ou a-t-il un rôle spécifique dans certaines fonctions cognitives ? En ce qui concerne l'apprentissage, deux études viennent de montrer, d'une part, qu'il augmente la survie des nouveaux neurones formés dans le gyrus denté17 et, d'autre part, qu'il est perturbé lorsque l'on empêche la neurogenèse chez le rat adulte18 fig. 3. Peut-on en conclure qu'apprendre, c'est aussi former de nouveaux neurones et que ces nouveaux neurones sont impliqués dans le codage de l'information qui vient d'être apprise ? Peut-on imaginer faciliter ces mécanismes de neurogenèse pour tenter de compenser les déficits mnésiques associés à certaines maladies neurodégénératives ? Il est encore beaucoup trop tôt pour le dire.

Ouverture. De tous ces résultats fondamentaux, commencent à émerger, çà et là, des embryons d'explications quant aux mécanismes cellulaires de certaines pathologies de la mémoire, comme le syndrome de l'X fragile la plus commune des formes héréditaires de retard mental ou la maladie d'Alzheimer. Par exemple, chez des souris qui surexpriment la protéine APP* et présentent des signes neuropathologiques de la maladie d'Alzheimer, on observe, associée aux déficits mnésiques, une altération de la plasticité synaptique dans l'hippocampe19. Si les connaissances qui s'accumulent sur la plasticité synaptique constituent l'une des pierres de ce qui sera, un jour, une réelle théorie de la mémoire, elles pourraient donc aussi, à échéance peut-être plus courte, favoriser l'émergence de nouvelles pistes thérapeutiques pour compenser certains dysfonctionnements de la mémoire.

Par Serge Laroche

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 ] Précédente - Suivante
 
 
 
Google