ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

ANTICORPS EFFICACES CONTRE LE VIRUS DE LA DENGUE ET LE VIRUS ZIKA

 

Des anticorps efficaces contre le virus de la dengue et le virus Zika


Des chercheurs de l’Institut Pasteur et du CNRS[1], en collaboration avec l’Imperial College (Londres) et avec l’Université de Vienne (Autriche), ont identifié des anticorps aussi efficaces pour neutraliser le virus de la dengue que le virus Zika. La description du site de fixation de ces anticorps sur l’enveloppe virale, identique chez les deux virus, laisse envisager la mise au point d’un vaccin universel capable de protéger simultanément contre la dengue et la maladie à virus Zika. Ces résultats ont été publiés dans la revue Nature, le 23 juin 2016.

 

Communiqué de presse
Paris, le 23 juin 2016
 

Institut Pasteur

Le virus de la dengue et le virus Zika ont de nombreux points communs. Tous deux appartiennent à la famille des flavivirus, des virus à ARN principalement transmis par des moustiques, et possèdent des protéines d’enveloppe similaires. Des chercheurs de l’Institut Pasteur, du CNRS et de l’Imperial College, qui avaient, dans une précédente étude, identifiés des anticorps capables de neutraliser les quatre formes du virus de la dengue, se sont intéressés au virus Zika. « Nous voulions voir si les anticorps isolés dans le cas de la dengue étaient capables de neutraliser d’autres virus de la famille des flavivirus, et Zika semblait être le meilleur candidat », expose Félix Rey, responsable du laboratoire de Virologie structurale à l’Institut Pasteur.

 

Dans cette nouvelle étude, les chercheurs ont donc sélectionné deux anticorps capables de stopper la prolifération du virus de la dengue – ces anticorps ayant été préalablement isolés chez des patients infectés par la dengue – et les ont présentés au virus Zika. L’un de ces anticorps s’est alors montré particulièrement efficace pour neutraliser le virus Zika, et même plus efficace que pour la dengue, l’empêchant d’infecter les cellules avec lesquelles il était en culture. « Découvrir que le virus de la dengue et le virus Zika sont si proches que certains anticorps produits contre le virus de la dengue neutralisent aussi le virus Zika était totalement inattendu », souligne Félix Rey.

 

Les chercheurs ont alors entrepris une étude cristallographique pour identifier le site de fixation des anticorps sur le virus Zika, et plus précisément sur les protéines de son enveloppe. Des cristaux renfermant le complexe « anticorps - protéine d’enveloppe » ont été produits grâce à la plate-forme de cristallogenèse de l’Institut Pasteur. C’est ensuite à l’aide des puissants rayons X des synchrotrons de Saclay et de Grenoble que les chercheurs ont pu reconstituer en 3D l’endroit précis où l’anticorps vient se fixer sur la protéine d’enveloppe.

 

Il s’est alors avéré que le site de fixation des anticorps était le même sur le virus Zika que sur le virus de la dengue, ce qui laisse envisager la production d’un vaccin qui stimule la production d’anticorps capables de se fixer et de neutraliser deux types de virus à la fois. Si, jusqu’à récemment, le virus Zika n’était pas considéré comme dangereux, certains cas de complications neurologiques, de type syndrome de Guillain-Barré, ont été constatés au Brésil et en Polynésie française chez des personnes infectées. Par ailleurs, ce virus est à l’origine de graves anomalies du développement cérébral chez le fœtus (microcéphalie), entraînant un retard mental irréversible. « Les anticorps pourraient par exemple être utilisés pour protéger les femmes enceintes risquant de contracter le virus Zika. Car aujourd’hui, il n’existe aucun vaccin ni aucun traitement pour cette maladie », conclut Félix Rey.

 

Ces travaux ont été financés par les institutions citées ci-dessus ainsi que par le programme cadre européen (FP7) DENFREE, le LabEx IBEID (Integrative Biology of Emerging Infectious Diseases), et le FlaviStem (ANR/FWF).

 

Image : Structure 3D de la protéine d’enveloppe du virus Zika (en rouge, jaune et bleu) en complexe avec l’anticorps neutralisant (en vert et en blanc). © Institut Pasteur

 

 DOCUMENT     institut pasteur   LIEN

 
 
 
initiation musicale toulon  

QUELS ANTIBACTÉRIENS ...

 


 

 

 

Quels antibactériens pour après-demain?


antibiotiques : la resistance des bactéries - dans mensuel n°314 daté novembre 1998 à la page 70 (2731 mots)
Les chercheurs de l'industrie pharmaceutique retournent à leurs paillasses. Leur travail est facilité par l'émergence de nouveaux outils comme la chimie combinatoire, le criblage à haut débit, la bioinformatique et la robotique. Mais comment trouver des antibiotiques vraiment innovants ? En cherchant des molécules qui s'attaquent à des processus récemment explorés par la microbiologie moléculaire: mécanismes de résistance, réplication de l'ADN et division bactérienne, voies de communications intercellulaires... En sachant également quels sont les gènes indispensables à la survie ou à l'infectiosité des micro-organismes. Ce que devrait, à terme, révéler le séquençage des génomes et l'étude des protéines bactériennes.

Dans les années 1970, l'industrie pharmaceutique pensait son arsenal thérapeutique suffisant pour combattre les maladies infectieuses. Cantonnés au milieu hospitalier, les phénomènes de résistance microbienne semblaient contrôlés. Les principales firmes, chacune spécialisée dans une ou deux familles d'antibiotiques, ont exploité leur expertise chimique. Elles ont perfectionné leurs molécules, augmentant leur tolérance, élargissant leur spectre d'activité... Mais nombre d'entre elles ont tourné leurs efforts de recherche vers d'autres médicaments antimicrobiens, anti-viraux ou anti-fongiques, et certaines se sont même totalement détournées de ce domaine. Les besoins du marché leur semblaient comblés.

Ce point de vue est démenti depuis la fin des années 1980, avec l'apparition des multirésistances, et celle des résistances en médecine de ville. L'industrie pharmaceutique se tourne donc à nouveau vers la recherche. Son but est, bien sûr, de développer des antibiotiques et vaccins innovants mais aussi, à plus long terme, des classes d'agents antibactériens complètement nouvelles permettant de contourner les phénomènes de résistance. En effet, au lieu de tuer les bactéries comme le font les antibiotiques, ces nouveaux médicaments devraient atténuer le pouvoir pathogène des bactéries en ciblant leurs facteurs de virulence* ou en jouant sur les molécules de communication intercellulaire.

Lors du processus de découverte d'un médicament, chimistes et biologistes s'attachent à identifier ce que l'on appelle des « pistes chimiques ", des composés sélectionnés selon un premier crible, c'est-à-dire un test permettant de repérer les molécules susceptibles d'avoir l'activité recherchée. Ils valident ensuite ces molécules avec un deuxième criblage, fondé sur un test plus spécifique. C'est ainsi qu'ils repèrent les " têtes de série », dont ils étudient la relation structure-activité pour ensuite affiner leur activité pharmacologique.

Les chercheurs puisent les composés testés dans ce qu'ils appellent leur trésor, des banques de molécules ou pharmacothèques, aujourd'hui constituées le plus souvent par chimie combinatoire voir l'encadré : " La chimie combinatoire, source de diversité moléculaire ". De quels types de banques de molécules disposent-ils? Ils peuvent, dans un premier temps, faire appel à des banques d'aide à la recherche, dites exploratoires. Elles sont créées sur écran d'ordinateur à partir de banques virtuelles, générées par modélisation moléculaire. Plus rationnelles, les pharmacothèques dirigées comportent des molécules dont les caractéristiques sont déduites de la connaissance du site de liaison de la cible bactérienne. Enfin, les banques d'optimisation contiennent des molécules qui dérivent déjà d'une première piste chimique. La modélisation moléculaire, y compris les études de structure tridimensionnelle, facilite la conception rationnelle de ces pharmacothèques.

Mais elles n'ont d'intérêt que si l'on dispose conjointement d'outils performants de criblage, basés sur des cibles bactériennes originales: test enzymatique in vitro, tests sur bactérie entière ou recombinante... Ces outils de criblage, dits à haut flux ou à haut débit, sont issus des progrès de la robotique. Ce sont des systèmes capables de réaliser des tâches séquentielles indépendantes telles que dilution, pipettage et répartition de composés dans des cupules ou puits, agitation, incubation, lecture de résultats. Ils sont pilotés par des logiciels spécifiquement adaptés au type d'analyse que l'on réalise. Pour visualiser l'effet des composés testés, les méthodologies le plus souvent utilisées sont la fluorescence, la radioactivité, la scintillation par proximité* SPA: scintillation proximity assay , les tests cellulaires bactériens. Un criblage à haut débit permet d'analyser sur un crible défini, de 100 000 à 500 000 molécules en quelques semaines1. L'efficacité d'un crible est directement liée à la pertinence de la cible bactérienne choisie. Depuis dix ans, la recherche publique mondiale a fourni nombre de résultats dans des domaines variés de la bactériologie générale structure, biochimie, physiologie et virulence bactérienne et des mécanismes de résistance.

Quelles sont les cibles bactériennes sur lesquelles pensent pouvoir agir les laboratoires pharmaceutiques ? Et, tout d'abord, quelles stratégies employer pour contrer la résistance bactérienne aux antibiotiques? Deux grandes stratégies se dégagent: rechercher de nouvelles familles de molécules qui s'attaquent à des cibles bactériennes originales, échappant donc au problème de résistance croisée avec les antibiotiques des familles actuellement utilisées ; ou bloquer les mécanismes de résistance des bactéries. Passons en revue quelques-unes des différentes pistes explorées, sachant qu'à l'heure actuelle il est bien difficile de dire quelles sont les plus prometteuses.

L'approche visant à bloquer les mécanismes de résistance a déjà été mise en oeuvre quand on a découvert les bêta-lactamases, ces enzymes bactériennes qui inactivent différents antibiotiques de la famille de la pénicilline les bétâ-lactamines. C'est alors qu'ont été mis au point les inhibiteurs de bêta-lactamases. La multirésistance de certaines bactéries peut également être liée à un effet barrière des enveloppes bactériennes, effet qui empêche l'antibiotique d'atteindre sa cible dans le corps bactérien voir l'article de P. Trieu-Cuot et C. Poyart, dans ce numéro2. Pour répondre à ces problèmes d'enveloppe, plusieurs solutions : rechercher des molécules déstabilisant la membrane externe des bactéries à Gram négatif*, pour la rendre perméable aux antibiotiques ; rechercher des antibactériens dont la structure chimique échappe à l'action des pompes d'efflux, ces protéines insérées dans la membrane bactérienne qui rejettent les molécules dans le milieu extérieur ; ou encore développer des molécules interférant avec la synthèse des éléments de structure de ces pompes. Pour le premier déstabilisation de la membrane externe et le troisième cas inhibition des pompes, les molécules issues de cette recherche seraient utilisées en complément des antibiotiques déjà commercialisés. Dans le deuxième cas molécule échappant aux pompes d'efflux, on obtiendra une nouvelle famille d'antibiotique ou un antibiotique dérivé des familles existantes.

Autre piste, le processus de réplication de l'ADN bactérien offre aussi des cibles intéressantes. Chez Escherichia coli, par exemple, plus de trente protéines sont impliquées dans la réplication de l'ADN. La mutation des gènes codant ces protéines entraîne généralement un blocage de la réplication, suivi d'un arrêt de la croissance et souvent de la mort bactérienne. D'autre part, la machinerie de réplication est similaire chez la plupart des bactéries. De ce fait, un inhibiteur de la réplication a toutes les chances d'avoir un spectre d'activité large. A l'heure actuelle une famille d'antibactériens, les quinolones, a pour cible les topoisomérases, enzymes impliquées dans les changements de conformation de l'ADN. Mais on connaît maintenant une vingtaine d'enzymes polymérase III holoenzyme et ses sous- unités, ou encore DnaA, DnaB et DnaC... qui interviennent dans la phase initiale de réplication de l'ADN: ce sont autant de cibles potentielles pour de nouveaux agents antibactériens3.

La division cellulaire est un autre exemple de cible, d'ailleurs liée à la précédente. En effet, le processus de formation de la membrane la septation qui va séparer une bactérie en deux cellules filles est intimement coordonné au début de la réplication de l'ADN.

Un ensemble de protéines appelées Fts régulent et coordonnent la division d'une bactérie. L'une d'entre elles nommée FtsZ est impliquée dans la phase précoce de division et régule par sa concentration la fréquence de septation. Une faible augmentation de la production de cette protéine entraîne la formation de mini- cellules, alors qu'une forte augmentation de cette même protéine conduit à une filamentation et à la mort bactérienne4. Des composés interférant avec FtsZ pourraient donc être de bons candidats antibiotiques.

Dans un avenir plus lointain, un autre domaine, récemment mis en lumière, pourrait générer des cibles originales. Ce sont les voies de communication intercellulaires des bactéries. Bien qu'étant des organismes unicellulaires, les bactéries, lorsqu'elles se multiplient, sont intégrées dans une organisation multicellulaire générant des comportements de groupe liés à la densité microbienne dans un environnement donné. Ces comportements de groupes sont régulés par des signaux extracellulaires, véhiculés par des substances appelées phéromones. Chez les bactéries à Gram positif, ces phéromones sont des peptides. Chez les bactéries à Gram négatif, ce sont généralement des métabolites de la N-acylhomosérine lactone*. Ces systèmes de régulation du comportement des populations microbiennes, regroupés sous le terme anglais " quorum sensing », contrôlent nombre de fonctions d'une population bactérienne dans son environnement immédiat5. Les bactéries possèdent également des systèmes dits à deux composants, constitués d'un détecteur de surface capable de recevoir des signaux de l'environnement proche, et d'un transducteur permettant de transférer l'information jusqu'à certains gènes de l'ADN. L'activation de ces derniers modifie le comportement de la cellule bactérienne pour répondre au signal reçu. Enfin de nombreuses bactéries peuvent dialoguer avec les cellules-hôtes cellules épithéliales*, endothéliales* ou encore phagocytaires*. Elles produisent dans le milieu extérieur des molécules qui interfèrent avec la cellule-hôte et détournent certaines de ses activités à leur profit6. Que l'on bloque la production de phéromones, le détecteur ou le transducteur du système à deux composants, l'idée sous-jacente est d'empêcher la bactérie de s'adapter à son environnement sans porter atteinte à sa survie, ce qui devrait éviter l'apparition de résistances.

Un dernier exemple de cible potentielle est la capacité d'adhérence des bactéries aux cellules qu'elles infectent. Pour beaucoup d'agents pathogènes, la première phase de la colonisation d'un hôte se caractérise par l'attachement spécifique des bactéries aux cellules d'un tissu ou à un biomatériau implanté cathéter, prothèse.... Généralement, cette adhérence résulte de l'interaction spécifique d'une adhésine bactérienne, le plus souvent de nature protéique, et d'un récepteur cellulaire servant de lien entre la bactérie et l'hôte cellule ou biomatériau. La connaissance approfondie de ces systèmes d'adhérence chez différentes bactéries pathogènes, telles que les colibacilles, les staphylocoques ou encore les streptocoques, permet d'envisager le développement de molécules capables de les bloquer et donc de prévenir l'installation de l'infection voir figure7.

A plus long terme, l'innovation devrait également venir de la génomique, c'est- à-dire de la caractérisation et du séquençage total du génome et de son exploitation. Depuis quelques années, le décryp- tage systématique des génomes des bactéries pathogènes monte en puissance. Depuis le premier séquençage d'un génome bactérien, celui d' Haemophilus influenzae en 1995, une dizaine d'autres ont déjà été totalement séquencés, par des réseaux de laboratoires publics ou par des sociétés privées8. On peut s'attendre à ce que le génome de la majorité des bactéries pathogènes pour l'homme soit séquencé au début des années 2000.

Un génome bactérien correctement reconstitué et annoté dont les gènes sont identifiés doit apporter de nouvelles cibles. Mais le chemin sera long, car seuls certains gènes intéressent la recherche antibactérienne: ainsi un génome contenant, par exemple, 2 000 gènes comporte probablement 10 % de gènes essentiels à la croissance in vitro, et quelques pour-cent pour l'expression de la virulence. Mais la constitution de banques de séquences de gènes n'est que la première étape d'un travail colossal qui doit mener à l'étude de la fonction des nouveaux gènes découverts, et à une meilleure compréhension du rôle des gènes déjà connus. Ce n'est que lorsque la fonction des gènes sera élucidée que nous pourront identifier des cibles innovantes. Pour exploiter l'énorme masse de données du séquençage, il faut disposer d'outils moléculaires nouveaux et performants voir l'encadré: " Biopuces et peignage d'ADN ". L'exploitation des banques de gènes grâce à la bioinformatique permet, par étude d'homologie de séquences, d'accéder à la fonction d'une partie des gènes nouvellement identifiés. Une autre méthode consiste à étudier l'impact de l'inactivation de ces gènes sur la croissance bactérienne.

Il est également possible de rechercher des gènes qui ne s'expriment qu' in vivo, lors des phases d'infection et de multi- plication9. On sait peu de choses de ces gènes qui gouvernent l'expression de la pathogénicité chez l'hôte, pour la simple raison que la majorité des études de microbiologie moléculaires ont été réalisées sur des bactéries cultivées en tubes à essai et non dans un organisme vivant. Mais aujourd'hui plusieurs méthodes expérimentales permettent de les identifier:

- la technique d'expression de gènes in vivo IVET, pour in vivo expression technology . Les chercheurs travaillent avec des souches bactériennes mutantes qui, par exemple, ne peuvent survivre que si on leur fournit une base azotée, la purine on dit qu'elles sont auxotrophes à la purine. Ils construisent des plasmides* contenant le gène codant la purine et un gène marqueur celui d'une enzyme, la galactosidase, mais pas de promoteur séquence d'ADN qui déclenche l'expression d'autres gènes. Ces plasmides sont introduits dans les bactéries et s'intègrent dans leur chromosome. Après avoir injecté les bactéries ainsi modifiées à une souris, on recherche celles qui ont pu se multiplier in vivo . Si oui, c'est qu'un promoteur de la bactérie s'est exprimé, permettant la production de purine. On peut alors l'identifier grâce au gène marqueur puis, enfin, le repérer dans la souche bactérienne. Outre l'auxotrophie à la purine, les chercheurs se servent, par exemple, de souches résistantes au chloramphénicol ;

- la méthode d'induction différentielle de fluorescence DFI, pour differential fluorescence induction . Elle repose sur le même principe que la précédente. Mais dans ce cas le plasmide contient le gène d'une protéine vert fluorescent GFP, pour green fluorescent protein , facilement repérable in vivo s'il est activé par un promoteur bactérien ;

- la mutagenèse dirigée STM, pour signature-tagged mutagenesis . Elle est fondée sur l'emploi d'un pool de souches bactériennes mutantes. Ce sont des mutants dits d'insertion, c'est-à-dire que l'on a introduit au hasard dans leur génome des fragments d'ADN, ce qui bloque l'expression des gènes. On injecte ces bactéries à la souris, puis on compare les souches cultivées in vitro à celles qui se sont multipliées in vivo . Si l'on ne retrouve pas certaines souches chez l'animal, c'est qu'on a muté un gène essentiel pour l'infection ;

- la transformation d'une souche non pathogène en pathogène. Il s'agit d'introduire dans des bactéries avirulentes des gènes issus de souches virulentes, dont on pense qu'ils ont un rôle important dans l'infection. Puis d'évaluer le pouvoir pathogène chez l'animal des souches ainsi créées ;

- la technique d'hybridation soustractive d'ARN messagers. Son but est d'éliminer la majorité des gènes dits domestiques ceux du métabolisme de base ne jouant pas un rôle majeur in vivo .

Complémentaire de la génomique, un nouveau champ de recherche se développe rapidement : la protéomique. Il s'agit de l'analyse systématique de toutes les protéines d'une bactérie, grâce à l'emploi conjoint de techniques éprouvées d'analyse des protéines, de la robotique et de l'informatique voir l'encadré : " Qu'est-ce que la protéomique ? ". En recherche antibactérienne, elle permet l'étude des protéines intervenant dans les mécanismes de résistance aux antibiotiques ou des facteurs de virulence.

Revenons, entre autres, au processus de développement du médicament. On a identifié une cible innovante, mis au point le criblage primaire des pharmacothèques, sélectionné les composés répondant positivement à ce crible, validés les pistes chimiques, identifié et optimisé les têtes de série. Les meilleures candidates, quand elles ont une activité antibiotique classique inhibition de la croissance ou activité létale, entrent alors dans le processus bien défini de prédéveloppement études bactériologiques précliniques in vitro et infections expérimentales10. Mais il n'en va pas de même si l'on s'intéresse à des molécules dont l'activité s'exerce sur la capacité d'une bactérie à maîtriser son environnement immédiat cellules ou tissus de l'hôte, ou encore sur les facteurs de virulence responsables de la pathogénicité du micro-organisme. Dans ce cas, les molécules n'ont pas ou peu d'impact sur la croissance bactérienne. Il va falloir, par exemple, démontrer que l'on protège l'animal, ou que l'on diminue la durée de l'infection. Mais il n'existe pas encore de méthodes d'évaluation d'activité référencées permettant de juger directement ou indirectement de l'activité d'une molécule sur un facteur de virulence. Il nous faut mettre au point des tests sur animaux, des modèles cellulaires par exemple inhibition de la capacité d'adhérence de la bactérie à des cellules épithéliales, des modèles d'étude d'activité curative molécule seule ou associée à un antibiotique classique ou prophylactique.

Il n'est pas exagéré d'écrire que la recherche pharmaceutique dans le domaine des antibactériens entre dans une nouvelle époque. Les connaissances en microbiologie fondamentale, médicale et moléculaire, s'accumulent rapidement. Les outils de recherche de nouvelles molécules actives sur les bactéries sont de plus en plus performants. Les pro- chaines années verront sans aucun doute apparaître de véritables innovations thérapeutiques et prophylactiques. Elles devraient répondre, au moins en partie, au problème de la multirésistance aux familles d'antibiotiques disponibles. Rappelons toutefois qu'il faut une dizaine d'années pour développer un nouveau médicament, et qu'une bactérie, grâce à son remarquable pouvoir d'adaptation, est toujours capable de contourner une difficulté majeure mettant en cause sa pérennité.

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

COEUR ARTIFICIEL

 


 

 

 

 

 

La longue marche vers le coeur artificiel
autre - par Florence Rosier dans mensuel n°297 daté avril 1997 à la page 72 (3374 mots)


La première implantation d'un coeur artificiel a eu lieu il y a quarante ans, sur un chien. Elle a ensuite connu une longue histoire d'échecs. Les techniques se sont cependant améliorées, et, depuis une dizaine d'années, des dispositifs bien supportés par les malades sont utilisés cliniquement. Une partie de leur appareillage, notamment la source d'énergie, reste cependant à l'extérieur du corps. L'intégration intracorporelle de cet élément se situe à un horizon encore lointain.

Lesmaladies cardio-vasculaires sont dans les pays occidentaux la cause la plus fréquente de mortalité. Au premier rang de ces décès, l'insuffisance cardiaque, c'est- à-dire l'incapacité du coeur à assurer la circulation du sang qui apporte l'oxygène à l'organisme. Cette maladie entraîne entre 10 000 et 30 000 décès par an dans notre pays. Mais les transplantations, dont les possibilités plafonnent à quelque 800 par an dans notre pays, ne peuvent couvrir tous les besoins existants, en raison du nombre limité de donneurs de coeur1. Pour remédier à cette pénurie, on étudie depuis une quarantaine d'années des substituts mécaniques du muscle cardiaque, qui commencent à être utilisés quotidiennement. Dans l'idéal, ils s'adressent aux patients âgés de moins de 65 ans ne présentant pas d'autre maladie infectieuse ou cancéreuse que leur insuffisance cardiaque.

Il existe aujourd'hui de nombreux systèmes d'assistance ou de suppléance cardiaque. Ils restent des « coeurs partiels » : les plus élaborés sont les ventricules artificiels, qui déchargent les ventricules défaillants de leur fonction. Ils sont branchés en dérivation sur le coeur malade, qui est laissé en place et conserve ainsi une chance de récupérer. Les ventricules artificiels ont été conçus pour une implantation temporaire, dans l'attente d'une transplantation. Mais comme ces attentes sont parfois très longues, on commence à les utiliser de façon plus durable. Ces systèmes constituent des modèles précieux pour la mise au point du coeur artificiel total. Celui-ci devra répondre à trois exigences : être entièrement implantable, se substituer définitivement au coeur naturel et prendre entièrement en charge la fonction des deux ventricules.

Avant de décrire ces substituts, il faut se rappeler comment fonctionne le coeur humain. Ce muscle compte quatre cavités : deux oreillettes et deux ventricules. Il a une fonction de pompe, exercée en deux temps : durant la diastole, le coeur se relâche et les valves entre les oreillettes et les ventricules s'ouvrent, laissant le sang remplir les ventricules ; durant la systole, les ventricules se contractent et chassent le sang vers les poumons et le reste du corps. Ce sont ces ventricules, principalement le gauche, qui travaillent et fatiguent le plus.

L'histoire du coeur artificiel commence en 1957, quand les chirurgiens américains Kolff et Akutsu parviennent à maintenir un chien en vie avec un coeur en plastique fonctionnant à l'air comprimé. Si l'exploit technique est considérable, la survie n'excède guère une heure. Durant la décennie suivante, plusieurs autres systèmes sont expérimentés chez l'animal. La première implantation humaine d'un appareil placé en dérivation sur le coeur malade est réalisée en 1962 par Mikaël de Bakey, à Houston. Après une assistance de huit jours, le malade survivra avec son propre coeur pendant une dizaine d'années. Le 2 avril 1969, la première implantation en substitut du coeur déficient excisé est tentée chez l'homme par Denton Cooley et Domingo Liotta à l'hôpital St Luke de Houston sur un malade dont l'état est désespéré, et qui meurt le 8 avril. Peu après, deux autres malades sont opérés et meurent peu après eux aussi.

Ces échecs freinent la recherche, et ce n'est qu'en 1982 qu'elle est vraiment relancée. A Salt Lake City, l'implan-tation effectuée sur un homme pesant 100 kg, Barney Clark, est suivie par les médias du monde entier. L'appareil implanté, conçu par William Kols et réalisé par Robert Jarvik, est un coeur mécanique à deux ventricules, branché sur les oreillettes en lieu et place des ventricules natifs. Il est activé par un système externe à air comprimé. Le malade doit être réopéré et meurt 112 jours plus tard, à l'issue de complications infectieuses. En 1984, cinq opérations similaires sont menées dans l'optique d'un remplacement définitif. La Food and Drug Administration oblige alors les chirurgiens à mettre un terme à ces essais, compte tenu de la survie trop brève des malades opérés.

« Le seul intérêt de ces tentatives a été de mettre en lumière les problèmes existants, déjà identifiés par l'expérience animale : prothèses trop volumineuses, risques d'embolie et d'infection , dit le professeur Daniel Loisance, de l'hôpital Henri- Mondor de Créteil. Les recherches se sont alors orientées dans d'autres directions , si bien que l'on dispose aujourd'hui de tout un éventail de systèmes d'assistance cardiaque qui se rapprochent progressivement du coeur artificiel idéal, tout en présentant des bénéfices thérapeutiques immédiats pour le malade. »

Ces systèmes restent réservés aux malades atteints d'insuffisance cardia-que terminale , c'est-à-dire dont la vie est menacée à court terme. Avant d'en arriver là, les médecins disposent d'un arsenal thérapeutique qui a beaucoup progressé au cours des dernières années. Ce sont avant tout les traitements médicamenteux qui retardent et parfois enrayent la progression de la maladie. Ce peut être également une nouvelle technique chirurgicale : la cardiomyoplastie. Développée dans les années 1980, principalement sous l'impulsion du professeur Carpentier, de l'hôpital Broussais, à Paris, cette méthode consiste à renforcer la contraction cardiaque en greffant sur le coeur malade un muscle squelettique* prélevé sur le patient lui-même. Cette technique n'est toutefois d'aucun secours lorsque l'insuffisance cardiaque est parvenue à un stade terminal.

Après une défaillance cardiaque aiguë, comme un infarctus ou une myocardite inflammation du coeur, il arrive dans moins de 25 % des cas que le muscle récupère une partie de ses capacités, au bout de quelques jours ou de quelques semaines. C'est pourquoi, lorsque les médecins espèrent une récupération en cas de crise aiguë, ils tentent de préserver le coeur en le déchargeant temporairement de son travail.

Les systèmes de circulation extracorporelle en sont l'instrument. Ils sont formés d'un circuit conduisant le sang du corps vers une pompe extracorporelle et, lorsque le malade est en situation d'arrêt ventilatoire, vers un oxygénateur, d'où le sang revient oxygéné dans le corps. Ce circuit est établi entre une artère et une veine périphériques par de petits tuyaux appelés « canules » qui traversent la peau. Le sang est aspiré à travers une pompe extracorporelle centrifuge : c'est un dispositif muni d'aubes radiales qui, en tournant, propulse le sang avec un débit proportionnel à la vitesse de rotation.

Cependant, ce circuit provoque un important traumatisme sanguin : éclatement des globules rouges, dû au choc mécanique, mais aussi dénaturation des protéines du sang et réaction inflammatoire liée à l'activation des globules blancs principaux effecteurs de l'immunité et des plaquettes cellules responsables de la coagulation du sang. C'est pourquoi l'assistance extracorporelle ne peut excéder quelques jours. En outre, pour pallier les risques d'embolie, le malade doit absor-ber des médicaments anticoagulants généralement de l'héparine, dont les effets secondaires, saignements ou réaction allergique, ne sont pas négligeables.

Une alternative consiste à mettre en place, au sein même du ventricule gauche, une hélice de type « vis sans fin » , qui aspire le sang dans la cavité ventriculaire et l'éjecte dans l'aorte2. Cette hélice a été conçue en 1985 par un ingénieur américain, Richard Wampler, qui s'est inspiré de l'observation en Egypte de meuniers utilisant une vis sans fin pour hisser leur grain. L'hélice environ 9 millimètres de long est introduite par l'artère fémorale au moyen d'un cathéter souple. Une fois en place, elle est entraînée à grande vitesse 25 000 tours par minute par un câble, protégé par une gaine en Téflon et mû par un moteur électrique extracorporel. Ce système, baptisé « hémopompe » , soulage notablement le ventricule défaillant. Se passant d'oxygénateur, il est adapté aux cas où la fonction pulmonaire reste assurée. Il a cependant ses limites, liées aux difficultés d'insertion, à la formation de caillots dans la cavité ventriculaire et à l'insuffisance du débit sanguin qu'il autorise : 3,5 litres de sang par minute, contre 5 à 6 pour un coeur sain. Son emploi ne peut donc excéder quelques jours.

La deuxième grande catégorie de systèmes regroupe les appareils destinés aux malades dont le coeur ne pourra pas récupérer spontanément ses fonctions, permettent une assistance cardiaque prolongée. Ainsi les « coeurs de Jarvik » du nom de leur premier concepteur, sont implantés en lieu et place du coeur natif. Le chirurgien excise les deux ventricules malades. Puis, sur les oreillettes laissées en place, il branche les substi-tuts ventriculaires implantés dans la cage thoracique. Ces substituts sont des chambres cloisonnées par une membrane en deux compartiments. L'un contient le sang, l'autre de l'air pulsé. L'air déplace la membrane à intervalles réguliers, chassant ainsi le sang vers l'artère pulmonaire ou vers l'aorte. Des canules traversent la peau au niveau du thorax, reliant le compartiment gazeux à un compresseur extracorporel, volumineux et peu mobile, qui produit l'air comprimé actionnant la membrane.

Ce dispositif, commercialisé par la société Cardiawest, de Tucson Arizona, présente de sérieux inconvénients : l'autonomie du malade, relié en permanence au compresseur, reste très limitée. De surcroît, le risque infectieux dû aux tuyaux qui traversent la peau est important. Enfin les chambres ventriculaires sont encombrantes 900 cm3 et compriment poumons et oreillettes, altérant les fonctions pulmonaire et circulatoire. Néanmoins, « ce système reste parfois la seule solution, notamment quand un infarctus provoque la rupture de la cloison entre les deux ventricules » dit Daniel Loisance.

Un autre procédé de suppléance durable consiste à laisser le coeur intact et à brancher les ventricules artificiels en dérivation sur les ventricules naturels. Ceux-ci continuent de laisser passer le sang, mais ils battent à vide, indépendamment du ou des ventricules artificiels. Les chambres ventriculaires, intra- ou extracorporelles, sont reliées au coeur natif par des tubes. Le sang est aspiré dans une des oreillettes et réinjecté dans l'artère pulmonaire ventricule droit ou dans l'aorte ventri-cule gauche. Ces ventricules artificiels sont constitués de cinq éléments. La chambre ventriculaire proprement dite contient le compartiment sanguin, où le sang est pompé grâce à divers types d'énergie : pneumatique dispositif à air pulsé, hydraulique modèle similaire, où l'air est remplacé par de l'huile, centrifuge le sang est propulsé par la rotation d'un système à aubes, électrique le compartiment sanguin est un sac que vient comprimer le déplacement d'un piston mû par énergie électrique ou électromagnétique le compartiment sanguin est comprimé par le brusque rapprochement de deux bobines de fil conducteur au passage d'un courant.

Deuxième élément : des valves qui, à l'entrée et à la sortie de la chambre ventriculaire, assurent la progression du sang dans la bonne direction.

Troisième élément : le transformateur, implanté, convertit l'énergie électrique en une forme utilisable pour le pompage du sang. Ainsi, dans le modèle électrique, la rotation du moteur électrique génère un mouvement de trans-lation alternative dans un système de cames : la pièce rotative est munie de saillies qui, à chaque tour, soulèvent un levier s'appuyant sur elles. Ce levier adopte alors un mouvement de va-et-vient qui actionne le piston comprimant le compartiment sanguin.

Quatrième élément : la source d'énergie, toujours extracorporelle dans les modèles actuels. Il s'agit d'un compresseur dans les modèles pneumatiques, d'un moteur électrique ou de batteries dans les modèles centrifuge, électrique ou électromagnétique. Enfin, un système de régulation adapte le débit du sang aux besoins de l'organisme en oxygène. Ces besoins sont évalués par la mesure du débit du sang qui revient aux ventricules.

Parmi les dispositifs que nous venons de décrire, les ventricules extracorporels assurent une assistance de quelques semaines. La plupart fonctionnent à l'énergie pneumatique. En 1983, un premier malade était équipé d'un mono-ventricule pneumatique extracorporel par les professeurs Don Hill et John Farrar, au Medical Pacific Center de San Francisco. En 1986, un premier malade français a bénéficié d'un biven-tricule extracorporel, dans l'équipe d'Alain Carpentier. Ce patient, qui a pu être transplanté ultérieurement avec succès, vit encore aujourd'hui.

Le caractère extracorporel d'une partie de ces dispositifs les rend difficiles à supporter pour le malade. Le compresseur, volumineux 1 mètre de haut sur 0,60 mètre de large et autant de profondeur, est très peu mobile. Le patient doit rester hospitalisé jusqu'à ce qu'il soit greffé. Enfin, le risque infectieux n'est pas négligeable, du fait des canules qui traversent la peau. Le coût d'un ventricule pneumatique extracorporel varie de 100 000 à 250 000 francs, à quoi il faut ajouter le coût de la surveillance du malade pendant la durée de l'assistance.

Pour se rapprocher du véritable coeur artificiel Ñ entièrement implantable, biventriculaire et quasi définitif Ñ il fallait donc réduire l'encombrement des prothèses, en s'affranchissant de l'élément le plus volumineux : le compresseur. C'est pourquoi l'on s'est progressivement tourné vers des systèmes à énergie électrique, dont la source est facilement miniaturisable sous forme de piles.

Dans ces systèmes intracorporels , le ventricule artificiel gauche, presque toujours est implanté dans la paroi abdominale, tout comme le transformateur d'énergie. Il est branché en dérivation entre la pointe du ventricule natif gauche, qui reste en place, et l'aorte. Seuls sont déportés en dehors du corps le système de régulation et la source d'énergie. Celle-ci est constituée de batteries rechargeables, d'une autonomie d'environ quatre heures. Les batteries sont portées à la ceinture ou en bandoulière. Le malade peut donc se déplacer librement, l'énergie électrique étant transmise au ventricule artificiel par un câble électrique qui traverse la peau. Ces systèmes peuvent rester implantés plusieurs mois voire plusieurs années.

Deux modèles, tous deux américains, sont utilisés en clinique humaine : le ventricule Novacor de la compagnie Baxter et le ventricule TCI de Heartmate. Le système Novacor, dans sa version actuelle, a été implanté pour la première fois chez l'homme en 1993, dans le service de Daniel Loisance. Il s'agit d'un système électromagnétique : la chambre ventriculaire comporte une bobine de fil électrique à deux bras, reliés par des ressorts au compartiment sanguin constitué d'un sac en polyuréthane. Au passage d'un courant, les deux bras se rapprochent et les ressorts viennent comprimer le compartiment sanguin, éjectant un volume de 70 millilitres de sang. L'ensemble est encapsulé dans une enceinte rigide en époxy 16 cm de long sur 13 cm de large et 6 cm d'épaisseur, qui pèse 850 grammes.

Pour permettre le remplissage et le vidage du compartiment sanguin, l'intérieur de la chambre ventriculaire est mis en communication avec l'atmosphère extérieure par un conduit contenu dans le câble d'alimentation électrique. Un filtre, placé à l'interface avec la peau, assure la stérilité de l'air ainsi introduit. Cependant, le malade ne doit prendre ni bain, ni douche, afin d'éviter la pénétration de l'eau.

Le modèle électrique TCI, plus récent que Novacor, est en cours d'évaluation depuis dix-huit mois aux Etats-Unis. Il n'est pas encore utilisé en France. Dans ce système, le compartiment sanguin est comprimé par une membrane en polyuréthane recouverte de fibres de Dacron. Cette membrane est déplacée par un piston, lui-même animé par un moteur électrique via un système de cames. Le volume de sang éjecté à chaque cycle est de 80 millilitres. La surface du compartiment sanguin est recouverte de billes de titane. « Ce revêtement rugueux pourrait diminuer le risque de thrombose et d'embolie » indique le professeur Jean-Raoul Monties, de l'hôpital de La Timone à Marseille.

Au total, plus de 600 patients dans le monde ont été équipés de ces prothèses, dont environ 500 avec le système Novacor une quarantaine en France. Dans la moitié des cas, les malades ont pu être greffés par la suite, avec un taux de succès de 90 %. Dans l'autre moitié, malheureusement, les malades sont décédés des suites de leur maladie, le plus souvent au cours du premier mois après l'opération. Ces morts sont généralement imputables à une déchéance multi-organes liée à l'insuffisance cardiaque : reins, poumons et cerveau étaient déjà sévèrement atteints au moment de l'opération.

Mais les résultats sont parfois spectaculaires : grâce à leur ventricule artificiel, certains patients, jadis en situation désespérée, ont pu retourner vivre à leur domicile et poursuivre diverses activités. Certains vivent avec leur prothèse depuis maintenant plus de deux ans, recul maximal dont on dispose aujourd'hui. « Ces systèmes permettent une attente dédramatisée de la greffe , dit Daniel Loisance. En outre, le ventricule gauche malade semble capable de récupérer, au bout de plusieurs mois, chez 10 à 15 % des insuffisants cardiaques chroni-ques. Ces patients pourraient alors être sevrés de leur prothèse. »

Pour autant, ces substituts cardiaques ne sont pas sans défaut. Si les risques d'infection, de thrombose ou d'embolie sont de mieux en mieux maîtrisés, il n'en va pas de même des problèmes techniques. Ainsi, les ventricules électromagnétiques sont relativement bruyants. Curieusement, ce problème est mieux toléré par le malade lui-même que par son entourage. Autre problème : les valves utilisées, les sacs ventriculaires en plastique et les systè-mes de cames sont soumis à une usure importante. Leur fonctionnement est garanti deux ans, ce qui correspond à la durée maximale d'implantation actuelle. Passé ce délai, comment se comporteront ces systèmes ? Faudra-t-il remplacer certaines pièces défec-tueuses ?

D'autre part, le coût de ces appareillages est important : « Environ 1,5 million de francs, si l'on inclut l'installation et la surveillance d'une prothèse implantée en permanence » estime Jean-Raoul Monties. Néanmoins, ce coût serait comparable à celui de la prise en charge médicamenteuse des insuffisants cardiaques, selon Daniel Loisance.

Un progrès technique attendu est l'affranchissement du câble électrique transcutané. L'énergie des batteries sera transmise au système à travers la peau par induction électromagnétique. Un courant électrique alternatif passera à travers une bobine placée à l'extérieur du corps dans un appareil porté à la ceinture ; il y créera un champ magnétique dont la variation induira le passage d'un courant à travers une seconde bobine implantée dans l'abdomen en prolongement de la première bobine. D'autre part, comme on supprimera le câble transcutané permettant la communication de la chambre ventriculaire avec l'atmosphère extérieure, il faudra compenser autrement les variations de volume liées à la compression du compartiment sanguin. On envisage d'implanter dans le thorax une « chambre de compensation volumétrique » remplie de gaz, qui injectera à intervalles réguliers un volume de gaz équivalent au volume comprimé dans la chambre ventriculaire. Cependant, cette chambre augmentera l'encombrement de l'appareil. De plus, les chambres actuellement étudiées ne sont pas parfaitement étanches, ni imperméables aux gaz.

Si ces dispositifs deviennent opérationnels, on aura quasiment réussi à faire un coeur artificiel total. Il faudrait alors systématiser le substitut biventriculaire, et pas seulement monoventri-culaire. Il ne resterait plus ensuite qu'à parvenir à réaliser une source d'énergie implantable pour atteindre l'objectif.

La conception d'un coeur artificiel total se heurte encore à de nombreux problèmes. Pour Daniel Loisance, le premier d'entre eux est clinique3 : les indications respectives des systèmes actuels restent à préciser, en regard des besoins potentiels en coeurs artificiels. Par ailleurs, on ne dispose pas à l'heure actuelle de biomatériaux parfaitement inertes. La mise en place d'une prothèse s'accompagne toujours d'un risque de réactions locales ou générales telles que thrombose, embolie ou réaction inflammatoire. La miniaturisation des prothèses constitue un autre obstacle technologique : les systèmes actuels sont trop volumineux la chambre ventriculaire occupe environ 1 250 cm3 et trop lourds la chambre ventriculaire pèse environ 0,8 kg, le transformateur 0,8 kg, la batterie 1,2 kg. Quant à la mise au point d'un système de régulation capable d'adapter le débit sanguin à l'effort physique, à l'émotion ou à un accident, elle reste à réaliser.

Sur un autre plan, l'acceptation par la société des coeurs artificiels reste à conquérir. Leur coût important imposera en effet des choix délicats, relevant de l'économie autant que de l'éthique : comme dans toute médecine de pointe, la question se posera de savoir jusqu'où il faut aller dans la tentative de prolonger une existence menacée, et à quel prix.

Mais arrivera-t-on vraiment à réaliser le coeur artificiel total et, si oui, dans quel délai ? Les avis des spécialistes divergent. « D'ici 2 à 50 ans » répond, énigmatique, Alain Carpentier, qui étu-die depuis sept ans un projet de coeur artificiel total en partenariat avec un industriel français. « Pas avant l'an 2000, pour un ventricule artificiel permanent, et pas avant l'an 2010 pour un coeur artificiel total » renchérit Jean-Raoul Monties qui travaille sur un autre pro-jet. Daniel Loisance est plus réservé : « A mesure que les systèmes d'assistance ou de suppléance cardiaque actuels seront de mieux en mieux maîtrisés, et leurs indications de plus en plus précises, on découvrira peut-être que les besoins en ce véritable coeur artificiel sont limités, voire exceptionnels » .

Par Florence Rosier

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LA MÉMOIRE

 

LA  MÉMOIRE

Notre mémoire se structure en sous-systèmes regroupant, chacun, des souvenirs différents. Le modèle le plus courant consiste à les distinguer en fonction de la durabilité des souvenirs.

Mémoire à court terme

Appelée également mémoire de travail, elle a une capacité limitée : elle permet de conserver un petit nombre d'items en tête pendant quelques dizaines de secondes. Cette forme de mémoire permet la répétition immédiate d'une information - un numéro de téléphone par exemple -, qui peut parfois être « manipulée », pour faire du calcul mental.

Mémoire à long terme

Elle permet de conserver durablement des informations pendant des jours, voire des années. Elle est subdivisée en quatre formes de mémoire différentes : la mémoire épisodique, sémantique, perceptive et procédurale.

1 Mémoire épisodique

Elle conserve les événements personnellement vécus par l'individu, ainsi que leur contexte date, émotions.... Elle donne au sujet l'impression de revivre l'événement initial.

2 Mémoire sémantique

Elle permet le stockage des connaissances générales sur le monde et sur soi profession, taille, âge, etc.. Elle conserve également tout ce qui se rapporte au langage.

3 Mémoire perceptive

Elle conserve les informations apportées par les sens sur la forme des objets, leur texture, leur odeur, et est souvent sollicitée à l'insu du sujet, de façon automatique.

4 Mémoire procédurale

Elle enregistre les gestes dont l'utilisation devient automatique au fil du temps faire ses lacets, conduire une voiture, etc., ainsi que les procédures mentales protocole pour résoudre un problème de mathématiques, par exemple.


  DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 ] Précédente - Suivante
 
 
 
Google