ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Comment détecte-t-on le danger ?

  initiation musicale

 

 

 

 

 

 

Comment détecte-t-on le danger ?


| 23 MARS 2018 - 11H16 | PAR INSERM (SALLE DE PRESSE)

NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE


Les êtres vivants sont capables d’intégrer et d’identifier les informations sensorielles pertinentes telles que les odeurs, les sons ou la lumière afin de réguler leurs réponses comportementales en présence d’un danger potentiel. C’est ce qu’on appelle la discrimination contextuelle. Des chercheurs de l’Inserm basés au Neurocentre Magendie de Bordeaux, viennent de découvrir quels sont les neurones impliqués dans ce phénomène et où ils se situent. Une bonne nouvelle pour les personnes souffrant de stress post traumatique chez qui cette discrimination contextuelle est déréglée. Ces travaux sont publiés dans la revue Neuron

Vivre des expériences traumatisantes comme une catastrophe naturelle, une attaque terroriste, ou un combat militaire, sont des événements qui peuvent mener au développement de troubles psychiatriques, comme l’état de stress post-traumatique (PTSD). Quand ces personnes se trouvent confrontées à un environnement semblable à celui dans lequel l’évènement traumatisant est arrivé, elles revivent avec la même intensité les stress du trauma original. Chez ces patients, les troubles anxieux sont associés à une généralisation contextuelle. Ils sont effectivement devenus incapables d’intégrer et d’identifier les informations sensorielles pertinentes issues de leurs cinq sens- captées dans l’environnement- afin de réguler les réponses comportementales. Les circuits neuronaux impliqués dans ce phénomène sont inconnus.
Une équipe de chercheurs dirigée par le Dr. Cyril Herry vient d’identifier pour la première fois chez la souris une population de neurones impliqués dans la discrimination contextuelle. Ces neurones sont situés dans le cortex préfrontal médial.

Pour ce faire, les chercheurs ont utilisé notamment des approches optogénétiques (voir encadré) qui permettent d’activer ou d’inhiber l’activité de populations de neurones afin de déterminer leur implication dans un comportement particulier. Afin d’évaluer les circuits neuronaux jouant un rôle dans la discrimination contextuelle, les chercheurs ont exposé des souris à un contexte composé de différents éléments sensoriels (lumière, odeur, son) dans lequel elles ont reçu un ou plusieurs chocs électriques légers afin de rendre ce contexte aversif.
Dans une deuxième étape, les souris étaient exposées au même contexte mais sans les éléments sensoriels pertinents (odeur, son, lumière) leur faisant croire à un contexte non aversif. Grâce à des enregistrements en temps réel de l’activité des neurones du cortex préfrontal médian et leur manipulation optogénétique, les chercheurs ont pu identifier une population de neurones spécifiquement activée pendant la discrimination contextuelle.

Ces travaux démontrent que l’activité neuronale dans cette zone particulière du cerveau, qu’est le cortex préfrontal médian, est un élément clé de la discrimination contextuelle. Les chercheurs ont en outre démontré que ce groupe de neurones projette spécifiquement sur le tronc cérébral, une zone du cerveau directement impliquée dans la régulation motrice des comportements émotionnels.
” Ces travaux qui améliorent notre compréhension de l’activité neuronale menant à la discrimination contextuelle pourrait contribuer au développement de traitements et de thérapies pour les personnes souffrant de troubles anxieux” estime le Dr. Cyril Herry, directeur de recherche à l’Inserm et investigateur de ce travail.”
L’optogénétique consiste à introduire dans les neurones des protéines photosensibles naturelles, comme la channelrhodopsine, extraite d’une algue qui est une protéine sensible à la lumière bleue ou l’archaerhodopsine sensible à la lumière verte ou jaune. Lorsque la lumière bleue est introduite dans le cerveau de la souris par une fibre optique, l’activation de la channelrhodopsine génère un courant dépolarisant : cela revient à activer les neurones. En revanche, si l’archaerhodopsine est activée par une lumière verte ou jaune, cela génère un courant hyperpolarisant et les neurones sont inhibés. Ces protéines photosensibles exprimées au niveau de la membrane neuronale sont donc capables d’activer ou d’inhiber l’influx nerveux à volonté. Cela permet aux chercheurs d’identifier des réseaux neuronaux impliqués dans une tâche particulière et d’en définir le rôle causal.

 

 DOCUMENT     inserm    LIEN

 
 
 
initiation musicale toulon  

Maladie de Lyme : pourquoi les tests ne sont pas fiables

  initiation musicale


 

 

 

 

 

Maladie de Lyme : pourquoi les tests ne sont pas fiables

Par Olivier Hertel le 03.07.2018 à 19h30

Les tests de dépistage sont au cœur de la polémique actuelle sur la maladie de Lyme. Nous avons interrogé Hugues Gascan, immunologue, directeur de recherche au CNRS, pour comprendre pourquoi ces tests ne sont pas fiables. Selon une publication récente, ils produiraient même 500 fois plus de faux négatifs (personnes malades non détectées) que le tests de dépistage du VIH.


ELISA. La sortie du Protocole national de diagnostic et de soins (PNDS) de la maladie de Lyme, rebaptisé " Recommendations de bonnes pratiques ", loin d'apaiser les esprits, ne fait qu'accroître les mécontentements. Au centre de la discorde se trouvent encore et toujours les fameux tests sérologiques de dépistage dits Elisa et Western Blot. Pour certains, ils sont jugés parfaitement fiables, pour d'autres, il faudrait tout simplement les supprimer tant ils sont dépassés. Pour rappel, dans le PNDS, ces tests sont toujours prescrits en première intention pour dépister la maladie. “Il est d'ailleurs rappelé dans l'annexe 3 du texte, qu'ils sont fiables quasiment à 100% dans certaines situations où ils doivent être utilisés. Or, nous considérons que ces données sont largement erronées” explique Hugues Gascan*, immunologue, directeur de recherche au CNRS, ayant participé à la rédaction du PNDS.


Ces tests sérologiques se font en deux temps : d'abord l'Elisa qui, s'il est positif, doit être confirmé par le Western Blot. Si ce dernier est aussi positif, alors le patient est considéré comme atteint de la maladie de Lyme. La polémique tient au fait que de nombreux malades ont des tests négatifs alors qu'ils se plaignent de symptômes qui pourraient rentrer dans le tableau clinique de la maladie de Lyme. D'où les suspicions sur leur fiabilité.


Mais les doutes ne se cantonnent pas aux témoignages des malades. Une méta-analyse menée à l’Imperial College London, parue en 2016 dans la revue International Journal of General Medicine, révèle que la sensibilité de ces tests n’excède pas en moyenne les 60%. Ainsi, 40% des personnes malades ne seraient pas détectées.


Au-delà de cette étude, c’est la méthodologie même du dépistage qui pourrait poser problème dans le cas de la maladie de Lyme. Et en particulier, celle concernant le test Elisa. Les failles sont de trois ordres :

1/ Des calibrages imprécis
Pour bien comprendre l’objet du débat, il faut revenir sur le principe de cet examen.


L’idée du test Elisa est de vérifier si le patient est ou a été infecté par une Borrelia, bactérie responsable de la maladie de Lyme. Cette vérification est indirecte. C’est-à-dire que l’on ne va pas chercher à détecter la bactérie chez le patient, mais plutôt les anticorps produits par son système immunitaire et dirigés spécifiquement contre les antigènes de la bactérie. Les antigènes sont ces protéines du pathogène reconnues spécifiquement par le système immunitaire. Cette réaction anticorps-antigène est l’un des fondements de l’immunité. Les anticorps, fabriqués par les lymphocytes B (cellules du système immunitaire), se lient naturellement avec les antigènes. C’est cette réaction qu’exploite le test Elisa.

Ces tests sont commercialisés par de nombreux fabricants. Ils se présentent sous la forme d’une plaque présentant un certain nombre de micro-puits (souvent 96), au fond desquels se trouvent fixés des antigènes de Borrelia. Le laboratoire d’analyse médicale qui effectue le test va alors remplir ces puits avec le sérum des patients. Le sérum est en fait le sang débarrassé de ses éléments cellulaires (globules rouges, globules blancs, plaquettes) et des enzymes favorisant sa coagulation. Il comporte tout un tas de composés chimiques comme des sucres, des lipides et bien sûr des protéines. C’est parmi ces dernières que se trouvent les anticorps produits par le système immunitaire contre Borrelia, mais aussi contre toutes autres sortes de pathogènes auquel la personne a été exposée au cours de sa vie.
Une fois le sérum placé dans les puits, seuls les anticorps dirigés contre Borrelia vont se fixer aux antigènes qui se trouvent au fond du puits. Ainsi toutes les autres molécules et notamment les anticorps dirigés contre d’autres pathogènes peuvent être éliminés par un simple lavage. Ne reste alors dans les puits, que les anticorps spécifiques de Borrelia que l’on cherche à détecter.
Il faut maintenant mesurer la quantité de ces anticorps pour déterminer si le patient est bien infecté par la bactérie. Cette étape repose sur la mesure de la densité optique, c’est-à-dire sur l’intensité de la couleur de la solution qui se trouve dans chaque puits. Pour cela, l’opérateur du laboratoire ajoute un produit qui change de couleur si l’anticorps est fixé sur l’antigène. Ainsi, dans chaque puits, plus il y a d’anticorps fixés aux antigènes de la bactérie, plus la couleur sera intense et plus la densité optique sera élevée.

La densité optique est donc le reflet de la réponse immunitaire de la personne contre la bactérie. Mais pour affirmer si oui ou non, la personne est “séropositive”, il faut étalonner le test Elisa afin de déterminer à partir de quelle densité optique le patient est considéré comme séropositif.
C’est dans la définition de ce seuil que les problèmes commencent. Pour réaliser ce calibrage, il faut partir d’un sérum d’une personne malade, donc que l’on sait déjà positif. Celui-ci est fourni par chaque fabricant de test afin qu’il puisse être comparé aux densités optiques mesurées pour chaque patient. Sur les plaques on trouve donc une série de puits réservés au sérum étalon pur (celui que l’on sait positif) qui est dilué plusieurs fois afin d’obtenir une gamme de couleurs de moins en moins intenses, avec les densités optiques correspondantes. La densité optique de l’échantillon de chaque patient est alors comparée aux densités optiques de cette gamme étalon.
Il faut enfin établir la densité optique seuil à partir de laquelle le patient est considéré comme malade. « Ce seuil a été défini dans les années 2000 de façon statistique par l’Action Concertée Européenne sur la Borréliose de Lyme (EUCALB), consortium européen de recherche sur la maladie de Lyme, créé dans les années 1990. Autre élément surprenant, ce seuil doit être défini dans la région dans laquelle le test est réalisé. Or, l’on sait qu’il y a une forte variation géographique. Par exemple, il y a beaucoup plus de cas de Lyme en Alsace et en Limousin qu’en région PACA. Cet étalonnage n’est donc pas standard. Il varie d’une région à l’autre et d’un fabricant à l’autre », explique Hugues Gascan. En d’autres termes, les seuils ne sont pas les mêmes dans toute la France. Une même personne peut alors être positive à Montpellier et négative à Paris.

“Une méta-analyse récente réalisée par Michael Cook et Basant Puri montre que les tests sérologiques pour la maladie de Lyme génèrent 500 fois plus de faux négatifs que les tests pour le SIDA. Imaginez un test de dépistage du VIH aussi peu robuste que ceux utilisés pour le Lyme. Cela ferait un scandale”, commente Hugues Gascan.
Pour bien faire les choses, il faudrait faire un étalonnage avec des valeurs pondérales c’est à dire en dosant précisément la quantité d’anticorps présente dans le sérum du patient. Le résultat serait alors indiqué par une valeur quantitative (par exemple en microgramme par millilitre) comme c’est le cas pour la plupart des mesures faites lors d’analyses sanguines. “Ce calibrage standard permettrait d’avoir des résultats comparables quelle que soit la région dans laquelle est pratiqué le test, et quel que soit le fabricant”, assure le chercheur.

2/ La diversité des bactéries détectées dans les tests
Chaque année ou presque une nouvelle Borrelia apparait parmi les agents impliqués dans la maladie de Lyme. Ainsi, en 2016 aux Etats-Unis, les Centers for Disease Control and Prevention et la Mayo Clinic de Rochester ont découvert une nouvelle bactérie baptisée Borrelia mayonii et impliquée dans la maladie. Or, ces nouvelles bactéries ne sont pas dépistées par les tests actuellement disponibles sur le marché.

3/ Une sérologie qui varie dans le temps
Comme nous l’avons vu, le dépistage de la maladie de Lyme repose sur la détection des anticorps dirigés contre la bactérie. Or, cette concentration d’anticorps peut varier fortement dans le temps chez une même personne. Ainsi, selon le moment où le test est effectué, le test peut être positif ou négatif. Une étude sur la souris publiée en 2015 dans PLOS et dirigée par Nicole Baumgarth de l’université californienne de Davis, montre que la bactérie s’attaque aux lymphocytes B. Ces cellules du système immunitaire sont celles qui justement produisent les anticorps que l’on cherche à détecter lors des tests Elisa. Cette action de la bactérie sur les lymphocytes pourrait en partie expliquer le faible taux d’anticorps dans le sang de personnes malades et donc un test négatif. Ces résultats sont en plus confortés par une étude génomique menée par Jérome Bouquet de l’université californienne de San Francisco qui montre chez l’homme une mauvaise réponse des lymphocytes face à la bactérie Borrelia. Ainsi, étant donné les effets modulateurs de Borrelia sur la réponse immunitaire, est-il pertinent d’utiliser un test Elisa, fondé justement sur l’analyse de cette réponse immunitaire, pour dépister la maladie de Lyme ?

*Hugues Gascan, directeur de recherche CNRS, ancien directeur d’Unité Inserm et de la plate-forme PADAM (Production Automatisée D’Anticorps Monoclonaux) – Rennes, Angers. En tant que membre de la Fédération Françaises contre les Maladies Vectorielles à Tiques, il a participé à l’élaboration du PNDS.

 

   DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
initiation musicale toulon  

Obésité de l'enfant

  initiation musicale


 

 

 

 

 

Paris, 28 novembre 2012


Obésité de l'enfant :
un calcul simple pour évaluer le risque à la naissance
Prédire dès la maternité, sans examen invasif, quels sont les bébés qui présentent un risque élevé d'obésité ? C'est désormais possible grâce au calculateur mis au point par l'équipe internationale coordonnée par le Professeur Philippe Froguel du laboratoire Génomique et maladies métaboliques (CNRS/Université Lille 2/Institut Pasteur de Lille) (1). En analysant des données recueillies à la naissance chez des enfants finlandais, italiens et américains suivis dans des cohortes, les chercheurs ont créé une équation très simple permettant d'évaluer le risque d'obésité ultérieure des nouveaux nés. Ce test, qui prend en compte les spécificités socio-culturelles de chaque pays, pourrait aider les professionnels de santé à mieux cibler les populations à risque pour agir le plus tôt possible. Ces travaux sont publiés dans la revue PLoS One le 28 novembre 2012.

L'équipe de Philippe Froguel s'est tout d'abord intéressée à une cohorte de 4000 enfants finlandais nés en 1986 et suivis depuis la naissance jusqu'à l'adolescence. En analysant systématiquement toutes les informations récoltées à la naissance, les chercheurs se sont aperçus que l'on disposait dès ce moment d'informations suffisantes pour prédire le risque que ces enfants deviennent obèses pendant l'enfance (à 7 ans) ou l'adolescence (à 16 ans). Ces données sont très simples à obtenir, sans coût ni examen biologique du bébé : indice de masse corporelle (IMC) (2) des deux parents avant la grossesse, prise de poids de la maman pendant la grossesse, poids du bébé à la naissance, profession de la maman, tabagisme pendant la grossesse et nombre d'enfants dans la famille. Après analyse statistique, les chercheurs ont créé avec ces données une équation très simple puis ils l'ont convertie en calculateur Excel automatique qui fournit une valeur de risque d'obésité ultérieure des nouveaux nés (http://files-good.ibl.fr/childhood-obesity).

Chacune des données incorporées dans l'équation est un facteur de risque déjà reconnu d'obésité infantile, mais c'est la première fois que ces données sont utilisées de manière « combinée » pour prédire dès la naissance la survenue d'un surpoids. L'équation permet ainsi de repérer les 25% de familles d'enfants finlandais présentant le risque le plus élevé d'obésité, et qui à elles seules constituent 80% des enfants finlandais obèses de la cohorte. L'utilisation de l'équation aurait donc pu permettre de les identifier dès la naissance.

Les chercheurs lillois ont ensuite validé leur équation dans différentes populations infantiles : une cohorte italienne de 1500 enfants nés dans les années 1980, et une plus récente de 1000 enfants américains (Project Viva). Ils ont montré que pour améliorer l'efficacité de l'équation, il fallait l'adapter à chaque pays et incorporer des caractéristiques supplémentaires reconnues comme jouant un rôle dans l'obésité infantile et propres à chaque population (par exemple l'ethnicité aux Etats-Unis).

En Europe, l'obésité infantile touche entre 10% et 25% des enfants. En France, 12% des enfants de 5 ans sont en surpoids, dont 3,1% sont obèses. L'obésité de l'enfant débute souvent très tôt, avant 5 ans, et semble être déclenchée par la croissance extrême des premiers mois de vie. Une fois installée, elle est difficilement curable. La prévention est donc la meilleure stratégie pour lutter contre cette épidémie et elle doit être la plus précoce possible. Des données récentes montrent en effet l'intérêt d'éduquer les parents des nourrissons et notamment de prévenir les suralimentations et les erreurs nutritionnelles.
L'équation mise au point par l'équipe lilloise permettrait de concentrer les efforts des professionnels de santé (médecins PMI, pédiatres, diététiciens, psychologues…) sur les enfants présentant les risques les plus élevés. Elle permettrait notamment de cibler des familles peu touchées par les campagnes d'information à grande diffusion (type Programme national de nutrition santé en France), qui ont des effets favorables seulement dans les milieux favorisés.
L'équipe de Philippe Froguel a enfin montré qu'il n'était pas pertinent de prendre en compte dans l'équation les facteurs génétiques fréquents qui jouent un rôle mineur dans la prédiction de l'obésité "commune" de l'enfant. Ces résultats ne doivent cependant pas occulter le fait qu'au moins 5% des obésités sévères de l'enfant sont dues à des mutations génétiques ou à des anomalies chromosomiques responsables de troubles majeurs de l'appétit.
Voir l'article dans PLoS One

Notes :
(1) Ces travaux ont été réalisés par l'équipe franco-britannique coordonnée par le professeur Philippe Froguel du laboratoire Génomique et maladies métaboliques (CNRS /Université Lille 2/Institut Pasteur de Lille) et Imperial College London, en collaboration avec l'équipe anglo-finlandaise du professeur Marjo-Ritta Jarvelin (Imperial College London et Université d'Oulu), avec l'équipe américaine du professeur M. Gillman (Université Harvard), et le service de pédiatrie de Vérone dirigée par le professeur C. Maffeis. Ces travaux s'inscrivent également dans le cadre du projet EGID (European Genomic Institute for Diabetes, CNRS/Inserm/Université Lille 2/Institut Pasteur de Lille/CHRU Lille).
(2) L'IMC est calculé en divisant le poids par la taille au carré.

Références :
Anita Morandi, David Meyre, Stéphane Lobbens, Ken Kleinman, Marika Kaakinen, Sheryl L. Rifas-Shiman, Vincent Vatin, Stefan Gaget, Anneli Pouta, Anna-Liisa Hartikainen, Jaana Laitinen, Aimo Ruokonen, Shikta Das, Anokhi Ali Khan, Paul Elliott, Claudio Maffeis, Matthew W. Gillman, Marjo-Riitta Järvelin, Philippe Froguel
Estimation of newborn risk for child or adolescent obesity : lessons from longitudinal birth cohorts
PLOS ONE, 28 novembre 2012.

 

 DOCUMENT       cnrs        LIEN 

 
 
 
initiation musicale toulon  

Ataxie de Friedreich : une thérapie génique efficace chez l’animal

  initiation musicale

 

 

 

 

 

 

Ataxie de Friedreich : une thérapie génique efficace chez l’animal

COMMUNIQUÉ | 07 AVRIL 2014 - 9H33 | PAR INSERM (SALLE DE PRESSE)
NEUROSCIENCES, SCIENCES COGNITIVES, NEUROLOGIE, PSYCHIATRIE


L’équipe d’Hélène Puccio, directrice de recherche Inserm à l’IGBMC (Inserm / CNRS / Université de Strasbourg), en collaboration avec celle de Patrick Aubourg (Inserm et Professeur de Neuropédiatrie à l’hôpital Bicêtre-Paris Sud) a démontré chez la souris, l’efficacité d’une thérapie génique sur l’atteinte cardiaque associée à l’ataxie de Friedreich, une maladie neurodégénérative rare héréditaire. Le transfert d’une copie normale du gène déficient dans la maladie, via un vecteur viral, a permis de guérir complètement et très rapidement le cœur malade des souris traitées. Ces résultats sont publiés le 06 Avril 2014 dans la revue Nature Medicine.

L’ataxie de Friedreich est une maladie héréditaire rare et grave, associant une atteinte neurodégénérative progressive, une atteinte du cœur et un risque accru de diabète. Cette pathologie concerne une naissance sur 50 000. Aucun traitement efficace n’est disponible à l’heure actuelle pour cette maladie. L’ataxie de Friedreich débute le plus souvent à l’adolescence par des troubles de l’équilibre et de coordination (ataxie) des mouvements volontaires des jambes et des bras, confinant la plupart des patients au fauteuil roulant au bout de 10 à 20 ans d’évolution. Ce sont cependant les complications cardiaques qui engagent le pronostic vital chez 60 % des patients, le plus souvent avant l’âge de 35 ans.
La maladie est causée par une mutation principale dans le gène FXN, qui conduit à une réduction drastique de la production de la protéine appelée « frataxine ». Le taux réduit de frataxine perturbe l’activité de la mitochondrie, un organite essentiel à la cellule et qui joue un rôle fondamental dans la production d’énergie. Les tissus nerveux (cervelet, moelle épinière) et cardiaque sont particulièrement touchés par ce déficit énergétique, qui peut provoquer jusqu’à une insuffisance cardiaque fatale.
Les équipes d’Hélène Puccio, directrice de recherche Inserm, et Patrick Aubourg ont développé une approche thérapeutique basée sur l’utilisation d’un virus adéno-associé (AAV)[1], qui est connu pour cibler et faire exprimer avec efficacité un gène thérapeutique dans les cellules cardiaques. Le virus a été modifié pour être rendu inoffensif, tout en gardant sa capacité d’introduire une copie normale du gène FXN dans les cellules du cœur et d’y faire ainsi exprimer la frataxine normale.
L’équipe d’Hélène Puccio a testé sur un modèle de souris reproduisant les symptômes cardiaques des patients atteints d’ataxie de Friedreich l’efficacité de ce traitement. Les résultats de l’étude démontrent qu’une seule injection d’AAVrh10 exprimant la frataxine par voie intraveineuse permet, non seulement d’empêcher le développement de l’atteinte cardiaque chez des animaux avant l’apparition des symptômes, mais de façon plus impressionnante, un rétablissement complet et rapide du cœur d’animaux à un stade avancé de la maladie cardiaque. Au bout de trois semaines de traitement, le cœur redevient totalement fonctionnel, l’aspect du tissu cardiaque et la fonction des mitochondries sont très proches de ceux de souris saines. « C’est la première fois qu’une thérapie génique permet une rémission complète, durable et aussi rapide d’une maladie cardiaque dans un modèle animal. » explique Hélène Puccio.


Mesure de l’activité d’une protéine mitochondriale (en bleu) essentielle à la production d’énergie cellulaire et qui est perturbée en absence de frataxine (absence de marquage dans le cœur non traité). Le traitement par thérapie génique exprimant la frataxine permet de corriger sur la totalité de la surface du cœur l’activité de cette protéine essentielle. © Inserm / H. Puccio

Par ailleurs,  le système nerveux central étant une autre cible des vecteurs AAV, les équipes d’Hélène Puccio et Patrick Aubourg sont en train de vérifier si une approche similaire de thérapie génique pourrait être aussi efficace qu’elle l’est pour le cœur, au niveau de la moelle épinière et du cervelet.
Ces résultats prometteurs font d’ores et déjà l’objet d’un développement pour proposer aux patients atteints d’ataxie de Friedreich et une cardiomyopathie évolutive un traitement par thérapie génique. Dans cet objectif, trois des auteurs de la publication ont créé AAVLife, entreprise française dédiée à la thérapie génique pour les maladies rares, pour entreprendre les essais chez l’homme. Cet essai a fait l’objet d’une demande de dépôt de brevet par Inserm Transfert.
Cette étude a été réalisée notamment grâce au soutien des associations FARA[2], AFAF[3] et l’AFM[4].
 

[1] AAV : plus particulièrement le serotype AAVrh10.
[2] Friedreich’s Ataxia Research Alliance, association américaine dédiée au traitement de l’ataxie de Friedreich
[3] Association Française de l’Ataxie de Friedreich
[4] Association Française contre les Myopathies

 

  DOCUMENT      inserm     LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante
 
 
 
Google