ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Big data en santé

 

       

 

 

 

 

 

Big data en santé
Sous titre

Des défis techniques, humains et éthiques à relever

Dans le domaine de la santé, le big data (ou données massives) correspond à l’ensemble des données socio-démographiques et de santé, disponibles auprès de différentes sources qui les collectent pour diverses raisons. L’exploitation de ces données présente de nombreux intérêts : identification de facteurs de risque de maladie, aide au diagnostic, au choix et au suivi de l’efficacité des traitements, pharmacovigilance, épidémiologie… Elle n’en soulève pas moins de nombreux défis techniques et humains, et pose autant de questions éthiques.
       

Thiebaut, directeur de l’équipe Statistiques pour la médecine translationnelle (unité 1219 Inserm/Inria), enseignant à l'ISPED (Bordeaux), directeur de l’unité de soutien méthodologique à la recherche clinique et épidémiologique au CHU de Bordeaux et chercheur au Vaccine Research Institute (Créteil).

Comprendre l’importance du big data en santé
En santé comme dans bien d’autres domaines, les progrès technologiques ont fait exploser la quantité d’informations recueillies à chaque instant. Ainsi, si dix ans ont été nécessaires pour obtenir la première séquence d’un génome humain, en 2003, il faut aujourd’hui moins d’une journée pour parvenir au même résultat. Cette accélération technologique fait croître le volume de données disponibles de manière exponentielle. Une aubaine pour la recherche en santé pour qui le big data est une source presque inépuisable de nouvelles connaissances, indispensables à l’innovation et aux progrès médicaux !

Un nombre important de sources et de types de données
La France possède environ 260 bases de données publiques dans le domaine de la santé, et le portail Epidémiologie‐France  recense jusqu’à 500 bases de données médico-économiques, cohortes, registres et études en cours.

Les bases de données médico-administratives
Ces bases offrent des données objectives et très exhaustives à l’échelle de larges populations, avec peu de personnes perdues de vue en cours de suivi. Des atouts majeurs par rapport aux informations qui peuvent être recueillies lors d’études, poursuivies à court ou moyen terme, menées dans des populations spécifiques ou en nombre limité, et souvent fondées sur les déclarations des participants.
La plus riche des bases médico-administratives est le SNIIRAM (Système national d’information interrégimes de l’Assurance maladie). Dans cette base sont enregistrés tous les remboursements effectués par l’Assurance maladie pour chaque cotisant, tout au long de leur vie (biologie, médicaments, ambulances, consultations avec dates et noms des professionnels de santé vus, codes du type de maladie dans certains cas…). Ce système permet le suivi à long terme de données fiables.
Il existe beaucoup d’autres bases médico-administratives, comme celle de l’ATIH (Agence technique de l'information sur l'hospitalisation) ou celles des caisses de retraite (dont la CNAV). Il existe également des bases gérées par des centres de recherche, notamment celle du CépiDc (Inserm) qui recense les causes médicales de décès en France depuis 1968.

Qui accède aux données du SNIIRAM ?
La base est actuellement accessible aux agences sanitaires et organismes publics de recherche à but non lucratif. En 2013, une cinquantaine de chercheurs l’a interrogée de manière régulière, réalisant plus de 17 000 requêtes, soit 30% de plus que l'année précédente.
Un arrêté du ministère de la Santé qui interdit l'accès à cette base aux organismes à but lucratif (compagnie d'assurances, laboratoire pharmaceutique…) a été jugé illégal par le Conseil d’État qui demande son annulation d’ici fin 2016. Par conséquent, toutes les structures voulant mener une étude d'intérêt général pourront bientôt accéder à ces données et les demandes devraient donc exploser dans les années à venir.

Les cohortes
Une cohorte est un groupe de personnes partageant un certain nombre de caractéristiques communes, que des chercheurs suivent pendant un temps plus ou moins long afin d’identifier la survenue d’événements de santé (maladie ou dysfonctionnement de l’organisme) et des facteurs de risque ou de protection s’y rapportant.
Les organismes de recherche montent de grandes cohortes, incluant jusqu’à plusieurs dizaines de milliers de personnes, suivies pendant plusieurs années. C’est le cas par exemple des cohortes Constances, I-Share ou encore MAVIE et NutiNet-Santé, mises en œuvre en partenariat avec l’Inserm. La cohorte Constances, en cours de constitution, inclura à terme 200 000 adultes de 18 à 69 ans consultant dans des centres d'examens de santé de la Sécurité sociale. La cohorte I-Share inclura 30 000 étudiants des universités, suivis pendant 10 ans. L’observatoire MAVIE étudie les accidents de la vie quotidienne chez plus de 25 000 volontaires internautes. Quant à NutiNet-Santé, elle récolte une multitude de données sur le mode de vie, la santé et les habitudes alimentaires de 500 000 Français.
Toutes ces données récoltées permettent des études et une surveillance épidémiologique, potentiellement à fort impact en santé publique.

Les études cliniques
Les laboratoires publics mènent par ailleurs de très nombreux travaux de recherche clinique, incluant des populations particulières de patients dont les profils de risque et les états de santé sont analysés. Or, le nombre de données collectées chez un même patient ne cesse de croitre, avec des centaines d’informations recueillies chez un même individu, contre une dizaine il y a quelques années.
En oncologie, des dizaines de paramètres cliniques, biologiques, d’imagerie et de génétique sont systématiquement recueillis. C’est aussi le cas pour le développement des vaccins. Ainsi, dans le cadre de l’essai clinique DALIA réalisé par Vaccine Research Institute, destiné à évaluer un vaccin thérapeutique contre le VIH, toutes les cellules immunitaires des patients ont été comptées grâce à la reconnaissance des marqueurs de surface, et leur fonctionnalité a été testée. Le protocole a généré environ 800 mesures par patient et par visite, sans compter l’étude de l’expression génétique de nombreux marqueurs (47 000 sondes/patient/visite) et du séquençage à haut débit du virus lui-même.


Les objets de santé connectés
Les objets de santé connectés génèrent également de très nombreuses données transmissibles et partageables : appareils mesurant le nombre de pas, la fréquence cardiaque, la glycémie
glycémie
Taux de glucose (sucre) dans le sang.
, la pression artérielle… Ces données sont le plus souvent stockées et gérées par des géants d’internet ou GAFAM : Google, Apple, Facebook, Amazon et Microsoft.

Les enjeux de la recherche

Des défis techniques majeurs
Les énormes volumes de données désormais disponibles soulèvent des défis techniques concernant leur stockage et les capacités d’exploitation. Des programmes et des algorithmes informatiques et statistiques de plus en plus complexes s’avèrent nécessaires.
Les organismes de recherche disposent tous de serveurs de stockage et de supercalculateurs. Dans la plupart des cas, compte tenu de leur coût, ces plateformes sont mutualisées. C’est par exemple le cas du Mésocentre de calcul intensif aquitain (MCIA, Bordeaux), partagé par les universités de Bordeaux et les laboratoires CNRS, Inra, Inria et Inserm de la région. Autre exemple à Lyon, avec Platine, une plateforme européenne d’immunomonitoring gérée par plusieurs entreprises de biotechnologie ainsi que le Centre Léon Bérard de lutte contre le cancer et l’Inserm. Elle vise à aider les médecins à la décision thérapeutique en cancérologie et en infectiologie, en permettant l’analyse du statut immunologique initial des patients.
Autre problématique, les données massives sont assez fragmentées. Les informations collectées sont en effet de plus en plus hétérogènes, de par :
*         leur nature (génomiquegénomiqueÉtude conduite à l’échelle du génome, portant sur le  fonctionnement de l’organisme, d’un organe, d’une pathologie...

, physiologique, biologique, clinique, sociale…),
*         leur format (texte, valeurs numériques, signaux, images 2D et 3D, séquences génomiques…),
*         leur dispersion au sein de plusieurs systèmes d'information (groupes hospitaliers, laboratoires de recherche, bases publiques…).
Pour rendre possible leur traitement et leur exploitation, ces informations complexes doivent être acquises de manière structurée, et codées avant de pouvoir être intégrées dans des bases ou des entrepôts de données. Des standards se développent, tel I2b2 (pour Informatics for Integrating Biology and the Bedside), développé à Boston et désormais utilisé au CHU de Rennes, à Bordeaux ou encore  à l’Hôpital européen Georges Pompidou (Paris). Ce système a par exemple été utilisé́ pour identifier et quantifier le risque accru d’infarctus du myocarde chez les patients sous Avandia, et a contribué́ au retrait du marché́ de ce médicament.
Grâce à ces standards, les hôpitaux et les centres de soins sont mieux armés pour compiler toutes les données collectées (pharmacie, biologie, imagerie, génomique, médico-économique, clinique...) dans des entrepôts de données biomédicales, interrogeables par les chercheurs via des interfaces web. De nombreuses équipes de recherche travaillent également sur des plateformes intégrées, pour apparier des bases et agréger leurs données avec celles de cohortes. Ainsi, le projet Hygie, conduit par l’Institut de recherche et de documentation en économie de la santé, apparie les bases SNIIRAM et SNGC (Système national de gestion des carrières de l’Assurance retraite). L’objectif est de constituer un système d’information sur les indemnités journalières de sécurité́ sociale sur un échantillon de 800 000 personnes, qui servira à enrichir les fichiers de la cohorte CONSTANCES.

En pratique
Lorsqu’un chercheur souhaite démarrer une étude se fondant sur l’utilisation de données massives, il commence par identifier les bases qui lui sont utiles et demande un accès spécifique aux équipes ou organismes qui détiennent ces données. Il doit ensuite s’entourer de nombreuses compétences pour effectuer des méta-analyses
méta-analyses
Analyse statistique faite à partir de plusieurs études portant sur un même sujet.
intégrant toutes ces données. Pour l’essai DALIA par exemple, l’analyse des résultats a nécessité la contribution d’une cinquantaine de personnes issues de disciplines différentes : cliniciens, immunologistes, biologistes, virologistes, techniciens de laboratoire, assistants de recherche clinique, gestionnaires de bases de données, biostatisticiens ou encore bioinformaticiens.

Le big data, quelles utilités ?
Entreprises, organismes de recherche, à but lucratif ou non, scientifiques, médecins, industriels…. Le big data intéresse de très nombreux acteurs du monde de la santé car il permet de nombreux progrès médicaux.

Mieux prévenir et prendre en charge les maladies
Les données multidimensionnelles récoltées à long terme sur de larges populations, permettent d’identifier des facteurs de risque pour certaines maladies comme le cancer, le diabète, l’asthme ou encore les maladies neurodégénératives. Ces facteurs servent ensuite pour construire des messages de prévention, et mettre en place des programmes à destination des populations à risque.

Le big data permet en outre le développement de systèmes d’aide au diagnostic et d’outils permettant la personnalisation des traitements. Ces systèmes se fondent sur le traitement de grandes masses de données cliniques individuelles. Dans cette veine, le super-ordinateur Watson d’IBM permet par exemple d’analyser en quelques minutes le résultat du séquençage génomique de patients atteints de cancer, de comparer les données obtenues à celles déjà disponibles, et de proposer ainsi une stratégie thérapeutique personnalisée. En l’absence de cet outil, ce travail d’analyse prend plusieurs semaines. Les cliniques et hôpitaux intéressés passent un partenariat avec IBM qui détient ce super-ordinateur et fournit les résultats.

Le big data peut également permettre de vérifier l’efficacité d’un traitement. Par exemple, dans le domaine des vaccins, les cliniciens mesurent aujourd’hui des centaines de paramètres au cours des essais cliniques : comptages cellulaires, fonctionnalité cellulaire, expression de gènes d’intérêt... alors qu’il y a quelques années, on se limitait à la concentration des anticorps
anticorps
Protéine du système immunitaire, capable de reconnaître une autre molécule afin de faciliter son élimination.
d’intérêt. À terme, cette évolution, les données massives qu’elle génère et la capacité à les analyser, pourrait permettre de vérifier qu’une vaccination a bien fonctionné au bout d’une heure seulement, à partir d’une micro goutte de sang.

Prédire des épidémies
Disposer de nombreuses informations sur l’état de santé des individus dans une région donnée permet de repérer l’élévation de l’incidence de maladies ou de comportements à risque, et d’alerter les autorités sanitaires.
Ainsi, le site HealthMap a pour objectif de prédire la survenue d’épidémies à partir de données provenant de nombreuses sources. Développé par des épidémiologistes et des informaticiens américains en 2006, ce site fonctionne en collectant les notes de départements sanitaires et d’organismes publics, les rapports officiels, des données internet… Le tout est mis à jour en continu pour identifier des menaces sanitaires et alerter les populations. Citons aussi le simulateur GLEAM, destiné à prédire la dissémination d’une épidémie en particulier, en exploitant les données de transport aérien.
En France, depuis 1984, le réseau Sentinelles suit plusieurs maladies infectieuses et alerte sur les épidémies grâce à la contribution de 1 300 médecins généralistes et d’une centaine de pédiatres répartis sur tout le territoire. Ces derniers rapportent au moins une fois par semaine le nombre de cas observés pour sept maladies transmissibles (diarrhée aiguë, maladie de Lyme, oreillons, syndromes grippaux, urétrite masculine, varicelle et zona) ainsi que les actes suicidaires. Les données sont transmises, via un réseau sécurisé, auprès de l’institut Pierre Louis d’Épidémiologie et de Santé Publique France, en collaboration avec l'Institut de veille sanitaire (InVS).

Améliorer la pharmacovigilance
L’analyse des données issues de cohortes ou des bases médico-économiques sur le long terme peut donc permettre d’observer beaucoup de phénomènes, et notamment de faire des rapprochements entre des traitements et la survenue d’événements en santé. Cette pratique permet de repérer des événements indésirables graves et d’alerter sur certains risques. En 2013, la base de données du SNIIRAM avait ainsi permis d’étudier le risque d’AVC et d’infarctus du myocarde chez les femmes utilisant une pilule contraceptive de 3e génération.


Entre protection des données et avancée de la recherche : les défis éthiques du big data
Lors d’un essai clinique, un consentement est nécessaire avant le recueil de données de santé. De même, tout chercheur ou clinicien qui utilise des données du soin doit en informer le patient concerné et faire une déclaration auprès de la CNIL. Mais d’autres recueils se font à l’insu des contributeurs, notamment lors de recherches sur internet par mots clés ou lors de la transmission de données d’objets connectés. Cela pose évidemment des problèmes éthiques relatifs au souhait des citoyens de partager ou non ces données avec des tiers, ainsi que sur la préservation de l’anonymat.
Et de nombreuses autres questions se posent : faut-il conserver toutes les données ? Faut-il les mutualiser ? Qui doit les gérer et sous quelles conditions les partager ? Comment faire en sorte que Google, Apple, Facebook et Amazon ne s’approprient pas une partie d’entre elles ? Les enjeux sont de taille : risque de divulgation de la vie privée et conséquences pour la vie sociale, perte de confiance dans la puissance publique et la confidentialité de la recherche, harcèlement publicitaire... Ces problématiques font régulièrement l’objet d’avis de la part de comités d’éthiques, dont le Comité consultatif national d’éthique en France.

Les pouvoirs publics se sont également saisis de la question : la loi de modernisation de notre système de santé, promulguée le 26 janvier 2016, prévoit en effet l'ouverture des données agrégées de santé à des fins de recherche, d'étude ou d'évaluation d'intérêt public, à tout citoyen, professionnel de santé ou organisme (public ou privé) participant au fonctionnement du système de santé et aux soins. Cette ouverture est assortie de plusieurs conditions :
*         les données ne doivent pas permettre l’identification des personnes concernées (la loi restreint drastiquement l’accès aux données à caractère personnel pouvant permettre l’identification d’une personne),
*         les travaux ne doivent pas aboutir à la promotion de produits en direction des professionnels de santé ou d'établissements de santé, ni permettre l'exclusion de garanties des contrats d'assurance ou la modification de cotisations ou de primes d'assurance.
Pour y avoir accès, tout organisme de recherche ou d’étude désireux de mener un projet d’intérêt public doit soumettre ce dernier à l’Institut national des données de santé, composé entre autres de représentants de l'État, d'usagers de l'Assurance-maladie et de producteurs et d'utilisateurs publics et privés de données de santé. Le protocole de l’étude devra ensuite être validé par un comité scientifique, avant que la CNIL ne se prononce sur ses aspects relatifs au respect de la vie privée. Néanmoins, en juin 2016, les décrets d’application pour cette nouvelle organisation n’étaient toujours pas parus.

L’Inserm et le Système national des données de santé
La loi de modernisation du système de santé de janvier 2016 prévoit la création du Système national des données de santé (SNDS). Ce système sera notamment composé :
*         des données de l'Assurance maladie (SNIIRAM),
*         des données hospitalières (PMSI)
*         des causes de décès (CépiDc-Inserm).
Il est prévu que la gouvernance de ce système inclue les producteurs de données, parmi lesquels l'Inserm. Plus concrètement, l’Inserm devrait jouer le rôle d’opérateur d’extraction et de mise à disposition des données pour des traitements mis en œuvre à des fins de recherche.
Marisol Touraine, ministre des Affaires sociales et de la Santé, a lancé en avril 2016 une consultation nationale en ligne sur le big data en santé. L’objectif est que chaque Français puisse donner son avis sur les objectifs souhaités pour les patients, les professionnels de santé, les industries, les assureurs ou la puissance publique, mais également sur les conditions dans lesquelles l’exploitation des données de santé est acceptable. Les conclusions sont attendues fin 2016. Les chercheurs plaident quant à eux pour une ouverture assez large des données, et un accès simplifié. Leur souhait est de parvenir à accélérer la recherche via des plateformes techniques adaptées, permettant de hauts niveaux de sécurité (ne collecter que des données ayant un intérêt potentiel pour le sujet de recherche, cloisonner les données identifiantes, chiffrer certaines informations, limiter les accès et la copie des informations...).

 

 DOCUMENT      inserm     LIEN

 
 
 
initiation musicale toulon  

HÉMOPHILIE

  initiation musicale

   

 

 

 

 

 

Hémophilie

Sous titre
Une maladie hémorragique héréditaire

L’hémophilie correspond à l’impossibilité pour le sang de coaguler : en cas de saignement, l’écoulement ne peut pas s’arrêter ou très difficilement. Les conséquences sont majeures, avec des hémorragies sévères en cas de blessure et parfois des saignements spontanés, notamment au niveau des articulations. L’hémophilie ne se guérit pas, mais elle se contrôle bien grâce aux traitements substitutifs. Des recherches sont actuellement conduites pour améliorer l’efficacité de ces traitements, et même parvenir à traiter la maladie par thérapie génique.
       

Dossier réalisé en collaboration avec Sébastien Lacroix-Desmazes, équipe 16 Inserm UMRS 872, Centre de recherche des Cordeliers, Paris

Comprendre l'hémophilie
L’hémophilie est une maladie héréditaire grave, se traduisant par une impossibilité pour le sang de coaguler. La coagulation est un processus complexe mobilisant plusieurs protéines, les facteurs de coagulation, qui s’activent en cascade. Il existe deux types d’hémophilie prédominants : L’hémophilie A est la plus fréquente (un garçon touché sur 5 000 naissances). Elle se caractérise par un déficit du facteur de coagulation VIII. L’hémophilie B, cinq fois plus rare (un garçon sur 25 000 naissances), est liée quant à elle à un déficit du facteur de coagulation IX.
Selon la nature de la mutation génétique qui est l’origine de la maladie, le facteur de coagulation affecté peut être totalement absent de l’organisme du patient, ou présent mais sous une forme dysfonctionnelle. Ces différences se traduisent par des degrés variables de sévérité de la maladie. Elle est sévère dans la moitié des cas, mineure chez 30 à 40 % des patients et modérée chez les autres.

Les filles très rarement concernées
L’hémophilie est une maladie génétique héréditaire, qui se transmet par le chromosome X où se situent les gènes incriminés. N’ayant qu’un exemplaire de ce chromosome, les garçons sont systématiquement malades dès lors qu’ils héritent d’un gène muté. A l’inverse, les filles possédant deux chromosomes X, elles ne sont malades que si elles héritent de deux chromosomes X portant chacun un gène muté. Cette situation est rarissime.
En cas d’antécédents d’hémophilie dans la famille, un diagnostic prénatal est effectué par dosage des facteurs de coagulation. Il est également possible de procéder à un diagnostic pré-implantatoire en cas de fécondation in vitro.

Des hémorragies plus ou moins graves dès le plus jeune âge
La maladie est rapidement diagnostiquée au vue de saignements excessifs, quelle que soit la nature et l’endroit de la plaie. Ces saignements peuvent survenir dès l’âge de 3 mois. Lors des premiers déplacements de l’enfant, des bleus apparaissent au niveau des jambes. Des saignements au niveau des muscles ou des articulations peuvent également survenir et entraîner des hématomes qu’il faut parfois ôter chirurgicalement car ils compriment d’autres vaisseaux ou des nerfs. Plus tard, des saignements internes au niveau du cerveau ou de l’abdomen peuvent engager le pronostic vital. L’hémophilie n’est pas une maladie évolutive : quelle que soit sa sévérité, elle reste identique tout au long de la vie.
Une des complications majeures de l’hémophilie est l’apparition d’hémarthroses : il s’agit d’épanchements de sang au niveau des articulations. Ce phénomène douloureux provoque un gonflement et une perte de souplesse. En cas de récidives, il finit par altérer l’articulation et mène à l’arthropathie hémophilique, c’est à dire une dégradation du cartilage, une déformation articulaire et une perte de mobilité. Cette évolution peut être prévenue par un traitement substitutif prophylactique du facteur de coagulation déficient (voir plus loin).

L’hémophilie n’est pas la seule cause de troubles de la coagulation
La coagulation est un processus complexe qui fait intervenir bien d’autres facteurs que ceux impliqués dans les hémophilies A et B. Il existe donc d’autres maladies de la coagulation qui touchent les deux sexes. C’est le cas de la maladie de Willebrand, la plus fréquente des maladies hémorragiques après l’hémophilie (prévalence
prévalence
Nombre de cas enregistrés à un temps T.
mondiale de 1 %). Elle est liée à un déficit en facteur Willebrand, une protéine impliquée dans la toute première étape de la coagulation (hémostase
hémostase
Arrêt de l'hémorragie.
primaire). D’autres pathologies sont liées à des déficits en d’autres facteurs de coagulation ou à des défauts d’agrégation plaquettaires. Face à un trouble de la coagulation, le dosage des différents facteurs impliqués permet, entre autre, de réaliser un diagnostic différentiel.

Des traitements de substitution efficaces mais contraignants
L’hémophilie ne se guérit pas, mais elle se contrôle bien grâce aux traitements substitutifs. Ces traitements consistent à injecter aux patients, par voie intraveineuse, des facteurs de coagulations fonctionnels. Un patient atteint d’hémophilie A reçoit du facteur VIII et un patient atteint d’hémophilie B reçoit du facteur IX. Ces substituts peuvent être dérivés du sang humain ou bien produits par génie génétique (facteurs « recombinants »). Ils peuvent être L’hémophilie n’est pas la seule cause de troubles de la coagulationL’hémophilie n’est pas la seule cause de troubles de la coagulation.
Un traitement prophylactique (préventif) est indiqué en cas d’hémophilie sévère ou modérée. Il consiste en deux ou trois injections de facteur de coagulation par semaine. L’objectif est de maintenir une concentration suffisante en facteur de coagulation dans le sang, pour permettre une coagulation quasi-normale en cas de saignement. Ce traitement est contraignant mais efficace. Il permet de passer du stade sévère de la maladie à un stade modéré, dès le plus jeune âge. Les injections peuvent être réalisées au domicile par le patient lui-même à partir de l’âge de 12 ans, ou par un proche à partir de 4 ans (après une formation dans un centre de prise en charge de l’hémophilie). Elles peuvent aussi être réalisées par une infirmière, au domicile ou dans un centre de soins. Chez les personnes atteintes d’hémophilie A modérée, la desmopressine vient en complément du traitement substitutif. Inhalée ou administrée par voie intraveineuse, cette molécule permet de prolonger la durée de vie du facteur VIII injecté.

Sans traitement prophylactique et en cas d’accident, un patient hémophile doit s’injecter le plus rapidement possible une dose de facteur de coagulation.
La principale difficulté avec les traitements de substitution est l’apparition d’anticorps dirigés contre le facteur de coagulation injecté. Ces anticorps
anticorps
Protéine du système immunitaire, capable de reconnaître une autre molécule afin de faciliter son élimination.
vont conduire à l’« inactivation » du facteur de substitution, et donc à l’inefficacité du traitement. Ce problème concerne 5 à 30 % des hémophiles. Le risque dépend en partie du type d’anomalie génétique à l’origine de la maladie. Si le facteur de coagulation faisant défaut est totalement absent de l’organisme du patient, ce risque est important : le système immunitaire aura davantage tendance à prendre le facteur de substitution pour un corps étranger et à produire des anticorps chargés de le neutraliser. En revanche, si le facteur de coagulation est produit dans l’organisme du patient sous une forme non fonctionnelle, le système immunitaire sera déjà habitué à la présence de la protéine. Le risque d’apparition des anticorps sera donc moins important. En cas d’apparition d’anticorps dirigés contre le facteur VIII, il est possible de provoquer une coagulation en le remplaçant par le facteur VII ou en utilisant un complexe de facteurs pro-thrombotiques (FEIBA). Toutefois, ces stratégies thérapeutiques ne fonctionnent pas chez tous les malades.

Quelques précautions pour mieux vivre avec la maladie
Certaines précautions sont nécessaires pour éviter les saignements ou les risques d’hémorragie. Ainsi, il est convient d’utiliser avec parcimonie l’aspirine qui fluidifie le sang et de bannir les sports à risque comme la boxe, le parachutisme, les arts martiaux, le rugby...
La kinésithérapie, ainsi qu’une activité physique douce et régulière sont nécessaires pour prévenir l’apparition de séquelles articulaires dues aux hémorragies intra articulaires et musculaires répétitives.
En cas d’arthropathie articulaire trop avancée, une chirurgie orthopédique est parfois nécessaire. Mais grâce aux traitements prophylactiques, cela est de plus en plus rare.
Le suivi de la maladie a lieu dans un centre de traitement de l’hémophilie (CTH). Ces centres, répartis dans toute la France, délivrent au patient une carte d’hémophile qui permet à tout professionnel de santé de connaître le statut du malade et ses traitements en cas d’urgence. En l’absence de cette carte, le soignant doit être informé au plus vite de l’hémophilie du patient.

Les enjeux de la recherche
Des progrès attendus pour les traitements de substitution
Des recherches sont actuellement conduites pour améliorer l’efficacité des traitements de substitution. Plusieurs stratégies sont étudiées : augmenter de la durée de vie des facteurs de substitution, contrer l’apparition d’anticorps dirigés contre ces facteurs ou encore inhiber leur activité.

Augmenter la durée de vie des facteurs de substitution permettrait d’espacer les injections. Pour y parvenir, la stratégie actuellement à l’étude consiste à coupler le facteur de substitution avec une molécule ou une protéine qui a une longue demi-vie
demi-vie
Temps mis par un médicament pour perdre la moitié de son activité pharmacologique.
dans l’organisme. Le couplage avec un fragment d’immunoglobuline humaine (fragment Fc d’IgG) est en cours de développement. Les résultats préliminaires sont prometteurs, permettant de multiplier par trois à cinq la durée de vie du facteur IX et par deux celle du facteur VIII. Ainsi, chez les patients atteints d’hémophilie B sévère, ce couplage pourrait permettre de réaliser une seule injection prophylactique par semaine, au lieu de trois. Des facteurs VIII et IX recombinés de ce type devraient arriver sur le marché européen d’ici environ deux ans.
Les chercheurs tentent par ailleurs de décrypter les mécanismes qui entraînent l’apparition des anticorps dirigés contre les facteurs de substitution. En étudiant la réponse immunitaire
réponse immunitaire
Mécanisme de défense de l’organisme.
induite par le facteur VIII de substitution, le rôle central de cellules particulières du système immunitaire, les cellules dendritiques
cellules dendritiques
Cellules présentatrices d’antigènes responsables du déclenchement d’une réponse immune adaptative.
, a pu être mis en évidence. En empêchant ces cellules de reconnaître le facteur de substitution, il devrait donc être possible de contrer l’apparition des anticorps indésirables. Or les résultats de chercheurs de l’Inserm montrent que les sucres présents à la surface du facteur sont très importants pour cette étape de reconnaissance. Un facteur VIII dépourvu de sucres est en cours de développement.

D’autres équipes s’attèlent à trouver des alternatives thérapeutiques à utiliser en cas d’apparition de ces anticorps. L’idée est de mettre au point des molécules qui miment l’activité du facteur de substitution rendu inactif par les anticorps. C’est le cas d’anticorps bispécifiques, capables de reconnaître et d’activer les facteurs IX et X à la place du facteur VIII. Un facteur X chimérique, capable de fonctionner sans facteur VIII ou sans facteur IX, a également été mis au point par des chercheurs de l’Inserm. Son développement clinique est en cours. Il pourrait permettre de traiter les patients hémophiles de type A et de type B. De plus, il a le gros avantage de présenter une demi-vie longue, réduisant par trois le nombre d’injections à réaliser en prophylaxie.
Une toute autre stratégie explorée consiste à induire une tolérance au facteur de substitution dès la vie fœtale. L’idée a été testée chez la souris : les chercheurs injectent à la mère du facteur VIII couplé à une immunoglobuline
immunoglobuline
Protéine du système immunitaire/Anticorps.
pendant la grossesse. L’immunoglobuline traverse le placenta ce qui permet au fœtus de développer une tolérance au facteur VIII.

Corriger les anomalies par thérapie génique
Autre approche développée dans le domaine de la prise en charge de l’hémophilie : la thérapie génique.  En apportant aux patients une version fonctionnelle du gène muté à l’origine de leur hémophilie, cette stratégie peut théoriquement leur permettre de produire le facteur de coagulation qui leur fait défaut et, ainsi, de se passer du traitement de substitution.

Un premier essai de thérapie génique concluant a eu lieu en décembre 2011. Il concernait le traitement de l’hémophilie de type B. La technique consiste à empaqueter le gène fonctionnel codant pour le facteur IX dans un adénovirus. Le virus sert de vecteur pour acheminer le gène-médicament dans les cellules du foie où le facteur coagulation est normalement produit. Pour la première fois, l’équipe anglo-américaine dirigée par le Dr Amit Nathwani (du University College London Cancer Institute et du St Jude Children's Research Hospital de Memphis, États-Unis) a obtenu une réponse prolongée : les six patients inclus dans l’étude n’ont pas été guéris, mais la sévérité de leur maladie a été nettement diminuée pendant plusieurs mois suite à une seule injection intraveineuse. Quatre d’entre eux ont pu se passer complètement de l'administration pluri hebdomadaire de facteur IX dont ils avaient besoin pour éviter des saignements spontanés.

Il faudra toutefois encore plusieurs années pour poursuivre le développement de cette technique et la rendre accessible aux patients. Par ailleurs, il est important de noter qu’un tel essai est beaucoup plus difficile à envisager dans le cadre de l’hémophile de type A : le gène codant pour le facteur VIII est en effet plus grand (donc plus compliqué à véhiculer dans l’organisme des patients) et il sera bien plus difficile d’obtenir son expression dans les cellules des patients.

 

   DOCUMENT        inserm        LIEN

 
 
 
initiation musicale toulon  

Insuffisance rénale

  initiation musicale

   

 

 

 

 

 

Insuffisance rénale

Sous titre
Décrypter les mécanismes de destruction du rein.        

L’insuffisance rénale résulte de l’évolution lente de maladies qui conduisent à la destruction des reins. Elle concerne plus de 82 000 personnes en France et nécessite le recours à la dialyse ou à la transplantation. Dans 50% des cas, les maladies rénales chroniques qui conduisent à l’insuffisance rénale sont la conséquence d’un diabète ou d’une hypertension artérielle.
Des progrès fulgurants ont été réalisés ces 10 dernières années dans la compréhension des mécanismes impliqués la destruction des reins au cours de ces maladies. Les recherches conduites permettent d’identifier des marqueurs diagnostiques et pronostiques. Elles autorisent aussi une meilleure adéquation des traitements aux patie       
de Néphrologie et dialyses de l’hôpital Tenon, AP-HP - unité Inserm 1155, Paris), Christos Chatziantoniou (unité Inserm 1155) et Renato Monteiro (Centre de recherche sur l’inflammation, unité Inserm 1149, Université Paris Diderot)

Comprendre l’insuffisance rénale
L’insuffisance rénale chronique (IRC) résulte de la destruction progressive et irréversible des reins. Elle se solde par la mort du patient si aucun traitement n’est appliqué.
Ses causes sont diverses et parfois inconnues, mêlant des facteurs génétiques, environnementaux et dégénératifs. Les complications associées découlent de la variété des fonctions remplies par les reins. Leur rôle le plus connu est de filtrer le sang pour éliminer les déchets issus du métabolisme (urée, créatinine, acide urique...). Mais ils servent également à maintenir l’eau à un niveau constant dans le corps et à équilibrer les taux de sels minéraux nécessaires à l’organisme comme le potassium, le phosphore ou le sodium. Ils produisent aussi des hormones, des enzymes et des vitamines indispensables à la fabrication des globules rouges, à la régulation de la pression artérielle et à la fixation du calcium.


Quand parle-t-on d’insuffisance rénale aiguë ?
L’insuffisance rénale chronique correspond à une destruction progressive et irréversible des reins. A l’inverse, l’insuffisance rénale aiguë se dit d’un dysfonctionnement transitoire et réversible de ces organes, provoqué par une hémorragie, une infection générale (septicémie), une intoxication médicamenteuse ou l’obstruction des voies urinaires (calculs, adénome prostatique) par exemple. Le recours à la dialyse est alors indispensable. Elle permet au patient de survivre pendant le processus d’autoréparation rénale qui se met en place une fois le patient stabilisé. On sait aujourd’hui que ce processus n’est pas complet et qu’il reste une mémoire de l’agression.

10% des Français seraient concernés

Source : Rapport annuel 2015 du réseau REIN


Le nombre total de malades souffrant d’insuffisance rénale est difficile à évaluer car la maladie ne se manifeste que lorsqu’elle a atteint un stade très avancé, parfois au bout de plusieurs dizaines d’années d’évolution silencieuse. Ainsi elle se manifeste rarement avant 45 ans, et sa prévalence
prévalence
Nombre de cas enregistrés à un temps T.
augmente avec l’âge, notamment après 65 ans.
Le Réseau épidémiologie et information en néphrologie (REIN) répertorie les patients pris en charge par dialyse ou transplantés. Fin 2015, il comptabilisait 82 295 personnes traitées pour insuffisance rénale chronique terminale. Le nombre de nouveaux cas augmente chaque année et concerne en premier lieu les personnes âgées de plus de 75 ans et les diabétiques.
Partie immergée de l’iceberg, le nombre de personnes malades des reins qui ne présentent pas de symptômes avoisinerait quant à lui 10% de la population française selon les estimations actuelles. Il place l’insuffisance rénale chronique dans la "top liste" des enjeux de santé publique : son dépistage devrait être systématiquement réalisé chez les sujets à risque (hypertendus, diabétiques) et les personnes de plus de 60 ans, entre autres.

Les causes de la maladie

Détail structural d'un rein humain. © Inserm/Celio, Marco
Les causes principales actuelles de l’insuffisance rénale sont le diabète et l’hypertension.
L’hyperglycémie diabétique induit une détérioration des petits vaisseaux au niveau des glomérules
glomérules
Structure du rein qui permet la filtration du sang et la formation de l’urine primitive.
, qui entraîne à terme le dysfonctionnement des reins. On parle de néphropathie
néphropathie
Maladie du rein.
diabétique. C’est la première cause de mise en dialyse dans les pays développés, avec une proportion qui augmente et un âge de survenue qui baisse. Elle constituait 22% des nouveaux cas d’insuffisance rénale chronique terminale en 2015.
L’hypertension artérielle est l’autre cause principale d’insuffisance rénale. Elle s’associe à des rétrécissements des petites artères du rein qui peuvent se boucher et à une diminution de la vascularisation qui peut conduire à une défaillance rénale. La néphropathie hypertensive comptait pour 25% des nouveaux cas d’insuffisance rénale chronique terminale en 2015 et elle est en augmentation.

Exprimées en pourcentage des nouveaux cas (source : Rapport d’activité 2015 du REIN)
Les autres néphropathies peuvent impliquer différents mécanismes, inflammatoire, dégénératif ou génétique. Elles sont souvent détectées à l’occasion d’une analyse de sang ou d’urine (protéinurie, hématurie), ou encore de la mesure de la pression artérielle pour un autre motif.
Les glomérulonéphrites primitives, qui constituaient la majeure partie des insuffisances rénales dans les années 1990, ne concernent plus que 12% des patients, mais elles doivent être diagnostiquées précisément car elles répondent souvent à un traitement spécifique.
Les pyélonéphrites constituent 4,3% des nouveaux cas d’insuffisance rénale. Elles résultent d’infections bactériennes répétées des voies urinaires hautes, souvent par E. coli, affectant l’un ou les deux reins.
L’insuffisance rénale peut également résulter d’une maladie génétique héréditaire affectant les reins. La polykystose est la plus fréquente d’entre elles avec 1 personne sur 1 000 touchée, ce qui représente 800 000 personnes en France et 5,4% des nouveaux cas répertoriés en 2015. Elle se manifeste par l’apparition progressive de kystes le long du tubule qui récupère les déchets filtrés par le glomérule. En proliférant et en grossissant, ces kystes envahissent les reins et empêchent leur fonctionnement normal.  

Freiner l’évolution de la maladie
Une fois la maladie rénale identifiée, l’objectif des traitements est de ralentir la destruction des reins en réduisant l’inflammation à l’origine du trouble dans les glomérulonéphrites et en prescrivant un traitement dit "néphroprotecteur". L’objectif est de retarder de plusieurs mois ou années l’évolution de l’insuffisance rénale vers son stade terminal.
Cause et conséquence de l’insuffisance rénale chronique, l’hypertension doit être contrôlée par un régime pauvre en sel et par un traitement hypotenseur. Il convient également de réduire les autres facteurs de risque cardiovasculaire, ainsi que d’éviter les médicaments néphrotoxiques ou d’adapter leur posologie. Sont également parfois prescrits certains médicaments qui favorisent l’érythropoïèse, réduisent l’absorption du phosphore, et l’élimination des excès d’eau et de sel, rétablissent l’équilibre acido-basique, et assurent des apports suffisants de vitamine D et de calcium.
L’adoption d’une bonne hygiène de vie permet elle-aussi de ralentir la destruction des reins. L’arrêt du tabac et l’adoption d’un régime alimentaire adapté est indispensable (réduction des protéines animales et des apports en phosphore, sodium, potassium, lipides, boire suffisamment), tout comme l’exercice physique quotidien.

Pallier les défaillances fonctionnelles du rein
Cinq stades ont été définis dans la progression de la destruction des reins observée dans l’insuffisance rénale chronique. Le dernier, appelé stade terminal, correspond au moment où les deux reins ont perdu plus de 85% de leur fonction (débit de filtration glomérulaire <15 ml/min).
Certains patients peuvent être stabilisés au stade 5 pendant plusieurs années. Mais la fonction rénale doit être le plus souvent suppléée par une transplantation de rein ou par une méthode d’épuration du sang via une dérivation extracorporelle (hémodialyse) ou péritonéale (dialyse péritonéale). Ces techniques ont révolutionné la prise en charge de la maladie rénale chronique qui était auparavant mortelle.

Source : Rapport annuel 2015 du réseau REIN

L’hémodialyse filtre le sang à travers une membrane artificielle pendant 4 heures, trois fois par semaine. Elle doit s’accompagner d’une prescription d’érythropoiétine et d’une alimentation adaptée pour pallier les anomalies métaboliques non corrigées par ce traitement, comme l’anémie et les désordres minéraux phosphocalciques.
La dialyse péritonéale, développée dès les années 1930, utilise le péritoine
péritoine
Membrane tapissant les parois de l'abdomen et la surface des viscères digestifs qu'il contient.
du patient comme membrane filtrante. La présence de cicatrices internes ou d’adhérences, d’hernie abdominale ou de diverticulose colique, ou encore une insuffisance respiratoire sévère proscrivent toutefois l’utilisation de cette voie thérapeutique. La capacité de filtration du péritoine diminue avec le temps, ce qui limite souvent son utilisation à environ 5 ans. Le développement des techniques de dialyse quotidienne à domicile connait cependant un grand essor, améliorant la qualité de vie du patient.
Pour en savoir plus sur la dialyse

La greffe, un traitement de choix
La transplantation rénale est un traitement de choix car elle améliore la qualité et l’espérance de vie du patient : 70% des greffons sont encore fonctionnels après 10 ans, 50% après 14 ans. Elle nécessite toutefois la prise quotidienne de traitements immunosuppresseurs, souvent responsables de complications (infections, prédisposition à certains cancers).
Malgré les efforts déployés en faveur du don, les besoins en greffons rénaux sont loin d’être satisfaits : en 2015, 3 488 greffes ont été effectuées pour un nombre total de candidats qui a atteint 16 529. C’est dire combien il est important de développer la greffe à partir de donneur vivant. En France, la famille (parents, enfants, frères, sœurs, oncles, tantes, cousins germains), mais aussi toute personne ayant un lien affectif étroit et stable depuis au moins 2 ans avec le futur receveur peut donner un rein. Malgré cela, la greffe à partir de donneur vivant reste encore minoritaire en France, représentant moins de 20% des greffes rénales réalisées.

Plus d’informations sur la transplantation d’organe

Les enjeux de la recherche
La France est un des leaders mondiaux dans la recherche sur le rein. Les équipes Inserm ont très largement contribué à l’énorme évolution des stratégies thérapeutiques enregistrées ces dernières années. Ces progrès reposent sur une meilleure compréhension des mécanismes à l’œuvre : Cerner ces mécanismes donne en effet la possibilité d’identifier des biomarqueurs
biomarqueurs
Paramètre physiologique ou biologique mesurable, qui permet par exemple de diagnostiquer ou de suivre l’évolution d’une maladie.
diagnostiques et pronostiques pour adapter les stratégies thérapeutiques. Certaines formes d’insuffisance rénale ont ainsi vu leur prise en charge révolutionnée, d’autres bénéficient de nouvelles molécules plus performantes.
Les recherches portant sur la correction de gènes défaillants (thérapie génique) ou sur la régénération du rein (thérapie cellulaire) n’en sont qu’à leurs balbutiements. La reconstitution du rein (à l’étude chez l’animal) est un vrai défi : cet organe est en effet constitué de plus de 30 types de cellules différentes.

Comprendre les mécanismes à l’œuvre

Les apports de l’étude de la physiologie rénale
Les travaux de Pascal Houillier (unité Inserm 1138, Centre de recherche des Cordeliers, Paris) et Dominique Eladari (unité Inserm 1188, La Réunion) sur l’étude de la physiologie du tubule rénal ont permis la compréhension des mécanismes de progression de la maladie rénale. Ils sont la mémoire de la grande école de physiologie française et les seuls détenteurs de techniques d’investigation indispensables à cette recherche.

Les apports de l’étude des maladies d’origine génétique
La compréhension des maladies du rein d’origine génétique a fait des progrès fulgurants. A la pointe dans ce domaine, l’équipe de Corinne Antignac (unité Inserm 1163, Institut Imagine, Paris) a trouvé plusieurs causes de maladies génétiques touchant le glomérule chez le jeune enfant, mais aussi chez les adolescents et les jeunes adultes. Elle a notamment identifié, en 2004, une mutation induisant une anomalie du trafic intracellulaire : la séquestration de la podocine, une protéine qui joue un rôle clé dans le contrôle de la perméabilité aux protéines par les podocytes
podocytes
Cellule du glomérule rénale dont le rôle est d'assurer la filtration du sang.
. Cette découverte est à l’origine d’une recherche très active sur les protéines chaperons, des molécules qui assistent les autres dans leur fonction et qui pourraient, en l’occurrence, se fixer à la podocine pour la conduire vers la membrane. Cette voie prometteuse a déjà donné de bons résultats dans le cas de la maladie de Fabry dont une forme résulte de la séquestration d’une enzyme, l’alpha-galactosidase A, dans un organite
organite
Structure spécialisée retrouvée dans le cytoplasme d'une cellule.
cellulaire, le lysosome. L’identification d’un chaperon spécifique, le médicament Migalastat, permet aujourd’hui de rétablir ce trafic.

Des mutations d’un gène du collagène (COL4A1) des membranes basales des vaisseaux ont été identifiées par Emmanuelle Plaisier (unité Inserm 1155, Hôpital Tenon, Paris). Ces mutations sont à l’origine d’une maladie kystique des reins associée à une pathologie vasculaire. Ce nouveau syndrome apporte des informations importantes sur le rôle de ce collagène dans la pathologie vasculaire, illustrant ainsi comment la découverte d’une maladie rare peut éclairer la compréhension de maladies fréquentes comme l’hypertension artérielle.


Des progrès ont également été réalisés dans la compréhension des maladies rénales d’origine multigénique, révolutionnant dans certains cas la prise en charge du patient. C’est le cas, par exemple, de la glomérulopathie extramembraneuse, maladie auto-immune qui conduit dans 30% des cas à une insuffisance rénale nécessitant le recours à la dialyse ou à la transplantation. L’étude du génome entier de 600 patients, réalisée par un consortium de chercheurs anglais, hollandais et français, dont l’unité de Pierre Ronco et Hanna Debiec (unité Inserm 1155), a permis d’identifier les gènes de prédisposition à cette maladie. L’un code pour l’antigène attaqué par le système immunitaire, PLA2R1, et le second pour les molécules HLA
HLA
Les protéines HLA, situées à la surface des cellules, permettent au système immunitaire de distinguer les cellules de l’organisme des cellules étrangères.
qui présentent cet antigène
antigène
Molécule capable de déclencher une réponse immunitaire.
au système immunitaire.

L’anticorps

anticorps
Protéine du système immunitaire, capable de reconnaître une autre molécule afin de faciliter son élimination.
anti-PLA2R1 a démontré depuis sa valeur diagnostique et pronostique et ouvert la voie à des recherches thérapeutiques (voir plus loin). Cette découverte se révèle également essentielle pour définir la stratégie de transplantation. Une étude toute récente de la même unité montre en effet que le risque de récidive sur le greffon est associé à la présence de variants HLA particuliers chez le donneur. Il sera ainsi possible d’éliminer ce risque en choisissant, sur ce critère, les reins à greffer à ces patients.

Identification des voies de destruction des podocytes
De nombreuses recherches permettent par ailleurs d’éclairer les mécanismes intervenant dans la détérioration des podocytes, les cellules du glomérule qui contrôlent la perméabilité aux protéines. Ces cellules sont en effet les premières touchées dans les glomérulopathies. Elles sont également affectées dans toutes les situations où le nombre de néphrons
néphrons
Unité fonctionnelle du rein qui filtre le sang et élabore l'urine. Chaque rein en renferme environ un million. Un néphron est composé de deux éléments principaux : le glomérule rénal et le tube rénal.
fonctionnel diminue et jouent ainsi un rôle déterminant dans la progression des maladies rénales. Leur altération puis leur mort conduit à celle des glomérules et, à terme, du rein. Mieux comprendre les cascades de processus qui mènent à la détérioration des podocytes peut permettre d’identifier des cibles pour ralentir cette dégradation.
Inserm/Antignac, Corinne
C’est ainsi que l’équipe de Fabiola Terzi (unité Inserm 1151) a identifié une enzyme déterminante dans l’adaptation des néphrons aux maladies rénales chroniques, l’AKT2. Lorsqu’elle est activée, cette enzyme protège les podocytes. Cette découverte a permis, par exemple, de limiter la prescription d’un immunosuppresseur largement utilisé dans la prévention du rejet de greffe de rein (inhibiteur de mTOR) car ce médicament prévient l’activation de l’AKT2.
L’équipe de Pierre-Louis Tharaux (unité Inserm 970, PARCC, Paris) a montré l’implication d’un facteur de croissance (HB-EGF) qui provoque la prolifération puis la mort des podocytes en réponse à l’inflammation des glomérules. L’administration d’un inhibiteur pharmacologique de ce facteur de croissance chez la souris préserve la fonction rénale et améliore la survie. Cet inhibiteur, développé pour le traitement de certains cancers, pourrait ainsi venir compléter les traitements immunosuppresseurs classiques si les essais thérapeutiques confirment leur intérêt chez l’homme.
Un autre mécanisme d’adaptation original du podocyte à une sollicitation excessive a été mis à jour par l’équipe de Nicolas Pallet (unité Inserm 1147, Centre universitaire des Saints Pères, Paris). Il s’agit du processus d’autophagie qui permet aux cellules de renouveler leurs constituants par une sorte de recyclage, mais conduit à leur destruction si le stress se prolonge, qu’il soit d’origine toxique, immunologique, infectieux, métabolique ou ischémique. Cette découverte ouvre également la voie à des études sur les moyens médicamenteux de lutter contre ce stress pour protéger la cellule et sur l’identification de biomarqueurs pour mesurer la souffrance tissulaire.

Impact de l’alimentation dans les maladies associées à des anomalies immunitaires
Une autre voie de recherche prometteuse vise à comprendre le rôle que pourraient jouer la flore intestinale (microbiote) et l’alimentation dans certaines formes de néphropathies associées à une anomalie immunitaire, en particulier dans la maladie de Berger, ou néphropathie à IgA. Dans cette maladie, des anticorps IgA de structure anormale sont produits en quantité excessive par la muqueuse intestinale. Ils s’agglutinent et se déposent dans le glomérule, finissant par entraîner une insuffisance rénale dans 20 à 30% des cas. De plus en plus de travaux soulignent aujourd’hui la contribution de certaines bactéries intestinales dans cette hyperproduction d’IgA. L’implication de molécules qui jouent également un rôle dans la maladie cœliaque, liée à l’ingestion de gluten, plaide également pour l’influence de l’alimentation chez des sujets sensibles. L’équipe de Renato Monteiro (unité Inserm 1149, Centre de recherche sur l'inflammation, Paris), a pu montrer par exemple que cette voie commune permettait d’améliorer l’état des glomérules par l’éviction du gluten chez les souris atteintes de la maladie.

Trouver des marqueurs pour adapter le traitement au patient : vers une médecine personnalisée
Un pan actif de la recherche s’applique à identifier des marqueurs, c’est-à-dire des molécules dont la présence chez un patient permet d’établir un diagnostic ou un pronostic et d’orienter le traitement de façon adaptée.
Pour reprendre l’exemple de la glomérulopathie extramembraneuse, l’anticorps anti-PLA2R est un marqueur spécifique de la maladie. Un diagnostic sûr est ainsi possible grâce à un simple dosage sanguin, et peut-être demain avec une simple bandelette trempée dans les urines. Ce type de marqueur peut permettre, au moins dans certains cas, de s’affranchir de la biopsie
biopsie
Prélèvement d'un échantillon de tissu, réalisé à des fins d'analyses.
rénale jusqu’à présent nécessaire pour établir un diagnostic. L’anticorps anti-PLA2R a également une valeur pronostique puisqu’un taux élevé persistant peut conduire à une insuffisance rénale chronique si on ne met pas en place un traitement immunosuppresseur approprié.
Chez l’enfant, les maladies du développement rénal sont la première cause de l’insuffisance rénale. Elles nécessitent une prise en charge précoce qui pourrait être facilitée par l'identification de biomarqueurs spécifiques. L’équipe de Joost Schanstra (unité Inserm 1048, Toulouse) a justement identifié des biomarqueurs prédictifs de la progression de la maladie rénale, mesurable à la fois avant (dans le liquide amniotique ou l’urine fœtale) et après la naissance (dans l’urine) des enfants, permettant d’améliorer leur prise en charge.

D'autres biomarqueurs ont été identifiés par des équipes de l’Inserm, dont la périostine, le DDR1 (Christos Chatziantoniou, unité Inserm 1155), la phosphatase SHP-1 (Renato Monteiro et Sanae Ben Mkaddem), la lipocaline (Fabiola Terzi) ou le gène c-mip (Dil Sahali, unité Inserm 955, Créteil) pour n’en citer que quelques-uns. La valeur pronostique potentielle de ces biomarqueurs a été mise en évidence chez l’animal ou sur de petits échantillons de patients. La généralisation de leur usage nécessite leur validation préalable sur des populations importantes. C’est l’un des objectifs des cohortes de patients comme CKD-Rein qui regroupe plus de 3 000 patients atteints de maladies rénales chroniques (Bénédicte Stengel et Ziad Massy, unités Inserm 1018 et 1088). Dans le cadre de cette cohorte, l'équipe de Joost Schanstra a en outre démarré une étude visant à identifier les patients à risque de complication cardiovasculaire parmi ceux souffrant d’une maladie rénale chronique.
Plus largement, les cohortes sont nécessaires à la compréhension des déterminismes sociaux, culturels, environnementaux, familiaux et génétiques qui permettront de mettre en place un traitement personnalisé, adapté à chaque profil de patients.

Identifier de nouvelles stratégies thérapeutiques
L’Inserm s’est illustré dans la recherche thérapeutique par de nombreux travaux originaux qui ont parfois permis de trouver des traitements pour des maladies qui ne disposaient d’aucun. Le cas du syndrome hémolytique et urémique (SHU) est particulièrement exemplaire de ce point de vue. Une forme de cette affection très rare résulte d’une anomalie de l’immunité innée portant sur une voie du système de complément. Cette anomalie conduit à la destruction du rein mais également, après transplantation, à celle du greffon. Une équipe française conduite par Christophe Legendre (unité Inserm 1151, hôpital Necker, Paris) a montré l’efficacité d’un traitement ciblant le composant C5 du complément, y compris dans la prévention des récidives après transplantation.
De même, l’identification par l’équipe de Guillaume Canaud (unité Inserm 1151) de la voie de signalisation AKT/mTORC, impliquée dans les mécanismes menant à l’épaississement de la paroi des vaisseaux et à la destruction des reins et des greffons dans le syndrome des phospholipides
phospholipides
Composé d’une tête hydrophile et de deux queues hydrophobes, c’est un constituant essentiel des membranes cellulaires.
, a permis d’éviter la récidive des lésions vasculaires et l’amélioration de la survie du greffon grâce à l’utilisation d’un inhibiteur de cette voie, le sirolimus. Par ailleurs, Sophie Brouard et son équipe (unité Inserm 1064, Nantes) ont montré que les lymphocytes T du sang des patients greffés ont un profil particulier, ce qui pourrait permettre de diagnostiquer de façon précoce la tolérance ou le rejet du greffon et d’adapter le traitement immunosuppresseur en conséquence.

Chez les patients atteints de glomérulopathie extramembraneuse, à la suite des travaux sur l’antigène PLA2R1, les équipes de Pierre Ronco et de Tabassome Simon (hôpital Saint-Antoine, Paris) ont testé chez 80 patients, de 2012 à 2014, un anticorps dirigé contre les cellules immunitaires responsables de cet effet toxique, le rituximab. Cette molécule s’est révélée plus efficace que les traitements anti-protéinuriques classiquement prescrits, avec une rémission immunologique (disparition des anticorps) chez 50% des patients dès le troisième mois (contre 12%) et une rémission clinique chez 64% d’entre eux (contre 34%) à la fin du suivi.
Les travaux de l’équipe de Fabiola Terzi sur la lipocaline 2 (LCN2), impliquée dans plusieurs voies de signalisation conduisant à la détérioration des néphrons, ont également permis d’envisager de nouvelles voies de traitement pour ralentir la progression des maladies rénales chroniques. Cette équipe a pu montrer que l’acide phényl-butyque (PBA), un médicament utilisé pour traiter les troubles génétiques du métabolisme de l’urée, inhibe la sécrétion de LCN2 et pourrait ainsi ralentir le processus de destruction des reins.

Ces quelques exemples donnent seulement un aperçu des différents fronts de recherche sur lesquels les équipes de l’Inserm joue un rôle de premier plan au niveau mondial.

 

 DOCUMENT        inserm        LIEN

 
 
 
initiation musicale toulon  

Neuroéthique : l’humain n’est pas réductible à son cerveau

  initiation musicale



 

 

 

 

 

Neuroéthique : l’humain n’est pas réductible à son cerveau
        

SCIENCE 03.07.2018
Les neurosciences correspondent à l’étude du fonctionnement du système nerveux, depuis les aspects les plus fondamentaux, biologiques et chimiques, jusqu’aux plus fonctionnels : la personnalité, les comportements, les pensées. Les avancées en neurosciences permettent désormais de corréler ces deux aspects, avec des conséquences importantes pour l’individu et la société. Les questions de neuroéthique qui en découlent ont fait l’objet de discussions dans le cadre des États généraux de la bioéthique. Catherine Vidal, neurobiologiste et membre du Comité d’éthique de l’Inserm, et Hervé Chneiweiss, neurobiologiste et président du Comité d’éthique de l’Inserm, nous en parlent.

Quelles sont les avancées récentes qui bouleversent les neurosciences ?
Catherine Vidal : Les progrès des neurosciences ont en grande partie été portés par le développement des techniques d’exploration du cerveau qui permettent de « voir » à la fois l’anatomie et le fonctionnement du cerveau. Elles ont révolutionné la pratique clinique et permis une acquisition exponentielle de connaissances. L’IRM fonctionnelle (IRMf) permet notamment d’observer le cerveau en train de fonctionner lors de tâches diverses (motrices, sensorielles, cognitives, etc.) ou même d’états psychologiques (peur, angoisse, plaisir, satisfaction, etc.).
A côté des méthodes d’exploration, des techniques de modification du fonctionnement cérébral se sont développées. Certaines sont assez anciennes, telle l’utilisation de médicaments qui agissent sur le cerveau (psychostimulants, anxiolytiques, etc.). D’autres sont plus récentes, comme les stimulations électriques et magnétiques transcrâniennes, la stimulation cérébrale profonde
stimulation cérébrale profonde
Consiste à délivrer un courant électrique de faible intensité dans certaines structures spécifiques du cerveau, grâce à des électrodes directement implantées.
, ou encore les thérapies cellulaires notamment développées pour lutter contre des maladies neurodégénératives comme la maladie de Parkinson.
Quelles questions ou problèmes éthiques soulèvent ces avancées ?
Hervé Chneiweiss : Le champ de la neuroéthique est très vaste. Il englobe par exemple la médecine prédictive appliquées aux maladies neurodégénératives. Nos connaissances progressent si rapidement qu’elles permettent désormais de prédire l’apparition de maladies comme celle d’Alzheimer plusieurs années avant l’apparition des symptômes. Cela peut permettre d’instaurer des mesures préventives pour retarder le processus neurodégénératif. Mais, en l’absence de traitement efficace, cette médecine prédictive place le patient dans une situation très anxiogène et peut-être même discriminante. La question se pose de savoir s’il faut utiliser cette médecine prédictive à ce stade, dans l’intérêt des personnes concernées.

C.V. : Nous assistons également à une « invasion » des neurosciences dans de très nombreux domaines autres que médicaux : la justice, le marketing, l’éducation, les ressources humaines, la politique. Cet essor est étroitement lié à l’émergence des techniques comme l'IRM, que certains utilisent déjà pour décrire la pensée, les émotions, les motivations, avec au-delà la perspective de maîtriser les processus de prise de décision qui guident nos choix et nos actions. Ils vont parfois jusqu'à attribuer aux neurosciences le pouvoir de décrire l’être humain dans son individualité, sa subjectivité, ses actions, sa vie privée et sociale. Or dans la réalité, les connaissances actuelles ne permettent pas de caractériser un individu ou son comportement par la simple observation de son cerveau, loin de là. Une personne humaine n'est pas réductible à son cerveau.
H. C. : Sans oublier tout ce qui touche à la neuro-amélioration. Différents procédés permettent aujourd’hui de contrôler ou de modifier l’activité cérébrale, pour améliorer le comportement et les performances cognitives en dehors de tout contexte médical. Or non seulement le bénéfice-risque de ces techniques n’est absolument pas évalué en population générale, mais le risque de dérive est grand !
Pouvez-vous nous en dire un peu plus sur l’utilisation des neurosciences en dehors du cadre médical ?
C. V. : Depuis 2011, la loi française inclut la possibilité de recourir à l’imagerie cérébrale dans le cadre d’expertises judiciaires. Et ce, alors que beaucoup d’experts s’y étaient opposés à l’époque. Dans les faits, les juges ne l’utilisent pas en France. En revanche, des images obtenues par IRM ont été utilisées comme « preuves » pénales dans plus de 600 affaires aux Etats-Unis.  En Inde, un procès au cours duquel un électroencéphalogramme avait été utilisé comme détecteur de mensonge a fait grand bruit : une femme soupçonnée d’avoir empoisonné son fiancé avait été condamnée à la prison à vie car son cerveau ne réagissait pas au mot « arsenic », comme s’il lui était familier. La sentence a finalement été abandonnée face au scandale international suscité par cette affaire.
H. C. : Aucune étude n’est en mesure de valider l’utilisation de l’électroencéphalogramme ou de l’IRM pour prédire ou révéler un comportement et ils ne peuvent donc en aucun cas servir de preuve. Néanmoins, le nombre des publications sur la neuro-justice explose, principalement aux États-Unis : de 70 articles publiés entre 1990 et 2000, on est passé à plus de 2 000 entre 2000 et 2015.
C. V. : Il y a aussi la neuro-politique, une « nouvelle discipline » qui tente de corréler les opinions et le fonctionnement cérébral. Une étude a suggéré que le cortex cingulaire antérieur, qui joue un rôle dans la détection des contradictions, est plus volumineux chez les gens de gauche alors que la région de l’amygdale, impliquée dans la peur, est plus développée chez les gens de droite. Ainsi la peur des situations conflictuelles et des risques expliquerait les différences d'opinions politiques ! Dans le domaine du marketing, l’utilisation de l'imagerie cérébrale peut être utilisée pour savoir quelle étiquette stimule davantage l’attention de l’acheteur potentiel, le but étant bien sûr d'influencer sa décision d'achat ! Et dans le champ de l’éducation, les neurosciences influencent déjà certains programmes pédagogiques.
Aux Etats-Unis, des sociétés privées propose des examens d’imagerie cérébrale dans ces différents contextes non médicaux. En France, ces pratiques ne sont pas possibles : les appareils d’IRM sont réservés aux établissements de soins et de recherche biomédicale.

Ces applications ont elles un fondement scientifique validé ?

C. V. : Aux Etats-Unis, certains scientifiques recherchent les bases neuronales des comportements de type antisocial, agressif et criminel, pour mettre au point de nouveaux traitements et des programmes de prévention de la délinquance. Des études par IRM ont pu montrer une légère réduction de l’épaisseur du cortex cérébral dans les régions préfrontale et temporale de criminels. Mais l'interprétation de ces images est problématique : jusqu'à présent, rien ne permet d'établir une relation de causalité entre une réduction d'épaisseur du cortex et un comportement déviant. L'origine des variations d'épaisseur du cortex ne peut être déterminée. Le cerveau est plastique et l’IRM donne seulement un cliché de l’état du cerveau d’une personne à un moment donné. Elle n’apporte pas d’information sur son passé et n’a pas non plus de valeur prédictive. Enfin, le fonctionnement du cerveau est extrêmement complexe, avec de nombreuses régions impliquées dans une même fonction. La zone du crime n'existe pas.  
Les dérives dans l'interprétation de l'imagerie cérébrale ne sont pas rares. D'autant plus que pour un public non averti, les images colorées du cerveau sont fascinantes et peuvent apparaître comme une preuve scientifique « objective ».

Vous avez également parlé de neuro-amélioration : où en est la science et jusqu’où pourrait-elle aller ?
H. C. : La modification du fonctionnement cérébral n’est pas une idée nouvelle. Les antidépresseurs par exemple, peuvent en quelques sortes transformer la personnalité de l’individu. C’est aussi le cas du méthylphénidate donné à des millions d’enfants pour qu’ils soient plus calmes ou encore du modafinil pris comme stimulant par autant d’adultes. Mais dans le domaine psycho-cognitif, la ligne de démarcation entre le normal et le pathologique est impossible à tracer… la question se pose alors de savoir qui traiter : une grande timidité ou une hyperactivité doivent-ils être considérés comme un handicap à prendre en charge ?

C.V. : Et pour certains, dans une société marquée par le culte de la performance, l’objectif n’est plus seulement de palier un déficit mais d’aller au-delà. Des études ont montré que, dans certains cas, la stimulation électrique transcrânienne peut améliorer les performances cognitives et l’état émotionnel de personnes en bonne santé. Le neurofeedback permet quant à lui de contrôler sa propre activité cérébrale, pour augmenter certaines fonctions comme les capacités visuo-spatiales ou la mémoire.
Des sociétés privées, en Asie notamment, proposent déjà des casques de stimulation par courant continu qu’il est possible d’acheter pour des sommes modiques sur internet. On laisse croire au grand public que la stimulation transcrânienne aidera par exemple à préparer ses concours, alors même que l’innocuité de l’administration de courant continu n’a pas été évaluée à moyen et long terme. Il n’est pas exclu que la pratique « sauvage » de la neurostimulation interfère avec certains circuits neuronaux, altère la plasticité cérébrale
plasticité cérébrale
Mécanismes au cours desquels le cerveau est capable de se modifier en réorganisant les connexions et les réseaux neuronaux, dans la phase embryonnaire du développement ou lors d’apprentissage.
et entraine des crises d’épilepsie. En France, la commercialisation de ces casques n’est pas autorisée.
A terme, le risque est d’assister à l’émergence d’une catégorie d’individus augmentés. Cette vision transhumaniste entrainerait inévitablement une fracture sociale entre ceux qui auront recours à ces techniques et ceux qui ne pourront pas y avoir accès. Sans compter que la personnalité de l’individu, son autonomie et son libre arbitre pourraient être altérées par ces neurotechnologies.
H. C. : Certains systèmes de stimulation cérébrale fonctionnent déjà de façon autonome et pourraient bientôt être proposés aux patients parkinsoniens pour contrôler leurs tremblements : une intelligence artificielle déclenche les stimulations quand elle l’estime nécessaire, alors que jusque-là le patient contrôlait lui-même son appareil. Avec ce système, le patient deviendrait donc un « homme augmenté ».

Qu’en est-il de la protection des données personnelles ?
H.C. : C’est un autre problème important. Des sociétés privées commencent à collecter les données cérébrales à tour de bras pour différentes recherches, sans consentement clair ou sans la protection des données nécessaires. Et qui sait ce qu’elles pourraient en faire un jour ? Je lisais récemment un article sur l’équipement de salariés de douze entreprises d’Etat chinoises, dépendantes de l’armée, par des casques permettant de surveiller leur activité cérébrale. Le motif officiel est de prévenir les baisses de vigilances et les accidents. Mais ces dispositifs permettent de collecter d’autres données... Il y a là un vrai problème éthique. L’activité cérébrale n’est pas neutre, elle correspond à des données personnelles.

Considérez-vous la situation actuelle comme préoccupante ?
C.V. : Nous ne sommes pas dans l’urgence, mais il faut aborder de front ces sujets qui posent des questions de société. La France est encore préservée des dérives qui gagnent d’autres pays, avec un accès à l’IRM réservé aux professionnels de santé ou encore l’interdiction de la stimulation cérébrale en dehors d’un protocole de soins. La loi de bioéthique de 2011 inclut en outre une mission de veille sur les recherches et les applications des techniques d’imagerie cérébrale, destinée à défendre une éthique dans ce domaine.
Aujourd’hui en France, pour évaluer la responsabilité pénale d’un accusé, le juge nomme des psychiatres et des psychologues qui appuient leurs expertises avant tout sur des entretiens et non sur l'IRM. Mais pour combien de temps encore ? Le risque est de voir le modèle américain gagner du terrain pour l’évaluation de la responsabilité et de la dangerosité d’un prévenu. Or les Français ne sont pas assez informés sur les dérives possibles de l'utilisation de l'IRM. En témoigne la faible participation aux discussions sur la neuroéthique dans le cadre des états généraux de bioéthique qui viennent de s’achever. Il est de notre responsabilité de chercheurs d'anticiper ces questions et de sensibiliser le grand public.

 

  DOCUMENT      inserm     LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 ] Précédente - Suivante
 
 
 
Google