ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LA ROBOTIQUE MÉDICALE ET LA TÉLÉMÉDECINE

 

 

 

 

 

 

 

Transcription de la 519e conférence de l'Université de tous les savoirs donnée le 16 janvier 2004

Jacques Marescaux « La robotique médicale et la télémédecine »


Chirurgien universitaire de formation, j'aurais pu reproduire toute ma carrière ce que mes maîtres m'avaient enseigné. Toutefois en 1992, au cours d'une conférence donnée à Washington par le colonel chirurgien Rick Satava, le directeur scientifique de la DARPA (Defense Advanced Research Projects Agency), ma vision de la chirurgie a été bouleversée. A cette occasion il expliqua comment le chirurgien tel qu'on le connaît actuellement, que ce soit avec son scalpel ou en chirurgie mini invasive avec sa caméra, allait disparaître. Il a insisté sur le développement phénoménal des moyens de l'information dans le domaine chirurgical. Il nous fit découvrir le concept de clone digital du malade, fabriqué à partir de ses images médicales (scanner, IRM), qui pourrait être transformé en matière vivante, et opéré de façon simulée, avant la véritable intervention. Cette dernière pourrait alors se faire au moyen de la chirurgie assisté par ordinateur ou la robotique. Grâce à la robotique qui implique une distanciation du chirurgien avec son patient, Rick Satava imaginait alors la mise au point de la chirurgie à distance, la téléprésence.

C'est donc à partir de 1992 que j'ai voulu développer ces idées. En France, les structure de l'INSERM ou du CNRS ne permettaient pas de débloquer un budget assez important pour un tel projet. Nous avons décidé de créer au centre des hôpitaux universitaires de Strasbourg un institut totalement dédié, d'une part à la recherche dans les nouvelles technologies et d'autre part à la formation de ces nouvelles technologies. Nous avons donc fait appel à des financements privés. Le sponsoring dont nous avons bénéficié jusqu'à présent était presque uniquement américain, même si nous bénéficions maintenant d'importants fonds européens, et notamment allemand.

L'IRCAD (institut de recherche contre les cancers de l'appareil digestif, http://www.eits.org/) a ouvert à Strasbourg en 1994. Nous disposons de 8 000 m² de modernité au service de l'avancement de la chirurgie, avec notamment un bloc opératoire expérimental comportant dix-sept tables d'opération, des salles de visioconférence, etc.

L'ère dite industrielle de la chirurgie est aujourd'hui révolue depuis une dizaine d'année, et a laissé place à l'ère de l'information. Cette chirurgie conventionnelle est remplacée par des techniques de thérapies mini invasives, celles-ci étant le moins agressives possibles pour le patient. L'arrivée de l'informatique et de la chirurgie assistée par ordinateur, modifie la pratique et la conception de l'acte chirurgical puisqu'il sera de plus en plus obligatoire de simuler la veille de l'intervention l'opération sur le clone digital du malade. Le développement toujours plus poussé de ces applications conduit aux notions de chirurgie à distance (la téléchirurgie) et de robotique.

Les trois révolutions majeures dont nous avait parlé Rick Satava en 1992 sont le développement des nouveaux moyens de télécommunication (la télémédecine appliquée à la chirurgie, pour le transport des données réelles), l'échange de données virtuelles (qui permettent la fabrication du clone digital) et enfin l'échange du geste chirurgical puisque le geste est tout aussi crucial en chirurgie que l'intelligence ou la connaissance.

La télécommunication

Le développement de la communication d'informations réelles a un nombre d'applications incalculable dans le domaine de la chirurgie.

Les systèmes de visioconférences nous permettent d'être en permanence en liaison avec le monde entier à coût réduit. La diffusion des savoirs en est ainsi accélérée. Auparavant, pour transmettre une nouvelle technique, le chef de clinique devait se déplacer, parfois une semaine à l'étranger, tout d'abord pour l'apprendre, avant ensuite de la propager lentement. Aujourd'hui, grâce aux transferts audio et vidéo des données, toute nouvelle technique peut être étudiée dès le lendemain de sa mise en Suvre par un très grand nombre de personnes, dans le monde entier. Le télé-training, l'entraînement du chirurgien a aussi été développé sur ce modèle puisque nous disposons à l'IRCAD d'un bloc chirurgical expérimental mis en place grâce à Alcatel comportant dix-sept tables d'opération. Chacune de ces tables présente un moniteur sur lequel les chirurgiens peuvent suivre le déroulement de leur opération puisque depuis 1988 ont été mises en place des techniques de chirurgie dite mini invasive, qui consistent à introduire une caméra dans la zone à opérer, permettant ainsi de réaliser l'intervention sans avoir à ouvrir le malade. Ces chirurgiens s'entraînent sur des modèles vivants comme par exemple des petits cochons ( minipigs). Si le modèle vivant est encore nécessaire, il devrait bientôt être possible de s'en passer.

La notion de télé-médecine appliquée à la chirurgie signifie qu'il n'y a plus de limite de connexion entres chirurgiens de niveaux d'expérience différents. Un chirurgien débutant effectuant une opération au Canada pourra ainsi profiter de l'expérience et des conseils d'un chirurgien senior ayant déjà réalisé la même opération plusieurs centaines de fois, c'est le télé-mentoring. Ce dernier peut par exemple pointer sur son écran de contrôle des organes, qui seront de la même manière pointés sur l'écran du chirurgien en train d'opérer. Nous disposons aussi à l'IRCAD d'un auditorium dans lequel une opération peut être présentée sur l'écran principal, et commentée en même temps grâce au système de visioconférence par quatre experts internationaux sur quatre écrans latéraux. Tous ces systèmes de télécommunications classiques se font par téléphone et ont des limites facilement imaginables : décalage horaire, nécessité d'une infrastructure lourde, avec des techniciens audiovisuels,... C'est la raison pour laquelle nous avons en 1997 utilisé Internet pour développer une université internationale d'entraînement et d'éducation du chirurgien. Ce site (http://www.websurg.com/) est accessible à tous, gratuit, et multilingue. Il utilise très largement le multimédia pour présenter les différentes étapes d'une opération, les instruments à préparer, à utiliser,... et les interventions sont commentées par les plus grands experts mondiaux. Internet a surtout eu un impact considérable sur le public qui s'est emparé de cet outil pour avoir accès aux connaissances médicales. Sur les 930 millions de personnes qui se connectent aujourd'hui régulièrement à Internet, la moitié le font pour recueillir une information médicale.

Le transfert des données virtuelles

La deuxième révolution apportée par l'essor de l'informatique et des télécommunications concerne le transfert de données virtuelles. Il ne faut pas ici considérer le terme virtuel de manière péjorative mais comme la prolongation de nos sens naturels, tels que notre vision ou notre toucher, et cela pour l'amélioration du geste chirurgical. La réalité virtuelle se conjugue de trois manières différentes :

- l'immersion : le fait d'être plongé dans un monde virtuel, par des systèmes de casques sophistiqués par exemple,

- l'interaction : la transformation de l'image en matière, et donc la possibilité de donner au chirurgien l'impression qu'il touche un organe et non plus une image,

- la navigation : le fait de pouvoir tout explorer, par exemple n'importe quel vaisseau sanguin du patient.

Après des années de recherche, nos ingénieurs informaticiens ont mis au point des programmes qui reproduisent en quelques minutes un clone digital tridimensionnel du malade à partir de ses résultats de scanner ou d'IRM. Un organe, un vaisseau ou une tumeur peut alors être simplement coloré sur ce clone digital, ce qui permet au patient d'appréhender et de visualiser la pathologie qui l'affecte beaucoup plus facilement qu'avec le résultat d'un scanner. Cela entraîne aussi une meilleure localisation de la tumeur. Par exemple dans le cas d'une tumeur au foie, si elle est étendue sur plusieurs lobes du foie, la marge de sécurité de la zone à découper pour que le cancer ne reparte pas est dessinée. Le chirurgien peut proposer avec trois points interactifs l'opération à effectuer, et l'ordinateur intègre qu'il restera par exemple 30 % du foie, quantité suffisante pour que l'organe se régénère. Il existe aussi des destructions par radio-fréquence. Dans ce cas une aiguille plantée au centre de la tumeur va chauffer à la manière d'un micro-onde et détruire les tissus alentours. Il est alors crucial que l'aiguille soit placée exactement au cSur de la tumeur et la simulation virtuelle est donc d'une grande aide.

On imagine bien que s'il est possible de simuler un geste aussi simple que de planter une aiguille, la limite avec une opération entièrement robotisée s'estompe. Les techniques développées vont permettre de réaliser l'intervention de manière virtuelle la veille de la véritable opération, en faisant par exemple une laparoscopie virtuelle pour bien appréhender la place des vaisseaux, en décidant où positionner les incisions à faire pour que l'opération soit la moins invasive possible. Le but est dans le futur de mixer l'intervention préparée et la véritable opération. D'autre part, il existe des patients présentant des anomalies anatomiques qui provoquent des accidents lors de l'opération, car telle veine ne devait par exemple pas se trouver à tel endroit. L'exploration du clone digital réduirait nettement la fréquence de tels incidents.

Toutes ces étapes ne représentent que la planification de l'opération. Il faut aller plus loin, c'est-à-dire jusqu'à la véritable simulation de l'intervention. Pour ce faire, des outils ont été mis au point pour développer l'interaction entre le chirurgien et l'organe qu'il opère, et reproduire le toucher qu'il ressent durant l'opération. Lorsque le chirurgien visualise sur son écran le contact avec le foie par exemple, une sorte de gant électronique va lui faire ressentir la consistance et la résistance de l'organe : l'image a été transformée en matière. Bientôt, l'opération virtuelle sera aussi réaliste que l'opération réelle.

Ces logiciels permettent aussi de naviguer à l'intérieur du corps du patient, et de se déplacer par exemple dans ses vaisseaux, ce qui peut permettre d'identifier l'invasion de l'un d'eux par une tumeur. Nous travaillons aussi à la mise au point de la colonoscopie virtuelle pour arriver à identifier automatiquement des polypes du colon, que le logiciel colorerait de manière autonome à l'écran pour les rendre immédiatement apparents au chirurgien. Il est en effet inimaginable qu'un examen aussi invasif que la colonoscopie reste la référence au cours des prochaines années dans la prévention du cancer du colon.

Vers la robotique chirurgicale

Quelles sont les applications de cette réalité virtuelle ? Dans l'idéal le patient se présenterait à l'hôpital et subirait un scanner ou une IRM, pour que son clone digital soit reproduit. L'opération serait alors planifiée, et dans quelques années une opération simulée réaliste deviendrait la règle la veille de l'intervention réelle.

Le futur de la chirurgie réside dans la robotique : le chirurgien et son patient seraient séparés par une interface d'ordinateur. Aujourd'hui, il est uniquement possible de supprimer les imprécisions dues au tremblement. Il est cependant envisageable que le chirurgien devienne demain un véritable metteur en scène : la veille, il simulerait l'opération plusieurs fois pour choisir les meilleurs moment de chaque essai, pour finalement produire le film de l'intervention telle qu'il la souhaite. Ce film serait alors installé dans l'interface de l'ordinateur, et l'intervention se ferait de manière automatique et le chirurgien n'aurait plus que le rôle de superviseur de l'opération.

Cette automatisation a longtemps semblé impossible à part en neurochirurgie ou en chirurgie orthopédique mais il est aujourd'hui clair que la vraie robotique sera un jour possible. Ce qui se fait aujourd'hui n'est en effet pas de la vraie robotique, au sens où le chirurgien contrôle toujours l'interface. Il a deux manettes pour déplacer les instruments et un micro qui commande les mouvements de camera. L'interface améliore donc le geste du chirurgien, le rend le plus parfait possible, mais cela reste de la télémanipulation. C'est ce que l'on appelle la chirurgie assistée par ordinateur.

Toutes les techniques évoquées ici sont extrêmement récentes et ont été développées principalement par les Européens, et notamment les Français. La première opération assistée par ordinateur était une cholécystecomie et elle a été réalisée en 1998 en Belgique. Un américain a exécuté la première opération de gynécologie de cette manière. Le professeur Carpentier a réalisé à Paris en 1999 la première opération cardiaque à l'aide un robot. La première opération urologique assistée par ordinateur (une prostatectomie) a été effectuée par le professeur Abbou. Nous avons en 2001 exécuté la première opération à distance entre New-York et Paris (l'intervention Lindbergh) et une cinquantaine de malades ont été opéré de la même manière, à distance, au Canada. Actuellement tout ce qui est faisable en chirurgie mini invasive peut l'être en chirurgie robotisée, mais personne n'a encore démontré le bénéfice éventuel pour les malades. Pour le moment, cela facilite pour certaines interventions complexes le geste du chirurgien, par exemple pour les pontages coronariens ou la prostatectomie complète pour cancer du fait de l'étroitesse du pelvis chez l'homme. Il est aussi des opérations où l'on opère avec des instruments longs de 30 cm, présentant une extrémité de 3mm où le moindre tremblement du chirurgien se répercute alors de façon beaucoup plus importante sur les organes du patient. Disposer de manettes virtuelles et d'une interface d'ordinateur permet d'annuler tout tressaillement.

Cependant à terme, la finalité de la robotique n'est pas de reproduire la main du chirurgien, mais de lui apporter une intelligence supplémentaire.

Dans notre laboratoire, les ingénieurs informaticiens travaillent dans trois domaines d'application distincts : rendre le robot autonome pour des tâches simples, l'amener à « augmenter » la réalité et développer la téléchirurgie, le partage du geste chirurgical.

Il est imaginable par exemple que le robot puisse faire des sutures de manière indépendante ou qu'il détermine seul où et comment placer les bras du robot pour qu'ils ne se cognent pas. Un logiciel permet de déterminer automatiquement comment déplacer les instruments au cours de l'opération, sans avoir à déplacer la caméra.

L'intelligence phénoménale de cette interface d'ordinateur peut aussi être utilisée pour développer notre perception de la réalité. Nous avons ainsi réalisé en 2004 pour la première fois une opération de chirurgie surrénalienne sur un patient au cours de laquelle les images du clone digital du malade étaient superposées sur notre écran à la même échelle que notre opération. Cela s'est révélé particulièrement pratique dans la mesure où du tissu graisseux empêchait de distinguer précisément vaisseaux et organes. Nous avons donc exécuté l'opération en planifiant avec l'informaticien en temps réel où positionner les instruments pour ne pas abîmer une veine importante qui se trouvait pourtant à moins d'un millimètre de l'endroit sur lequel nous travaillions. C'est ce phénomène que l'on désigne sous le terme de réalité « augmentée ». Dans le futur, il est donc concevable que les chirurgiens pourront voir directement l'organe et les tumeurs en transparence à l'aide d'un casque comme ceux utilisés par les pilotes de chasse en temps de guerre pour voir de l'autre coté d'une montagne par exemple. En chirurgie, cela pourrait être particulièrement utile pour les organes pleins présentant une tumeur dans lesquels on ne peut pas introduire de caméra. Des tests ont été réalisés et une aiguille peut ainsi être placée dans un organe à une précision de 1mm. Si des progrès sont encore à faire, il est toutefois clair que la réalité augmentée n'est plus un rêve, d'autant plus que les logiciels que j'ai mentionnés peuvent être enregistrés sur un simple ordinateur portable.

Une autre difficulté des interventions est le mouvement ininterrompu des organes du fait de la respiration ou des battements de cSur. Nous développons aujourd'hui des outils permettant de bouger l'extrémité de l'instrument au même rythme que la respiration du malade donnée par le respirateur, ce qui aboutit au maintien d'une distance constante entre l'instrument chirurgical et l'organe, ce qui serait autrement impossible.

L'intervention Lindbergh

Le troisième défi auquel se sont attaqués nos ingénieurs est le partage du geste à distance, c'est-à-dire la téléchirurgie. Les premières interventions réalisées par un chirurgien sont moins précises que celles effectuées à la fin de sa carrière. C'est ce que l'on appelle la courbe d'entraînement. L'assistance prodiguée par l'ordinateur permettrait d'éviter que le malade souffre de faire partie des cinquante premiers patients du chirurgien, car un partage du geste avec l'interface augmenterait l'efficacité des résultats des interventions. L'autre opération permise par la robotique est l'intervention à distance. Après l'intervention Lindbergh, le Canada a réalisé un grand nombre d'opération de téléchirurgie car c'est un pays confronté à de très grosses distances où il n'y a souvent pas de spécialistes dans les zones d'intérêt.

Opérer d'un endroit du monde un patient à l'autre bout de la planète était un rêve un peu fou, datant de 1993, dénommé projet MASTER (Minimal Access Surgery Telecommunication and Robotic), constituant surtout un défi technique et non chirurgical. Ce projet européen a été soutenu par les ministères de la Recherche et de l'Industrie. Le problème à résoudre résidait dans la durée de transmission de l'information entre deux points très éloignés, en l'occurrence 600 ms entre New-York et la France. Il est impossible pour le chirurgien de procéder à une opération comportant un tel délai entre ce qu'il voit et ce qu'il fait : s'il se base sur ce qu'il voit sur son écran pour déplacer ses instruments alors qu'entre temps les organes ont légèrement bougé, des accidents très grave peuvent se produire. Deux mois avant notre opération, l'armée américaine avait affirmé qu'une telle intervention était impossible avant cinq ou dix ans, du fait de ce délai incompressible de 600 ms provenant de l'utilisation du satellite pour le transfert d'informations.

Nous avons travaillé avec des ingénieurs pour comprimer les données pour descendre sous la limite de 200 ms. L'intervention Lindbergh a eu lieu en 2001, mais la véritable première expérience a été réalisée en septembre 2000 sur un mini porc. Ce fut un échec complet, du fait de la variation continue du délai de transmission entre 300 et 600ms. Une opération de ce type, facile, dure en moyenne vingt minutes, et elle dura 4h30. Les ingénieurs de France Telecom ont alors réalisé en quelques mois un travail de mise au point remarquable et un an après ce premier échec, nous avions opéré avec succès plusieurs mini porcs, et pouvions opérer le premier patient, en l'occurrence une malade, extraordinaire, qui avait accepté de tenter cette aventure futuriste. Pour réduire le délai de transmission, toutes les informations numériques étaient comprimées à New-York, passées dans une fibre ATM, décomprimées à l'arrivée à Strasbourg, et dès que le geste était effectué, le message repartait dans l'autre sens pour que l'opération soit visible à Manhattan. Nous avions une qualité d'image superbe, et un délai de 130 ms. L'opération s'est déroulée du début à la fin sans l'intervention de l'équipe de Joël Leroy qui se trouvait à Strasbourg, prêt à parer à la moindre défaillance.

Cette opération a eu lieu le 7 septembre 2001, a duré 45 minutes, et a fait l'objet de 450 articles malgré la très lourde actualité internationale et bien que la conférence de presse prévue le 11 septembre ait été annulée. L'intervention a même été acceptée pour publication dans le journal scientifique le plus réputé, Nature, alors que ce journal avait auparavant toujours refusé de publier des articles chirurgicaux. Les reviewers (les personnes qui décident si l'article est accepté ou refusé) ont même argué qu'il s'agissait d'une énorme mutation dans le monde chirurgical, notamment du point de la vue de la suppression de l'individualisme des médecins.


 DOCUMENT       canal-u.tv     LIEN

 

 

 
 
 
initiation musicale toulon  

MÉDICAMENTS ET CHIMIE

 

Transcription [1] de la 617e conférence de l'Université de tous les savoirs donnée le 24 juin 2006 revue par l'auteur.

Bernard Meunier : « Médicaments et chimie : un brillant passé et un vrai futur »

Très tôt l'homme a utilisé les produits de la Nature pour traiter les différentes maladies auxquelles il était confronté. Les premiers traités de chimie thérapeutique moderne, décrivant la relation entre un composé chimique et une activité thérapeutique, datent maintenant de plusieurs siècles. Nous allons présenter l'histoire commune de la chimie et du médicament sur plusieurs millénaires avant de décrire les enjeux des thérapies du futur.
Un médicament est une substance possédant des propriétés curatives ou préventives destinées à guérir, soulager ou prévenir des maladies. Il contient à la fois la notion de guérison et de prévention. « Médicament » et son synonyme « remède » viennent du mot latin « mederi » qui signifie « soigner ».
Le mot « médicament » se traduit en anglais par « medication » et plus souvent par « drug », notamment en américain. Le terme « drug » ou « drogue » provient du latin « drogia ». Il est ambigu puisqu'il désigne aussi bien un médicament qu'une substance illicite. En français, il ne désigne plus une préparation magistrale d'un pharmacien d'officine, ou d'un droguiste traditionnel, depuis une cinquantaine d'années.

Les premières sources de médicament sont les plantes. Les chimistes vont très rapidement s'y intéresser. L'homme de Neandertal était déjà un spécialiste de l'utilisation des plantes, y compris pour un usage médicinal. Ainsi des roses trémières ont été retrouvées dans la bouche de néandertaliens qui avaient été ensevelis dans les tombes de la grotte d'Amuci (Israël) [2]. La rose trémière était un analgésique utilisé dans le traitement des infections buccales.
La médecine traditionnelle chinoise est la plus ancienne. Les premières traces écrites de la médecine traditionnelle chinoise remontent à près de 3 000 ans avant J.-C. Le légendaire empereur Shan-Nung avait un herbier de plantes médicinales (2 900 avant J.-C.) ; mais on retiendra surtout l'herbier de Li Shih-Chen de 1578 dont une version anglaise est disponible depuis 2002 sous le titre « Chinese medicinal herbs ».
Les Égyptiens utilisaient également les plantes comme médicaments. Un archéologue allemand, Georg Ebers, de l'université de Leipzig a découvert au XIXème siècle à Louxor un document extraordinaire qu'on appelle « le papyrus d'Ebers ». Ce papyrus qui fait 20 mètres de long est conservé à la bibliothèque de l'université de Leipzig. Cette sorte de codex datant du siècle d'Aménophis Ier (1525-1504 avant J.-C.) est une liste de près de 870 plantes à usage médical.
Hippocrate (né en Grèce sur l'île de Cos en 460 avant J.-C.) recense plus de 400 plantes pour traiter les maladies. Le terme grec « pharmakon » qui a donné « pharmacie » en français a un double sens. Il désigne à la fois la substance qui guérit ou remède, et le poison. En effet, les produits d'origine naturelle ne sont pas inoffensifs. Les grecs savaient parfaitement qu'en fonction de la dose un même produit pouvait avoir une activité curative qui allait soulager le malade ou bien une activité toxique et l'empoisonner. La toxicité est toujours dépendante de la dose.
Claude Galien, autre grand médecin grec (131-201 après J.-C.), est le premier à s'intéresser à la préparation même des médicaments à base de plantes. Son travail est à l'origine de la pharmacie galénique. La pharmacie galénique consiste à préparer à partir d'une substance, un médicament pour le rendre plus agréable, plus facilement assimilable. La pharmacie galénique a été considérée ces derniers temps comme un aspect traditionnel de la pharmacie mais elle retrouve actuellement une nouvelle jeunesse avec l'apport de nouveaux matériaux. Il s'agit d'améliorer l'efficacité des médicaments en améliorant leur biodisponibilité, leur distribution à travers les tissus, pour cibler les organes touchés. Galien a écrit, d'après ses contemporains, plus de cinq cents ouvrages. Malheureusement nous avons très peu de traces de ces ouvrages car leur quasi-totalité a été détruite lors d'un incendie dans le temple de la paix à Rome où il enseignait en 192 après J.-C.
Avicenne (Ibn Sina, né en Perse en 980, mort en 1037) est connu dans l'histoire du médicament comme le médecin arabe qui a permis de retrouver et transmettre les acquis de la médecine grecque et de la médecine égyptienne aux IX-Xèmes siècles. Le « Canon de la médecine » est son ouvrage le plus connu. Le volume 5 décrit 760 médicaments alors qu'Hippocrate en décrivait 400 et « le papyrus d'Ebers » 870. Traduit en latin entre 1150 et 1187 par Gérard de Crémone, cet ouvrage sera la référence médicale jusqu'au XVIIème siècle.
En Europe, après la perte des savoirs qui fait suite à l'effondrement de l'Empire romain, les connaissances sont retrouvées à travers la médecine arabe.
Les alchimistes transmettaient le savoir de ce qui était déjà les balbutiements de la chimie et de l'utilisation des plantes et des produits chimiques pour guérir. Paracelse, médecin alchimiste suisse (1493-1541) est le premier à introduire les produits chimiques de synthèse dans les traitements médicaux. Il signale les propriétés anesthésiques de « l'eau blanche » (éther éthylique ou diéthyléther) obtenue par action de l'acide sulfurique sur l'éthanol : « L'eau blanche fait tomber les poulets dans un sommeil profond dont ils se réveillent sans en subir aucun dommage. » Après l'utilisation des plantes et la reconnaissance de principes actifs dans les plantes, nous arrivons ainsi peu à peu à la création de nouvelles molécules.

L'histoire des médicaments en France du XVème au XVIIIème siècle voit la mise en place des préparations reproductibles, ce qu'on appellerait maintenant les bonnes pratiques de laboratoire. Dans l'industrie chimique et l'industrie pharmaceutique, tout ce qui touche les médicaments est largement codifié. Les cahiers de laboratoire sont écrits selon certains critères et les archives sont conservées pour l'essentiel du travail entre 15 et 20 ans. Ces bonnes pratiques ne sont pas récentes puisqu'elles remontent à Jean Le Bon. En 1326, il édite « l'Antidotaire de Nicolas » recommandant aux apothicaires de Paris de suivre de bonnes pratiques de laboratoire.
À partir du XVème siècle, les premiers livres de pharmacopée sont publiés en Europe, notamment :
Ricettario Fiorentino (Italie, XVème siècle)
Codex Medicamentarius (fin XVIème siècle)
Pharmacopea Parsisiensis (1638)
Pharmacopée universelle de Nicolas Lémery (1697)
Éléments de Pharmacie et de Chimie d'Antoine Baumé (1762)
La rédaction du Codex Medicamentarius, ordonnée en 1568, a demandé plus de quarante années de rédaction collective et a donné lieu à des versions régionales. Il fait partie des grands ouvrages de la vie intellectuelle de cette époque. Il expliquait comment avoir une préparation de médicaments parfaitement reproductible.
Les codex régionaux étaient largement inspirés des codex parisiens, mais il y avait tout de même des divergences et au moment de la rationalisation de la Révolution Française, les pharmacopées régionales ont été abandonnées au profit d'une référence nationale. La loi du 21 germinal de l'an XI, en 1803, impose un texte unique pour les recettes de pharmacopée classique.
La « Pharmacopée universelle » de Nicolas Lémery (1645-1715) est le premier ouvrage décrivant les interactions entre la chimie raisonnée et le monde du médicament. Nicolas Lémery avait une double formation. Après avoir travaillé comme aide apothicaire, il a fait des études de médecine à l'université de Montpellier, dont on n'oublie pas qu'elle a formé Rabelais. Nicolas Lémery y a occupé la Chaire de chimie avant de revenir à Paris et de donner rue Galande des cours de chimie raisonnée en faisant des expériences publiques. Il fait ainsi sortir la chimie de l'alchimie qui était totalement embourbée dans l'obscurantisme. Suivant la pensée raisonnée de Pascal et de Descartes, la révolution vers le siècle des Lumières est en cours. Pour Nicolas Lémery, la chimie va devenir une science raisonnée comme les mathématiques ou la physique. Pour lui, l'essentiel est la reproductibilité des expériences. « Le Cours de Chymie » publié en 1675 par Nicolas Lémery alors âgé de trente ans, a été l'ouvrage de référence en chimie réédité dix-neuf fois pendant un siècle avant d'être remplacé par les premiers livres de chimie moderne.
La chimie moderne, raisonnée, s'est développée grâce aux travaux de Lavoisier, Berthollet, Fourcroy et Guyton de Morveau. Ce quatuor a véritablement révolutionné la chimie à la fin du XVIIIème siècle. Ils introduisent la nomenclature chimique, c'est-à-dire la possibilité de nommer un composé chimique de manière rationnelle de façon à ce que tout le monde puisse parler du même produit dans tous les pays en se comprenant. Les chimistes disposent alors d'un langage universel et rationnel, totalement débarrassé de la poésie et de l'obscurantisme de l'alchimie. Avant 1789, le CO2 ou dioxyde de carbone avait plus de quarante noms différents dont « l'air fixe » ! " « La Méthode de Nomenclature chimique » (1787) par Guyton de Morveau, Lavoisier, Berthollet et Fourcroy, et « le Traité élémentaire de chimie » (1789) de Lavoisier marquent l'entrée de la chimie dans les sciences exactes. Parlons un peu de la découverte de l'eau de Javel.

À cette époque, le lin devait être blanchi avant la teinture. Cette opération était réalisée en posant les draps dans un pré. Le rayonnement solaire sur la chlorophylle dégageait de l'oxygène singulet qui provoquait le blanchiment du lin. Les lavandières et les paysans se disputaient l'usage des pâturages. Claude Berthollet en cherchant un agent de blanchiment a synthétisé en 1789 : l'hypochlorite. Cette découverte a été publiée dans les « Les Annales de chimie » créées par Fourcroy, Guyton de Morveau et Lavoisier quelques années auparavant. L'hypochlorite NaOCl est obtenu par oxydation de chlorures qui conduit à la formation de chlore, et la solution aqueuse obtenue devient stable en milieu alcalin, initialement de la cendre, source de potasse. La première usine de fabrication de l'hypochlorite se situait à Javelle, petit village de lavandières de l'Ouest parisien, d'où le nom de l'eau de Javel.
L'eau de Javel est un blanchissant mais aussi un agent de désinfection extraordinaire. Elle lutte efficacement contre les bactéries, les agents pathogènes et les virus, qui ne seront identifiés qu'au milieu du siècle suivant avec l'essor de la microbiologie. Elle a permis de nettoyer les hôpitaux, en particulier les sols des zones infectées, et de sauver des millions de vies. Le Dakin, solution d'hypochlorite coloré avec du permanganate, est toujours utilisé comme désinfectant et les dentistes nettoient les racines des dents infectées avec de l'hypochlorite, notamment pour tuer le virus du SIDA. L'agent désinfectant de l'eau de Javel c'est l'acide hypochloreux, celui là même qui est libéré par les enzymes des macrophages humains pour éliminer les pathogènes.

Le début du XIXème siècle, 1800-1850, voit la naissance de la chimie des produits naturels. Le développement de la chimie rationnelle et l'adoption de méthodes expérimentales rigoureuses permettent de caractériser les produits actifs des plantes médicinales.
La morphine est isolée par un jeune pharmacien allemand, Friederich Sertürner, en 1803.

L'acide salicylique ou salicyline est extrait en 1829 de l'écorce de saule (salix en latin) par Pierre-Joseph Leroux. L'utilisation de feuilles de saule était connue pour aider à guérir les fièvres, limiter les maux de tête. Elle était mentionnée dans le papyrus égyptien découvert par Ebers. L'identification du principe actif, sa caractérisation et sa production rationnelle permettent d'avoir une préparation efficace d'un médicament dont l'activité ne dépend pas de la personne qui récolte les feuilles ni de la saison.

En 1853, Charles Gerhardt, brillant chimiste strasbourgeois (1816-1856), réussit la synthèse de l'acide acétylsalicylique et dépose un brevet. En vingt ans, il va aussi introduire en chimie la notion de fonction chimique utilisée pour classer les produits chimiques. Son décès prématuré plonge son travail dans l'oubli pendant de nombreuses années.
En 1897, Félix Hoffmann de la société Bayer reprend les travaux de Gerhardt et réalise la synthèse industrielle. La commercialisation de l'aspirine par Bayer débute en 1899. L'exportation de l'aspirine avant la première guerre mondiale a été le début florissant de cette société allemande. À l'occasion du traité de Versailles le gouvernement français a exigé que le brevet de l'aspirine passe dans le domaine public. Elle a ainsi été fabriquée à Lyon dans les usines du Rhône qui donneront naissance avec les usines Poulenc de Vitry à Rhône-Poulenc, société qui a largement contribué au développement de l'industrie pharmaceutique française au XXème siècle.

Au début du XIXème siècle, les chimistes sont capables d'identifier et de synthétiser des produits à partir de produits naturels. Au milieu du siècle, 1850-1860, l'association de la chimie des colorants à la chimie des produits naturels va conduire à la naissance de l'industrie pharmaceutique moderne.

Les trente dernières années du XIXème siècle vont voir l'épanouissement de la microbiologie qui fera le lien entre les bactéries pathogènes et les infections. Le microscope avec l'observation directe des micro-organismes permet de battre en brèche la théorie de la génération spontanée des microbes. Le développement conjoint de la microbiologie et de la chimie va permettre la création de merveilleux médicaments. La notion d'agent pathogène existait au début du XIXème siècle puisque Larrey, célèbre chirurgien des armées napoléoniennes, évitait les infections lors des amputations sur les champs de bataille en utilisant de l'alcool, du vinaigre, et un peu le fer rouge.

Louis Pasteur (1822-1895) et Robert Koch (1843-1910) sont les deux figures marquantes de la microbiologie en France et en Allemagne. En une trentaine d'année, ils vont permettre l'identification des agents pathogènes, virus ou bactéries, responsables des maladies suivantes : rage, peste, choléra, typhoïde, méningite, diphtérie, tuberculose, syphilis, tétanos, botulisme, lèpre, ...
La connaissance de l'agent pathogène va conduire à la mise en place de règles d'hygiène rationnelles et la mise au point de vaccins, d'antibactériens et d'antiviraux. Le respect des règles d'hygiène pasteurienne dans les salles d'accouchement a permis de diviser par trois à quatre la mortalité infantile.

Les premiers médicaments obtenus par synthèse chimique apparaissent avec l'essor de la chimie industrielle à la fin du XIXème siècle. Paul Erlich comprend qu'il est possible d'associer des petites molécules chimiques pour lutter contre un certain nombre d'agents pathogènes. Il s'intéresse aux dérivés de l'arsenic. Il crée le Salvarsan, le premier médicament qui lutte contre la maladie du sommeil.

Le premier antibactérien date de 1933. Gerhardt Domagk va tester des milliers de molécules de l'IG Farben entre 1927 et 1930 sur des streptocoques. Ce travail le conduit aux sulfamides, dont le dérivé azoïque le Prontosil, et aux acridines. Le premier sulfamide de l'histoire du médicament est une étape essentielle puisqu'il marque la découverte de la notion de métabolite actif et de la mise en évidence de son mécanisme d'action. Il comprend la notion de métabolite actif, le fait, qu'entre le produit qui est absorbé et le produit qui va agir sur sa cible pharmacologique, il y a une transformation par l'organisme. En 1935-1938, les époux Tréfouël de l'Institut Pasteur montrent que l'activité antibactérienne est permise par la coupure de la molécule au niveau d'une double liaison azote-azote qui donne une amine aromatique qui est le produit actif.

Plusieurs questions restaient encore en suspens : pourquoi une molécule a-t-elle une activité pharmacologique ? Quelle est sa cible ? Comment cette molécule interagit-elle avec la cible ? En 1940, Woods de l'université d'Oxford montre que le métabolite du Prontosil est un inhibiteur de la synthèse d'une enzyme, le tétrahydrofolate, qui est impliqué dans les transferts d'enchaînement en C1 dans des étapes de biosynthèse de la bactérie. Cette inhibition chez l'homme est compensée par l'apport d'acide folique par l'alimentation.

Pour développer des médicaments, il faut absolument comprendre comment la molécule ingérée va être transformée et quel est son mécanisme d'action.
La mise sur le marché américain du Prontosil conduit à un drame. La première formulation du médicament aux Etats-Unis va se faire avec de l'éthylène glycol ou antigel comme excipient, conduisant au décès de 76 personnes. Les autorités fédérales américaines réagissent immédiatement en créant la Food and Drug Administration (FDA) qui va édicter des règles strictes sur l'évaluation pré-clinique et clinique des futurs médicaments. Après un certain empirisme des bonnes pratiques sont mises en place et les procédures de fabrication bien plus encadrées au point de vue scientifique.

En 1930, Flemming identifie à partir d'un champignon un produit capable de tuer les bactéries, c'est la pénicilline. Il faudra attendre la deuxième guerre mondiale et l'effort de guerre des américains pour avoir une production industrielle de la pénicilline. Cette production en masse en 1942-1943 a nécessité la mobilisation de plus de mille scientifiques de très haut niveau pour résoudre les problèmes posés par la fermentation, l'extraction et la purification par des méthodes chimiques industrielles à très grande échelle. L'un des précurseurs chimiques de la pénicilline, le précurseur des céphalosporines est produit actuellement à raison de 45 000 tonnes par an dans d'immenses cuves de fermentation d'une dizaine de mètres cubes.

Pendant une centaine d'années, de la fin du XIXème jusqu'aux années 1980, les seuls outils thérapeutiques ont été les vaccins et des petites molécules. Pasteur a préparé son vaccin contre la rage à partir de la moelle épinière de lapins infectés. À sa suite, de grands succès sont obtenus par les vaccins dans la lutte contre la diphtérie, le tétanos, la poliomyélite, la variole, les hépatites A et B, la grippe, ... Les petites molécules utilisées dans les centaines de nouveaux médicaments développés à cette période sont alors des produits naturels, le plus souvent extraits de végétaux, ou bien des produits de synthèse chimique. Les découvertes étaient quasi-routinières au cours du XXème siècle et l'espérance de vie a augmenté.

À partir de 1970, la biologie devient véritablement moléculaire. Des outils créés par les physiciens dans les années 1930-1940, comme la diffraction des rayons X sur nano-cristaux, la résonance magnétique nucléaire, la spectrométrie de masse, sont utilisés par les chimistes pour étudier les petites molécules. Le perfectionnement de l'instrumentation va permettre d'utiliser ces techniques sur les macromolécules. Aux cours des années 1990-95, la facilité de résolution des structures d'enzymes est alors équivalente à celle d'une petite molécule chimique en 1970. Des milliers de structures de protéines ou d'acides nucléiques sont maintenant disponibles. La compréhension du vivant et la compréhension des produits chimiques deviennent équivalentes.

Il y a quarante ans, la découverte de la structure de l'hémoglobine a valu un prix Nobel à Max Perutz, de l'université de Cambridge. La structure de la pénicilline et de la vitamine B12 vaut un autre prix Nobel à Dorothy Hodgkin à Oxford, à peu près à la même époque. Maintenant, la publication de la structure d'une protéine se fait dans des journaux classiques et elle est directement archivée sur des banques de données. Les trente dernières années du XXème siècle ont vu une accélération extraordinaire de la connaissance moléculaire du domaine du vivant.

Les années 1965-1980 ont été celles de la découverte des outils pour étudier les gènes, notamment les enzymes de restrictions qui coupent les gènes et les ligases qui recollent les morceaux. De la compréhension du fonctionnement des gènes aux manipulations génétiques, il n'y a eu qu'un pas rapidement franchi. C'est le monde de la biotechnologie moderne où les choses ne sont plus laissées au hasard et où l'expérimentateur peut intervenir. Le séquençage des génomes, de l'homme comme des agents pathogènes, se systématise. La connaissance du génome des agents pathogènes, virus et bactéries, permet l'amélioration des outils de diagnostic et l'identification de nouvelles cibles thérapeutiques. La compréhension des maladies d'origine génétique ouvre la voie aux corrections des erreurs génétiques par la thérapie génique.
La connaissance du génome ouvre la voie à de nouvelles techniques. La génomique est l'accessibilité de la totalité de l'information génétique d'une espèce vivante. La protéomique est la possibilité d'exprimer toute protéine à partir du génome. La pharmacogénomique est la possibilité d'adapter un traitement thérapeutique selon le profil métabolique de chaque individu. Les connaissances sur la capacité des individus à métaboliser ou à ne pas métaboliser, sur leurs réactions vis-à-vis d'un médicament, permettent d'imaginer dans le futur de pouvoir adapter les posologies en fonction du patrimoine génétique de chacun. Quant à la robotique, elle permet à des mini-robots de paillasse de réaliser des milliers de molécules et d'essais biologiques in vitro. Ils atteignent rapidement leurs limites car ils produisent toujours les mêmes produits en utilisant les mêmes réactions avec une diversité structurale par trop limitée. De plus, les tests in vitro ne prennent pas en compte les problèmes de biodisponibilité, de pénétration et de passage de membrane.

Le rôle du chimiste dans l'innovation thérapeutique en ce début de XXIème siècle va être essentiel car il est formé et entraîné pour comprendre les choses au niveau moléculaire. Il pourra travailler avec des biochimistes, avec des spécialistes de biologie moléculaire, de biologie cellulaire, de toxicologie, de pharmacologie, de médecine clinique. Les raisonnements en termes moléculaires font tomber les barrières de spécialités ( au singulier dans le sens de barrières liées à la spécialité / au pluriel mais alors écrire barrière des spécialités) mais le champ des connaissances nécessaires pour aller d'un domaine à l'autre dépasse souvent les capacités individuelles. Le chimiste moderne doit maîtriser la chimie de base et plusieurs domaines de la biologie. La biochimie est devenue une partie intégrante de la chimie, de même que l'enzymologie moléculaire. Les biologistes et les médecins doivent également avoir des bases élémentaires solides en chimie thérapeutique et en pharmacologie. Il faut des médecins qui restent au pied du malade en ayant cette capacité à discuter avec d'autres médecins qui sont impliqués dans la recherche clinique, à la recherche de médicaments. Les numerus clausus doivent être révisés régulièrement de manière intelligente pour éviter de créer des pénuries de médecins praticiens, s'il s'agit des cliniciens sinon chercher un synonyme à pratiquant qui renvoie à religion voire le supprimer.

Les chimistes créatifs vont continuer à être des acteurs clés dans l'industrie pharmaceutique du futur. Le « rational drug design » est le développement de la création rationnelle de nouveaux pharmacophores. La compréhension au niveau moléculaire du monde du vivant conduit à la création d'objets chimiques parfaitement adaptés à une utilisation en tant qu'outils thérapeutiques.

La chimie des produits naturels va continuer à se développer car la nature est une source d'inspiration de nouvelles structures de haute diversité.
La chimie théorique, avec des ordinateurs de plus en plus puissants et mieux utilisés, va permettre de faire des prédictions de l'interaction de molécules avec des systèmes biologiques et des sites pharmacologiques.

Selon les étapes de la création et de développement d'un médicament, différents métiers interviennent successivement : les chimistes et les biologistes sont les plus impliqués dans les phases de découverte pré-clinique alors que les médecins prennent le relais en phase clinique. Dès les premiers essais cliniques, les statisticiens ont un rôle primordial de prédiction du rapport bénéfice/risque afin d'éviter, par exemple, d'attendre le traitement de dizaines de milliers de personnes pour identifier d'éventuels effets secondaires néfastes.
La diversification des outils dans l'arsenal thérapeutique du XXIème siècle est une combinaison de réalité, d'espoirs et de rêves. Les macromolécules biologiques, traitées comme des objets chimiques, font maintenant partie, et prendront une part de plus en plus importante dans l'arsenal thérapeutique du futur. L'hormone de croissance, l'érythropoïétine capable de stimuler la production de globules rouges, sont produites par génie génétique.

Les thérapies génique et cellulaire sont encore du domaine de l'espoir. La thérapie génique est l'utilisation de gènes ou de molécules capables de modifier l'expression génétique pour traiter des maladies d'origine génétique. La thérapie cellulaire est l'utilisation de cellules souches pour réparer des dégâts au sein de tissus et d'organes.

Pour favoriser l'innovation thérapeutique, il faut favoriser la créativité dans tous les domaines. Il faut, à la fois, des chercheurs de très grande qualité en recherche fondamentale et des chercheurs de très grande qualité en recherche appliquée. La recherche fondamentale est indispensable pour le développement des recherches appliquées, mais, il arrive parfois que des résultats soient appliqués avant la compréhension complète des processus scientifiques sous-jacents. Chaque génération a sa proportion de talent et je souhaite que beaucoup s'intéressent à la fois à la chimie et à la thérapie et contribuent dans le futur à la création de médicaments de plus en plus efficaces et de plus en plus sûrs.

[1] Transcription réalisée par Juliette Roussel
[2] M. Madella et al, J. Archaeolog. Sci. 29, 703-719 (2002)

 

 DOCUMENT       canal-u.tv     LIEN  

 

(pour  consulter  la  vidéo, inscrire  le TITRE  dans  le  moteur  de  recherche  de  CANAL U )

 
 
 
initiation musicale toulon  

Le microbiote intestinal à la rescousse des chimiothérapies

 

Le microbiote intestinal à la rescousse des chimiothérapies
Deux espèces bactériennes présentes dans l'intestin boostent l'efficacité des chimiothérapies à base de cyclophosphamide en optimisant l’immunité anti-tumorale induite par ce médicament. C'est ce qu'affirment des chercheurs de l’Inserm, de Gustave Roussy, du CNRS, de l’Institut Pasteur de Lille, et des universités Paris Sud et de Lille dans un article publié le 4 octobre dans la revue Immunity.
Des études récentes ont montré que certains microbes intestinaux favorisent la croissance de tumeurs, tandis que d'autres contribuent à rendre plus efficaces des traitements anti-cancéreux. Il restait à identifier la nature et le mode d’action des espèces bactériennes capables d’optimiser la réponse anti-tumorale induite par la chimiothérapie.
Dans cette nouvelle étude, Mathias Chamaillard1, Laurence Zitvogel2 et leurs collaborateurs, ont montré que deux bactéries intestinales, E. hirae et B. intestinihominis, potentialisent ensemble les effets thérapeutiques anticancéreux du cyclophosphamide, une chimiothérapie utilisée dans le traitement de nombreux cancers.
Comment ? La chimiothérapie entraine des effets secondaires parmi lesquels une plus forte porosité de la barrière intestinale et, par voie de conséquence, le passage des bactéries constitutives du microbiote dans la circulation sanguine. Pour lutter contre ce passage anormal des bactéries dans la circulation, une réponse immunitaire se déclenche. Contre toute attente, cette réponse est bénéfique pour les patients car elle peut entraîner aussi la destruction des cellules tumorales. La tumeur est donc attaquée directement par le traitement de cyclophosphamide et indirectement par cet effet "boostant" des bactéries.
Plusieurs modèles précliniques ont permis aux chercheurs de démontrer que la réponse immunitaire anti-tumorale induite par le cyclophosphamide est optimisée après l’administration par voie orale de E. hirae. Un traitement par voie orale par B. intestinihominis a permis d'obtenir un effet similaire.
Ensuite, les chercheurs ont analysé le profil immunitaire des lymphocytes sanguins de
1 Unité 1019 "Centre d'infection et d'immunité de Lille" (Inserm/CNRS/Université de Lille/Institut Pasteur de Lille)
2 Unité 1015 "Immunologie des tumeurs et immunothérapie" (Inserm/Institut Gustave Roussy/Université Paris-Sud)
38 patients atteints d'un cancer du poumon ou de l'ovaire à un stade avancé et traités par chimio-immunothérapie. Ils ont découvert que la présence de lymphocytes T mémoires spécifiques de E. hirae et B. intestinihominis permet de prédire la période pendant laquelle un patient vit avec un cancer sans qu'il ne s'aggrave, pendant et après un traitement.
« L'efficacité d'un médicament anticancéreux repose sur une interaction complexe entre le microbiome du patient et sa capacité à élaborer une mémoire immunitaire efficace contre certaines bactéries du microbiote intestinal », explique l'un des principaux auteurs de l'étude, Mathias Chamaillard, Directeur de recherche Inserm. « Ces résultats nous permettent d’envisager une meilleure efficacité de ces traitements en optimisant l'utilisation des antibiotiques, mais également par la mise en place d'une supplémentation de certaines bactéries qualifiées d’onco-microbiotiques (ou de leurs principes actifs) capables de renforcer l'efficacité des anticancéreux ».
Les chercheurs ont prévu d'identifier, dans le cadre d'études ultérieures, les parties spécifiques des bactéries responsables du renforcement des effets du cyclophosphamide. « Si nous arrivons à répondre à cette question, nous pourrons peut-être trouver une manière d'améliorer la survie des patients traités par cette chimiothérapie en leur administrant des médicaments dérivés de ces bactéries.», conclut Mathias Chamaillard.
Sources
Enterococcus hirae and Barnesiella intestinihominis Facilitate Cyclophosphamide-Induced Therapeutic Immunomodulatory Effects
Romain Daillère1,2,3, Marie Vétizou1,2,3, Nadine Waldschmitt4, Takahiro Yamazaki1,2, Christophe Isnard5,6, Vichnou Poirier-Colame1,2,3, Connie P. M. Duong1,2,7, Caroline Flament1,2,7, Patricia Lepage8, Maria Paula Roberti1,2,7, Bertrand Routy1,2,3, Nicolas Jacquelot1,2,3, Lionel Apetoh9,10,11, Sonia Becharef1,2,7, Sylvie Rusakiewicz1,2,7, Philippe Langella8, Harry Sokol8,12,13, Guido Kroemer14,15,16,17,18,19, David Enot1,15, Antoine Roux1,2,3,18, Alexander Eggermont1,3, Eric Tartour20,21, Ludger Johannes22,23,24, Paul-Louis Woerther25, Elisabeth Chachaty25, Jean-Charles Soria1,3, Benjamin Besse1,3, Encouse Golden26, Silvia Formenti26, Magdalena Plebanski27, Mutsa Madondo27, Philip Rosenstiel28, Didier Raoult29, Vincent Cattoir*5,6,30, Ivo Gomperts Boneca*31, Mathias Chamaillard*4 and Laurence Zitvogel1,2,3.
1 Institut de Cancérologie Gustave Roussy Cancer Campus (GRCC), 114 rue Edouard Vaillant, Villejuif, 94805, France ;
2 Institut National de la Santé Et de la Recherche Medicale (INSERM), U1015 and CICBT1428, GRCC, Villejuif, 94805, France
3 University of Paris-Saclay, Kremlin Bicêtre, 94270, France ;
4 University of Lille, CNRS, Inserm, CHRU Lille, Institut Pasteur de Lille, U1019-UMR 8204-CIIL, Centre d’Infection et d’Immunite´ de Lille, 59000 Lille, France;
5 Université de Caen Basse-Normandie, EA4655 U2RM (Équipe Antibio-Résistance), Caen, 14033, France ;
6 CHU de Caen, Service de Microbiologie, Caen, 14033, France ;
7 Center of Clinical Investigations in Biotherapies of Cancer (CICBT) 1428, Villejuif, 94805, France ;
8 Micalis Institute, INRA, AgroParisTech, Université Paris-Saclay, 78350 Jouy-en-Josas, France ;
9 Lipids, Nutrition, Cancer, INSERM, U866, Dijon, 21078, France ;
10 Department of Medicine, Université de Bourgogne Franche-Comté, Dijon, 21078, France ;
11 Department of Oncology, Centre Georges François Leclerc, Dijon, 21000, France ;
12 AVENIR Team Gut Microbiota and Immunity, ERL, INSERM U 1157/UMR 7203, Faculté de Médecine, Saint-Antoine, Université Pierre et Marie Curie (UPMC), Paris, 75012, France ;
13 Service de Gastroentérologie, Hôpital Saint-Antoine, Assistance Publique—Hôpitaux de Paris (APHP), Paris, 75012, France ;
14 INSERM U848, 94805 Villejuif, France ;
15 Metabolomics Platform, Institut Gustave Roussy, Villejuif, 94805, France ;
16 Equipe 11 labellisée Ligue contre le Cancer, Centre de Recherche des Cordeliers, INSERM U 1138, Paris, 75006, France ;
17 Pôle de Biologie, Hôpital Européen Georges Pompidou, AP-HP, Paris, 75015, France ;
18 Université Paris Descartes, Sorbonne Paris Cité, Paris, 75006, France ;
19 Karolinska Institute, Department of Women's and Children's Health, Karolinska University Hospital, Stockholm, 17176, Sweden ;
20 INSERM U970, Paris Cardiovascular Research Center, Université Paris-Descartes, Sorbonne Paris Cité, Paris, 75015, France ;
21 Service d’immunologie biologique, Hôpital Européen Georges Pompidou, Paris, 75015 France ;
22 INSERM U1143, 75005 Paris, France ;
23 Institut Curie, PSL Research University, Endocytic Trafficking and Therapeutic Delivery group, Paris, 75248, France ;
24 CNRS UMR 3666, Paris, 75005, France ;
25 Service de microbiologie, GRCC, Villejuif, 94805, France ;
26 Department of Radiation Oncology, Weill Cornell Medicine, New York, NY, USA ;
27 Department of Immunology and Pathology, Monash University, Alfred Hospital Precinct, Melbourne, Prahran, Victoria 3181, Australia ;
28 Institute of Clinical Molecular Biology, Christian-Albrechts-University and University Hospital Schleswig-Holstein, Campus Kiel, 24105 Kiel, Germany ;
29 AIX MARSEILLE UNIVERSITE, URMITE (Unité de Recherche sur les Maladies Infectieuses et Tropicales Emergentes), UMR 7278, INSERM 1095, IRD 198, Faculté de Médecine, Marseille 13005, France ;
30 CNR de la Résistance aux Antibiotiques, Laboratoire Associé Entérocoques, Caen, 14033, France ;
31 Institut Pasteur, Unit Biology and Genetics of the bacterial Cell Wall, Paris, 75015, France ;
*All three authors equally contributed to this work.
Immunity http://dx.doi.org/10.1016/j.immuni.2016.09.009
Contact chercheur
Mathias Chamaillard
Directeur de recherche Inserm
Unité 1019 "Centre d'infection et immunité de Lille" (Inserm/CNRS/Université de Lille/Institut Pasteur de Lille)
+33 (0)3 59 31 74 27
mathias.chamaillard@inserm.fr
Laurence Zitvogel
Directrice de l'Unité 1015 "Immunologie des tumeurs et immunothérapie" (Inserm/Institut Gustave Roussy/Université Paris-Sud)
+33 (0)1 42 11 50 41
laurence.zitvogel@igr.fr
Contact presse
Juliette Hardy
presse@inserm.fr
Accéder à la salle de presse de l'Inserm

 


   DOCUMENT        cnrs         LIEN

 
 
 
initiation musicale toulon  

POISSON

 

Arrêtez de manger du poisson (sérieusement)
15 septembre 2016 / 1494
Aujourd’hui, j’arrive avec de bien mauvaises nouvelles.
Si votre moral n’est pas au plus haut, mettez cette lettre de côté et lisez-la un peu plus tard (mais ne tardez pas trop quand même, c’est votre santé qui est en jeu !).
J’aurais aimé pouvoir vous rassurer sur le poisson… et vous encourager à profiter sans limite de ses excellentes protéines, vitamines, minéraux, et oméga-3.
Mais la réalité est que le poisson est devenu un des aliments les plus pollués qui existe.
Je sais d’avance que mon enquête ne plaira pas à tout le monde. Ceux qui me liront trop vite me trouveront « excessif », « catastrophiste ». « Avec vous, Xavier, on ne peut plus rien manger », me diront certains (à tort ! lisez bien, je vous dirai précisément quels poissons vous pouvez encore manger, et à quelle fréquence).
Mais il est plus que temps de mettre les points sur les i avec le poisson :
– Nous devons la vérité aux enfants et adolescents, qui pourraient se retrouver avec un diabète à 40 ans, simplement parce qu’ils ont mangé trop de poisson, croyant cet aliment sain et irréprochable ;
– Nous devons la vérité aux femmes enceintes, dont les enfants pourraient être irrémédiablement diminués, voire handicapés par les toxines contenues dans la plupart des poissons ;
– Nous devons la vérité à ceux qui ont une santé fragile : pour eux, même à faible dose, les métaux lourds et polluants des poissons pourrait les faire basculer du mauvais côté (dérèglement hormonal, maladie auto-immune, voire cancer) ;
– Et nous devons la vérité à tous ceux qui ont l’intention de vivre vieux, sans Alzheimer ni maladie chronique – et pour cela, il vaut mieux se protéger des toxines qui s’accumulent dans notre corps au fil des années, lentement mais sûrement…
Cette vérité sur le poisson n’est pas « cachée ». Ma lettre s’appuie sur des études scientifiques publiées dans des journaux de référence, et dont les médias se sont souvent fait l’écho.
Le problème est que les informations sur ce sujet sont comme les pièces d’un puzzle en désordre : elles sont dispersées, confuses, et peuvent sembler contradictoires.
Moi-même, j’ai mis du temps à réaliser l’ampleur du désastre (d’autant que j’adore le poisson !). Mais lorsque vous assemblez tous les éléments, le tableau qui apparaît est clairement inquiétant.
Découvrons-le ensemble, pas à pas.
L’étrange danse suicidaire des chats de Minamata
Tout commence en 1950 à Minamata, une petite ville côtière du Sud du Japon.
Les habitants assistent alors à un spectacle étonnant. Ce sont d’abord des poissons morts, qui s’échouent sur la plage. Puis des mouettes et des corbeaux, incapables de s’envoler.
Bientôt, les chats sont pris de spasmes. Beaucoup sont emportés dans une danse macabre qui les conduit directement dans la mer, à se suicider.
En mai 1956, quatre habitants de Minamata sont hospitalisés pour des troubles déconcertants : perte de parole, convulsion, hallucinations, incapacité à marcher, coma. Tous meurent. Et sont bientôt suivi par des centaines d’autres habitants, de Minimata et des villages de pêche aux alentours.
Les Japonais ont fini par découvrir qu’une grande usine locale rejetait dans la mer des quantités énormes de mercure. Ce mercure était ingéré par les poissons, qui a fini par contaminer les animaux puis les hommes.
Officiellement, 900 personnes en sont mortes. 2 265 ont formellement été reconnues victimes d’empoisonnement au mercure, avec de terribles séquelles.
Certaines femmes n’ont jamais présenté le moindre symptôme… mais ont mis au monde des enfants lourdement handicapés.
C’est une des plus graves catastrophes écologiques et sanitaires de l’histoire. Et je crains que nous ne soyons en train de la rééditer, à plus petite échelle.
Presque tous les poissons sont contaminés au mercure
Evidemment, vous ne trouverez jamais dans le commerce des poissons aussi contaminés que ceux de Minamata, loin de là – et fort heureusement ! Mais cela ne veut pas dire qu’ils sont inoffensifs.
Tous les poissons, sans exception, contiennent du mercure. En partie pour des raisons naturelles : il y a toujours eu un peu de mercure au fond des mers et des océans.
Mais surtout parce que l’homme a pollué les océans, les mers, les lacs et les rivières depuis plus d’un siècle. D’après les scientifiques du programme GEOTRACES, la concentration de mercure dans les océans a triplé depuis la révolution industrielle.
La faute en particulier aux usines de charbon et à l’incinération des déchets : le mercure émis dans l’air finit par retomber sur terre… et au fond des mers.
Il est alors absorbé par le plancton et les petites plantes des fonds marins. Qui sont mangés par les petits poissons, lesquels accumulent ce mercure dans leur graisse… et qui sont eux-mêmes mangés par les gros poissons carnivores, qui concentrent la plus forte dose de mercure.
Le classement « mercure » : attention aux prédateurs !
Le niveau d’empoisonnement au mercure est donc très variable selon les poissons.
Il y a aussi de grandes différences selon les lieux de pêche. Mais pour vous donner une idée générale, j’ai élaboré pour vous une synthèse des classements des agences de santé française, européenne, canadienne et américaine :
Poissons ultra contaminés : requin et espadon ;
Poissons hautement contaminés : thon rouge, thon albacore, marlin, et, dans une moindre mesure, thon blanc (germon), mérou et merlu ;
Poissons très contaminés : thon pâle en conserve (listao, thon mignon), bar, lotte, brochet, anguille, daurade, raie ;
Poissons moyennement contaminés : truite, hareng, la plupart des saumons, merlan, sole, cabillaud (morue), crabe ;
Poissons peu contaminés : sardines, anchois, maquereau, saumon sauvage d’Alaska, huîtres ;
Produits de la mer quasiment pas contaminés : coquilles Saint-Jacques, coquillages et crevettes.
Attention : je préfère vous prévenir tout de suite que certains de ces poissons contiennent d’autres polluants dangereux (le PCB en particulier, dont je vous parle plus loin).
Mais sur la seule base de leur contamination au mercure, il me paraît évident :
– Qu’il ne faut jamais manger du requin, de l’espadon, du thon rouge, du thon albacore ou du marlin : ils devraient tout simplement être retirés du marché, d’autant qu’ils regroupent des espèces en danger, à protéger ;
– Qu’il n’y a aucune bonne raison de prendre le risque de consommer du thon, du mérou, du merlu, du bar, de la lotte, de la daurade, de la raie (sauf festivité ou occasion particulière), et encore moins de l’anguille et du brochet ;
– Et qu’il faut limiter sa consommation de truite, crabe, hareng, saumon (sauf d’Alaska), merlan, sole et cabillaud.
Car personne ne sait à partir de quelle dose exacte le mercure commence à être toxique… Dans le doute, donc mieux vaut l’éviter autant que possible !
Vous ne pouvez jamais savoir la quantité de mercure dans votre assiette
Surtout que, pour une même espèce de poisson, la quantité de mercure qu’il contient peut varier du tout au tout selon l’endroit où il est pêché !
La truite, par exemple, a plutôt bonne réputation. Mais celle des lacs canadiens fait partie des poissons les plus contaminés en mercure au monde ! [1]
Même les petits poissons, qui contiennent le moins de mercure, ne sont pas épargnés par ces variations : on trouve 4 fois plus de mercure dans les sardines et anchois pêchés en Méditerranée que dans l’Atlantique [2] … et 10 fois plus de mercure dans les harengs de la mer du Nord que dans ceux de St Pierre et Miquelon !
Et notez bien que le « bio » ne vous protège en rien du mercure… C’est parfois même le contraire ! D’après une analyse réalisée par 60 millions de consommateurs, le saumon norvégien bio « Agir » contient sept fois plus de mercure que le saumon « Pescanova », pêché dans l’Atlantique et élevé au Chili. [3]
La palme du danger revient tout de même au thon en conserve : plusieurs boîtes de thon de nos supermarchés dépassent la moitié de la limite réglementaire de mercure, ce qui est considérable. [4]
Ne vous faites pas avoir par le discours sur le « bénéfice-risque »
Mais alors, pourquoi la plupart des autorités de santé recommandent-elles tout de même de manger deux portions de poisson par semaine ?
Tout simplement parce que les poissons gras (saumon, sardines…) contiennent de grandes quantités d’oméga-3, qui sont des acides gras indispensables pour la santé de votre cœur et de votre cerveau.
Et comme vous avez beaucoup plus de chances de mourir d’une maladie cardiaque que d’une maladie liée au mercure, les autorités préfèrent ne pas vous déconseiller ces poissons, car leur « bénéfice / risque » est plutôt positif.
C’est particulièrement vrai pour ceux qui se nourrissent toute la journée de pizza, de pâtes, de chips et de biscuits. Pour eux, consommer un peu de poisson est quoi qu’il arrive un progrès considérable.
Mais vous, mes chers et fidèles lecteurs, qui faites attention à votre alimentation, vous devez savoir qu’il existe une troisième voie.
N’aimeriez-vous pas avoir les bienfaits des oméga-3 sans les risques du mercure ?
Eh bien c’est tout à fait possible si vous mangez régulièrement des œufs « omega-3 », qui sont des œufs de volaille nourries au lin. En revanche, ne comptez pas uniquement sur les huiles de cuisine riches en oméga-3 (colza, lin, noix) : elles sont précieuses mais ne peuvent pas vous apporter les oméga-3 d’origine animale dont vous avez besoin.
Et dans tous les cas, vous pouvez aussi avoir recours à des gélules d’oméga-3 en complément alimentaire. [5]
Au total, il est clair que vous gagnerez toujours à manger des poissons gras si vous ne consommez aucun autre oméga-3. Mais si vous pouvez trouver ailleurs ces précieux acides gras, pourquoi prendre le risque du mercure ?
La triste leçon des enfants Inuits
Les femmes enceintes sont particulièrement concernées par ce dilemme.
Le cerveau du fœtus a absolument besoin d’oméga-3 pour se développer. Mais il doit aussi impérativement être protégé de la toxicité du mercure.
Jusqu’à récemment, on s’imaginait que les bienfaits des oméga-3 étaient supérieurs aux dégâts du mercure. [6] Mais ces « espoirs » ont été balayés par l’étude approfondie des tribus Inuit de Nunavik, qui consomment beaucoup de poissons riches en oméga-3 et en mercure.
D’abord, les chercheurs ont montré que les enfants Inuit qui avaient dans leur sang un taux élevé de mercure et de plomb à leur naissance étaient trois fois plus nombreux à souffrir du syndrome d’hyperactivité et de déficit de l’attention. [7]
Puis, ils ont découvert que, parmi ces mêmes enfants, ceux qui avaient un taux de mercure élevé à la naissance avaient en moyenne un QI inférieur de 5 points par rapport aux autres – ce qui prouve à quel point le mercure nuit au développement du cerveau du fœtus ! [8]
Et n’imaginez pas que ces enfants avaient des taux de mercure beaucoup plus élevés que chez nous. Les taux étaient globalement similaires à celui des populations occidentales qui mangent beaucoup de poisson. [9]
Voilà pourquoi je suis convaincu que les femmes enceintes devraient prendre des oméga-3 en gélule (comme la vitamine B9 qu’on leur prescrit systématiquement) et s’abstenir totalement de prendre des produits de la mer.
Et ce même conseil pourrait valoir pour tous ceux d’entre nous qui ont une santé fragile.
Manger du poisson… et attraper le diabète !
Il faut bien comprendre que, selon notre histoire personnelle et notre mode de vie, on est plus ou moins vulnérable au mercure.
Il est évident qu’un homme de 25 ans en parfaite santé, qui fait du sport 3 fois par semaine, s’expose au soleil régulièrement, mange quantité de légumes anti-oxydants et ne souffre d’aucun stress dans sa vie n’aura absolument aucun problème à se « détoxifier » de la faible dose de mercure contenue dans les sardines, s’il en mange 2 ou 3 fois par semaine.
Mais nous ne sommes pas tous logés à la même enseigne.
Peut-être avez-vous l’intestin poreux, ou un foie en mauvaise santé. Ou peut-être avez-vous, sans le savoir, une vulnérabilité génétique qui vous empêche d’éliminer facilement les métaux lourds.
Prenez cette étude récente, dans laquelle des chercheurs ont sélectionné des jeunes adultes et les ont suivis pendant près de 20 ans… Ils ont découvert que ceux qui avaient le plus avalé de mercure avaient aussi 65 % de risque en plus de souffrir d’un diabète de type 2 ! [10]
Ces résultats font froid dans le dos, car ce sont ceux… qui avaient le mode de vie le plus sain ! Ils mangeaient « bien », faisaient du sport, ne connaissaient pas le surpoids. Mais ils mangeaient trop de poisson.
Et ce n’est pas tout : une autre étude publiée en 2015 a montré qu’une plus grande exposition au mercure est aussi associée à un risque plus élevé de maladie auto-immune. [11]
Bon, je vous avais dit que j’allais vous déprimer… Et ce n’est pas fini, hélas ! Car d’autres polluants plus méconnus viennent encore assombrir le tableau.
A commencer par les redoutables PCB…
Les PCB, grands polluants méconnus des poissons
Le grand paradoxe avec les biphényles polychlorés (PCB), c’est qu’ils continuent encore et toujours à nous intoxiquer alors qu’ils sont interdits depuis plusieurs dizaines d’années.
Jusqu’à la fin des années 1970, l’industrie a utilisé en masse ces composés chimiques complexes. Ils ont alors été rejetés dans les cours d’eau, contaminant les rivières et les côtes. Ils ont aussi été diffusé dans l’air… et sont retombés au fond des mers.
Le gros problème des PCB est qu’ils sont très peu biodégradables : une fois dispersés, ils s’accumulent dans l’environnement… et viennent servir de nourriture aux poissons. On en trouve un peu également dans les viandes et le lait, mais en moins grande quantité.
En France, ces poisons ont été interdits en 1987… mais comme ils étaient partout – dans les peintures, l’asphalte, les résines, les textiles, les adhésifs –, ils continuent de se disperser à petit feu… et à s’accumuler dans notre environnement !
Voilà pourquoi l’administration française comptabilisait en 2013 pas moins de 550 sites terrestres pollués aux PCB, contre « seulement » 437 en 2011. Une hausse de 25 % en deux ans, alors que cela faisait plus de 30 ans qu’ils étaient interdits !
La situation de nos rivières et de nos estuaires est dramatique. Dès 2010, un arrêté de la préfecture de la région Haute-Normandie interdisait la pêche à la sardine en baie de Seine, entre Dieppe et Barfleur, pour cause de PCB.
Le 1er novembre 2015, la France et la Suisse ont décidé d’interdire à la vente les grosses truites du lac Léman… là encore du fait de leur teneur trop élevée en PCB !
Car ces PCB ne s’accumulent pas seulement dans la nature : ils s’accumulent aussi dans votre organisme et mettent des années, voire des dizaines d’années à en être éliminés.
Voilà pourquoi l’Organisation Mondiale de la Santé classe les dioxines de type PCB comme des perturbateurs endocriniens avérés, des saboteurs du système immunitaire… et même des facteurs de cancer. [12]
Le classement « PCB » : malheur aux petits poissons gras !
Sans surprise, ce sont les poissons des rivières et des côtes qui sont le plus touchés par les PCB et autres dioxines. Les brochets, silures/poissons chats et les anguilles sont radicalement pollués, et sont donc définitivement impropres à la consommation. Aucun regret à avoir pour ces espèces déjà riches en mercure.
Le drame est que les poissons les plus sains – car épargnés en mercure et riches en oméga-3 – sont aussi les plus touchés par la pollution aux PCB.
C’est le cas en particulier des sardines : d’après une enquête de l’Agence Française de Sécurité Alimentaire (ANSES), les sardines sont le plus gros contributeur de PCB (et autres « polluants organiques persistants ») dans notre alimentation.
C’est malheureusement tout à fait logique : les oméga-3 sont des graisses… et c’est aussi dans la graisse que les polluants s’insèrent et s’accumulent le mieux.
Cela vaut pour les poissons (plus le poisson est gras, plus il accumule les PCB de son environnement), pour les mammifères (les toxines se concentrent dans la graisse de la viande et du lait)… et pour les humains (les polluants s’accumulent dans votre graisse, d’où l’intérêt de rester mince !).
Je tiens à vous citer le rapport de l’ANSES, car c’est un fait trop souvent passé sous silence :
« Il convient de préciser que ces espèces, en particulier le saumon, la sardine et le maquereau, sont des poissons gras et si elles sont de bons vecteurs d’oméga 3, elles présentent également de fortes teneurs en polluants organiques persistants (POP) et sont les principaux contributeurs à ces expositions. » [13]
Le rapport ne mentionne pas les autres petits poissons riches en oméga-3, harengs et anchois. Mais les harengs sont un choix risqué : un rapport de l’INRA de 2002 pointait une lourde pollution des harengs en dioxines et PCB. [14]
Restent les anchois, qui sont le choix le plus sûr, sans doute parce qu’ils ont un cycle de vie très court : ils meurent avant d’avoir eu le temps d’accumuler trop de toxines.
J’en ai presque fini avec les mauvaises nouvelles… mais pas tout à fait :
Plomb, Cadmium, pesticides, retardeurs de flamme : la cerise sur le gâteau
D’après l’ANSES, les sardines contiennent aussi des doses élevées de plomb [15], une raison supplémentaire pour les femmes enceintes de les éviter totalement. On a aussi trouvé des doses excessives de plomb dans la sole [16] et de cadmium dans la morue. [17]
Mais les produits de la mer qui contiennent le plus de ces deux métaux lourds (plomb et cadmium) ne sont pas des poissons : ce sont les moules, les coquillages et les calamars. [18]
Et oui, je n’avais cité les fruits de mer… et peut-être espériez encore pouvoir continuer à les manger régulièrement en toute tranquillité ? Mais non, surtout pas, d’autant que les moules sont par ailleurs considérablement polluées en PCB.
Autres polluants fréquemment retrouvés dans les poissons : les pesticides. Aux Etats-Unis, une analyse d’échantillons de supermarché à Dallas a retrouvé 24 pesticides (de type DDT) sur 32 dans le saumon et 17 sur 32 dans les boîtes de conserve de sardines – en plus des doses élevées de PCB qu’ils ont retrouvé dans ces échantillons. [19]
Enfin, on trouve aussi des « retardateurs de flamme » dans les poissons, parfois à haute dose. Ces substances toxiques sont particulièrement présentes dans les moules, les sardines, le saumon d’élevage et le poisson chat. [20]

Mes recommandations pour ne pas vous intoxiquer
Alors que faire ?
Cela dépend beaucoup de votre âge, de votre situation (femme en âge de procréer, etc.) et de votre état de santé.
Mais de façon générale, voici des recommandations qui me paraissent prudentes et de bon sens :
– JAMAIS de thon, espadon, anguille, brochet : ce sont des poissons à exclure de votre alimentation, notamment du fait de leur taux élevé de mercure ;
– EXCEPTIONNELLEMENT, pour des repas de fête (si vous les aimez !) : mérou, merlu, bar, lotte, rougets, daurade, raie, sole, calamars, cabillaud, saumon d’élevage (même bio), moules, coquillages, tourteaux ;
– UNE PORTION PAR MOIS, si vous y tenez, en vérifiant leur provenance : truite, crabe, hareng, merlan, maquereaux, sardines, huîtres ;
– UNE A DEUX PORTIONS PAR SEMAINE : anchois (d’Atlantique), crevettes (en évitant celles qui viennent d’Asie !), noix de coquilles Saint-Jacques, saumon sauvage d’Alaska.
Ah, et un dernier conseil : si vous êtes chez le poissonnier et que vous hésitez entre un petit et un gros poisson de la même espèce, choisissez le petit : moins âgé, il aura moins eu le temps d’accumuler des toxines dans sa graisse.
Au total, je suis bien conscient que je suis très restrictif, mais vous gagnerez à éviter d’accumuler dans votre organisme des métaux lourds et polluants chimiques pendant des dizaines d’années.
Et je répète qu’il est crucial de faire le plein d’oméga-3. Si vous ne mangez pas chaque semaine du saumon d’Alaska (très cher !) ou de bonnes quantités d’anchois (qui ne sont pas au goût de tout le monde !), mangez des œufs « oméga-3 » ou prenez des gélules en complément alimentaire.
Attention aussi à ne pas manquer de sélénium ou d’iode, des minéraux indispensables contenus dans les poissons (heureusement, les Saint-Jacques et les crevettes en sont de bonnes sources).
Et n’oubliez pas de garder le moral, c’est crucial pour conserver une…
Bonne santé !
Xavier Bazin  

                                    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 ] Précédente - Suivante
 
 
 
Google