Arrêt provisoire des cours pour raison médicale.

ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LE DARWINISME ÉVOLUE AUSSI ...

 

Biologie :Le darwinisme  évolue aussi
Eva Jablonka dans mensuel 396


La biologie de l'évolution est en pleine transformation. Tout en respectant les fondements énoncés par Darwin, la théorie prend des directions inédites, à la pointe des recherches actuelles.
Contrairement à ce qu'affirment les créationnistes partisans du dessein intelligent, la biologie de l'évolution ne repose pas sur des dogmes figés. C'est une science qui sait se remettre en question. Ainsi, depuis quelques années, de plus en plus de biologistes proposent de remplacer le paradigme qui a dominé la théorie de l'évolution dans la seconde moitié du XXe siècle, la « théorie synthétique de l'évolution », par ce que j'appellerai, en accord avec ma collègue Marion J. Lamb, un « nouveau darwinisme ».

La théorie synthétique a été élaborée dans les années 1940, notamment par Theodosius Dobzhansky et Ernst Mayr. Elle réalise, comme son nom l'indique, une synthèse, mariant la théorie darwinienne de l'évolution avec la génétique de l'époque. Ses deux piliers principaux sont le gène et le hasard : les variations héréditaires, matière première sur laquelle s'exerce la sélection naturelle, sont exclusivement fondées sur des variations des gènes. En outre, celles-ci apparaissent totalement au hasard, sans relation avec les fonctions biologiques dans lesquelles elles pourraient être impliquées.

Une cascade de pourquoi
Quand j'ai commencé à étudier la biologie de l'évolution dans les années 1970, en bonne darwiniste, j'adhérais à cette théorie. Toutefois, en tout aussi bonne darwiniste, je ne pouvais pas me départir d'un doute. Pourquoi l'unique mécanisme de l'évolution qui échappait à la main invisible et inlassable de la sélection naturelle était-il justement celui qui engendrait les variations héréditaires ? Pourquoi celles-ci apparaissaient-elles entièrement au hasard ? La sélection naturelle aurait modelé l'oeil de l'aigle, le cerveau humain et le code génétique, mais n'aurait produit aucun mécanisme augmentant l'apparition de variations héritables dans des circonstances où c'était l'intérêt des organismes ; ni aucun mécanisme qui oriente ces variations dans une direction favorable à la survie et à la perpétuation des organismes. Pour moi, cela n'avait pas de sens.

Je n'étais pas la seule à avoir de tels doutes, et dans les années 1980 et 1990, de nombreux travaux sont venus les étayer. Ainsi, lors de la conférence qu'elle prononça en 1983, à l'occasion de la réception du prix Nobel de physiologie et de médecine, l'Américaine Barbara McClintock résuma son point de vue sur le sujet [1] . Elle rappela en particulier que des plants de maïs soumis à des conditions de stress, irradiation, attaque par des pathogènes ou des parasites, subissent plus de mutations que des plants non stressés. De la même façon, lorsque l'on affame des bactéries, la fréquence de mutation augmente.

Des paris génétiques intelligents
Dans ces deux exemples, davantage de mutations sont produites dans des circonstances où l'on peut penser que certains individus mutants auraient plus de chances de survivre et de se reproduire. Mais cette augmentation de la fréquence de mutation est-elle vraiment une adaptation à des conditions de vie plus difficiles, ou seulement la réaction normale d'un système biologique sur le point de s'effondrer ?

Les travaux récents d'un groupe de biologistes français laissent penser que la première hypothèse est la bonne : la sélection naturelle interviendrait dans la détermination des fréquences de mutation des bactéries [2] . Ils ont découvert en effet que des populations naturelles de bactéries diffèrent par leurs fréquences de mutation induites dans des conditions de stress. En outre, plus les conditions écologiques dans lesquelles vivent naturellement ces bactéries sont difficiles, plus grande est la fréquence de mutation. Cette découverte, appuyée sur la compréhension des mécanismes moléculaires sous-jacents et sur des simulations informatiques, suggère que la capacité à muter serait une adaptation modelée par la sélection naturelle.

Comme l'a écrit la biologiste américaine Lynn Caporale, « le hasard favorise le génome préparé » [3] . En l'occurrence, le génome a été « préparé » par la sélection naturelle, qui a conduit à des mécanismes engendrant des mutations dans des circonstances où elles ont des chances d'être avantageuses. En d'autres termes, la sélection a fait émerger la capacité de faire des paris génétiques intelligents !

Transmission entre cellules
Depuis vingt-cinq ans, d'autres travaux au niveau cellulaire ont aussi considérablement éclairci les mécanismes de ce que le généticien britannique Robin Holliday a nommé dans les années 1980 l'« hérédité épigénétique * ». Il s'agit de la transmission entre cellule parente et cellule fille de caractéristiques qui ne dépendent pas de différences dans les séquences d'ADN, par exemple le profil d'expression des gènes lesquels sont actifs ou inactifs dans un type de cellules donné. L'hérédité épigénétique est ainsi responsable du fait que, lorsque l'une de nos cellules hépatiques se divise, elle produit d'autres cellules hépatiques, et lorsque l'une de nos cellules épidermiques se divise, elle produit d'autres cellules épidermiques, bien que toutes nos cellules, hépatiques, épidermiques ou autres, aient toutes le même ADN.

Les mécanismes épigénétiques les mieux connus sont ceux qui assurent la transmission des profils d'expression des gènes, même lorsque les stimuli qui ont mis en place ces derniers ont disparu depuis longtemps. Leur fondement biochimique est essentiellement la liaison avec l'ADN de molécules et de groupements chimiques particuliers, liaisons maintenues et dupliquées pendant la division cellulaire.

Étonnamment, chez des organismes pluricellulaires, des variations épigénétiques sont parfois transmises par les cellules sexuelles, qui forment la génération suivante. La conséquence de l'héritabilité épigénétique est donc que des cellules ou des organismes qui ont des ADN identiques et qui vivent dans des conditions semblables peuvent néanmoins avoir des phénotypes * héritables différents. Leurs différences résultent de différences dans l'histoire du développement de leurs ancêtres.

La forme d'une fleur
Cette découverte contredit les exclusivités des gènes et du hasard défendues par la théorie synthétique. Par définition, les variations épigénétiques héritables ne résultent pas de modification de l'ADN. Et des preuves expérimentales montrent qu'elles sont, selon les cas, les conséquences du hasard ou de stimuli bien identifiés.

L'un des exemples les plus fascinants de variation épigénétique héritable concerne la forme d'une fleur. Il y a deux siècles et demi, le botaniste suédois Carl Linné décrivit une variante stable de la linaire commune Linaria vulgaris. La structure de la fleur était si différente de celle de la linaire ordinaire qu'il la classa comme une nouvelle espèce, Peloria, utilisant le mot grec qui signifie « monstre ».

Un gène inactivé
Au XXe siècle, les généticiens pensèrent naturellement qu'une mutation génétique était responsable de la forme de Peloria. Toutefois, lorsque Enrico Coen et ses collègues du centre John Innes, à Norwich, en Angleterre, ont comparé les séquences d'ADN de la linaire vulgaire et de Peloria, ils n'ont trouvé aucune différence. En revanche, un gène très important est inactivé chez Peloria, et cette inactivation est héréditaire [4] . La Peloria de Linné n'était donc ni une nouvelle espèce ni le résultat d'une mutation : elle tirait son origine d'une modification épigénétique héritable, une « épimutation ». Nous ne savons pas quel événement a déclenché cette épimutation, hasard ou réponse à un stimulus particulier, tel qu'un stress local durable. Mais nous constatons que la transmission de génération en génération ne requiert pas la répétition de cet événement.

Des exemples d'héritabilité épigénétique ont aussi été trouvés chez des mammifères. Ainsi, Emma Whitelaw et ses collègues de l'université de Sydney ont étudié, chez la souris, un gène connu sous le nom d'agouti, impliqué dans la coloration du pelage [5] . Plus précisément, ils se sont intéressés à l'une des variantes de ce gène, associée à une coloration jaune : le pelage des souris qui portent cette variante peut être plus ou moins jaune. Cette coloration est transmise par les femelles à leurs petits. Toutefois, les différences d'intensité du jaune selon les lignées ne résultent pas de différences dans l'ADN lui-même, mais de différences dans des groupements chimiques attachés à l'ADN et qui modifient son activité : c'est une épimutation.

Mieux encore, la couleur du pelage est modifiable par l'alimentation de la mère. Si des femelles jaunes gravides sont nourries avec des aliments riches en groupements méthyl * , leurs petits sont moins jaunes plus « gris souris », et ce trait est transmis à leur descendance. En d'autres termes, des conditions environnementales produisent des changements héritables de l'état épigénétique, qui sont transmis aux générations suivantes. Le point important à retenir à propos de ces découvertes, pour la biologie de l'évolution, est que les conditions environnementales n'interviennent pas seulement dans la sélection des variations : elles peuvent aussi les produire.

Le rôle de l'apprentissage
Jusqu'ici, nous sommes restés au niveau cellulaire, seul pertinent si l'on ne considère que les variations physiologiques. Toutefois, pour ce qui concerne les comportements, la transmission entre générations s'opère aussi, plus directement, à travers l'apprentissage. Nous disposons aujourd'hui, grâce aux observations éthologiques, de nombreux exemples d'apprentissage social. Ainsi, les dialectes des oiseaux et des baleines sont transmis de génération en génération, plus ou moins de la même façon que le langage humain. On a aussi confirmé l'existence de traditions dans des groupes d'animaux, tels que les chimpanzés. Dans neuf populations est-africaines de chimpanzés, trente-neuf phénotypes comportementaux différents ont ainsi été identifiés, dont on pense qu'ils sont transmis par des interactions sociales [6] . Certains groupes ouvrent des noix avec une pierre, d'autres pêchent des termites avec une baguette, d'autres encore se touchent les mains d'une façon très particulière.

Traditions sociales
Les nombreux exemples analogues d'apprentissage social et de traditions de groupes laissent penser que beaucoup de

différences dans les phénotypes comportementaux sont culturelles, transmises par apprentissage social plutôt que par des différences génétiques. Cela a plusieurs conséquences pour la théorie de l'évolution. Contrairement aux gènes, qui ne sont transmis qu'aux descendants, les comportements appris peuvent être transmis à des individus non apparentés. En outre, les nouvelles variations ne sont pas produites au hasard, et pendant leur transmission les comportements appris sont reconstruits et adaptés aux conditions en vigueur. L'environnement a donc un effet important à la fois sur l'origine et sur la transmission de ces variations comportementales, et donc sur la vitesse et la direction de l'évolution comportementale. De plus, comme les traditions sociales forment un aspect important de l'environnement sélectif dans lequel vivent les membres d'un groupe social, elles doivent aussi affecter l'évolution biologique [7] .

En ce qui concerne les sociétés humaines, personne ne doute de la réalité ni de l'importance de la transmission culturelle, ni de l'importance du langage et d'autres formes de communication symbolique dans notre évolution. Nos nombreuses langues sont des produits évidents de l'évolution culturelle, et l'abondante littérature ethnologique et anthropologique témoigne de la richesse et de la diversité des cultures qui se sont développées. Il y a, à l'évidence, une dimension historique non génétique de l'évolution culturelle humaine, qui doit avoir interagi avec l'évolution génétique. Par exemple, l'interaction évolutive entre les systèmes génétiques et culturels est probablement responsable de notre capacité à acquérir et à utiliser le langage si vite et si facilement quand nous sommes enfants [8].

Le nouveau darwinisme, qui prend en compte toutes ces dimensions, élargit donc la perspective dessinée par la théorie synthétique. D'abord, l'évolution ne repose pas exclusivement sur la sélection de variations génétiques : des variations épigénétiques, comportementales ou transmises par des symboles interviennent aussi. Ainsi, la définition donnée par Dobzhansky : « L'évolution est le changement dans la composition génétique des populations », est remplacée par : « L'évolution est l'ensemble des mécanismes conduisant à des changements au cours du temps dans la nature et dans la fréquence

de types héritables dans une population. » Et ici, « types » ne signifie pas seulement « génotypes * ». L'importance relative des différents types de variations dépend du groupe étudié, du trait analysé et de l'échelle de temps choisie.

Ensuite, le nouveau darwinisme affirme que l'apparition de variations héritables n'est pas régie seulement par le hasard : certaines de ces variations sont des réponses à des processus qui se produisent pendant le développement notamment un changement dans l'activité d'un gène ou l'apprentissage. Le nouveau darwinisme soutient enfin que la sélection ne s'exerce pas seulement sur les gènes, mais aussi sur toute entité qui se reproduit et qui développe des traits variables héritables : cellules, individus et groupes d'individus lire « L'unité de sélection », p. 48.

Un changement évolutif rapide
Toutes les conséquences de ce nouveau cadre théorique n'ont pas encore été explorées en détail. Il faudra réviser par exemple l'interprétation de processus évolutifs tels que la formation de nouvelles espèces et l'évolution des organismes multicellulaires. Le fait que des changements héritables induits puissent se produire à plusieurs reprises et concerner de nombreux individus simultanément pourrait aussi

signifier que le changement évolutif est bien plus rapide que ce que l'on considère généralement.

Bien entendu, ce nouveau darwinisme, duquel

pourraient se réclamer aussi Carl Schlichting, de l'université du Connecticut, Massimo Pigliucci, de l'université de Stony Brook, ou Patrick Bateson, de l'université de Cambridge, pour n'en citer que quelques-uns, n'est pas accepté sans d'âpres discussions entre biologistes de l'évolution. Les conséquences évolutives que j'ai esquissées sont examinées de près et sans concessions, comme c'est normal. Et je n'ai aucun doute qu'à mesure que de nouvelles données seront accumulées ce nouveau darwinisme laissera lui-même la place à d'autres formulations théoriques. Le darwinisme n'a pas fini d'évoluer.

En deux mots

Pendant

la seconde moitié du XXe siècle, la biologie évolutionniste a été dominée par la « théorie synthétique

de l'évolution ».

Les gènes

y ont une place prépondérante : supports exclusifs des informations transmises

d'une génération à l'autre, c'est aussi sur eux que s'exerce la sélection naturelle.

Les biologistes reconnaissent aujourd'hui qu'il faut aller

au-delà. D'autres mécanismes que la génétique permettent de coder des informations héritables.
[1] http://nobelprize.org/medicine/laureates/1983/mcclintock-lecture.pdf

[2] I. Bjedov et al., Science, 300, 1404, 2003.

[3] Annals of the New York Academy of Sciences, 870, édité par L.H. Caporale, 1999.

[4] P. Cubas et al., Nature, 401, 157, 1999.

[5] H.D. Morgan et al., Nature Genetics, 23, 314, 1999.

[6] A. Whiten et al., Behaviour, 138, 1481, 2001.

[7] Kevin N. Laland et Isabelle Coolen, « La culture, autre moteur de l'évolution », La Recherche, juillet 2004, p. 52.

[8] D. Dor et E. Jablonka, Selection, 1, 33, 2000.

 

 DOCUMENT      larecherche.fr      LIEN

 
 
 
initiation musicale toulon  

« La biologie de synthèse a besoin de la sociologie »

 

« La biologie de synthèse a besoin de la sociologie »
Marie-Laure Théodule dans mensuel 488


LA RECHERCHE : Quand le concept de biologie de synthèse est-il apparu ?

PIERRE-BENOÎT JOLY : L'expression a été utilisée pour la première fois au début du XXe siècle par un chimiste français, Stéphane Leduc. Ce dernier réalise alors des expériences où il tente de créer des cellules artificielles pour mieux comprendre le vivant. Et il les décrit dans La Biologie synthétique, ouvrage publié en 1912. Il s'en suit une série de travaux tout au long du XXe siècle, dont l'objectif est de fabriquer une cellule primitive, une protocellule.

Mais, un tout autre courant va naître au début du XXIe siècle à la suite des avancées majeures de la génomique. On peut situer son commencement en 2004, année où une fondation nommée « BioBricks » organise au MIT, aux États-Unis, la conférence Biologie synthétique 1.0, qui va réunir 500 personnes dès sa première édition.

En quoi ce courant se démarque-t-il du précédent ?

P.-B.J. L'objectif principal n'est plus de comprendre le vivant, mais de fabriquer des organismes artificiels dotés de fonctions complexes permettant de résoudre certains problèmes. Ils auront par exemple un meilleur rendement énergétique que des organismes naturels ou bien ils synthétiseront de nouvelles molécules thérapeutiques. Pour cela, la biologie de synthèse s'appuie sur les outils de la génomique : séquençage des génomes à grande échelle, synthèse et assemblage de séquences d'ADN, etc. Mais elle ambitionne d'aller beaucoup plus loin en utilisant les méthodes de l'ingénieur pour produire plus vite et à moindre coût des organismes artificiels. Car aujourd'hui on sait seulement introduire de manière artisanale quelques gènes dans une cellule pour fabriquer des organismes génétiquement modifiés (OGM).

Qu'apportent de plus les méthodes de l'ingénieur ?

P.-B.J. Comme il s'agit d'introduire une cascade de gènes voire un génome entier dans une cellule, l'idée est de s'aider des outils mathématiques et informatiques utilisés par les ingénieurs pour comprendre et modéliser les interactions de ces gènes. À terme, on espère concevoir des systèmes biologiques à partir de composants standardisés et avec des méthodes elles-mêmes standardisées, comme on le fait en électronique. Concrètement, on programme le développement d'un nouveau système biologique en quatre phases : la conception (développement d'un modèle mathématique du système biologique et simulation), la construction avec la volonté de standardiser les procédés et les composants pour gagner du temps, puis la mise en oeuvre et la validation. Cette dernière étape peut conduire à réviser la modélisation initiale.

Cela a-t-il déjà donné des résultats ?

P.-B.J. Il y a eu des avancées spectaculaires. En suivant une approche dite « top-down » - concevoir un génome minimal auquel on pourra ajouter en fonction des besoins des séquences de gènes conçues par ordinateur - le biologiste américain Craig Venter a créé en 2010 une bactérie au génome synthétique de 1,08 million de paires de bases (l'enchaînement des lettres qui constituent l'alphabet de l'ADN) [1]. Et en mars 2014, une équipe internationale dirigée par Jef Boeke, de l'université de New York, a réussi à synthétiser l'un des seize chromosomes de la levure du boulanger [2]. C'est une étape cruciale vers la synthèse du génome d'un eucaryote, une forme du vivant bien plus complexe que de simples bactéries. Une autre approche dite « bottum-up » consiste à standardiser des séquences de gènes dans le but d'appareiller des bactéries ou des levures avec ces briques. À l'origine de cette démarche, la Fondation BioBricks a créé une base de données de séquences qu'elle met à la disposition de la communauté scientifique en accès libre, à l'image des logiciels en open source. Elle a lancé le concours international Igem destiné aux étudiants de premier cycle universitaire afin qu'ils conçoivent des systèmes biologiques artificiels à partir de ces briques.

Ce concours a-t-il un effet d'entraînement ?

P.-B.J. Il stimule la créativité des étudiants avec son approche à la fois boy-scout et branchée. Pour concourir, il faut constituer une équipe pluridisciplinaire incluant au moins un spécialiste de sciences humaines, présenter un site web, un concept voire un prototype. En 2013, pour la première fois, une équipe française soutenue par le Centre de recherche interdisciplinaire du biologiste François Taddei, de l'université Paris-Descartes, a remporté le prix. Ils ont montré comment une bactérie de laboratoire pouvait accélérer la détection de molécules contre la tuberculose [3]. En parallèle, avec une étude sur la parité homme/femme dans la recherche, ils ont révélé que les équipes Igem, qui respectent le plus la parité, sont aussi celles qui obtiennent les meilleurs résultats au concours.

Au-delà de ces démarches pionnières, y a-t-il déjà des réalisations commerciales ?

P.-B.J. La réponse à votre question est l'objet d'une polémique. L'équipe de Jay Keasling de l'université de Californie, à Berkeley aux États-Unis, a réussi en 2003 à transférer dans des bactéries et des levures les douze gènes de l'artémisinine, molécule antipaludéenne naturellement synthétisée par une plante, l'armoise. Depuis, le processus de production est en cours d'industrialisation chez Sanofi Aventis. Certains, dont Jay Keasling, considèrent qu'il s'agit du premier produit de la biologie de synthèse. Mais d'autres, même s'ils saluent l'exploit (réussir à transférer douze gènes soit bien plus qu'auparavant) font remarquer à raison que la méthode employée est finalement assez classique. Chaque gène a été introduit un à un « à la main » sans recourir aux méthodes prônées par la biologie de synthèse, censées rendre ce travail beaucoup plus facile et rapide, donc moins coûteux.

Des sociologues ont été associés dès le départ à ce domaine. Pourquoi ?

P.-B.J. Beaucoup de biologistes ont été traumatisés par les craintes suscitées par les OGM. Cela a conduit à favoriser dès le départ une meilleure interaction entre la biologie synthétique et les sciences humaines et sociales, notamment la sociologie. Cette démarche s'inscrit dans le cadre des bonnes pratiques du financement de la recherche, lancées avec le projet de séquençage du génome humain au début des années 1990 et généralisées depuis lors au niveau international : tout programme de recherche touchant au vivant doit consacrer de 3 % à 5 % de ses ressources aux aspects éthiques, légaux et sociaux. On pense ainsi renforcer l'acceptabilité de la nouveauté.

Comment cela se traduit-il concrètement ?

P.-B.J. Dans les pays anglo-saxons, certains sociologues sont « embarqués » : ils travaillent au côté des biologistes au sein de leurs laboratoires. Ainsi, au Royaume-Uni, une sociologue française, Claire Marris, est actuellement embarquée dans un programme de recherche interdisciplinaire qui associe deux établissements londoniens l'Imperial College, pour la biologie, et King's College pour les sciences humaines. Son travail porte en particulier sur les questions de risque et de propriété intellectuelle. Dans ce cadre, elle a récemment organisé un colloque sur le thème : « L'open source en biologie de synthèse ». Autre exemple, aux États-Unis, l'anthropologue américain Paul Rabinow a été embarqué dans SynBERC, consortium dédié à la biologie de synthèse lancé en 2006 par Jay Keasling à l'université de Californie. Mais ce projet s'est terminé par un conflit.

Que s'est-il passé ?

P.-B.J. Paul Rabinow était censé contribuer à l'établissement de nouvelles règles concernant la biosécurité ou l'éthique de la recherche en observant les chercheurs associés à SynBERC et en interagissant avec eux. Or son projet n'a jamais abouti. Selon les biologistes, Paul Rabinow se contentait d'observer sans vraiment rien produire d'original. Selon ce dernier, ses propositions étaient refusées parce qu'elles impliquaient des changements de pratiques qui auraient pu retarder les chercheurs et les handicaper dans la compétition internationale. Au-delà de la polémique, cet exemple est révélateur de la difficulté qu'il y a à faire travailler ensemble biologistes et sociologues.

Et vous, avez-vous une approche différente ?

P.-B.J. Dans mon laboratoire, nous étudions la biologie de synthèse en ayant recours aux outils classiques des sciences sociales. Par exemple, nous utilisons la bibliométrie, et des enquêtes et des observations sur le terrain afin de saisir les caractéristiques de ce champ émergent. Nous avons montré qu'il est de petite dimension : environ 3 000 articles ont été publiés au total sur le sujet depuis environ dix ans, contre plusieurs millions pour les nanosciences et les nanotechnologies ! Mais le taux de croissance des publications est très élevé, de 20 % à 30 % par an. Cependant, sur les 10 000 auteurs qui apparaissent dans le corpus, une minorité est spécialisée en biologie de synthèse : 70 % ont publié une seule fois sur le sujet. En revanche, les 100 articles les plus cités appartiennent bien au domaine, car leurs auteurs travaillent dans des laboratoires états-uniens, développent des approches bottom-up et sont rattachés à un noyau d'institutions qui jouent un rôle crucial dans la structuration de ce domaine, le concours Igem, les conférences, la Fondation BioBricks, etc. Le champ a donc déjà une forte autonomie.

Mais s'agit-il d'une discipline à part entière ?

P.-B.J. C'est un champ avec beaucoup d'intermittents qui viennent d'autres domaines que la biologie (informatique, mathématiques, ingénierie), et caractérisé par l'importance des recherches liées aux applications. Cela ne suffit pas pour en faire une discipline à part entière. Il lui manque des caractéristiques institutionnelles : un enseignement spécifique, des diplômes, des professeurs, une société savante, des colloques. En France, vous ne pouvez pas dire qu'une discipline existe si elle ne possède pas ces caractéristiques. C'est différent dans les pays anglo-saxons, où le verrou institutionnel est moins fort. Le second problème est qu'une discipline scientifique se construit en général autour d'une énigme centrale à résoudre. La biologie synthétique se construit, elle, autour d'une promesse.

Autour d'une promesse, que voulez-vous dire ?

P.-B.J. La promesse porte sur la santé, l'énergie, la chimie verte et l'environnement avec l'objectif de concevoir des molécules synthétiques pour tous ces secteurs. C'est pourquoi des scientifiques considèrent qu'il ne s'agit pas d'une science, mais d'une technologie qui s'inscrit dans la droite ligne des biotechnologies. Certains vont jusqu'à dire que la biologie de synthèse n'existe pas. Au contraire, ceux qui y croient prétendent qu'elle va révolutionner le génie génétique en le rendant plus simple, plus accessible et plus créatif. En tant que sociologue, nous constatons que science et technologie sont tellement imbriquées dans ce domaine qu'on peut le considérer comme une « technoscience ».

La biologie de synthèse n'est-elle pas un peu survendue ?

P.-B.J. Son ambition est si élevée que cela peut en effet générer des effets pervers. Pour avoir des crédits on fait miroiter des applications utiles à l'homme. Si ces attentes ne sont pas satisfaites, on provoquera des déceptions, qui affecteront en retour le domaine. Autre exemple, le champ se développe dans l'idée que la seule source de solutions aux grands problèmes actuels de la planète, c'est la science et la technologie. Or il faut aussi des transformations sociales. Ainsi, on peut avoir une science médicale qui progresse et des conditions d'accès aux soins qui se dégradent, comme aux États-Unis. En résumé, la biologie de synthèse suscite des attentes mais aussi des craintes, qui sont toutes démesurées.

Certaines craintes ne sont-elles pas justifiées ?

P.-B.J. La biologie de synthèse suscite trois types de craintes classiques dès que l'on touche au vivant : les risques de contamination et de bioterrorisme, les dangers d'ordre plus ontologique qu'il y aurait à réduire le vivant à des machines et à brouiller les frontières entre nature et artifice, et enfin les questions liées aux brevets sur le vivant. Comme ce champ est en émergence, il est trop tôt pour dire si ces craintes sont justifiées. On peut reconnaître qu'elles sont légitimes. Pour en tenir compte, le ministre de l'Enseignement supérieur et de la Recherche a créé en France en 2012 un observatoire de la biologie de synthèse [4]. C'est un lieu d'échange pluridisciplinaire, auquel je collabore. Nous essayons d'associer la société civile à l'émergence du domaine afin de réfléchir à l'impact de son développement sur la société. Il ne faut pas attendre que les chercheurs se mettent d'accord sur ce qu'est la biologie de synthèse pour mener ce type de débat. Au contraire !
* Pierre-Benoît Joly, économiste et sociologue, est directeur de recherche à l'INRA et dirige l'Institut francilien recherche innovation et société. Ce spécialiste de l'étude des sciences et des techniques a écrit avec Christian Bonneuil Sciences, techniques et société, ouvrage paru en 2013 aux éditions La Découverte. Il est également coauteur de « Biologie de synthèse : conditions d'un dialogue avec la société », rapport commandé en 2011 par le ministère de l'Enseignement supérieur et de la Recherche.


 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

Inventer des génomes sur mesure

 

Inventer des génomes sur mesure
Cécile Klingler dans mensuel 445


En mai dernier, le généticien américain Craig Venter créait la première bactérie ayant un génome synthétique. Quels organismes inédits pourraient voir le jour dans les années à venir ? La biologie de synthèse va-t-elle révolutionner le vivant ?
E lle porte un nom du troisième type : Mycoplasma mycoides JCVI-syn1.0. Le 20 mai dernier, le concepteur de cette bactérie, le biologiste et généticien américain Craig Venter, l'a présentée en ces termes à un parterre de journalistes : « Nous sommes ici, aujourd'hui, pour annoncer l'obtention de la première cellule synthétique, faite en partant d'un génome conçu par ordinateur, en construisant le chromosome à partir de quatre bouteilles de produits chimiques, en l'assemblant dans des levures, en le transplantant dans une cellule bactérienne réceptrice, et en transformant cett e cellule en une nouvelle espèce bactérienne . » Et d'asséner, d'un ton calme, posé, presque monocorde : « Il s'agit, sur cette planète, de la première espèce capable de se reproduire ayant pour parent un ordinateur. »

Transformation
La formule, percutante, n'étonne pas de la part d'un homme qui a l'art des déclarations fracassantes. Elle a immédiatement fait le tour du monde. Mais la bactérie Mycoplasma mycoides JCVI-syn1.0, présentée pour l'occasion comme l'emblème de la « biologie de synthèse » ou « biologie synthétique », symbolise-t-elle vraiment un tournant dans la biologie ?

Contrairement à ce qu'ont titré bon nombre de journaux, les biologistes du John Craig Venter Institute n'ont en tout cas pas « créé la vie ». Pourquoi ? L'expérience qu'ils ont menée parle d'elle-même. D'abord, ils ont synthétisé, in vitro , un long fragment d'ADN. Pas n'importe lequel : sa séquence, c'est-à-dire la succession de « briques élémentaires » qui le constitue ce que l'on appelle les bases, est à quelques modifications près celle du génome de la bactérie Mycoplasma mycoides . Ce n'est donc pas un génome inventé ex nihilo . Puis ce génome a été transplanté dans une bactérie d'une espèce voisine, Mycoplasma capricolum , on ne peut plus naturelle. Il s'y est alors exprimé, et Mycoplasma capricolum s'est peu à peu transformée en Mycoplasma mycoides [1] . Le rôle « créateur » de l'homme est donc infime.

Pourtant, ce travail représente une avancée majeure. Pas sur le plan de la connaissance fondamentale : « Dès 2003, Venter avait montré qu'un ADN synthétisé in vitro, à partir de sa séquence "virtuelle", pouvait fonctionner dans une cellule », rappelle Miroslav Radman, qui dirige l'équipe « biologie de la robustesse » de l'Inserm.

À l'époque, Venter et ses collaborateurs avaient synthétisé in vitro le génome d'un virus de bactérie, d'après sa séquence enregistrée dans les banques de données. Puis ils l'avaient injecté dans la bactérie Escherichia coli . La bactérie avait alors répliqué cet ADN synthétique et synthétisé les protéines qu'il code, avec comme résultat final la production de virus actifs. « C'était un travail splendide ! ajoute Radman. Avec ses derniers travaux, Venter n'a, conceptuellement, rien démontré de plus. »

En revanche, les avancées technologiques sont indéniables. Miroslav Radman souligne par exemple la performance technologique que représente la transplantation d'un chromosome synthétique long d'un million de paires de bases, donc très fragile, dans une bactérie : l'équipe de Venter a réussi à contourner ce problème, en concevant un protocole où le génome synthétique est mis en contact avec les bactéries receveuses, sans qu'on ait à le manipuler.

Quant à Philippe Marlière, spécialiste de biologie synthétique au Génopole d'Évry et fondateur de la société Global Bioenergies, il s'enthousiasme devant la longueur de l'ADN synthétisé, et les perspectives que cela ouvre. « Un million de paires de bases, dit-il, c'est à mi-chemin des 2 millions de paires de bases d'un génome bactérien fonctionnel mais simplifié, dans lequel on insérerait les gènes correspondant à des voies métaboliques conçues sur mesure. Cela permettrait de produire telle ou telle molécule. »

Définition
« Concevoir sur mesure » et « produire » : voilà lâchés les deux mots qui définissent le mieux la biologie de synthèse. Car même si les travaux des équipes se réclamant de cette discipline permettront certainement de mieux comprendre le fonctionnement des cellules, les objectifs affichés sont, en général, très concrets. Pour Venter et la plupart des « biologistes de synthèse », il s'agit de transformer des bactéries, des levures, voire des cellules humaines, en usines de production de composés chimiques, de médicaments, ou encore de biocarburants. Comment ? En transférant dans ces cellules des gènes qu'elles ne possèdent normalement pas.

Voilà qui semble bien banal : après tout, voilà trente ans que l'on sait faire produire à des bactéries, par transfert de gène, des molécules qu'elles sont normalement incapables de synthétiser. Cela s'appelle du génie génétique. Que l'on transfère le gène humain codant l'insuline à une bactérie Escherichia coli ce qui a été réalisé en 1978, et elle produit de l'insuline. La biologie synthétique ne serait-elle donc qu'un nouveau mot pour une même approche ?

De fait, les trois exemples systématiquement vantés comme étant des succès de biologie synthétique ne révèlent pas de différences flagrantes avec le génie génétique. Il s'agit d'abord de l'obtention, par les biochimistes de la compagnie DuPont, d'une bactérie Escherichia coli capable de synthétiser, à partir de glucose, une molécule jusque-là dérivée du pétrole : le 1,3-propanediol, très utilisé dans la fabrication des matières synthétiques. Des milliers de tonnes sont aujourd'hui produites par ces bactéries, mises au point à la fin des années 1990.

Puis Jay Keasling, de l'université de Berkeley, a réussi en 2003 à transférer dans des bactéries et des levures des gènes végétaux leur permettant de produire de l'artémisinine, une molécule antipaludéenne normalement synthétisée par une plante, l'armoise Artemisiana annua . Le processus est actuellement en cours d'industrialisation chez Sanofi-Aventis. Enfin, une collaboration entre Bruno Dumas, de Sanofi-Aventis, et Denis Pompon, du CNRS de Gif-sur-Yvette, a abouti à l'obtention d'une levure synthétisant de l'hydrocortisone, une hormone humaine jusque-là produite par synthèse chimique.

Dans ces trois cas, les gènes introduits dans le micro-organisme utilisé comme usine de production sont des gènes naturels, provenant d'autres organismes. Alors, génie génétique ou biologie de synthèse ? « Peut-être faut-il plutôt parler de biologie présynthétique, suggère Jean-Loup Faulon, directeur de l'institut de biologie synthétique et systémique créé au Génopole d'Évry en janvier 2010. "Synthétique", car la synthèse de ces molécules a nécessité le transfert d'au moins une dizaine de gènes, soit beaucoup plus que ce que l'on faisait précédemment. Et "pré ", car ces travaux ont été réalisés "à la main". Chaque gène a été introduit un à un, avec les outils de biologie moléculaire classiques. »

Comme Philippe Marlière, il préfère, pour illustrer ce que peut être la biologie de synthèse, mettre l'accent sur une autre approche plus innovante, la « rétrosynthèse » : les gènes transférés et les protéines qu'ils codent ne sont pas utilisés pour ce qu'ils font dans les cellules d'origine, mais pour ce qu'ils peuvent faire en théorie. C'est en particulier le cas des enzymes, ces protéines qui, dans les cellules, catalysent c'est-à-dire rendent possible la transformation d'une molécule en une autre. Il se trouve que, dans une cellule, une enzyme donnée catalyse une réaction précise. Mais en théorie, elle est capable d'en catalyser d'autres. Si elle ne le fait pas, c'est parce que la molécule susceptible d'être transformée n'est pas présente. Par conséquent, si on la lui fournit, la réaction potentielle a lieu.

L'équipe de Global Bioenergies, pionnière dans ce domaine, a utilisé avec succès cette approche pour produire un hydrocarbure dans une bactérie. Après avoir imaginé la chaîne de réactions enzymatiques susceptible d'aboutir à cette substance, elle a transféré dans des bactéries les gènes des enzymes censées effectuer ces réactions. Puis, elle a fourni à ces micro-organismes la molécule censée réagir avec la première enzyme. La réaction a eu lieu, et, après elle, l'ensemble des réactions prévues. « Il s'agit donc vraiment de biologie de synthèse, souligne Philippe Marlière, car nous faisons apparaître des réactions enzymatiques et des molécules qui n'existent pas au naturel. »

Démarche d'ingénieur
Cela dit, le propre de la biologie de synthèse tient peut-être autant à la façon de voir la biologie qui anime ses promoteurs - plus souvent physiciens, informaticiens ou ingénieurs chimistes que biologistes - qu'aux manipulations effectuées. « Nous suivons une démarche d'ingénieurs, explique Jean-Loup Faulon, avec ses quatre phases classiques de conception, de construction, d'implémentation et de validation. Et nous le faisons de façon systématique et formalisée. » Cette démarche s'accompagne d'ailleurs d'un langage particulier : les chercheurs évoquent par exemple leur ambition de concevoir un « châssis », autrement dit un génome de « base » auquel on pourrait ajouter, en fonction des besoins, des séquences de gènes soigneusement conçues par ordinateur.

Cette approche d'ingénieur est encore plus prononcée dans d'autres travaux relevant de la biologie de synthèse. Les cellules, en général des bactéries Escherichia coli, y sont alors considérées comme des minirobots que l'on appareille avec des outils dans les faits, des molécules codées par des gènes, pour leur permettre d'accomplir des tâches précises par exemple, détecter tel ou tel type de cellules. Le programme qui leur est implémenté, sous forme d'une combinaison de gènes, vise à leur faire accomplir une série de tâches complexes, en fonction de leur environnement. Cette approche à d'ores et déjà donné de premiers résultats [fig.2] .

Là encore, la notion de « génome standard » est présente. Avec en plus l'ambition, pour certains, de standardiser les « outils », c'est-à-dire les séquences de gènes qui permettent d'accomplir telle ou telle action. Le Massachusetts Institute of Technology a ainsi créé une base de données en accès libre qui répertorie plusieurs de ces séquences, appelées BioBricks.

À ce stade, les interrogations pointent. Certes, la bactérie de Venter, Mycoplasma mycoides JCVI-syn1.0 , est anodine. Mais si l'on combine les potentialités qu'elle ouvre - recombiner des gènes à bien plus large échelle qu'on ne le fait actuellement - avec les innovations métaboliques et fonctionnelles présentées plus haut, on franchit bel et bien une frontière par rapport au génie génétique classique. D'autant que les possibilités de manipuler les génomes sont facilitées par l'apparition des registres de BioBricks, mais aussi par le développement d'entreprises, nommées « gene foundries », qui synthétisent à la demande les fragments d'ADN qu'on leur commande.

L'équipe de Venter a travaillé avec l'une de ces compagnies, BlueHeronBiotechnologies. Or, à peu près n'importe qui peut leur passer commande : il suffit d'un mail avec la séquence souhaitée. Et les séquences, elles, reposent dans des bases de données informatiques en libre accès. Certains pointent donc du doigt les risques de bioterrorisme - les trois principales « gene foundries » ont du reste mis en place des systèmes d'analyse des séquences commandées, de façon à repérer, par exemple, un gène pathogène.

Mais sans négliger cette menace, Philippe Marlière souligne qu'elle n'est peut-être pas la plus dangereuse : il est beaucoup plus facile d'utiliser un organisme pathogène existant déjà. « Imaginons plutôt une cyanobactérie modifiée pour produire tel ou tel biocarburant, dit-il. Les cyanobactéries sont des bactéries photosynthétiques à la base du fonctionnement des écosystèmes aquatiques, et qui n'ont besoin que de soleil et de dioxyde de carbone pour synthétiser des molécules carbonées. C'est précisément pour cela qu'elles sont intéressantes. Bien sûr, il est prévu de les faire travailler dans des enceintes confinées - qu'il va falloir inventer, puisque qu'elles doivent impérativement recevoir le rayonnement solaire. Mais si jamais elles s'échappent ? »

Anticiper les risques
Certes, il est possible que les modifications dont elles auront fait l'objet les handicapent par rapport à leurs homologues naturelles, et qu'elles ne puissent proliférer. Mais c'est loin d'être certain. « Or, on ne peut pas courir ce risque, martèle Philippe Marlière. Aujourd'hui, il est encore hypothétique, car on est loin de savoir reprogrammer ces bactéries. Mais justement, c'est le moment d'anticiper. »

Certains, telle l'organisation non gouvernementale canadienne ETC Group, voudraient un moratoire suspendant ces recherches. Philippe Marlière, lui, ambitionne, en lien avec d'autres laboratoires européens, de concevoir des bactéries permettant de réduire à zéro le risque de pollution génétique. « À zéro , insiste-t-il. On ne peut pas se contenter d'une obligation de moyens, il faut une obligation de résultats. » La solution préconisée est de faire en sorte que le génome de ces bactéries soit tellement différent de celui des êtres vivants actuels qu'ils ne puissent pas se croiser. Pour y parvenir, il s'agit de créer une troisième forme d'acide nucléique, différente de l'ADN et de l'ARN. C'est l'un des objectifs du projet de recherche européen Xenome, coordonné par le Génopole d'Évry.

Sur le plan de la connaissance scientifique et de la « création de vie », voilà qui est beaucoup plus innovant que Mycoplasma mycoides JCVI-syn1.0 ! Mais en dépit de la charte de bonne conduite que les principaux chercheurs européens sont en train de formaliser, et qu'ils s'engagent à signer, il n'est pas certain que cela suffise à lever les inquiétudes. À quand une réflexion mondiale, sur la gouvernance des recherches et des applications de la biologie de synthèse ?
[1] D.G. Gibson et al., Science, 329, 52, 2010.
L'ESSENTIEL
EN MAI 2010, l'équipe du généticien américain Craig Venter a annoncé avoir créé une bactérie ayant un génome synthétique.

LES POSSIBILITÉS DE MANIPULER les génomes vont aujourd'hui au-delà de celles offertes par le génie génétique classique.

FACE À CELA, il est nécessaire d'engager une réflexion sur les développements et les applications potentielles de la biologie de synthèse.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

Le vivant a sa matière noire

 

 

 

 

 

LE  VIVANT  A  SA  MATIÈRE  NOIRE

Une nouvelle technique révèle une biodiversité insoupçonnée qui bouscule nos connaissances biologiques. Une matière noire « bio » dans laquelle pourraient se dissimuler les indices d’un quatrième domaine du vivant.
Les biologistes seraient-ils passés à côté de 85 à 99 % des micro-organismes vivant sur Terre ? Les avancées de la métagénomique leur ont en tout cas permis de mettre en évidence l’existence d’une « matière noire » biologique, surnommée ainsi en référence à la mystérieuse matière sombre dont la masse empêche la dislocation des galaxies et des amas galactiques. Un monde biologique qui révèle peu à peu ses secrets et ses surprises.

Trois domaines répertoriés pour le vivant

Les premières classifications du vivant, établies au XVIIIe siècle par Carl von Linné, se basaient principalement sur des critères morphologiques. Ce système, efficient pour de gros organismes tels les mammifères ou les arbres, l’est beaucoup moins dès qu’il s’agit de classer l’ensemble du vivant, micro-organismes compris.

Les chercheurs se sont alors tournés vers des critères moléculaires universels. Ainsi, quelle que soit l’espèce, toutes les cellules biologiques contiennent des ribosomes, des organites qui servent à synthétiser les protéines. Les variations dans les séquences de ces gènes « ribosomaux présents chez tous les organismes vivants » sont utilisées pour évaluer la distance entre espèces et établir les grandes divisions de l’arbre du vivant. C’est notamment en analysant ces gènes chez les procaryotes que, dans les années 1970, Carl Woese a établi la distinction entre le domaine des bactéries et celui des archées.

Les eucaryotes, les bactéries et les archées sont depuis considérés comme les trois domaines du vivant. Les cellules des eucaryotes se caractérisent par la présence d’un noyau et, généralement, de mitochondries. La quasi-totalité des organismes pluricellulaires appartient au domaine eucaryote, qui comprend également des espèces unicellulaires. Bactéries et archées sont dépourvues de noyau, mais ces dernières se distinguent notamment par la composition de leurs membranes.

Un problème de culture

Pour classer la multitude de microbes qu’ils continuent de découvrir, les chercheurs cherchent donc d’abord à séquencer leur génome individuel. Mais cela implique que ces lignées cellulaires puissent être isolées et cultivées, ce qui, finalement, est rarement le cas. Éric Bapteste, chercheur à l’unité Évolution Paris-Seine de l’Institut de biologie Paris-Seine1, rappelle dans sa dernière étude2 qu’au moins 85 % des microbes connus ne sont pas cultivables.

Le fait que les
microbes ne vivent
pas seuls rend
la culture pure
difficile.


« Le fait que les microbes ne vivent pas seuls rend la culture pure difficile, explique Éric Bapteste. Ils appartiennent à des collectifs et à diverses formes de symbioses. Parfois, certaines espèces se succèdent dans le temps et il faudrait donc d’abord cultiver leurs précurseurs et reproduire toute la succession. Les chercheurs se trouvent devant un véritable défi biologique, biochimique et temporel. »

Divers outils permettent néanmoins de séquencer une grande partie des gènes présents dans un environnement donné, sans forcément les attribuer à des espèces particulières. On parle de métagénomique. Ces études peuvent aussi bien s’appliquer à notre flore intestinale qu’à des recoins extrêmes de notre planète, comme les geysers.

La métagénomique a permis de révéler une biodiversité inconnue, y compris dans des environnements extrêmes comme les geysers (parc de Yellowstone, États-Unis).
 BERZINA/FOTOLIA.COM
Partager
Les chercheurs inventorient les séquences génétiques obtenues dans ces analyses métagénomiques, puis en retranchent celles qui correspondent aux organismes connus et cultivés. Pour explorer la diversité des séquences génétiques, l’équipe d’Éric Bapteste et de son collègue Philippe Lopez a employé une méthode en deux temps. Ils ont cherché dans l’environnement des séquences ressemblant à celles déjà connues, puis ont ensuite effectué une seconde analyse pour établir des liens supplémentaires.

« Si l’on prend l’exemple d’une recherche de parenté à partir de photos de famille, précise Éric Bapteste, la ressemblance entre un individu et son grand-père ne sera pas forcément évidente. Des liens peuvent cependant être trouvés si l’on rapproche l’enfant de son père, puis son paternel de son grand-père. Le lien indirect entre les individus de ces trois générations apparaît alors. »

A-t-on découvert un quatrième domaine ?

Une partie des très nombreuses séquences qui restent non attribuées pourraient provenir d’espèces nouvelles incultivables. Certaines séquences sont particulièrement intrigantes. Bien qu’elles se rattachent à des familles de gènes connus, elles en divergent tellement qu’on a pu se demander si elles ne provenaient pas d’organismes eux-mêmes très divergents, appartenant à un quatrième domaine inconnu du vivant.

« Il revient aux systématiciens de dire à quel moment une forme de vie doit rentrer dans une nouvelle case, modère toutefois Éric Bapteste. Les chercheurs se basent sur des critères métaboliques, structuraux ou génétiques, mais il n’existe pas de recette fixe pour affirmer l’existence d’un nouveau domaine. Le processus n’a rien d’automatique, il réclame des arguments et un consensus parmi les chercheurs. À ce stade, nous n’avons aucune raison de dire qu’un nouveau domaine a été découvert. »

Certains gènes
peuvent évoluer
très vite. Ils se
retrouvent alors à
une place étrange
dans un arbre
phylogénétique.


Le même type d’interrogation avait suivi la découverte en 2013 de deux virus géants, Pandoravirus salinus et Pandoravirus dulcis. En effet, seuls 7 % des gènes de ces virus correspondaient à des séquences connues, et ces derniers étaient dépourvus de capside, la structure qui entoure normalement le matériel génétique des virus.

Purificación Lopez-Garcia, chercheuse au laboratoire Écologie, systématique et évolution3, estime que les analyses phylogénétiques n’ont pas permis d’étayer l’appartenance des virus géants à un quatrième domaine du vivant.

Virus géants Vue au microscope de quatre familles de virus géants qui ont été découvertes récemment par les chercheurs : Mollivirus (2015), Megavirus (2010), Pithovirus (2014) et Pandoravirus (2013).
 AMU/IGS/CNRS PHOTOTHEQUE
Partager
« Il peut être tentant d’affirmer que certains gènes forment un quatrième domaine, prévient Purificación Lopez-Garcia, mais certains peuvent évoluer très vite, par exemple à cause des duplications géniques, à la suite de transferts horizontaux ou de leur capture par un génome viral. Ils se retrouvent alors à une place étrange dans un arbre phylogénétique. Cela n’implique pas que l’organisme auquel ils appartiennent constitue pour autant une espèce complètement à part. On ne peut rien dire tant que les génomes n’ont pas été reliés à des organismes précis ; or, pour l’instant, tout ce qui a été lié à un microbe cultivé ou à un organisme reconstruit à partir de métagénomes rentre bien dans les trois domaines du vivant. »

Une matière noire aux effets visibles

Si elle n’a pas débouché sur l’inauguration d’un quatrième domaine de la vie, l’étude de la matière noire biologique a en tout cas produit de très beaux fruits. Dusko Ehrlich, directeur de recherche émérite au projet MetaGenoPolis de l’Institut national de la recherche agronomique et directeur du Centre d’interaction entre hôte et microbiome du King’s College de Londres, a ainsi travaillé sur la diversité de notre flore intestinale. Il souligne les énormes progrès réalisés depuis 2008 au sein du projet européen MetaHIT (link is external), consacré à la métagénomique.

Une première étude publiée en 20104, portant sur 124 individus européens, a ainsi inventorié 3,3 millions de gènes microbiens intestinaux, soit 150 fois plus que les 23 000 gènes de notre génome. Lorsque l’équipe a augmenté sa cohorte à 1 200 personnes, c’est 9,9 millions de gènes qui ont été identifiés. De cette diversité génétique, 750 groupes de plus 700 gènes bactériens ont été identifiés, et 85 % des espèces de bactéries se sont révélées nouvelles.

Bactérie e-coli Bactéries «E. coli» dans l’intestin humain.
 D. KUNKEL MICROSCOPY, INC./VISUALS UNLIMITED/CORBIS
Partager
Ces travaux ont permis de caractériser le microbiome intestinal de l’homme. On a pu ensuite comparer les microbiomes de personnes malades et saines. Un lien a ainsi été découvert entre la composition de certains microbiomes et le risque de cirrhose5. Cela a débouché sur une méthode de diagnostic fiable à 95 % basée sur le séquençage des selles. Une avancée qui pourrait remplacer la très invasive biopsie hépatique.

Ces bactéries
représentent
en chacun de nous
une masse qui
peut-être plus
importante
que le cerveau.


Une autre étude6 a montré que la perte de diversité du microbiome intestinal est associée à une prédisposition au diabète, aux maladies hépatiques, à certains cancers et aux maladies cardiovasculaires. Or sept de ces maladies entrent dans les dix causes les plus fréquentes de mort dans le monde.

« Le microbiome intestinal fonctionne comme un organe négligé, déplore Dusko Ehrlich. Ces bactéries représentent en chacun de nous une masse qui peut-être plus importante que le cerveau. Pourtant, le grand public ne se rend pas compte de sa vulnérabilité. Il jugerait pourtant absolument catastrophiques de telles atteintes à ses autres organes. »

Qu’elle se cache dans le sol, dans les océans ou à l’intérieur de nos intestins, le rôle biologique joué par la matière noire se révèle donc capital tant du point de vue quantitatif – sa masse totale semble colossale – que qualitatif – de par sa contribution à l’équilibre des écosystèmes, quelle que soit l’échelle considérée. L’éclairage nouveau permis par la métagénomique promet en tout cas de dévoiler une diversité biologique aux ramifications jusqu’ici insoupçonnées.

Lire aussi: Les microbes, pilotes de nos conflits intérieurs?

Notes
1. Unité CNRS/UPMC/Inserm.
2. « Highly divergent ancient gene families in metagenomic samples are compatible with additional divisions of life », Lopez et al., Biology Direct, 26 octobre 2015, vol. 10 : 64.
3. Unité CNRS/Univ. Paris Sud/AgroParisTech.
4. « A human gut microbial gene catalogue established by metagenomic sequencing », Qin et al., Nature, 4 mars 2010, vol. 464 : 59-65.
5. « Alterations of the human gut microbiome in liver cirrhosis », Qin et al., Nature, 4 septembre 2014, vol. 513 : 59-64.
6. « Richness of human gut microbiome correlates with metabolic markers », Le Chatelier et al., Nature, 29 août 2013, vol. 500 : 541–546.

 

 DOCUMENT    cnrs  le  journal     LIEN

Inscrivez  le  titre  complet  dans  la  rubrique  " cnrs  le  journal "

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 ] Précédente - Suivante
 
 
 
Google