ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

NEURONE

 


 

 

 

 

Neurone


Cellule de base du tissu nerveux, capable de recevoir, d'analyser et de produire des informations. (La partie principale, ou corps cellulaire du neurone, est munie de prolongements, les dendrites et l'axone.)

Le neurone, ou cellule nerveuse, est l'unité fonctionnelle du système nerveux. Sa configuration cellulaire spécifique le rend capable de générer, de transmettre et/ou de recevoir des informations sous forme de signaux électriques (influx nerveux).
Le système nerveux est très complexe : ses quelque cent milliards de cellules (1011, à un facteur de 10 près) peuvent être classées en plus de 1 000 catégories, chacune comprenant plusieurs sous-classes selon des critères incluant leur taille, leurs arborisations, les contacts afférents ou efférents. Cette apparente complexité masque en fait une grande similitude fonctionnelle, la particularité de chaque cellule reposant principalement sur sa position dans un circuit donné.
On peut dès lors essayer de mieux comprendre le système nerveux à partir de propriétés simples des cellules qui le composent : les mécanismes qui donnent naissance aux potentiels d'action neuronaux, les modes de transmission synaptique, les interactions fondamentales entre neurones et cellules gliales.
En effet, les neurones sont entourés d'autres cellules : les cellules gliales (du grec gloios, « glu ») – elles ont longtemps été considérées comme de simples éléments de remplissage entre les neurones. On compte environ dix fois plus de cellules gliales que de neurones, et il est clair aujourd'hui que leurs fonctions, essentielles à l'activité neuronale, sont multiples.
Les compartiments du neurone

Le neurone est constitué de quatre grandes régions : le corps cellulaire, ou soma, les dendrites, les axones et les terminaisons présynaptiques. Chacune de ces différentes régions joue un rôle bien défini dans l'initiation et le transport de l'information.
Le soma, qui contient le noyau du neurone, en est le centre métabolique, car il comprend aussi toute la machinerie de synthèse de ses différents constituants. Du corps cellulaire partent deux sortes de prolongements, les dendrites et l'axone.
Les dendrites, qui se ramifient au point de former un arbre touffu autour du corps cellulaire (arbre dendritique), sont les voies par lesquelles l'information arrive. Elles sont le siège d'une activité métabolique intense et d'une synthèse protéique active : la microscopie électronique permet d'y distinguer des mitochondries en abondance, ainsi qu'un réticulum endoplasmique rugueux, porteur de nombreux ribosomes.

L'axone, prolongement au diamètre constant (de 0,2 à 20 μm), peut atteindre 1 m de longueur. Il est la voie privilégiée de sortie de l'information, et, contrairement aux dendrites, l'activité métabolique y est peu importante. L'axone transporte en revanche les macromolécules stockées dans des vésicules, ou organelles, au sein du corps cellulaire. Dans certains cas, ce transport permet une maturation de la molécule, importante pour sa fonction.
Près de sa terminaison, l'axone se divise en fines ramifications, les terminaisons présynaptiques. Ces dernières sont le site de stockage des neurotransmetteurs, qui vont permettre le transfert de l'information aux dendrites du neurone postsynaptique.


L’influx nerveux

L'une des propriétés essentielles du neurone est sa capacité à produire, puis à acheminer loin du corps cellulaire, une information sous la forme d'un groupe d'impulsions électriques, les potentiels d'action.
Décrite dès 1849 par le biologiste allemand Emil Du Bois-Reymond (1818-1896), cette aptitude résulte des propriétés de la membrane cellulaire du neurone et des protéines qu'elle contient. Les protéines membranaires des cellules de l'organisme peuvent être regroupées en cinq grandes familles : les pompes, les canaux, les récepteurs, les enzymes et les protéines de structure.
Les échanges d'ions entre le neurone et son milieu
Les pompes utilisent l'énergie produite à partir de la dégradation des sucres pour déplacer activement des ions et d'autres molécules contre leur gradient de concentration (un gradient est créé de fait par les différences de concentration d'une substance de part et d'autre d'une membrane ; celle-ci peut être traversée passivement – sans nécessiter de pompes – par les ions, du milieu le plus concentré vers le moins concentré, c'est-à-dire dans le sens du gradient). La composition ionique du milieu intracellulaire est différente de celle du milieu extracellulaire, et ce pour toutes les cellules de l'organisme. À l'intérieur d'un neurone, il y a dix fois plus de potassium et dix fois moins de sodium qu'à l'extérieur.
La pompe Na-K-ATPase échange trois ions sodium de l'intérieur contre deux ions potassium de l'extérieur. Ces échanges ioniques induisent une différence de potentiel au niveau de la membrane ; celle-ci a un potentiel d'environ 60 mV.
Le potentiel transmembranaire
Comme le milieu intérieur, concentré en protéines chargées négativement, est négatif, et que le milieu extracellulaire, choisi comme référence, est à zéro, le potentiel de repos d'un neurone se situe à − 60 mV. Cette valeur est prise comme base à partir de laquelle les variations traduisent l'apparition d'une information.
Toute augmentation (en valeur absolue) du potentiel transmembranaire (de − 60 à − 70 mV, par exemple) est une hyperpolarisation ; inversement, une diminution de potentiel (de − 60 à − 50 mV, par exemple) est une dépolarisation.
L'hyperpolarisation éloigne du seuil d'apparition d'un potentiel d'action, tandis que la dépolarisation est l'étape initiale pouvant donner naissance, si elle est suffisamment intense, à la « décharge » du neurone : le potentiel d'action. Lorsqu'un signal atteint le neurone, il en résulte une hyper- ou une dépolarisation.
Dans le premier cas, on parle de signal inhibiteur, tandis qu'il est excitateur dans le second. Le stimulus peut être de toute nature : lumière, bruit, odeur, étirement musculaire, molécule chimique libérée par un autre neurone, etc. Il en résulte une perturbation du potentiel de repos de faible amplitude (moins de 10 mV), locale et graduée : locale, car la résistance passive de la membrane limite la diffusion de la perturbation ; graduée, car le changement de potentiel est proportionnel à l'intensité de la stimulation ; on parle de potentiel de récepteur et/ou de potentiel synaptique.
L'ensemble des potentiels qui atteignent un même neurone est intégré au niveau d'une zone spécialisée de la membrane, appelée trigger zone, ou zone gâchette. C'est là que la sommation des hyper- et/ou des dépolarisations élémentaires se transforme ou non en un potentiel d'action.
La naissance du potentiel d'action
Le potentiel d'action est une dépolarisation ample (jusqu'à 110 mV), brève (1/1 000 s), générée selon la loi du « tout ou rien », et propagée activement le long du neurone et de l'axone sans diminution d'amplitude.
Dans le courant des années 1950, Alan L. Hodgkin, Andrew F. Huxley et Bernard Katz démontrèrent, sur l'axone géant de calmar, que la propagation de l'influx nerveux coïncidait avec un brusque changement de la perméabilité membranaire aux ions sodium (Na+) et potassium (K+). Au repos, la membrane est principalement perméable au potassium (on parle de conductance potassique), qui passe par des canaux dits « de fuite ». Hodgkin et Katz avancèrent l'hypothèse que l'influx nerveux modifie la conductance, car il entraîne l'ouverture brutale des canaux sodiques sensibles au potentiel de la membrane. Ces derniers s'ouvrent dès que la différence de voltage atteint un seuil de − 55 mV, et laissent entrer massivement le sodium dans le sens de son gradient ; cette entrée est à l'origine du potentiel d'action, le flux de sodium ouvre davantage de canaux Na+, facilitant ainsi le passage d'autres ions sodium.
La dépolarisation s'amplifie alors jusqu'à activer les canaux K+, sensibles à des valeurs de potentiel proches de 0 mV : le flux sortant de potassium compense le flux entrant de sodium. Le potentiel membranaire reprend sa valeur initiale. Les pompes Na-K-ATPase rétablissent les gradients initiaux au cours d'une phase dite « réfractaire », durant laquelle aucun potentiel d'action ne peut être produit.


La propagation de l'influx nerveux
À partir de la trigger zone, le potentiel d'action avance vers l'extrémité de l'axone à grande vitesse. Toutefois, en raison des pertes dues aux résistances de membrane, ce potentiel doit être régénéré de façon active tout au long de son parcours. Au cours de l'évolution, deux stratégies ont été mises en place par les organismes vivants pour augmenter la vitesse de conduction de l'information le long de l'axone.
Chez certaines espèces, l'augmentation du diamètre de la fibre a été poussée à l'extrême : il atteint 1 mm chez le calmar géant, et peut être vu à l'œil nu – ce caractère évolutif, à l'origine d'un encombrement spatial important, n'est pas compatible avec le nombre de neurones observés dans le cerveau des vertébrés supérieurs.
Chez les mammifères, la vitesse de propagation de l'influx nerveux est augmentée par la présence d'une gaine de myéline autour de l'axone ; cette enveloppe protéique et lipidique, qui s'enroule sur une dizaine de couches, est synthétisée par les cellules gliales spécialisées du système nerveux central, les oligodendrocytes, et par celles du système nerveux périphérique, les cellules de Schwann. La diminution de la résistance passive de la membrane est telle que le potentiel d'action est transporté cent fois plus rapidement : il avance alors de façon saltatoire, en bondissant le long de l'axone, d'un nœud de Ranvier (zone non myélinisée à la jonction entre deux cellules myélinisantes) à l'autre.
Le transfert de l’information d’une cellule à l’autre
image: http://www.larousse.fr/encyclopedie/data/images/1315155-Transmission_de_linflux_nerveux.jpg
Transmission de l'influx nerveux
Transmission de l'influx nerveux
Le transfert de l’influx nerveux d’un neurone à l’autre, ou, en fin de circuit, d’un neurone à une cellule effectrice (cellule musculaire par exemple), se fait au niveau d’une zone de jonction appelé synapse. Il existe deux types de synapses : les synapses chimiques et les synapses électriques. Les premières, majoritaires, font appel à des molécules messagers appelées neuromédiateurs.


→ synapse
Les cellules gliales, partenaires du neurone
Les oligodendrocytes et les cellules de Schwann, nécessaires à la transmission rapide du potentiel d'action, forment une gaine isolante, la myéline ; sa destruction par la maladie (sclérose en plaques) induit une grave perturbation de l'activité neuronale, qui peut conduire à la disparition du neurone.
Les cellules de la microglie, qui assurent la défense immunitaire du système nerveux, sont des cibles privilégiées pour les virus, comme celui responsable du sida. De plus, elles ont un rôle important lors du développement embryonnaire, en éliminant les cellules et les terminaisons surnuméraires, et lors des phénomènes de sénescence.
Les cellules endothéliales, qui bordent les vaisseaux cérébraux, sont responsables de la barrière hémato-encéphalique ; celle-ci isole le système nerveux de la circulation sanguine générale, le protégeant ainsi de l'arrivée de nombreux toxiques et agents infectieux.
Les astrocytes représentent la principale population gliale, et leurs rôles apparaissent aujourd'hui multiples. Lors du développement, ils participent au guidage et au positionnement des neurones. Ils possèdent une capacité de captation rapide du potassium extracellulaire, permettant une rapide repolarisation neuronale et la régénération du potentiel d'action. Ils approvisionnent en substrats énergétiques le neurone, isolé de la circulation sanguine. De plus, ils expriment de nombreux récepteurs pour les neurotransmetteurs libérés par les neurones, les rendant ainsi aptes à prendre une place – qui reste à mieux comprendre – dans les processus de transmission de l'information au sein du système nerveux.
Neurone et intelligence artificielle
Imiter le système nerveux au moyen d'une machine n'est pas une idée nouvelle, mais ce projet connaît aujourd'hui un fort développement grâce à l'informatique, l'ordinateur permettant de tester, de simuler les hypothèses émises par les chercheurs. Et c'est à l'échelle de la cellule nerveuse, ou neurone, que les chercheurs en neuro-mimétisme ont décidé de se placer pour réaliser la copie de la structure du système nerveux. L'ordinateur sert en particulier à faire fonctionner les modèles construits par les mathématiciens à partir des observations et des réflexions fournies par les physiologistes. Ce modèle mathématique du neurone, que l'on appelle le « neurone formel », est dupliqué pour constituer un réseau.

 

 DOCUMENT      larousse.fr     LIEN

 

 
 
 
initiation musicale toulon  

LE DARWINISME ÉVOLUE AUSSI ...

 

Biologie :Le darwinisme  évolue aussi
Eva Jablonka dans mensuel 396


La biologie de l'évolution est en pleine transformation. Tout en respectant les fondements énoncés par Darwin, la théorie prend des directions inédites, à la pointe des recherches actuelles.
Contrairement à ce qu'affirment les créationnistes partisans du dessein intelligent, la biologie de l'évolution ne repose pas sur des dogmes figés. C'est une science qui sait se remettre en question. Ainsi, depuis quelques années, de plus en plus de biologistes proposent de remplacer le paradigme qui a dominé la théorie de l'évolution dans la seconde moitié du XXe siècle, la « théorie synthétique de l'évolution », par ce que j'appellerai, en accord avec ma collègue Marion J. Lamb, un « nouveau darwinisme ».

La théorie synthétique a été élaborée dans les années 1940, notamment par Theodosius Dobzhansky et Ernst Mayr. Elle réalise, comme son nom l'indique, une synthèse, mariant la théorie darwinienne de l'évolution avec la génétique de l'époque. Ses deux piliers principaux sont le gène et le hasard : les variations héréditaires, matière première sur laquelle s'exerce la sélection naturelle, sont exclusivement fondées sur des variations des gènes. En outre, celles-ci apparaissent totalement au hasard, sans relation avec les fonctions biologiques dans lesquelles elles pourraient être impliquées.

Une cascade de pourquoi
Quand j'ai commencé à étudier la biologie de l'évolution dans les années 1970, en bonne darwiniste, j'adhérais à cette théorie. Toutefois, en tout aussi bonne darwiniste, je ne pouvais pas me départir d'un doute. Pourquoi l'unique mécanisme de l'évolution qui échappait à la main invisible et inlassable de la sélection naturelle était-il justement celui qui engendrait les variations héréditaires ? Pourquoi celles-ci apparaissaient-elles entièrement au hasard ? La sélection naturelle aurait modelé l'oeil de l'aigle, le cerveau humain et le code génétique, mais n'aurait produit aucun mécanisme augmentant l'apparition de variations héritables dans des circonstances où c'était l'intérêt des organismes ; ni aucun mécanisme qui oriente ces variations dans une direction favorable à la survie et à la perpétuation des organismes. Pour moi, cela n'avait pas de sens.

Je n'étais pas la seule à avoir de tels doutes, et dans les années 1980 et 1990, de nombreux travaux sont venus les étayer. Ainsi, lors de la conférence qu'elle prononça en 1983, à l'occasion de la réception du prix Nobel de physiologie et de médecine, l'Américaine Barbara McClintock résuma son point de vue sur le sujet [1] . Elle rappela en particulier que des plants de maïs soumis à des conditions de stress, irradiation, attaque par des pathogènes ou des parasites, subissent plus de mutations que des plants non stressés. De la même façon, lorsque l'on affame des bactéries, la fréquence de mutation augmente.

Des paris génétiques intelligents
Dans ces deux exemples, davantage de mutations sont produites dans des circonstances où l'on peut penser que certains individus mutants auraient plus de chances de survivre et de se reproduire. Mais cette augmentation de la fréquence de mutation est-elle vraiment une adaptation à des conditions de vie plus difficiles, ou seulement la réaction normale d'un système biologique sur le point de s'effondrer ?

Les travaux récents d'un groupe de biologistes français laissent penser que la première hypothèse est la bonne : la sélection naturelle interviendrait dans la détermination des fréquences de mutation des bactéries [2] . Ils ont découvert en effet que des populations naturelles de bactéries diffèrent par leurs fréquences de mutation induites dans des conditions de stress. En outre, plus les conditions écologiques dans lesquelles vivent naturellement ces bactéries sont difficiles, plus grande est la fréquence de mutation. Cette découverte, appuyée sur la compréhension des mécanismes moléculaires sous-jacents et sur des simulations informatiques, suggère que la capacité à muter serait une adaptation modelée par la sélection naturelle.

Comme l'a écrit la biologiste américaine Lynn Caporale, « le hasard favorise le génome préparé » [3] . En l'occurrence, le génome a été « préparé » par la sélection naturelle, qui a conduit à des mécanismes engendrant des mutations dans des circonstances où elles ont des chances d'être avantageuses. En d'autres termes, la sélection a fait émerger la capacité de faire des paris génétiques intelligents !

Transmission entre cellules
Depuis vingt-cinq ans, d'autres travaux au niveau cellulaire ont aussi considérablement éclairci les mécanismes de ce que le généticien britannique Robin Holliday a nommé dans les années 1980 l'« hérédité épigénétique * ». Il s'agit de la transmission entre cellule parente et cellule fille de caractéristiques qui ne dépendent pas de différences dans les séquences d'ADN, par exemple le profil d'expression des gènes lesquels sont actifs ou inactifs dans un type de cellules donné. L'hérédité épigénétique est ainsi responsable du fait que, lorsque l'une de nos cellules hépatiques se divise, elle produit d'autres cellules hépatiques, et lorsque l'une de nos cellules épidermiques se divise, elle produit d'autres cellules épidermiques, bien que toutes nos cellules, hépatiques, épidermiques ou autres, aient toutes le même ADN.

Les mécanismes épigénétiques les mieux connus sont ceux qui assurent la transmission des profils d'expression des gènes, même lorsque les stimuli qui ont mis en place ces derniers ont disparu depuis longtemps. Leur fondement biochimique est essentiellement la liaison avec l'ADN de molécules et de groupements chimiques particuliers, liaisons maintenues et dupliquées pendant la division cellulaire.

Étonnamment, chez des organismes pluricellulaires, des variations épigénétiques sont parfois transmises par les cellules sexuelles, qui forment la génération suivante. La conséquence de l'héritabilité épigénétique est donc que des cellules ou des organismes qui ont des ADN identiques et qui vivent dans des conditions semblables peuvent néanmoins avoir des phénotypes * héritables différents. Leurs différences résultent de différences dans l'histoire du développement de leurs ancêtres.

La forme d'une fleur
Cette découverte contredit les exclusivités des gènes et du hasard défendues par la théorie synthétique. Par définition, les variations épigénétiques héritables ne résultent pas de modification de l'ADN. Et des preuves expérimentales montrent qu'elles sont, selon les cas, les conséquences du hasard ou de stimuli bien identifiés.

L'un des exemples les plus fascinants de variation épigénétique héritable concerne la forme d'une fleur. Il y a deux siècles et demi, le botaniste suédois Carl Linné décrivit une variante stable de la linaire commune Linaria vulgaris. La structure de la fleur était si différente de celle de la linaire ordinaire qu'il la classa comme une nouvelle espèce, Peloria, utilisant le mot grec qui signifie « monstre ».

Un gène inactivé
Au XXe siècle, les généticiens pensèrent naturellement qu'une mutation génétique était responsable de la forme de Peloria. Toutefois, lorsque Enrico Coen et ses collègues du centre John Innes, à Norwich, en Angleterre, ont comparé les séquences d'ADN de la linaire vulgaire et de Peloria, ils n'ont trouvé aucune différence. En revanche, un gène très important est inactivé chez Peloria, et cette inactivation est héréditaire [4] . La Peloria de Linné n'était donc ni une nouvelle espèce ni le résultat d'une mutation : elle tirait son origine d'une modification épigénétique héritable, une « épimutation ». Nous ne savons pas quel événement a déclenché cette épimutation, hasard ou réponse à un stimulus particulier, tel qu'un stress local durable. Mais nous constatons que la transmission de génération en génération ne requiert pas la répétition de cet événement.

Des exemples d'héritabilité épigénétique ont aussi été trouvés chez des mammifères. Ainsi, Emma Whitelaw et ses collègues de l'université de Sydney ont étudié, chez la souris, un gène connu sous le nom d'agouti, impliqué dans la coloration du pelage [5] . Plus précisément, ils se sont intéressés à l'une des variantes de ce gène, associée à une coloration jaune : le pelage des souris qui portent cette variante peut être plus ou moins jaune. Cette coloration est transmise par les femelles à leurs petits. Toutefois, les différences d'intensité du jaune selon les lignées ne résultent pas de différences dans l'ADN lui-même, mais de différences dans des groupements chimiques attachés à l'ADN et qui modifient son activité : c'est une épimutation.

Mieux encore, la couleur du pelage est modifiable par l'alimentation de la mère. Si des femelles jaunes gravides sont nourries avec des aliments riches en groupements méthyl * , leurs petits sont moins jaunes plus « gris souris », et ce trait est transmis à leur descendance. En d'autres termes, des conditions environnementales produisent des changements héritables de l'état épigénétique, qui sont transmis aux générations suivantes. Le point important à retenir à propos de ces découvertes, pour la biologie de l'évolution, est que les conditions environnementales n'interviennent pas seulement dans la sélection des variations : elles peuvent aussi les produire.

Le rôle de l'apprentissage
Jusqu'ici, nous sommes restés au niveau cellulaire, seul pertinent si l'on ne considère que les variations physiologiques. Toutefois, pour ce qui concerne les comportements, la transmission entre générations s'opère aussi, plus directement, à travers l'apprentissage. Nous disposons aujourd'hui, grâce aux observations éthologiques, de nombreux exemples d'apprentissage social. Ainsi, les dialectes des oiseaux et des baleines sont transmis de génération en génération, plus ou moins de la même façon que le langage humain. On a aussi confirmé l'existence de traditions dans des groupes d'animaux, tels que les chimpanzés. Dans neuf populations est-africaines de chimpanzés, trente-neuf phénotypes comportementaux différents ont ainsi été identifiés, dont on pense qu'ils sont transmis par des interactions sociales [6] . Certains groupes ouvrent des noix avec une pierre, d'autres pêchent des termites avec une baguette, d'autres encore se touchent les mains d'une façon très particulière.

Traditions sociales
Les nombreux exemples analogues d'apprentissage social et de traditions de groupes laissent penser que beaucoup de

différences dans les phénotypes comportementaux sont culturelles, transmises par apprentissage social plutôt que par des différences génétiques. Cela a plusieurs conséquences pour la théorie de l'évolution. Contrairement aux gènes, qui ne sont transmis qu'aux descendants, les comportements appris peuvent être transmis à des individus non apparentés. En outre, les nouvelles variations ne sont pas produites au hasard, et pendant leur transmission les comportements appris sont reconstruits et adaptés aux conditions en vigueur. L'environnement a donc un effet important à la fois sur l'origine et sur la transmission de ces variations comportementales, et donc sur la vitesse et la direction de l'évolution comportementale. De plus, comme les traditions sociales forment un aspect important de l'environnement sélectif dans lequel vivent les membres d'un groupe social, elles doivent aussi affecter l'évolution biologique [7] .

En ce qui concerne les sociétés humaines, personne ne doute de la réalité ni de l'importance de la transmission culturelle, ni de l'importance du langage et d'autres formes de communication symbolique dans notre évolution. Nos nombreuses langues sont des produits évidents de l'évolution culturelle, et l'abondante littérature ethnologique et anthropologique témoigne de la richesse et de la diversité des cultures qui se sont développées. Il y a, à l'évidence, une dimension historique non génétique de l'évolution culturelle humaine, qui doit avoir interagi avec l'évolution génétique. Par exemple, l'interaction évolutive entre les systèmes génétiques et culturels est probablement responsable de notre capacité à acquérir et à utiliser le langage si vite et si facilement quand nous sommes enfants [8].

Le nouveau darwinisme, qui prend en compte toutes ces dimensions, élargit donc la perspective dessinée par la théorie synthétique. D'abord, l'évolution ne repose pas exclusivement sur la sélection de variations génétiques : des variations épigénétiques, comportementales ou transmises par des symboles interviennent aussi. Ainsi, la définition donnée par Dobzhansky : « L'évolution est le changement dans la composition génétique des populations », est remplacée par : « L'évolution est l'ensemble des mécanismes conduisant à des changements au cours du temps dans la nature et dans la fréquence

de types héritables dans une population. » Et ici, « types » ne signifie pas seulement « génotypes * ». L'importance relative des différents types de variations dépend du groupe étudié, du trait analysé et de l'échelle de temps choisie.

Ensuite, le nouveau darwinisme affirme que l'apparition de variations héritables n'est pas régie seulement par le hasard : certaines de ces variations sont des réponses à des processus qui se produisent pendant le développement notamment un changement dans l'activité d'un gène ou l'apprentissage. Le nouveau darwinisme soutient enfin que la sélection ne s'exerce pas seulement sur les gènes, mais aussi sur toute entité qui se reproduit et qui développe des traits variables héritables : cellules, individus et groupes d'individus lire « L'unité de sélection », p. 48.

Un changement évolutif rapide
Toutes les conséquences de ce nouveau cadre théorique n'ont pas encore été explorées en détail. Il faudra réviser par exemple l'interprétation de processus évolutifs tels que la formation de nouvelles espèces et l'évolution des organismes multicellulaires. Le fait que des changements héritables induits puissent se produire à plusieurs reprises et concerner de nombreux individus simultanément pourrait aussi

signifier que le changement évolutif est bien plus rapide que ce que l'on considère généralement.

Bien entendu, ce nouveau darwinisme, duquel

pourraient se réclamer aussi Carl Schlichting, de l'université du Connecticut, Massimo Pigliucci, de l'université de Stony Brook, ou Patrick Bateson, de l'université de Cambridge, pour n'en citer que quelques-uns, n'est pas accepté sans d'âpres discussions entre biologistes de l'évolution. Les conséquences évolutives que j'ai esquissées sont examinées de près et sans concessions, comme c'est normal. Et je n'ai aucun doute qu'à mesure que de nouvelles données seront accumulées ce nouveau darwinisme laissera lui-même la place à d'autres formulations théoriques. Le darwinisme n'a pas fini d'évoluer.

En deux mots

Pendant

la seconde moitié du XXe siècle, la biologie évolutionniste a été dominée par la « théorie synthétique

de l'évolution ».

Les gènes

y ont une place prépondérante : supports exclusifs des informations transmises

d'une génération à l'autre, c'est aussi sur eux que s'exerce la sélection naturelle.

Les biologistes reconnaissent aujourd'hui qu'il faut aller

au-delà. D'autres mécanismes que la génétique permettent de coder des informations héritables.
[1] http://nobelprize.org/medicine/laureates/1983/mcclintock-lecture.pdf

[2] I. Bjedov et al., Science, 300, 1404, 2003.

[3] Annals of the New York Academy of Sciences, 870, édité par L.H. Caporale, 1999.

[4] P. Cubas et al., Nature, 401, 157, 1999.

[5] H.D. Morgan et al., Nature Genetics, 23, 314, 1999.

[6] A. Whiten et al., Behaviour, 138, 1481, 2001.

[7] Kevin N. Laland et Isabelle Coolen, « La culture, autre moteur de l'évolution », La Recherche, juillet 2004, p. 52.

[8] D. Dor et E. Jablonka, Selection, 1, 33, 2000.

 

 DOCUMENT      larecherche.fr      LIEN

 
 
 
initiation musicale toulon  

« La biologie de synthèse a besoin de la sociologie »

 

« La biologie de synthèse a besoin de la sociologie »
Marie-Laure Théodule dans mensuel 488


LA RECHERCHE : Quand le concept de biologie de synthèse est-il apparu ?

PIERRE-BENOÎT JOLY : L'expression a été utilisée pour la première fois au début du XXe siècle par un chimiste français, Stéphane Leduc. Ce dernier réalise alors des expériences où il tente de créer des cellules artificielles pour mieux comprendre le vivant. Et il les décrit dans La Biologie synthétique, ouvrage publié en 1912. Il s'en suit une série de travaux tout au long du XXe siècle, dont l'objectif est de fabriquer une cellule primitive, une protocellule.

Mais, un tout autre courant va naître au début du XXIe siècle à la suite des avancées majeures de la génomique. On peut situer son commencement en 2004, année où une fondation nommée « BioBricks » organise au MIT, aux États-Unis, la conférence Biologie synthétique 1.0, qui va réunir 500 personnes dès sa première édition.

En quoi ce courant se démarque-t-il du précédent ?

P.-B.J. L'objectif principal n'est plus de comprendre le vivant, mais de fabriquer des organismes artificiels dotés de fonctions complexes permettant de résoudre certains problèmes. Ils auront par exemple un meilleur rendement énergétique que des organismes naturels ou bien ils synthétiseront de nouvelles molécules thérapeutiques. Pour cela, la biologie de synthèse s'appuie sur les outils de la génomique : séquençage des génomes à grande échelle, synthèse et assemblage de séquences d'ADN, etc. Mais elle ambitionne d'aller beaucoup plus loin en utilisant les méthodes de l'ingénieur pour produire plus vite et à moindre coût des organismes artificiels. Car aujourd'hui on sait seulement introduire de manière artisanale quelques gènes dans une cellule pour fabriquer des organismes génétiquement modifiés (OGM).

Qu'apportent de plus les méthodes de l'ingénieur ?

P.-B.J. Comme il s'agit d'introduire une cascade de gènes voire un génome entier dans une cellule, l'idée est de s'aider des outils mathématiques et informatiques utilisés par les ingénieurs pour comprendre et modéliser les interactions de ces gènes. À terme, on espère concevoir des systèmes biologiques à partir de composants standardisés et avec des méthodes elles-mêmes standardisées, comme on le fait en électronique. Concrètement, on programme le développement d'un nouveau système biologique en quatre phases : la conception (développement d'un modèle mathématique du système biologique et simulation), la construction avec la volonté de standardiser les procédés et les composants pour gagner du temps, puis la mise en oeuvre et la validation. Cette dernière étape peut conduire à réviser la modélisation initiale.

Cela a-t-il déjà donné des résultats ?

P.-B.J. Il y a eu des avancées spectaculaires. En suivant une approche dite « top-down » - concevoir un génome minimal auquel on pourra ajouter en fonction des besoins des séquences de gènes conçues par ordinateur - le biologiste américain Craig Venter a créé en 2010 une bactérie au génome synthétique de 1,08 million de paires de bases (l'enchaînement des lettres qui constituent l'alphabet de l'ADN) [1]. Et en mars 2014, une équipe internationale dirigée par Jef Boeke, de l'université de New York, a réussi à synthétiser l'un des seize chromosomes de la levure du boulanger [2]. C'est une étape cruciale vers la synthèse du génome d'un eucaryote, une forme du vivant bien plus complexe que de simples bactéries. Une autre approche dite « bottum-up » consiste à standardiser des séquences de gènes dans le but d'appareiller des bactéries ou des levures avec ces briques. À l'origine de cette démarche, la Fondation BioBricks a créé une base de données de séquences qu'elle met à la disposition de la communauté scientifique en accès libre, à l'image des logiciels en open source. Elle a lancé le concours international Igem destiné aux étudiants de premier cycle universitaire afin qu'ils conçoivent des systèmes biologiques artificiels à partir de ces briques.

Ce concours a-t-il un effet d'entraînement ?

P.-B.J. Il stimule la créativité des étudiants avec son approche à la fois boy-scout et branchée. Pour concourir, il faut constituer une équipe pluridisciplinaire incluant au moins un spécialiste de sciences humaines, présenter un site web, un concept voire un prototype. En 2013, pour la première fois, une équipe française soutenue par le Centre de recherche interdisciplinaire du biologiste François Taddei, de l'université Paris-Descartes, a remporté le prix. Ils ont montré comment une bactérie de laboratoire pouvait accélérer la détection de molécules contre la tuberculose [3]. En parallèle, avec une étude sur la parité homme/femme dans la recherche, ils ont révélé que les équipes Igem, qui respectent le plus la parité, sont aussi celles qui obtiennent les meilleurs résultats au concours.

Au-delà de ces démarches pionnières, y a-t-il déjà des réalisations commerciales ?

P.-B.J. La réponse à votre question est l'objet d'une polémique. L'équipe de Jay Keasling de l'université de Californie, à Berkeley aux États-Unis, a réussi en 2003 à transférer dans des bactéries et des levures les douze gènes de l'artémisinine, molécule antipaludéenne naturellement synthétisée par une plante, l'armoise. Depuis, le processus de production est en cours d'industrialisation chez Sanofi Aventis. Certains, dont Jay Keasling, considèrent qu'il s'agit du premier produit de la biologie de synthèse. Mais d'autres, même s'ils saluent l'exploit (réussir à transférer douze gènes soit bien plus qu'auparavant) font remarquer à raison que la méthode employée est finalement assez classique. Chaque gène a été introduit un à un « à la main » sans recourir aux méthodes prônées par la biologie de synthèse, censées rendre ce travail beaucoup plus facile et rapide, donc moins coûteux.

Des sociologues ont été associés dès le départ à ce domaine. Pourquoi ?

P.-B.J. Beaucoup de biologistes ont été traumatisés par les craintes suscitées par les OGM. Cela a conduit à favoriser dès le départ une meilleure interaction entre la biologie synthétique et les sciences humaines et sociales, notamment la sociologie. Cette démarche s'inscrit dans le cadre des bonnes pratiques du financement de la recherche, lancées avec le projet de séquençage du génome humain au début des années 1990 et généralisées depuis lors au niveau international : tout programme de recherche touchant au vivant doit consacrer de 3 % à 5 % de ses ressources aux aspects éthiques, légaux et sociaux. On pense ainsi renforcer l'acceptabilité de la nouveauté.

Comment cela se traduit-il concrètement ?

P.-B.J. Dans les pays anglo-saxons, certains sociologues sont « embarqués » : ils travaillent au côté des biologistes au sein de leurs laboratoires. Ainsi, au Royaume-Uni, une sociologue française, Claire Marris, est actuellement embarquée dans un programme de recherche interdisciplinaire qui associe deux établissements londoniens l'Imperial College, pour la biologie, et King's College pour les sciences humaines. Son travail porte en particulier sur les questions de risque et de propriété intellectuelle. Dans ce cadre, elle a récemment organisé un colloque sur le thème : « L'open source en biologie de synthèse ». Autre exemple, aux États-Unis, l'anthropologue américain Paul Rabinow a été embarqué dans SynBERC, consortium dédié à la biologie de synthèse lancé en 2006 par Jay Keasling à l'université de Californie. Mais ce projet s'est terminé par un conflit.

Que s'est-il passé ?

P.-B.J. Paul Rabinow était censé contribuer à l'établissement de nouvelles règles concernant la biosécurité ou l'éthique de la recherche en observant les chercheurs associés à SynBERC et en interagissant avec eux. Or son projet n'a jamais abouti. Selon les biologistes, Paul Rabinow se contentait d'observer sans vraiment rien produire d'original. Selon ce dernier, ses propositions étaient refusées parce qu'elles impliquaient des changements de pratiques qui auraient pu retarder les chercheurs et les handicaper dans la compétition internationale. Au-delà de la polémique, cet exemple est révélateur de la difficulté qu'il y a à faire travailler ensemble biologistes et sociologues.

Et vous, avez-vous une approche différente ?

P.-B.J. Dans mon laboratoire, nous étudions la biologie de synthèse en ayant recours aux outils classiques des sciences sociales. Par exemple, nous utilisons la bibliométrie, et des enquêtes et des observations sur le terrain afin de saisir les caractéristiques de ce champ émergent. Nous avons montré qu'il est de petite dimension : environ 3 000 articles ont été publiés au total sur le sujet depuis environ dix ans, contre plusieurs millions pour les nanosciences et les nanotechnologies ! Mais le taux de croissance des publications est très élevé, de 20 % à 30 % par an. Cependant, sur les 10 000 auteurs qui apparaissent dans le corpus, une minorité est spécialisée en biologie de synthèse : 70 % ont publié une seule fois sur le sujet. En revanche, les 100 articles les plus cités appartiennent bien au domaine, car leurs auteurs travaillent dans des laboratoires états-uniens, développent des approches bottom-up et sont rattachés à un noyau d'institutions qui jouent un rôle crucial dans la structuration de ce domaine, le concours Igem, les conférences, la Fondation BioBricks, etc. Le champ a donc déjà une forte autonomie.

Mais s'agit-il d'une discipline à part entière ?

P.-B.J. C'est un champ avec beaucoup d'intermittents qui viennent d'autres domaines que la biologie (informatique, mathématiques, ingénierie), et caractérisé par l'importance des recherches liées aux applications. Cela ne suffit pas pour en faire une discipline à part entière. Il lui manque des caractéristiques institutionnelles : un enseignement spécifique, des diplômes, des professeurs, une société savante, des colloques. En France, vous ne pouvez pas dire qu'une discipline existe si elle ne possède pas ces caractéristiques. C'est différent dans les pays anglo-saxons, où le verrou institutionnel est moins fort. Le second problème est qu'une discipline scientifique se construit en général autour d'une énigme centrale à résoudre. La biologie synthétique se construit, elle, autour d'une promesse.

Autour d'une promesse, que voulez-vous dire ?

P.-B.J. La promesse porte sur la santé, l'énergie, la chimie verte et l'environnement avec l'objectif de concevoir des molécules synthétiques pour tous ces secteurs. C'est pourquoi des scientifiques considèrent qu'il ne s'agit pas d'une science, mais d'une technologie qui s'inscrit dans la droite ligne des biotechnologies. Certains vont jusqu'à dire que la biologie de synthèse n'existe pas. Au contraire, ceux qui y croient prétendent qu'elle va révolutionner le génie génétique en le rendant plus simple, plus accessible et plus créatif. En tant que sociologue, nous constatons que science et technologie sont tellement imbriquées dans ce domaine qu'on peut le considérer comme une « technoscience ».

La biologie de synthèse n'est-elle pas un peu survendue ?

P.-B.J. Son ambition est si élevée que cela peut en effet générer des effets pervers. Pour avoir des crédits on fait miroiter des applications utiles à l'homme. Si ces attentes ne sont pas satisfaites, on provoquera des déceptions, qui affecteront en retour le domaine. Autre exemple, le champ se développe dans l'idée que la seule source de solutions aux grands problèmes actuels de la planète, c'est la science et la technologie. Or il faut aussi des transformations sociales. Ainsi, on peut avoir une science médicale qui progresse et des conditions d'accès aux soins qui se dégradent, comme aux États-Unis. En résumé, la biologie de synthèse suscite des attentes mais aussi des craintes, qui sont toutes démesurées.

Certaines craintes ne sont-elles pas justifiées ?

P.-B.J. La biologie de synthèse suscite trois types de craintes classiques dès que l'on touche au vivant : les risques de contamination et de bioterrorisme, les dangers d'ordre plus ontologique qu'il y aurait à réduire le vivant à des machines et à brouiller les frontières entre nature et artifice, et enfin les questions liées aux brevets sur le vivant. Comme ce champ est en émergence, il est trop tôt pour dire si ces craintes sont justifiées. On peut reconnaître qu'elles sont légitimes. Pour en tenir compte, le ministre de l'Enseignement supérieur et de la Recherche a créé en France en 2012 un observatoire de la biologie de synthèse [4]. C'est un lieu d'échange pluridisciplinaire, auquel je collabore. Nous essayons d'associer la société civile à l'émergence du domaine afin de réfléchir à l'impact de son développement sur la société. Il ne faut pas attendre que les chercheurs se mettent d'accord sur ce qu'est la biologie de synthèse pour mener ce type de débat. Au contraire !
* Pierre-Benoît Joly, économiste et sociologue, est directeur de recherche à l'INRA et dirige l'Institut francilien recherche innovation et société. Ce spécialiste de l'étude des sciences et des techniques a écrit avec Christian Bonneuil Sciences, techniques et société, ouvrage paru en 2013 aux éditions La Découverte. Il est également coauteur de « Biologie de synthèse : conditions d'un dialogue avec la société », rapport commandé en 2011 par le ministère de l'Enseignement supérieur et de la Recherche.


 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

Inventer des génomes sur mesure

 

Inventer des génomes sur mesure
Cécile Klingler dans mensuel 445


En mai dernier, le généticien américain Craig Venter créait la première bactérie ayant un génome synthétique. Quels organismes inédits pourraient voir le jour dans les années à venir ? La biologie de synthèse va-t-elle révolutionner le vivant ?
E lle porte un nom du troisième type : Mycoplasma mycoides JCVI-syn1.0. Le 20 mai dernier, le concepteur de cette bactérie, le biologiste et généticien américain Craig Venter, l'a présentée en ces termes à un parterre de journalistes : « Nous sommes ici, aujourd'hui, pour annoncer l'obtention de la première cellule synthétique, faite en partant d'un génome conçu par ordinateur, en construisant le chromosome à partir de quatre bouteilles de produits chimiques, en l'assemblant dans des levures, en le transplantant dans une cellule bactérienne réceptrice, et en transformant cett e cellule en une nouvelle espèce bactérienne . » Et d'asséner, d'un ton calme, posé, presque monocorde : « Il s'agit, sur cette planète, de la première espèce capable de se reproduire ayant pour parent un ordinateur. »

Transformation
La formule, percutante, n'étonne pas de la part d'un homme qui a l'art des déclarations fracassantes. Elle a immédiatement fait le tour du monde. Mais la bactérie Mycoplasma mycoides JCVI-syn1.0, présentée pour l'occasion comme l'emblème de la « biologie de synthèse » ou « biologie synthétique », symbolise-t-elle vraiment un tournant dans la biologie ?

Contrairement à ce qu'ont titré bon nombre de journaux, les biologistes du John Craig Venter Institute n'ont en tout cas pas « créé la vie ». Pourquoi ? L'expérience qu'ils ont menée parle d'elle-même. D'abord, ils ont synthétisé, in vitro , un long fragment d'ADN. Pas n'importe lequel : sa séquence, c'est-à-dire la succession de « briques élémentaires » qui le constitue ce que l'on appelle les bases, est à quelques modifications près celle du génome de la bactérie Mycoplasma mycoides . Ce n'est donc pas un génome inventé ex nihilo . Puis ce génome a été transplanté dans une bactérie d'une espèce voisine, Mycoplasma capricolum , on ne peut plus naturelle. Il s'y est alors exprimé, et Mycoplasma capricolum s'est peu à peu transformée en Mycoplasma mycoides [1] . Le rôle « créateur » de l'homme est donc infime.

Pourtant, ce travail représente une avancée majeure. Pas sur le plan de la connaissance fondamentale : « Dès 2003, Venter avait montré qu'un ADN synthétisé in vitro, à partir de sa séquence "virtuelle", pouvait fonctionner dans une cellule », rappelle Miroslav Radman, qui dirige l'équipe « biologie de la robustesse » de l'Inserm.

À l'époque, Venter et ses collaborateurs avaient synthétisé in vitro le génome d'un virus de bactérie, d'après sa séquence enregistrée dans les banques de données. Puis ils l'avaient injecté dans la bactérie Escherichia coli . La bactérie avait alors répliqué cet ADN synthétique et synthétisé les protéines qu'il code, avec comme résultat final la production de virus actifs. « C'était un travail splendide ! ajoute Radman. Avec ses derniers travaux, Venter n'a, conceptuellement, rien démontré de plus. »

En revanche, les avancées technologiques sont indéniables. Miroslav Radman souligne par exemple la performance technologique que représente la transplantation d'un chromosome synthétique long d'un million de paires de bases, donc très fragile, dans une bactérie : l'équipe de Venter a réussi à contourner ce problème, en concevant un protocole où le génome synthétique est mis en contact avec les bactéries receveuses, sans qu'on ait à le manipuler.

Quant à Philippe Marlière, spécialiste de biologie synthétique au Génopole d'Évry et fondateur de la société Global Bioenergies, il s'enthousiasme devant la longueur de l'ADN synthétisé, et les perspectives que cela ouvre. « Un million de paires de bases, dit-il, c'est à mi-chemin des 2 millions de paires de bases d'un génome bactérien fonctionnel mais simplifié, dans lequel on insérerait les gènes correspondant à des voies métaboliques conçues sur mesure. Cela permettrait de produire telle ou telle molécule. »

Définition
« Concevoir sur mesure » et « produire » : voilà lâchés les deux mots qui définissent le mieux la biologie de synthèse. Car même si les travaux des équipes se réclamant de cette discipline permettront certainement de mieux comprendre le fonctionnement des cellules, les objectifs affichés sont, en général, très concrets. Pour Venter et la plupart des « biologistes de synthèse », il s'agit de transformer des bactéries, des levures, voire des cellules humaines, en usines de production de composés chimiques, de médicaments, ou encore de biocarburants. Comment ? En transférant dans ces cellules des gènes qu'elles ne possèdent normalement pas.

Voilà qui semble bien banal : après tout, voilà trente ans que l'on sait faire produire à des bactéries, par transfert de gène, des molécules qu'elles sont normalement incapables de synthétiser. Cela s'appelle du génie génétique. Que l'on transfère le gène humain codant l'insuline à une bactérie Escherichia coli ce qui a été réalisé en 1978, et elle produit de l'insuline. La biologie synthétique ne serait-elle donc qu'un nouveau mot pour une même approche ?

De fait, les trois exemples systématiquement vantés comme étant des succès de biologie synthétique ne révèlent pas de différences flagrantes avec le génie génétique. Il s'agit d'abord de l'obtention, par les biochimistes de la compagnie DuPont, d'une bactérie Escherichia coli capable de synthétiser, à partir de glucose, une molécule jusque-là dérivée du pétrole : le 1,3-propanediol, très utilisé dans la fabrication des matières synthétiques. Des milliers de tonnes sont aujourd'hui produites par ces bactéries, mises au point à la fin des années 1990.

Puis Jay Keasling, de l'université de Berkeley, a réussi en 2003 à transférer dans des bactéries et des levures des gènes végétaux leur permettant de produire de l'artémisinine, une molécule antipaludéenne normalement synthétisée par une plante, l'armoise Artemisiana annua . Le processus est actuellement en cours d'industrialisation chez Sanofi-Aventis. Enfin, une collaboration entre Bruno Dumas, de Sanofi-Aventis, et Denis Pompon, du CNRS de Gif-sur-Yvette, a abouti à l'obtention d'une levure synthétisant de l'hydrocortisone, une hormone humaine jusque-là produite par synthèse chimique.

Dans ces trois cas, les gènes introduits dans le micro-organisme utilisé comme usine de production sont des gènes naturels, provenant d'autres organismes. Alors, génie génétique ou biologie de synthèse ? « Peut-être faut-il plutôt parler de biologie présynthétique, suggère Jean-Loup Faulon, directeur de l'institut de biologie synthétique et systémique créé au Génopole d'Évry en janvier 2010. "Synthétique", car la synthèse de ces molécules a nécessité le transfert d'au moins une dizaine de gènes, soit beaucoup plus que ce que l'on faisait précédemment. Et "pré ", car ces travaux ont été réalisés "à la main". Chaque gène a été introduit un à un, avec les outils de biologie moléculaire classiques. »

Comme Philippe Marlière, il préfère, pour illustrer ce que peut être la biologie de synthèse, mettre l'accent sur une autre approche plus innovante, la « rétrosynthèse » : les gènes transférés et les protéines qu'ils codent ne sont pas utilisés pour ce qu'ils font dans les cellules d'origine, mais pour ce qu'ils peuvent faire en théorie. C'est en particulier le cas des enzymes, ces protéines qui, dans les cellules, catalysent c'est-à-dire rendent possible la transformation d'une molécule en une autre. Il se trouve que, dans une cellule, une enzyme donnée catalyse une réaction précise. Mais en théorie, elle est capable d'en catalyser d'autres. Si elle ne le fait pas, c'est parce que la molécule susceptible d'être transformée n'est pas présente. Par conséquent, si on la lui fournit, la réaction potentielle a lieu.

L'équipe de Global Bioenergies, pionnière dans ce domaine, a utilisé avec succès cette approche pour produire un hydrocarbure dans une bactérie. Après avoir imaginé la chaîne de réactions enzymatiques susceptible d'aboutir à cette substance, elle a transféré dans des bactéries les gènes des enzymes censées effectuer ces réactions. Puis, elle a fourni à ces micro-organismes la molécule censée réagir avec la première enzyme. La réaction a eu lieu, et, après elle, l'ensemble des réactions prévues. « Il s'agit donc vraiment de biologie de synthèse, souligne Philippe Marlière, car nous faisons apparaître des réactions enzymatiques et des molécules qui n'existent pas au naturel. »

Démarche d'ingénieur
Cela dit, le propre de la biologie de synthèse tient peut-être autant à la façon de voir la biologie qui anime ses promoteurs - plus souvent physiciens, informaticiens ou ingénieurs chimistes que biologistes - qu'aux manipulations effectuées. « Nous suivons une démarche d'ingénieurs, explique Jean-Loup Faulon, avec ses quatre phases classiques de conception, de construction, d'implémentation et de validation. Et nous le faisons de façon systématique et formalisée. » Cette démarche s'accompagne d'ailleurs d'un langage particulier : les chercheurs évoquent par exemple leur ambition de concevoir un « châssis », autrement dit un génome de « base » auquel on pourrait ajouter, en fonction des besoins, des séquences de gènes soigneusement conçues par ordinateur.

Cette approche d'ingénieur est encore plus prononcée dans d'autres travaux relevant de la biologie de synthèse. Les cellules, en général des bactéries Escherichia coli, y sont alors considérées comme des minirobots que l'on appareille avec des outils dans les faits, des molécules codées par des gènes, pour leur permettre d'accomplir des tâches précises par exemple, détecter tel ou tel type de cellules. Le programme qui leur est implémenté, sous forme d'une combinaison de gènes, vise à leur faire accomplir une série de tâches complexes, en fonction de leur environnement. Cette approche à d'ores et déjà donné de premiers résultats [fig.2] .

Là encore, la notion de « génome standard » est présente. Avec en plus l'ambition, pour certains, de standardiser les « outils », c'est-à-dire les séquences de gènes qui permettent d'accomplir telle ou telle action. Le Massachusetts Institute of Technology a ainsi créé une base de données en accès libre qui répertorie plusieurs de ces séquences, appelées BioBricks.

À ce stade, les interrogations pointent. Certes, la bactérie de Venter, Mycoplasma mycoides JCVI-syn1.0 , est anodine. Mais si l'on combine les potentialités qu'elle ouvre - recombiner des gènes à bien plus large échelle qu'on ne le fait actuellement - avec les innovations métaboliques et fonctionnelles présentées plus haut, on franchit bel et bien une frontière par rapport au génie génétique classique. D'autant que les possibilités de manipuler les génomes sont facilitées par l'apparition des registres de BioBricks, mais aussi par le développement d'entreprises, nommées « gene foundries », qui synthétisent à la demande les fragments d'ADN qu'on leur commande.

L'équipe de Venter a travaillé avec l'une de ces compagnies, BlueHeronBiotechnologies. Or, à peu près n'importe qui peut leur passer commande : il suffit d'un mail avec la séquence souhaitée. Et les séquences, elles, reposent dans des bases de données informatiques en libre accès. Certains pointent donc du doigt les risques de bioterrorisme - les trois principales « gene foundries » ont du reste mis en place des systèmes d'analyse des séquences commandées, de façon à repérer, par exemple, un gène pathogène.

Mais sans négliger cette menace, Philippe Marlière souligne qu'elle n'est peut-être pas la plus dangereuse : il est beaucoup plus facile d'utiliser un organisme pathogène existant déjà. « Imaginons plutôt une cyanobactérie modifiée pour produire tel ou tel biocarburant, dit-il. Les cyanobactéries sont des bactéries photosynthétiques à la base du fonctionnement des écosystèmes aquatiques, et qui n'ont besoin que de soleil et de dioxyde de carbone pour synthétiser des molécules carbonées. C'est précisément pour cela qu'elles sont intéressantes. Bien sûr, il est prévu de les faire travailler dans des enceintes confinées - qu'il va falloir inventer, puisque qu'elles doivent impérativement recevoir le rayonnement solaire. Mais si jamais elles s'échappent ? »

Anticiper les risques
Certes, il est possible que les modifications dont elles auront fait l'objet les handicapent par rapport à leurs homologues naturelles, et qu'elles ne puissent proliférer. Mais c'est loin d'être certain. « Or, on ne peut pas courir ce risque, martèle Philippe Marlière. Aujourd'hui, il est encore hypothétique, car on est loin de savoir reprogrammer ces bactéries. Mais justement, c'est le moment d'anticiper. »

Certains, telle l'organisation non gouvernementale canadienne ETC Group, voudraient un moratoire suspendant ces recherches. Philippe Marlière, lui, ambitionne, en lien avec d'autres laboratoires européens, de concevoir des bactéries permettant de réduire à zéro le risque de pollution génétique. « À zéro , insiste-t-il. On ne peut pas se contenter d'une obligation de moyens, il faut une obligation de résultats. » La solution préconisée est de faire en sorte que le génome de ces bactéries soit tellement différent de celui des êtres vivants actuels qu'ils ne puissent pas se croiser. Pour y parvenir, il s'agit de créer une troisième forme d'acide nucléique, différente de l'ADN et de l'ARN. C'est l'un des objectifs du projet de recherche européen Xenome, coordonné par le Génopole d'Évry.

Sur le plan de la connaissance scientifique et de la « création de vie », voilà qui est beaucoup plus innovant que Mycoplasma mycoides JCVI-syn1.0 ! Mais en dépit de la charte de bonne conduite que les principaux chercheurs européens sont en train de formaliser, et qu'ils s'engagent à signer, il n'est pas certain que cela suffise à lever les inquiétudes. À quand une réflexion mondiale, sur la gouvernance des recherches et des applications de la biologie de synthèse ?
[1] D.G. Gibson et al., Science, 329, 52, 2010.
L'ESSENTIEL
EN MAI 2010, l'équipe du généticien américain Craig Venter a annoncé avoir créé une bactérie ayant un génome synthétique.

LES POSSIBILITÉS DE MANIPULER les génomes vont aujourd'hui au-delà de celles offertes par le génie génétique classique.

FACE À CELA, il est nécessaire d'engager une réflexion sur les développements et les applications potentielles de la biologie de synthèse.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google