|
|
|
|
|
|
Le génie génétique |
|
|
|
|
|
Le génie génétique
Denis Mater, Nicole Truffaut dans mensuel 342
daté mai 2001 -
Avec à peine trente ans d'existence, le génie génétique est à l'origine d'une multitude d'applications, dont certaines ont déjà fait irruption dans notre vie quotidienne. Les outils qu'il met en oeuvre ne cessent de gagner en performance, en rapidité et en disponibilité. Revue de détail...
Qu'est-ce que le génie génétique ?
N'en déplaise aux amateurs de contes des « Mille et Une Nuits » , il ne suffit pas de frotter vigoureusement un tube à essais pour voir en sortir un génie, fût-il génétique. Si la racine latine du mot ne permet pas de différencier étymologiquement un spectre sortant d'une lampe d'un jeune cadre issu d'une école d'ingénieur, c'est pourtant bien à l'ingénierie que fait référence l'expression « génie génétique ». Ainsi, au même titre que le génie civil se rapporte aux techniques mises en oeuvre par les ingénieurs pour construire des routes ou des ponts, le génie génétique regroupe l'ensemble des outils et des méthodes employés pour conférer de nouvelles propriétés aux cellules vivantes en modifiant leur matériel génétique. Ces modifications s'effectuent en l'occurrence par des combinaisons entre différentes molécules d'ADN, ce qui a valu au génie génétique l'appellation de « technologies de l'ADN recombinant ».
Le génie génétique découle initialement des avancées techniques de la biologie moléculaire, de la biochimie et de la génétique. Il tire également profit de nombreux autres domaines de la biologie, en particulier pour les méthodes de culture de cellules : la microbiologie dans le cas des bactéries et des cellules de levures, la biologie cellulaire pour les cellules végétales ou animales. Ainsi, le génie génétique peut être comparé à une boîte à outils dont chaque élément représenterait une compétence particulière issue d'un champ scientifique, parfois même extérieur à la biologie. Il constitue un élément à part entière du secteur des biotechnologies, aux côtés d'autres domaines des sciences appliquées : le génie de la fermentation, le génie enzymatique, ou encore le génie des procédés.
Dans quel contexte est-il apparu ?
Dans les années 1940, pour nombre de généticiens, l'acide désoxyribonucléique l'ADN est une molécule chimiquement trop « banale » pour constituer le support de l'information génétique. En effet, elle ne comprend que quatre types d'éléments distincts les bases adénine, cytosine, guanine et thymine : A, C, G et T tandis que les protéines, construites à partir de vingt élé-ments différents les acides aminés, semblent offrir davantage de possibilités. Mais, en 1944, reprenant des travaux de la fin des années 1920, le groupe d'Oswald Avery à l'institut Rockefeller de New York démontre qu'une forme non pathogène de pneumocoque peut acquérir un caractère virulent par simple incorporation d'ADN issu d'une forme pathogène. Les résultats de cette expérience sont suffisamment convaincants pour faire admettre à la quasi-totalité de la communauté scientifique que les caractères héréditaires sont transmis par la molécule d'ADN, et non par des protéines. L'intérêt pour la molécule s'accroît alors, et de nombreuses recherches sont initiées pour élucider sa composition et sa structure. Dans un numéro de Nature daté du 25 avril 1953, James Watson et Francis Crick présentent finalement la célèbre structure en double hélice telle qu'on la connaît aujourd'hui. Si cette découverte marque le début d'une ère nouvelle pour l'ensemble de la biologie, elle ne constitue encore que les fondations sur lesquelles reposera une quinzaine d'années plus tard le génie génétique.
La connaissance de la structure de l'ADN enclenche une série de travaux qui permettent de comprendre comment l'information génétique est stockée dans la molécule d'ADN. Le code génétique, c'est-à-dire la table de correspondance entre l'ordonnancement des bases A, C, G et T dans l'ADN et l'enchaînement des acides aminés d'une protéine, est ainsi établi. En l'espace d'une décennie, le gène acquiert une définition moléculaire et correspond désormais à un fragment d'ADN dont la séquence des bases peut être traduite en protéines par la machinerie cellulaire.
Mais, au milieu des années 1960, l'exceptionnelle longueur de la molécule d'ADN laisse penser qu'il est pratiquement impossible d'isoler spécifiquement un gène donné. Aucune technique ne permet en effet de casser de manière reproductible la molécule en courts fragments bien précis. Le concept de génie génétique reste encore inimaginable. A l'aube des années 1970, plusieurs découvertes concernant des enzymes capables d'agir directement sur l'ADN viennent bouleverser cette vision. Les outils indispensables à la « microchirurgie » de l'ADN sont vite réunis, et la porte du génie génétique s'ouvre presque instantanément.
Quels sont ses outils de base ?
Les enzymes qui agissent sur l'ADN sont les outils moléculaires indispensables du génie génétique. En particulier, certaines enzymes ont la propriété de reconnaître invariablement une même séquence d'ADN et de couper la molécule à cet endroit précis : elles sont appelées enzymes de restriction. En 1970, le groupe de Hamilton Smith aux Etats-Unis purifie pour la première fois une telle enzyme et identifie son site de restriction, c'est-à-dire la séquence qu'elle reconnaît : elle est longue de six bases. Depuis, des centaines d'enzymes de restriction ont été isolées. Leur site d'action comporte presque toujours quatre à huit bases et présente une symétrie. Pour comprendre cette dernière particularité, il faut se souvenir que la molécule d'ADN est composée de deux chaînes intimement associées par l'intermédiaire de leurs bases la double hélice. Une base A d'une chaîne s'associe toujours à une base T de l'autre chaîne, et de la même façon, une base C ne peut s'associer qu'à une base G. La séquence d'une chaîne est donc complémentaire de l'autre. Pour un site de restriction, la séquence lue dans un sens sur une chaîne est identique à la séquence lue dans le sens inverse sur l'autre chaîne. Certaines enzymes de restriction coupent le site en son milieu et produisent deux fragments dont les extrémités sont franches. Cependant, la plupart réalisent une coupure dissymétrique. Chaque fragment obtenu possède alors une chaîne qui dépasse l'autre de quelques bases. On parle dans ce cas d'extrémités cohésives voir schéma.
De nombreuses autres enzymes sont utiles au génie génétique. La ligase permet notamment de souder les extrémités franches ou cohésives de deux fragments d'ADN. Les polymérases permettent de reconstruire une chaîne d'ADN en utilisant comme modèle la séquence de la chaîne complémentaire. Elles sont notamment utilisées dans les méthodes de séquençage qui déterminent l'enchaînement des bases d'une molécule d'ADN. On les retrouve également dans la technique d'amplification en chaîne qui, connue sous le nom de « PCR » polymerase chain reaction , reproduit un fragment d'ADN à des millions d'exemplaires.
Enfin, une technique se révèle incontournable pour séparer un mélange de fragments d'ADN : l'électrophorèse. Comme toute molécule chargée, l'ADN peut se déplacer à travers un champ électrique. De plus, si on la force à traverser un support relativement dense, les fragments courts se déplacent plus rapidement que les fragments plus longs, qui se trouvent retardés. En pratique, le support est de l'agarose, un polymère qui forme un gel très consistant. Lorsqu'un mélange d'ADN est déposé dans un gel d'agarose et qu'on impose un courant électrique, les fragments migrent à travers le gel et se séparent en fonction de leur taille. L'électrophorèse terminée, il suffit d'utiliser un colorant de l'ADN pour visualiser chaque fragment individuellement. Cette technique permet, de plus, d'estimer le nombre approximatif de bases que renferme chaque fragment.
Comment manipule-t-on les gènes des micro-organismes ?
Soit un gène quelconque, porté par un fragment d'ADN, qu'on désire introduire dans une bactérie afin qu'elle se mette à fabriquer la protéine codée par ce gène. Selon les termes appropriés du génie génétique, il s'agit de cloner le gène et d'exprimer la protéine. En premier lieu, ce fragment doit être associé à un autre élément d'ADN qui permet de le « présenter » à la bactérie, comme s'il s'agissait de son propre matériel génétique. Ce type d'élément est un vecteur de clonage. Très souvent, on utilise comme vecteur un plasmide, une petite molécule d'ADN circulaire que l'on trouve naturellement chez de nombreuses bactéries. Ces plasmides sont suffisamment autonomes pour se maintenir dans la cellule bactérienne de génération en génération. Pour les expériences de génie génétique, certains plasmides ont été améliorés et optimisés par l'ajout d'éléments essentiels à leur manipulation : des sites de restriction, des séquences judicieusement positionnées pour permettre l'expression de protéines, ou des gènes particuliers appelés marqueurs de sélection. Ces marqueurs permettent par exemple aux bactéries qui abritent le plasmide de devenir résistantes à un antibiotique ou de produire un pigment bleu très caractéristique, ce qui facilite leur identification.
Choisissons un tel plasmide et coupons-le avec une enzyme de restriction. S'il ne contient qu'un exemplaire du site de restriction, le plasmide n'est alors coupé qu'une seule fois et devient linéaire, comme si l'on avait coupé un élastique d'un seul coup de ciseaux. En employant une ligase, chaque extrémité de notre fragment peut alors être soudée à chacune des extrémités du plasmide. Ce dernier reprend donc sa forme circulaire après avoir intégré le fragment étranger. Reste à expédier la construction à l'intérieur d'une bactérie : cette étape est la « transformation ». Une première solution est de traiter chimiquement l'enveloppe de la cellule pour la perméabiliser. Une autre consiste à soumettre les bactéries à un voltage de plusieurs milliers de volts durant quelques millisecondes, de manière à créer des trous dans l'enveloppe par lesquels l'ADN peut transiter : cette technique est l'électroporation. Les cellules ainsi transformées sont ensuite cultivées en boîtes de Petri sur un milieu de croissance, choisi de manière à révéler les marqueurs portés par le plasmide. Il suffit alors de sélectionner les colonies de bactéries qui correspondent aux caractéristiques recherchées.
Dans son principe, la démarche paraît relativement simple, mais la réalité expérimentale est souvent plus complexe. Le positionnement du fragment au sein du plasmide doit notamment respecter des règles très précises pour que les bactéries recombinantes produisent la protéine. Des vecteurs disponibles dans le commerce facilitent aujourd'hui la réalisation des constructions, la production et la purification de protéines.
Et chez les organismes supérieurs ?
Dans l'ensemble, les stratégies appliquées aux organismes supérieurs ne diffèrent pas fondamentalement de celles des micro-organismes. Les constructions génétiques impliquant de l'ADN végétal ou animal sont d'ailleurs réalisées dans un premier temps chez les bactéries, avant d'être finalement introduites dans les cellules de l'organisme supérieur. Alors qu'il est relativement facile de manipuler de l'ADN dans des cellules individuelles telles que les bactéries, l'approche est à l'évidence d'une tout autre envergure dans le cas d'un organisme pouvant comporter des millions de cellules. Lorsque l'on souhaite obtenir une plante ou un mammifère dont toutes les cellules sont transformées un organisme transgénique, il est donc nécessaire d'utiliser des cellules embryonnaires, seules capables de régénérer un organisme entier. Pour certaines applications, la thérapie cellulaire par exemple, on vise en revanche l'obtention de simples lignées cellulaires transgéniques et leur culture in vitro .
Contrairement aux micro-organismes, les plantes ne possèdent pas naturellement de plasmide. La transformation des végétaux constitue donc une étape critique. En s'intéressant à une bactérie du genre Agrobacterium responsable de tumeurs chez les plantes, des chercheurs belges ont découvert au milieu des années 1970 qu'elle était capable de transférer son plasmide aux plantes. Ce plasmide appelé Ti constitue aujourd'hui le vecteur incontournable pour introduire un gène dans une cellule végétale. Il est d'autant plus efficace que le gène en question s'intègre directement dans le matériel génétique de la plante, et se transmet donc de façon héréditaire.
Une autre technique, moins répandue car plus lourde à mettre en oeuvre, consiste à littéralement bombarder des cellules végétales avec des billes microscopiques recouvertes de fragments d'ADN. Il s'agit de la méthode « du canon à gène ». Pour incorporer un gène dans des cellules animales, on peut selon les cas utiliser l'électroporation ou injecter minutieusement l'ADN à l'intérieur du noyau de la cellule à l'aide d'une micropipette. Les mécanismes d'infection des virus peuvent également être mis à profit : selon cette approche, c'est le virus qui injecte son ADN dans la cellule accompagné du gène étranger. Dans tous les cas, des enzymes de recombinaison doivent intégrer le gène étranger dans le matériel génétique de la cellule pour que celui-ci soit maintenu durablement.
Pour quoi faire ?
Les technologies de l'ADN recombinant trouvent des applications aussi bien dans les secteurs médical et pharmaceutique que dans l'agrochimie, l'industrie alimentaire ou l'environnement. Par exemple, le génie génétique sert déjà à produire des antibiotiques, de l'insuline ou à fabriquer le vaccin contre l'hépatite B. Le nombre de protéines aujourd'hui fabriquées par génie génétique ne cesse d'augmenter et les fonctions qu'elles remplissent sont multiples. Certaines sont, par exemple, utilisées chez l'homme comme médicament, afin de soigner des patients atteints d'un dérèglement causé par une protéine déficiente. L'hormone de croissance humaine a été l'une des premières à bénéficier du génie génétique : auparavant, plusieurs centaines de glandes hypophysaires prélevées sur des cadavres étaient nécessaires pour obtenir quelques milligrammes d'hormone, induisant un risque important de contamination de l'extrait par des virus et autres prions.
Dans le monde végétal, le génie génétique se présente comme une alternative aux pratiques ancestrales de sélection des variétés. Alors que l'agronome tente d'améliorer un caractère « au hasard » des croisements, le génie génétique se propose de faire émerger directement ce caractère, voire un caractère qui n'existe pas naturellement chez les plantes. C'est le cas du désormais célèbre « maïs Bt » dans lequel a été introduit le gène d'une bactérie du sol, qui, en exprimant une toxine insecticide, permet de défendre la plante contre les ravageurs. Autre exemple, plus récent : des gènes de jonquille et de bactérie ont été introduits dans un riz qui produit ainsi du carotène, un précurseur de la vitamine A. Mais chacun sait que ces innovations ne cessent d'alimenter de vives controverses sur les bénéfices réels des organismes génétiquement modifiés !u Quelle évolution pour le génie génétique ?
Sur un plan technique, les outils du génie génétique se sont considérablement enrichis et améliorés depuis une décennie. La PCR, imaginée il y a quinze ans, comporte aujourd'hui des dizaines de variantes, et ses applications sont multiples : diagnostic de maladies génétiques, détection de virus tels que celui du sida ou recherche d'organismes génétiquement modifiés dans l'alimentation. Une méthode élaborée en 1975 par Edwin Southern, l'hybridation moléculaire, qui repose sur la complémentarité de deux chaînes d'ADN, est aujourd'hui réalisée grâce à « des puces à ADN ». Avec l'apport des techniques de fabrication de circuits électroniques, cette technologie permet d'analyser des milliers de fragments génétiques en un minimum d'opérations. On l'aura compris, l'automatisation des techniques et l'informatique constituent de puissants moteurs de l'évolution du génie génétique, comme en témoigne le nombre de génomes séquencés en l'espace de deux ou trois ans.
Dans les laboratoires publics et les sociétés de biotechnologies, de nombreux programmes de recherche se développent depuis plusieurs années, parfois d'une envergure titanesque comme le séquençage du génome de l'homme ou de la drosophile. La séquence de nos gènes permettra-t-elle pour autant de comprendre les dérèglements génétiques, les diagnostiquer et les réparer grâce à la thérapie génique ? Par ailleurs, de nombreuses molécules sont déjà produites chez les végétaux par le biais du génie génétique. Les plantes sont-elles en passe de devenir les usines pharmaceutiques de demain ? Certains les voient supplanter le pétrole comme matière première pour produire le carburant, des huiles, des lubrifiants ou des matières plastiques biodégradables.
Avec quels risques ?
La première construction génétique a été réalisée en 1972 en associant l'ADN d'un virus du singe et un fragment de plasmide bactérien. Paul Berg, l'auteur de ces travaux récompensés par le prix Nobel de chimie en 1980, s'est lui-même très vite interrogé sur les dangers de telles constructions : ces techniques de recombinaison ne sont-elles pas susceptibles de faire apparaître de nouvelles bactéries virulentes pour l'homme ? Une conférence présidée par Paul Berg fut ainsi organisée à Asilomar en 1975 afin de définir des règles de sécurité en matière de génie génétique. Alors que ces réflexions étaient à l'époque restreintes à la seule communauté scientifique, le débat s'est depuis généralisé et concerne aussi bien les acteurs économiques, politiques que les consommateurs. Notamment, l'arrivée programmée des organismes génétiquement modifiés dans les champs et les assiettes a fait transparaître de nouvelles interrogations : le risque environnemental, avec la dissémination de gènes dans la nature, l'apparition d'espèces résistantes ou la réduction de la biodiversité ; le risque alimentaire d'ordre toxicologique ou allergique. En France, deux commissions d'experts se répartissent le travail d'évaluation, de définition et de contrôle de tels risques : la Commission du génie biomoléculaire et la Commission du... génie génétique !
DOCUMENT larecherche LIEN |
|
|
|
|
|
|
LE MÉCANISME DE REPLIEMENT DES MOLÉCULES |
|
|
|
|
|
LE MÉCANISME DE REPLIEMENT DES MOLÉCULES
Ce terme désigne le mécanisme par lequel une macromolécule linéaire (par macromolécule on entend un enchaînement linéaire de motifs moléculaires) acquiert une structure tridimensionnelle. Un tel mécanisme est particulièrement important dans le domaine du vivant car une fois synthétisées c'est par ce processus que les protéines acquièrent la structure qui va leur permettre de remplir une fonction précise au sein de la cellule. Ce mécanisme a attiré l'attention de nombreux chercheurs du fait de son importance cruciale en biologie mais aussi du fait du formidable problème computationnelle que représente la prédiction de la structure tridimensionnelle de ces objets à partir de leur structure chimique linéaire. Nous rappellerons les notions essentielles nécessaires à la compréhension de ce mécanisme (atomes, liaisons chimiques, molécules, macromolécules) ainsi que les principaux mécanismes biologiques mis en jeu lors de la synthèse d'une protéine. Nous passerons ensuite en revue les principales forces mises en jeu lors du repliement (essentiellement les forces électrostatiques, l'effet hydrophobe, la liaison hydrogène) puis nous décrirons les principaux outils expérimentaux permettant d'aborder l'étude de ce phénomène. Quelques expériences seront présentées ainsi que la situation actuelle du problème.
LE MÉCANISME DE REPLIEMENT DES MOLÉCULES
Textede la 595ème conférencede l'Universitéde tous les savoirs prononcée le 17 juillet 2005
ParDidier Chatenay: « Le mécanisme de repliement des molécules »
Le thème de cette conférence vous fera voyager aux confins de plusieurs sciences : physique, chimie et biologie bien évidemment puisque les macromolécules dont nous parlerons sont des objets biologiques : des protéines.
Le plan de cet exposé sera le suivant :
- Quelques rappels sur la structure de la matière (atomes, liaisons chimiques, molécules, macromolécules).
- Qu'est-ce qu'une protéine (la nature chimique de ces macromolécules, leur mode de synthèse, leurs structures et leurs fonctions biologiques) ?
- Le problème du repliement (d'où vient le problème, paradoxe de Levinthal).
- Résolution du paradoxe et interactions inter intra moléculaires (échelles des énergies mises en jeu).
Rappels sur la structure de la matière.
La matière est constituée d'atomes eux-mêmes étant constitués d'un noyau (composé de particules lourdes : protons, chargés positivement, et neutrons non chargé) entouré d'un nuage de particules légères : les électrons chargés négativement. La taille caractéristique d'un atome est de 1 Angström (1 Angström est la dix milliardième partie d'un mètre ; pour comparaison si je prends un objet de 1 millimètre au centre d'une pièce, une distance dix milliards de fois plus grande représente 10 fois la distance Brest-Strasbourg).
Dans les objets (les molécules biologiques) que nous discuterons par la suite quelques atomes sont particulièrement importants.
Par ordre de taille croissante on trouve tout d'abord l'atome d'hydrogène (le plus petit des atomes) qui est le constituant le plus abondant de l'univers (on le trouve par exemple dans le combustible des fusées). L'atome suivant est le carbone ; cet atome est très abondant dans l'univers (on le trouve dans le soleil, les étoiles, l'atmosphère de la plupart des planètes. Il s'agit d'un élément essentiel comme source d'énergie des organismes vivants sous forme de carbohydrates). On trouve ensuite l'azote, constituant essentiel de l'air que nous respirons. L'atome suivant est l'oxygène, également constituant essentiel de l'air que nous respirons, élément le plus abondant du soleil et essentiel au phénomène de combustion. Le dernier atome que nous rencontrerons est le souffre que l'on trouve dans de nombreux minéraux, météorites et très abondants dans les volcans.
Les atomes peuvent interagir entre eux pour former des objets plus complexes. Ces interactions sont de nature diverse et donnent naissance à divers types de liaisons entre les atomes. Nous trouverons ainsi :
- La liaison ionique qui résulte d'interactions électrostatiques entre atomes de charges opposées (c'est par exemple ce type de liaison, qu'on rencontre dans le chlorure de sodium, le sel de table). Il s'agit d'une liaison essentielle pour la plupart des minéraux sur terre, comme par exemple dans le cas des silicates, famille à laquelle appartient le quartz.
- Un autre type de liaison est la liaison covalente. Cette liaison résulte de la mise en commun entre 2 atomes d'un électron ou d'une paire d'électrons. Cette liaison est extrêmement solide. Ce type de liaison est à l'origine de toute la chimie et permet de former des molécules (l'eau, le glucose, les acides aminés). Ces acides aminés sont constitués de carbone, d'azote, d'hydrogène et d'oxygène. Dans ces molécules on retrouve un squelette qu'on retrouve dans tous les acides aminés constitué d'un groupement NH2 d'un côté et COOH de l'autre ; la partie variable est un groupement latéral appelé résidu. Un exemple d'acide aminé est constitué par la méthionine qui d'ailleurs contient dans son résidu un atome de soufre. La taille caractéristique des distances mises en jeu dans ce type de liaison n'est pas très différente de la taille des atomes eux-mêmes et est de l'ordre de l'angström (1.5 Angström pour la liaison C-C, 1 Angström pour une liaison C-H).
Ces liaisons ne sont pas figées et présentent une dynamique ; cette dynamique est associée aux degrés de libertés de ces liaisons tels que par exemple un degré de liberté de rotation autour de l'axe d'une liaison C-C. Ces liaisons chimiques ont donc une certaine flexibilité et aux mouvements possibles de ces liaisons sont associés des temps caractéristiques de l'ordre de la picoseconde (mille milliardième partie de seconde) ; il s'agit de temps très rapides associés aux mouvements moléculaires.
A ce stade nous avons 2 échelles caractéristiques importantes :
- 1 échelle de taille : l'angström
- 1 échelle de temps : la picoseconde.
C'est à partir de cette liaison covalente et de petites molécules que nous fabriquerons des macromolécules. Un motif moléculaire, le monomère, peut être associé par liaison covalente à un autre motif moléculaire ; en répétant cette opération on obtiendra une chaîne constituée de multiples monomères, cette chaîne est une macromolécule. Ce type d'objets est courant dans la vie quotidienne, ce sont les polymères tels que par exemple :
- le polychlorure de vinyle (matériau des disques d'antan)
- le polytétrafluoroéthylène (le téflon des poêles)
- le polyméthacrylate de méthyl (le plexiglas)
- les polyamides (les nylons)
Quelle est la forme d'un objet de ce type ? Elle résulte des mouvements associés aux degrés de libertés discutés plus haut ; une chaîne peut adopter un grand nombre de conformations résultant de ces degrés de liberté et aucune conformation n'est privilégiée. On parle d'une marche aléatoire ou pelote statistique.
Les protéines
Quelles sont ces macromolécules qui nous intéressent particulièrement ici ? Ce sont les protéines qui ne sont rien d'autre qu'une macromolécule (ou polymère) particulière car fabriquée à partir d'acides aminés. Rappelons que ces acides aminés présentent 2 groupes présents dans toute cette famille : un groupe amine (NH2) et un groupe carboxyle (COOH) ; les acides aminés diffèrent les uns des autres par la présence d'un groupe latéral (le résidu). A partir de ces acides aminés on peut former un polymère grâce à une réaction chimique donnant naissance à la liaison peptidique : le groupement carboxyle d'un premier acide aminé réagit sur le groupement amine d'un deuxième acide aminé pour former cette liaison peptidique. En répétant cette réaction il est possible de former une longue chaîne linéaire.
Comme nous l'avons dit les acides amines diffèrent par leurs groupes latéraux (les résidus) qui sont au nombre de 20. On verra par la suite que ces 20 résidus peuvent être regroupés en familles. Pour l'instant il suffit de considérer ces 20 résidus comme un alphabet qui peut donner naissance à une extraordinaire variété de chaînes linéaires. On peut considérer un exemple particulier : le lysozyme constitué d'un enchaînement spécifique de 129 acides aminés. Une telle chaîne comporte toujours 2 extrémités précises : une extrémité amine et une extrémité carboxyle, qui résultent de la réaction chimique qui a donné naissance à cet enchaînement d'acides aminés. Il y a donc une directionnalité associée à une telle chaîne. La succession des acides aminés constituant cette chaîne est appelée la structure primaire. La structure primaire d'une protéine n'est rien d'autre que la liste des acides aminés la constituant. Pour revenir au lysozyme il s'agit d'une protéine présente dans de nombreux organismes vivants en particulier chez l'homme où on trouve cette protéine dans les larmes, les sécrétions. C'est une protéine qui agit contre les bactéries en dégradant les parois bactériennes. Pour la petite histoire, Fleming qui a découvert les antibiotiques, qui sont des antibactériens, avait dans un premier temps découvert l'action antibactérienne du lysozyme ; mais il y a une grosse différence entre un antibiotique et le lysozyme. Cette molécule est une protéine qu'il est difficile de transformer en médicament du fait de sa fragilité alors que les antibiotiques sont de petites molécules beaucoup plus aptes à être utilisées comme médicament.
Pour en revenir au lysozyme, présent donc dans les organismes vivants, on peut se poser la question de savoir comment un tel objet peut être fabriqué par ces organismes. En fait, l'information à la fabrication d'un tel objet est contenue dans le génome des organismes sous la forme d'une séquence d'acide désoxyribonucléique (ADN) constituant le gène codant pour cette protéine. Pour fabriquer une protéine on commence par lire l'information contenue dans la séquence d'ADN pour fabriquer une molécule intermédiaire : l'ARN messager, lui-même traduit par la suite en une protéine. Il s'agit donc d'un processus en 2 étapes :
- Une étape de transcription, qui fait passer de l'ADN à l'ARN messager,
- Une étape de traduction, qui fait passer de l'ARN messager à la protéine.
Ces objets, ADN et ARN, sont, d'un point de vue chimique, très différents des protéines. Ce sont eux-mêmes des macromolécules mais dont les briques de base sont des nucléotides au lieu d'acides aminés.
Ces 2 étapes font intervenir des protéines ; l'ARN polymérase pour la transcription et le ribosome pour la traduction. En ce qui concerne la transcription l'ARN polymérase se fixe sur l'ADN, se déplace le long de celui-ci tout en synthétisant l'ARN messager. Une fois cet ARN messager fabriqué un autre système protéique, le ribosome, se fixe sur cet ARN messager, se déplace le long de cet ARN tout en fabriquant une chaîne polypeptidique qui formera la protéine. Il s'agit d'un ensemble de mécanismes complexes se produisant en permanence dans les organismes vivants pour produire les protéines.
Ces protéines sont produites pour assurer un certain nombre de fonctions. Parmi ces fonctions, certaines sont essentielles pour la duplication de l'ADN et permettre la reproduction (assure la transmission à la descendance du patrimoine génétique). Par ailleurs ce sont des protéines (polymérases, ribosomes) qui assurent la production de l'ensemble des protéines. Mais les protéines assurent bien d'autres fonctions telles que :
- Des fonctions de structure (la kératine dans les poils, les cheveux ; le collagène pour former des tissus),
- Des fonctions de moteurs moléculaires (telles que celles assurées par la myosine dans les muscles) ; de telles protéines sont des usines de conversion d'énergie chimique en énergie mécanique.
- Des fonctions enzymatiques. Les protéines de ce type sont des enzymes et elles interviennent dans toutes les réactions chimiques se déroulant dans un organisme et qui participent au métabolisme ; c'est par exemple le cas du mécanisme de digestion permettant de transformer des éléments ingérés pour les transformer en molécules utilisables par l'organisme.
Pour faire bref toutes les fonctions essentielles des organismes vivants (la respiration, la digestion, le déplacement) sont assurés par des protéines.
A ce stade nous avons donc introduit les objets essentiels de cet exposé que sont les protéines. Pour être complet signalons que la taille de ces protéines est très variable ; nous avons vu le lysozyme constitué d'une centaine d'acides aminés mais certaines protéines sont plus petites et certaines peuvent être beaucoup plus grosses.
Nous allons maintenant pouvoir aborder le problème de la structure et du repliement de ces objets.
La structured'une protéine
Tout d'abord quels sont les outils disponibles pour étudier la structure de ces objets. Un des outils essentiels est la diffraction des rayons X. L'utilisation de cet outil repose sur 2 étapes. La première (pas toujours la plus facile) consiste à obtenir des cristaux de protéines. Ces protéines, souvent solubles dans l'eau, doivent être mises dans des conditions qui vont leur permettre de s'arranger sous la forme d'un arrangement régulier : un cristal. C'est ce cristal qui sera utilisé pour analyser la structure des protéines qui le composent par diffraction des rayons X. A partir du diagramme de diffraction (composé de multiples tâches) il sera possible de remonter à la position des atomes qui constituent les protéines. Un des outils essentiels à l'heure actuelle pour ce type d'expérience est le rayonnement synchrotron (SOLEIL, ESRF).
Il existe d'autres outils telle que la résonance magnétique nucléaire qui présente l'avantage de ne pas nécessiter l'obtention de cristaux mais qui reste limitée à l'heure actuelle à des protéines de petite taille.
Finalement à quoi ressemble une protéine ? Dans le cas du lysozyme on obtient une image de cette protéine où tous les atomes sont positionnés dans l'espace de taille typique environ 50 Angströms. Il s'agit d'un cas idéal car souvent on n'obtient qu'une image de basse résolution de la protéine dans laquelle on n'arrive pas à localiser précisément tous les atomes qui la constituent. Très souvent cette mauvaise résolution est liée à la mauvaise qualité des cristaux. C'est l'exemple donné ici d'une polymérase à ARN. Néanmoins on peut obtenir des structures très précises même dans de le cas de gros objets.
Repliement,dénaturation et paradoxede Levinthal
Très clairement on voit sur ces structures que les protéines sont beaucoup plus compactes que les chaînes désordonnées mentionnées au début. Cette structure résulte du repliement vers un état compact replié sur lui-même et c'est cet état qui est l'état fonctionnel. C'est ce qui fait que le repliement est un mécanisme extrêmement important puisque c'est ce mécanisme qui fait passer de l'état de chaîne linéaire déplié à un état replié fonctionnel. L'importance de ce repliement peut être illustrée dans le cas d'un enzyme qui permet d'accélérer une réaction chimique entre 2 objets A et B ; ces 2 objets peuvent se lier à l'enzyme, ce qui permet de les approcher l'un de l'autre dans une disposition où une liaison chimique entre A et B peut être formée grâce à l'environnement créé par l'enzyme. Tout ceci ne peut se produire que si les sites de fixation de A et B sont correctement formés par le repliement de la longue chaîne peptidique. C'est la conformation tridimensionnelle de la chaîne linéaire qui produit ces sites de fixation.
Il y a une notion associée au repliement qui est la dénaturation. Nous venons de voir que le repliement est le mécanisme qui fait passer de la forme dépliée inactive à la forme repliée active ; la dénaturation consiste à passer de cette forme active repliée à la forme inactive dépliée sous l'influence de facteurs aussi variés que la température, le pH, la présence d'agents dénaturants tels que l'urée.
La grande question du repliement c'est la cinétique de ce phénomène. Pour la plupart des protéines où des expériences de repliement-dénaturation ont été effectuées le temps caractéristique de ces phénomènes est de l'ordre de la seconde. Comment donc une protéine peut trouver sa conformation active en un temps de l'ordre de la seconde ?
Une approche simple consiste à développer une approche simplifiée sur réseau ce qui permet de limiter le nombre de degrés de liberté à traiter ; on peut par exemple considérer une protéine (hypothétique) placée sur un réseau cubique. On peut considérer le cas d'une protéine à 27 acides aminés. On peut alors compter le nombre de conformations possibles de telles protéines ; à chaque acide aminé on compte le nombre de directions pour positionner le suivant. Sur un réseau cubique à chaque étape nous avons 6 possibilités ce qui fera pour une chaîne de 27 acides aminés 627 possibilités. Cela n'est vrai qu'à condition d'accepter de pouvoir occuper 2 fois le même site du réseau ce qui, bien sur, n'est pas vrai dans la réalité ; si on tient compte de cela on arrive en fait à diminuer quelque peu ce nombre qui sera en fait 4,727. Plus généralement pour une chaîne de N acides aminés on obtiendra 4,7N possibilités. Si on part d'une chaîne dépliée on peut alors se dire que pour trouver le « bon état replié » il suffit d'essayer toutes les conformations possibles. Cela va s'arrêter lorsqu'on aura trouvé une conformation stable, c'est-à-dire une conformation énergétiquement favorable. Pour passer d'une conformation à une autre il faut au moins un mouvement moléculaire élémentaire dont nous avons vu que l'échelle de temps caractéristique est la picoseconde (10-12 seconde). I faut donc un temps total (afin d'explorer toutes les conformations) :
Trepliement= 4,7N * Tmoléculaire.
Si on prend N=100, Tmoléculaire= 1picoseconde=10-12seconde, alors :
Trepliement= 1055 secondes !!!
C'est beaucoup car on cherche 1 seconde et on trouve quelque chose de beaucoup plus grand que l'âge de l'univers (de l'ordre de 1027 secondes). Avec cette approche il faut plus de temps à une protéine pour se replier et met plus de temps que l'âge de l'univers.
C'est le paradoxe de Levinthal.
Comment s'en sortir ?
Il faut revenir aux acides aminés et en particulier aux résidus qui permettent de différencier les 20 acides aminés. Ces 20 acides aminés peuvent se regrouper en famille selon la nature de ce résidu.
Une première famille est constituée par les acides aminés hydrophobes. Qu'est ce qu'un acide aminé hydrophobe ou l'effet hydrophobe ? Il s'agit de l'effet qui fait que l'eau et l'huile ne se mélangent pas. Si sur une chaîne on dispose des acides aminés hydrophobes alors ceux-ci vont faire « collapser » la chaîne afin de se regrouper et de se « protéger » de l'eau, tout comme l'eau et l'huile ont tendance à ne pas se mélanger. Ce mécanisme tend à créer ainsi une poche hydrophobe qui permet à ces acides aminés d'éviter l'eau. On commence ainsi à avoir une amorce de solution au paradoxe de Levinthal : la protéine ne va essayer que toutes les conformations, elle va commencer à utiliser dans un premier temps ce mécanisme qui à lui seul va éliminer un grand nombre de conformations possibles.
Mais il y a d'autres familles d'acides aminés et parmi celles-ci celle des acides aminés chargés (+ ou -) qui vont être soumis aux interactions électrostatiques classiques (les charges de même signe se repoussent, les charges de signe contraire s'attirent). Ainsi, si le long de la chaîne nous avons 2 acides aminés de signe opposé ils vont avoir tendance à s'attirer ; cet effet a là encore tendance à diminuer le nombre de conformations possibles pour la chaîne.
Dernière famille, un peu plus complexe mais au sein de laquelle les interactions sont de même nature que pour les acides aminés chargés, à savoir des interactions de type électrostatique. Cette famille est constituée par les acides aminés polaires qui ne portent pas de charge globale mais au sein desquels la distribution des électrons est telle qu'il apparaît une distribution non uniforme de charges ; cette asymétrie dans la répartition des charges va permettre par exemple de créer des liaisons hydrogènes entre molécules d'eau (interactions qui donnent à l'eau des propriétés particulières par rapport à la plupart des autres liquides).
Au total l'image initiale que nous avions des chaînes polypeptidiques doit être un peu repensée et l'on doit abandonner l'idée d'une marche au hasard permettant d'explorer toutes les conformations possibles puisque les briques de base de ces chaînes interagissent fortement les unes avec les autres. On peut ainsi récapituler l'ensemble des interactions au sein d'une chaîne (effet hydrophobe, liaison ionique, liaison hydrogène, sans oublier un mécanisme un peu particulier faisant intervenir des acides aminés soufrés qui peuvent former un pont disulfure ; il s'agit néanmoins d'une liaison un peu moins générale que les précédentes et qui par ailleurs est beaucoup plus solide).
La structure globale de nos protéines résulte de la présence de toutes ces interactions entre les acides aminés présents le long de la chaîne. Lorsque l'on regarde attentivement de telles structures on observe la présence d'éléments répétitifs assez réguliers : hélices, feuillets. Ces feuillets sont des structures locales au sein desquelles la chaîne est organisée dans un plan au sein duquel la chaîne s'organise. Ces éléments de régularité résultent des interactions entre acides aminés et pour la plupart il s'agit des fameuses liaisons hydrogènes entre atomes spécifiques. Bien évidemment certaines régions sont moins organisées et on retrouve localement des structures de type marche au hasard.
Si on récapitule ce que nous avons vu concernant la structure des protéines, nous avons introduit la notion de structure primaire qui n'est rien d'autre que l'enchaînement linéaire des acides aminés. Nous venons de voir qu'il existait des éléments de structure locale (hélices, feuillets) que nous appellerons structure secondaire. Et ces éléments associés aux uns aux autres forment la structure globale tridimensionnelle de la protéine que nous appellerons structure tertiaire.
Il faut noter que cette structure des protéines résulte d'interactions entre acides aminés et il est intéressant de connaître les ordres de grandeur des énergies d'interactions mises en jeu. Ces énergies sont en fait faibles et sont de l'ordre de grandeur de l'énergie thermique (kBT). C'est le même ordre de grandeur que les énergies d'interaction entre molécules au sein d'un liquide comme l'eau ; on peut s'attendre donc à ce que de tels objets ne soient pas rigides ou totalement fixes. Ces mouvements demeurent faibles car il y a une forme de coopérativité (au sens ou plusieurs acides aminés coopèrent pour assurer une stabilité des structures observées) qui permet néanmoins d'observer une vraie structure tridimensionnelle. Ainsi, au sein d'un feuillet ou d'une hélice, plusieurs liaisons sont mises en jeu et à partir de plusieurs éléments interagissant faiblement, on peut obtenir une structure relativement stable de type feuillet ou hélice ; il suffit néanmoins de peu de chose pour détruire ces structures, par exemple chauffer un peu.
Si on revient au mécanisme de repliement on doit abandonner notre idée initiale de recherche au hasard de la bonne conformation. Si on part d'un état initial déplié, un premier phénomène a lieu (essentiellement lié à l'effet hydrophobe, qui vise à regrouper les acides aminés hydrophobes) qui fait rapidement collapser la chaîne sur elle-même. D'autres phénomènes vont alors se mettre en route comme la nucléation locale de structures secondaires de type hélices ou feuillets qui vont s'étendre rapidement le long de la chaîne. Le processus de Levinthal est donc complètement faux et l'image correcte est beaucoup plus celle donnée ici de collapse essentiellement lié à l'effet hydrophobe et de nucléation locale de structures secondaires.
Les protéines n'essaient donc pas d'explorer l'ensemble des conformations possibles pour trouver la bonne solution mais plutôt utiliser les interactions entre acides aminés pour piloter le mécanisme de repliement.
En fait la composition chimique de la chaîne contient une forme de programme qui lui permet de se replier correctement et rapidement.
Au sein des organismes vivants il y a donc plusieurs programmes ; un programme au sein du génome qui permet la synthèse chimique des protéines et un programme de dynamique intramoléculaire interne à la chaîne protéique qui lui permet d'adopter rapidement la bonne conformation lui permettant d'assurer sa fonction.
Il faut noter qu'il existe d'autres façons de s'assurer que les protéines se replient correctement qui font intervenir d'autres protéines (les chaperons).
Notons enfin les tentatives effectuées à l'heure actuelle de modélisation réaliste sur ordinateurs.
VIDEO CANAL U LIEN
|
|
|
|
|
|
|
Primitive, l'oxygénation de nos cellules ? |
|
|
|
|
|
Primitive, l'oxygénation de nos cellules ?
Plaie d'oxygène n'est pas toujours mortelle
Jean-Charles Massabuau, Cécile Klingler dans mensuel 354
daté juin 2002 -
Sous notre regard d'animal « évolué », le constat est perturbant : le sang des animaux à respiration aquatique est bien moins oxygéné que le nôtre. Mais il est aussi oxygéné que le milieu dans lequel baignent nos cellules... Serait-ce le résultat d'un étonnant continuum respiratoire venant du fond des temps ?
Des poissons le ventre en l'air, l'oeil vitreux, morts... Par manque d'oxygène ? Que la scène se déroule en aquarium, bassin ou rivière, la conclusion tombe, systématiquement affirmative. Pourtant, on sait depuis plusieurs années que les animaux aquatiques poissons, crustacés, mollusques ou annélides règlent très souvent le débit de renouvellement d'eau sur leurs branchies pour avoir un sang - et donc des cellules - le moins oxygéné possible. Cette observation a longtemps semblé paradoxale, par comparaison avec le sang très oxygéné des animaux à sang chaud - oiseaux et mammifères. Elle est aujourd'hui mise à profit pour ouvrir de nouvelles perspectives dans le domaine de l'analyse de problèmes environnementaux, du fonctionnement cellulaire et de l'évolution. En effet, on sait que nos cellules d'homéothermes * fonctionnent, elles aussi, à une pression partielle * d'oxygène très faible : des cellules d'animaux primitifs vivant il y a 1 à 2 milliards d'années à celles des mammifères actuels, y aurait-il un continuum respiratoire d'un impressionnant conservatisme ?
La puce à l'oreille. Il y a une vingtaine d'années, les écrevisses avaient, les premières, éveillé l'intérêt des écophysiologistes. Quel que soit l'état d'oxygénation de l'eau, elles ajustaient systématiquement leur activité ventilatoire * de façon à ce que leur sang artériel demeure à un très faible niveau d'oxygénation1. Un résultat bien différent de celui relevé chez les animaux à sang chaud, dont, en milieu aérien, la pression partielle * d'oxygène du sang est cinq à dix fois plus élevée. En outre, cette pression varie très nettement selon la pression partielle d'oxygène de l'air inspiré, ce qui n'est pas le cas chez l'animal aquatique fig. 1. D'emblée, une éventuelle erreur expérimentale fut suspectée, d'autant plus que l'analyse de la littérature scientifique montrait une grande variabilité dans les résultats. Certains auteurs avaient effectivement mesuré des valeurs d'oxygénation basses, mais beaucoup avaient rapporté des valeurs plus élevées, parfois comparables à celles mesurées chez l'homme.
Ces contradictions n'ont pas résisté à la mise en examen des conditions expérimentales : une grande partie de l'explication réside dans la manière d'aborder ces animaux, très sensibles au stress mais toujours silencieux face à un expérimentateur... Isolés des multiples stimulations sonores, vibratoires et visuelles liées au fonctionnement d'un laboratoire, les écrevisses - comme tous les crustacés étudiés depuis dans des conditions de calme, sur le terrain comme au laboratoire - présentent effectivement une très faible activité ventilatoire au repos. Dès lors, il a fallu se rendre à l'évidence : il existait bien une stratégie de régulation inconnue et originale, qu'on a retrouvée ensuite chez des représentants des trois autres grands groupes d'animaux à respiration aquatique que sont les poissons2, les mollusques3,4 et les annélides5.
Chez tous ces animaux, l'oxygénation du sang est réglée à des pressions partielles d'oxygène très basses quelle que soit l'oxygénation du milieu environnant. Dans les eaux sur-oxygénées où la photosynthèse est importante - comme les herbiers en été -, le débit d'eau sur les branchies diminue par rapport à sa valeur usuelle, pour éviter une plus forte oxygénation interne. Le phénomène est inverse dans les eaux peu oxygénées, sans que l'animal, toutefois, n'en fasse « plus qu'il n'en faut » : le débit d'eau passant sur les branchies augmente seulement dans des proportions qui lui permettent de rester juste au-dessus du seuil d'anaérobiose. On observe donc un comportement d'économie d'énergie en termes d'activité ventilatoire, car un minimum d'eau est déplacé dans la ou les cavités branchiales pour une extraction d'oxygène optimisée. Ce comportement particulier a reçu le nom de « stratégie des faibles PO2 » PO2 pour pression partielle d'oxygène.
Avantages multiples. Si ce mode de gestion des flux d'oxygène ne devait procurer qu'un seul avantage, ce serait celui-là : il confère un atout écologique certain pour faire face, au moins de façon transitoire, à des problèmes de très faible oxygénation de l'eau. En effet, la constance d'oxygénation du milieu intérieur de l'animal est assurée jusqu'à des valeurs de PO2 très basses dans l'environnement. Cette caractéristique explique, au moins en partie, la présence d'animaux dans des eaux très peu oxygénées, mais non polluées, durant certaines périodes de l'année. C'est ce qui se produit au fond de lagunes en été à marée basse, dans certains bassins de fermes aquacoles en périodes chaudes ou dans certaines rivières. Cette stratégie va de pair avec l'absence de réserves d'oxygène dans le milieu intérieur, que ce soit le sang ou les tissus. L'oxygène est géré comme fonctionne une grande partie de notre économie de marché, sans stocks, en flux tendus.
Sur le plan cellulaire, la stratégie des faibles oxygénations du milieu intérieur pose aux chercheurs plusieurs problèmes cruciaux : comment un animal peut-il « fonctionner » dans des conditions aussi drastiques ? Cette situation n'est-elle pas limitante pour un certain nombre de réactions physiologiques ? Elle se heurte en tout cas aux données de la biochimie. En effet, nombre de réactions métaboliques dépendent de l'oxygène. Or, leur constante d'affinité pour cet élément c'est-à-dire la concentration en oxygène pour laquelle la vitesse de réaction atteint 50 % de sa valeur maximale correspond à des concentrations beaucoup plus élevées que celles permises par de faibles pressions partielles. En fait, sur la centaine de réactions dépendant de l'oxygène que l'on connaît, seule celle catalysée par la cytochrome c-oxydase une enzyme qui participe à la synthèse d'ATP dans les mitochondries ne serait théoriquement pas limitée par ces faibles états d'oxygénation6. Cette particularité de fonctionnement fait des animaux aquatiques utilisant la stratégie des faibles PO2 des objets d'étude intriguants pour les spécialistes de l'énergétique cellulaire. Le minuscule crustacé Artemia franciscana - bien connu des aquariophiles qui nourrissent leurs poissons de ses larves - a dévoilé en 2000 quelques-unes des caractéristiques de ses mitochondries les usines énergétiques de la cellule. In vitro, ces dernières présentent un mécanisme de phosphorylation oxydative * plus efficace dans une solution faiblement oxygénée que dans une solution équilibrée à l'air7.
Cela dit, si la pression partielle d'oxygène dans le sang d'un animal aquatique au repos est excessivement basse, elle augmente dans certaines situations physiologiques bien précises, comme s'il fallait lever une limitation. Pendant la journée, lorsqu'un crustacé est au repos, immobile et caché sous des pierres, la pression partielle dans les tissus est réellement minimale et limite le métabolisme oxydatif des muscles locomoteurs des pattes. En revanche, elle augmente lors des phases d'activité nocturne de recherche de nourriture, levant ainsi la limitation métabolique diurne8. Chez l'écrevisse Astacus leptodactylus, ce rythme circadien voit la pression partielle d'oxygène dans le sang doubler entre le jour et la nuit, bien qu'elle reste toujours très en deçà de celle de l'eau. Comme on a expérimentalement montré que ces faibles pressions limitent de façon précise le métabolisme des muscles locomoteurs, mais pas les besoins globaux de l'animal en oxygène, on en a conclu que ce mécanisme devait participer à la réalisation d'un comportement de repos en agissant directement sur les pattes. Ce comportement est assimilé à un état de torpeur diurne ; la gestion de l'oxygène contribue donc à dissimuler l'animal à ses prédateurs pendant la journée. Une augmentation analogue a été observée, chez le homard cette fois, pendant les premières heures après la prise de nourriture. L'oxygène influence alors, à la manière directe d'un neuromodulateur, l'activité de neurones et de synapses spécifiques de la partie du cerveau qui commande le fonctionnement de l'appareil digestif pendant les premières étapes de la digestion9,10. Bloquer cette augmentation transitoire, à un niveau du cerveau très précis, altère profondément le travail de filtration de la chambre pylorique et la coordination de ses mouvements avec l'estomac.
Mettre en évidence et expliquer les conséquences physiologiques de la stratégie des faibles oxygénations ne reflète qu'un aspect des recherches actuelles. Le côté, disons, fonctionnel et mécanistique. Parallèlement, les scientifiques cherchent également à comprendre jusqu'à quel ensemble d'animaux le concept d'homéostasie du milieu intérieur en situation de limitation chronique d'oxygène est généralisable, et quelle est son origine. Est-il inéluctablement lié au mode de respiration aquatique ? Non, puisqu'on le retrouve chez des poïkilothermes à respiration aérienne comme le crabe des cocotiers11 - crabe terrestre - et les araignées. Serait-il à rapprocher du faible niveau métabolique des cellules d'animaux fonctionnant à des températures plus basses que les nôtres, et qui réclament un flux d'oxygène dix à cinquante fois moins important ? La relation paraît logique : l'un des principaux mécanismes responsables de la diffusion d'oxygène du sang dans la cellule est en effet la différence de pression partielle entre sang et milieu intracellulaire. Des pressions partielles élevées dans le sang seraient associées à un métabolisme élevé alors que des pressions faibles seraient suffisantes pour assurer un métabolisme faible.
Si l'hypothèse « métabolique » est correcte, elle implique que tous les animaux aquatiques ne suivent pas la stratégie des très faibles oxygénations du sang pendant toutes les phases de leur comportement. C'est ce qui, précisément, a été constaté chez certains d'entre eux. Nous avons déjà vu que, lorsque les crustacés se déplacent en période de recherche de nourriture, leur pression partielle d'oxygène dans le sang artériel augmente. Pour des exercices plus intenses, il n'est pas exclu que des augmentations transitoires, et peut-être plus importantes, aient lieu chez des poissons très actifs comme les thons et les salmonidés. Les thons, en particulier, sont des poissons qui ont des muscles « chauds » et sont parfois considérés comme une sorte d'étape intermédiaire entre l'homéothermie et la poïkilothermie. Pour autant, et même si l'hypothèse « métabolique » se révèle correcte, ne retrouve-t-on pas, chez les animaux à sang chaud, des éléments rappelant la stratégie des faibles oxygénations ? En fait, on sait aujourd'hui que c'est bien le cas. In fine, il est actuellement envisagé d'intégrer le concept de stratégie des faibles oxygénations dans une perspective évolutionniste qui considère l'adaptation de la vie animale à l'augmentation de la quantité d'oxygène sur Terre.
Il faut se rappeler qu'à l'origine la vie s'est développée dans une eau marine faiblement oxygénée. Elle n'était alors représentée que par des unicellulaires, puis par des formes pluricellulaires de petite taille qui obtenaient l'oxygène par diffusion. La quantité d'oxygène a ensuite augmenté dans l'atmosphère avec le développement de la photosynthèse. En parallèle, les animaux grandissaient tout en se complexifiant, et certains développaient des branchies et des systèmes de transport d'oxygène par le sang permettant à ce gaz d'atteindre un milieu intérieur devenu inaccessible. Ce qui est remarquable, c'est qu'aujourd'hui la pression partielle d'oxygène dans le milieu extracellulaire et les cellules des mammifères est toujours très faible. En fait, elle est dans la même gamme que celle du sang artériel des animaux aquatiques dont nous venons de parler fig. 2. D'où l'hypothèse que l'animal, aquatique puis aérien, à sang froid puis à sang chaud, se serait continuellement adapté au cours de la phylogenèse, de telle sorte que l'état d'oxygénation de ses cellules demeure à un niveau faible et constant, bien que la complexité des organismes et la quantité d'oxygène dans leur environnement aient augmenté12 fig. 3.
Pour attractive qu'elle soit, cette hypothèse du maintien d'un niveau primitif d'oxygénation n'est sans doute pas suffisante pour expliquer la similarité des valeurs de pression partielle d'oxygène entre cellules d'animaux à sang froid, puis à sang chaud. Un complément d'explication se trouve peut-être dans le problème de la toxicité de l'oxygène. En effet, les pressions partielles plus élevées ont sur le fonctionnement cellulaire une action délétère connue depuis très longtemps - c'est en 1878 qu'il en était fait mention pour la première fois13. A présent, on sait que cet effet résulte de la toxicité des radicaux libres, ces dérivés de l'oxygène chimiquement très réactifs qui, de ce fait, détruisent les molécules organiques avec lesquelles ils entrent en contact. L'action des radicaux libres est d'ailleurs, aujourd'hui, l'une des principales théories pour expliquer les causes incontournables du vieillissement14. Certes, il existe bien des enzymes qui détruisent certains d'entre eux, enzymes dont on pense qu'elles sont apparues très tôt au cours de l'évolution. Mais prévenir une trop forte élévation de pression partielle d'oxygène dans les cellules représente bien sûr le moyen le plus simple et le plus immédiat de limiter la production de radicaux libres et le danger qu'ils représentent.
Elargissement. Etant donné la relation très ubiquiste entre oxygène et vivant, c'est à un champ du fonctionnement cellulaire très large que pourrait maintenant s'étendre le domaine d'application de la stratégie des faibles oxygénations. Il faut savoir, par exemple, qu'à quelques exceptions près la plupart des études faites en physiologie et biologie cellulaire sont réalisées avec des cellules souvent maintenues dans des milieux où l'oxygénation est dix, cinquante ou cent fois plus élevée qu'in situ, ou à des niveaux d'oxygénation inconnus et non contrôlés. Des chercheurs comme Dean Jones, de l'université Emory à Atlanta, ont pourtant, dès 1985, posé clairement la question du niveau d'oxygénation nécessaire à une cellule15. Pour compliquer encore plus les choses, d'autres ont depuis suggéré que les cellules pourraient utiliser l'oxygène et ses dérivés non seulement comme des modulateurs de réactions biochimiques, mais aussi comme molécules de signalisation à part entière16. A la frontière entre manque et excès d'une molécule on ne peut plus vitale, l'écophysiologie ouvre donc des champs nouveaux, au-delà de l'étude du fonctionnement des écosystèmes aquatiques. Elle met en lumière de nouvelles hypothèses évolutives et stimule l'analyse de facettes originales du rôle de l'oxygène, de la cellule à l'organisme.
1MassabuauetBurtin,J . Comp. Physiol. B 155, 43, 1984.
2 J. Forgue et al., J. Exp. Biol., 143, 305, 1989.
3 J.-C. Massabuau et al., Respir. Physiol., 83, 103, 1991.
4 D. Tran et al., Canad. J. Zool., 78 ,2027, 2000.
5 A. Toulmond, Respir. Physiol., 19, 130, 1973.
6 J.M. Vanderkooi et al.,Am.J.Physiol.,260,C1131, 1991.
7 E. Gnaiger et al., Proc. Natl. Acad. Sci. USA, 97, 11080, 2000.
8 J. Forgue et al., J. Exp.Biol. ,204,933,2001.
9 J.-C. Massabuau et P. Meyrand, J. Neurosci., 16, 3950, 1996.
10 S. Clemens et al., J. Neurosci., 18, 2788, 1998.
11 C. Farrelly et P. Greenaway, J. Exp. Biol., 187 ,113,1994.
12J.-C. Massabuau, Respir. Physiol., 128, 249, 2001.
13 P. Bert, La Pression barométrique, Paris, Masson, 1978 réimprimé en 1979 par les Editions du CNRS.
14 T. Finkel et N.J. Holbrook, Nature, 408, 239, 2000.
15 D.P. Jones et al., Mol. Physiol., 8 ,473, 1985.
16 H. Acker, Respir. Physiol., 95, 1, 1994.
NOTES
*Homéotherme
Animal dont la température est constante 37°C chez es mammifères,
41°C chez les oiseaux
et indépendante de celle du milieu extérieur. S'oppose à poïkilotherme.
*Ventilation
Convection du milieu liquide ou gaz au niveau d'un échangeur gazeux externe poumons ou branchies.
*Pression partielle
La pression partielle d'un gaz dans un mélange gazeux occupant un volume donné est la pression qu'il exercerait s'il occupait seul ce volume. La référence utilisée est la pression barométrique de l'air au niveau de la mer, soit 100 kiloPascal kPa. L'air contenant 21 % d'oxygène, la pression partielle d'O2 y est de 21 kPa.
*Phosphorylation oxydative : étape finale du catabolisme, pendant laquelle est libérée la plus grande partie de l'énergie métabolique.
DOCUMENT larecherche LIEN |
|
|
|
|
|
|
Un mécanisme inédit d’extension de la recombinaison homologue chez les bactéries |
|
|
|
|
|
Un mécanisme inédit d’extension de la recombinaison homologue chez les bactéries
22 juin 2017 RÉSULTATS SCIENTIFIQUES
Les étapes précoces de la recombinaison homologue (RH) consistent en l’invasion d’un seul brin d’ADN "donneur" dans un duplex complémentaire "receveur", générant une synapse à trois brins d’ADN communément appelée "D-loop". Les équipes de Patrice Polard au Laboratoire de microbiologie et de génétique microbiennes, et Rémi Fronzes à l’Institut européen de chimie et de biologie, dévoilent un mécanisme inédit d’extension de l’incorporation d’ADN au niveau de la D-loop de RH. Cette étude a été publiée le 31 mai 2017 dans la revue Nature Communications.
Les recombinases RecA/Rad51 sont des effecteurs centraux des étapes d’échanges de brins d’ADN de multiples voies de recombinaison homologue (RH) essentielles pour la la stabilité et l’évolution des génomes chez tous les organismes. Elles catalysent la RH sous la forme de polymères assemblés et désassemblés de manière ordonnée sur les brins d’ADN échangés, un processus régi par la fixation et l’hydrolyse d’ATP à l'interface de chaque monomère du filament. La RH débute par la polymérisation de la recombinase sur un brin d’ADN, générant un nucléofilament actif pour son appariement à une séquence d’ADN double-brin (ADNdb) homologue. Il en résulte un intermédiaire à 3 brins d’ADN, communément appelé "D-loop".
Les voies de RH se distinguent entre elles par des effecteurs secondaires, qui contrôlent ou assistent l’action de la recombinase. Singulièrement, plusieurs de ces effecteurs présentent une homologie significative de séquence avec les protéines RecA/Rad51 au niveau du site de liaison à l’ATP. Leur rôle, peu compris jusqu’à présent sur le plan du mécanisme, est déterminant pour la physiologie cellulaire. En effet, des mutations dans les 5 protéines humaines de ce type entrainent une forte susceptibilité à développer des cancers.
L’appareil de RH bactérien possède une seule protéine de ce type. Il s’agit de la protéine fortement conservée au plan évolutif RadA (aussi appelée Sms dans certaines espèces), identifiée et caractérisée génétiquement il y a une trentaine d’années chez Escherichia coli pour son rôle d’assistance à RecA dans la réparation de dommages à l’ADN du génome. Son étude biochimique a récemment montré qu’elle agit en soutien à RecA pour promouvoir l’incorporation d’ADN simple-brin (ADNsb) au niveau de la D-loop. L’homologie entre RadA et RecA a suggéré que RadA mimerait et/ou assisterait le mécanisme de migration de branche d’ADN de RecA, qui catalyse au niveau de la D-loop l’incorporation de l’ADNsb envahissant, de manière biaisée vers son extrémité 3’.
Les chercheurs ont conduit une étude de la structure et de la fonction de la protéine RadA de la bactérie pathogène de l’homme Streptococcus pneumoniae. Cette étude intégrée a révélé sa structure atomique. De manière inattendue, son domaine central apparenté à RecA a montré sa très forte paralogie avec le domaine de liaison et d’hydrolyse de l’ATP des hélicases réplicatives bactériennes de la famille DnaB. A cette découverte s’ajoute l’organisation de RadA en anneau hexamérique, un trait commun aux protéines DnaB. Ceci a guidé l’étude biochimique de RadA, qui a révélé qu’elle était une hélicase active se déplaçant comme DnaB le long de l’ADNsb de 5’ vers 3’. Une autre avancée de cette caractérisation fonctionnelle de RadA du pneumocoque a résulté de son étude in vivo visant à comprendre son rôle dans la transformation génétique, un processus de transfert latéral d’ADN conduisant à son intégration au génome par RH. L’inactivation de RadA conduit à une réduction de l’efficacité de transformation de 100 fois. A l’aide de tests de transformation particuliers, les chercheurs ont montré que le rôle de RadA est de promouvoir l’intégration d’ADNsb dans le génome sur de longues distances, dans la direction 3’ de cet ADNsb recombiné, mais aussi dans la direction 5’, à l’opposé de l’action de migration de branche catalysée par RecA. L’interaction de RadA avec RecA, également révélée dans cette étude, est nécessaire à cette action de RadA.
Cette étude aboutit à un modèle de mécanisme totalement inédit d’assistance de la RH médiée par une hélicase de type DnaB. Ce modèle, réconciliant les études biochimiques et génétiques, propose qu’un hexamère de RadA serait chargé par RecA sur chaque brin de l’ADNdb receveur et prolongerait symétriquement l’incorporation d’ADNsb donneur aux bornes de la D-loop construite par RecA. RadA émerge comme un effecteur d’extension de l’appareil de recombinaison homologue bactérien, une activité optimisant la plasticité du génome lors de la transformation génétique.
© Rémi Fronzes
En savoir plus
* Bacterial RadA is a DnaB-type helicase interacting with RecA to promote bidirectional D-loop extension.
Marie L, Rapisarda C, Morales V, Bergé M, Perry T, Soulet AL, Gruget C, Remaut H, Fronzes R, Polard P.
Nat Commun. 2017 May 31;8:15638. doi: 10.1038/ncomms15638
Contact
Rémi Fronzes
Patrice Polard
05 61 33 59 72
DOCUMENT cnrs LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante |
|
|
|
|
|
|