ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

ÉVOLUTION ET CANCER

 

Paris, 16 novembre 2012


Evolution et cancer : pourquoi les gènes « dangereux » ont-ils été multipliés et conservés au cours de l'évolution ?


Si l'on s'accorde facilement sur la conservation des gènes essentiels à la vie des organismes au cours de l'évolution, à l'inverse, l'étonnante multiplication des gènes à l'origine des cancers ou d'autres maladies génétiques pose question. L'équipe d'Hervé Isambert(1) , en partenariat avec celle de Jacques Camonis(2) , viennent d'apporter une réponse inattendue à ce problème. Jusqu'à présent, il était supposé que ces gènes « dangereux » conféraient malgré tout un avantage sélectif. Or leur dernière recherche, publiée en ligne dans Cell Reports du 15 novembre, montre que ces gènes ont en fait été multipliés et conservés en raison de leur dangerosité à la suite d'un accident génétique majeur, une duplication globale de génome.
Le cancer résulte d'une série d'accidents génétiques qui se produisent par étapes. Le point de départ de ce processus est l'altération du matériel génétique d'une cellule. Toutes les mutations ne sont toutefois pas susceptibles d'entraîner la formation d'un cancer. Un des gènes qui régulent les processus vitaux de la cellule (division, différenciation, réparation ou apoptose) doit être "touché". Ce sont ces gènes, comme les oncogènes, que l'on qualifie de « dangereux ». Suite à une altération, l'oncogène est activé, ce qui donne lieu à une prolifération incontrôlée de la cellule. Une mutation au niveau d'une seule des deux copies de ce gène – dans notre patrimoine génétique, les gènes sont présents en deux copies, l'une héritée de notre mère, l'autre de notre père – est nécessaire pour entraîner le développement d'un cancer.

Mais comment ces gènes « dangereux » ont-ils été multipliés et conservés au fil de l'évolution, malgré les risques qu'ils représentent ? C'est la question que se sont posée conjointement deux équipes de l'Institut Curie, celle d'Hervé Isambert, directeur de recherche CNRS, et celle de Jacques Camonis, directeur de recherche CNRS.

De l'expansion des gènes dangereux chez les vertébrés

« Pour bien comprendre l'histoire des gènes que l'on considère comme dangereux, il faut remonter à l'ancêtre commun à tous les vertébrés, un petit invertébré marin, qui vivait il y a quelque 500 millions d'années » explique en préambule Hervé Isambert. Par un mécanisme presque toujours létal, mais qui a joué un rôle essentiel au cours de l'évolution, cette lignée d'invertébrés a entièrement dupliqué son génome deux fois de suite et survécu à ces deux accidents génétiques majeurs. Résultat : des organismes présentant jusqu'à 4 exemplaires de tous leurs gènes. « Cet événement est fondateur puisqu'il va être le point de départ de la complexification des organismes et de l'émergence des vertébrés ». Environ un quart à un tiers de nos gènes serait directement issu de ces deux duplications de génome à l'origine des vertébrés ; on appelle ces gènes ohnologues.

« Après une duplication globale de génome, les organismes vont progressivement éliminer 80 à 90 % des copies de leurs gènes, mais de façon surprenante les gènes dangereux vont être davantage conservés, car ils sont plus difficiles à supprimer » explique Hervé Isambert. En conséquence, la quantité de gènes « dangereux » a littéralement explosé chez les vertébrés où ils sont jusqu'à 4 fois plus nombreux que chez les invertébrés. Ainsi le gène Ras de la mouche a conservé chez les vertébrés trois ohnologues (KRas, HRas et NRas), qui sont au cœur de nombreuses voies de signalisation et se trouvent activés en permanence dans près de 25 % des cas de cancer.

Alors pourquoi les multiples copies de ces gènes « dangereux » n'ont-elles pas été éliminées chez les vertébrés ? « Pour le comprendre, il faut avoir en tête que la duplication globale du génome, lorsqu'elle n'est pas létale, implique nécessairement l'apparition d'une nouvelle espèce dans laquelle tous les individus possèdent initialement tous leurs gènes en double », ajoute le chercheur, « mais aussi que tous les gènes ne sont pas égaux face aux mutations. » Les gènes « dangereux » se caractérisent par le fait qu'une mutation entraîne fréquemment une sur activation, c'est-à-dire un gain de fonction plutôt qu'une perte de fonction. En général, la perte de fonction d'un ohnologue ne pose pas de problème tant qu'il reste une copie fonctionnelle de ce gène. Ceci conduit à l'élimination progressive d'une des copies de la plupart des ohnologues « non-dangereux ».

A l'inverse, la survenue de mutations conduisant à des gains de fonction, qui caractérisent les ohnologues « dangereux », va entraîner des pathologies du développement ou des tumeurs. Celles-ci pénalisent les organismes atteints et, plus ou moins directement, leur descendance qui finira par s'interrompre. Pour autant, les gènes dangereux impliqués ne sont pas éliminés mais au contraire conservés, puisqu'ils sont encore présents sous une forme non-délétère dans le reste de la population issue de la duplication de génome. Ce processus évolutif par élimination de mutants se distingue du concept d'avantage sélectif généralement associé à l'évolution.

Tout est donc lié à ce phénomène spécifique et très rare de duplication globale du génome. Ensuite ces gènes se sont différenciés pour devenir des acteurs majeurs du développement, de la signalisation et de la régulation cellulaires. Par exemple les cadhérines, sorte de colle qui lient les cellules entre elles, ont conservé de multiples ohnologues exprimés dans différents tissus, comme la E-cadhérine qui lie les cellules épithéliales entre elles ou la N-cadhérine exprimée dans les neurones. Mais les mutations des cadhérines qui entrainent la séparation des cellules entre elles sont aussi impliquées dans la migration des cellules tumorales et donc leur dissémination vers d'autres organes. Cet exemple parmi tant d'autres illustre l'importance de cette double duplication du génome survenue il y a 500 millions d'années dans l'évolution des vertébrés. Elle a permis l'émergence d'organismes plus complexes, mais aussi la multiplication des gènes dangereux chez les vertébrés.


Notes :
(1)Hervé Isambert est directeur de recherche CNRS, chef d'équipe dans l'unité Physico-chimie Curie Institut Curie/CNRS UMR 168/UPMC
(2)Jacques Camonis est directeur de recherche CNRS et chef d'équipe dans l'unité Génétique et biologie des cancers - Institut Curie/Inserm U830
Références :
On the expansion of “dangerous” gene repertoires by whole genome duplications in early vertebrates
P. P. Singh(1), S. Affeldt(1), I. Cascone(2), R. Selimoglu(2), J. Camonis(2), H. Isambert(1)
(1) CNRS UMR168 UPMC, Institut Curie,
(2) Inserm U830, Institut Curie,
Cell Reports, publication en ligne, 15 novembre 2012

 

DOCUMENT         CNRS         LIEN

 
 
 
initiation musicale toulon  

LE MÉCANISME DE REPLIEMENT DES MOLÉCULES

 

LE MÉCANISME DE REPLIEMENT DES MOLÉCULES



Textede la 595ème conférencede l'Universitéde tous les savoirs prononcée le 17 juillet 2005
ParDidier Chatenay: « Le mécanisme de repliement des molécules »
Le thème de cette conférence vous fera voyager aux confins de plusieurs sciences : physique, chimie et biologie bien évidemment puisque les macromolécules dont nous parlerons sont des objets biologiques : des protéines.
Le plan de cet exposé sera le suivant :
- Quelques rappels sur la structure de la matière (atomes, liaisons chimiques, molécules, macromolécules).
- Qu'est-ce qu'une protéine (la nature chimique de ces macromolécules, leur mode de synthèse, leurs structures et leurs fonctions biologiques) ?
- Le problème du repliement (d'où vient le problème, paradoxe de Levinthal).
- Résolution du paradoxe et interactions inter intra moléculaires (échelles des énergies mises en jeu).


Rappels sur la structure de la matière.
La matière est constituée d'atomes eux-mêmes étant constitués d'un noyau (composé de particules lourdes : protons, chargés positivement, et neutrons non chargé) entouré d'un nuage de particules légères : les électrons chargés négativement. La taille caractéristique d'un atome est de 1 Angström (1 Angström est la dix milliardième partie d'un mètre ; pour comparaison si je prends un objet de 1 millimètre au centre d'une pièce, une distance dix milliards de fois plus grande représente 10 fois la distance Brest-Strasbourg).
Dans les objets (les molécules biologiques) que nous discuterons par la suite quelques atomes sont particulièrement importants.
Par ordre de taille croissante on trouve tout d'abord l'atome d'hydrogène (le plus petit des atomes) qui est le constituant le plus abondant de l'univers (on le trouve par exemple dans le combustible des fusées). L'atome suivant est le carbone ; cet atome est très abondant dans l'univers (on le trouve dans le soleil, les étoiles, l'atmosphère de la plupart des planètes. Il s'agit d'un élément essentiel comme source d'énergie des organismes vivants sous forme de carbohydrates). On trouve ensuite l'azote, constituant essentiel de l'air que nous respirons. L'atome suivant est l'oxygène, également constituant essentiel de l'air que nous respirons, élément le plus abondant du soleil et essentiel au phénomène de combustion. Le dernier atome que nous rencontrerons est le souffre que l'on trouve dans de nombreux minéraux, météorites et très abondants dans les volcans.
Les atomes peuvent interagir entre eux pour former des objets plus complexes. Ces interactions sont de nature diverse et donnent naissance à divers types de liaisons entre les atomes. Nous trouverons ainsi :
- La liaison ionique qui résulte d'interactions électrostatiques entre atomes de charges opposées (c'est par exemple ce type de liaison, qu'on rencontre dans le chlorure de sodium, le sel de table). Il s'agit d'une liaison essentielle pour la plupart des minéraux sur terre, comme par exemple dans le cas des silicates, famille à laquelle appartient le quartz.
- Un autre type de liaison est la liaison covalente. Cette liaison résulte de la mise en commun entre 2 atomes d'un électron ou d'une paire d'électrons. Cette liaison est extrêmement solide. Ce type de liaison est à l'origine de toute la chimie et permet de former des molécules (l'eau, le glucose, les acides aminés). Ces acides aminés sont constitués de carbone, d'azote, d'hydrogène et d'oxygène. Dans ces molécules on retrouve un squelette qu'on retrouve dans tous les acides aminés constitué d'un groupement NH2 d'un côté et COOH de l'autre ; la partie variable est un groupement latéral appelé résidu. Un exemple d'acide aminé est constitué par la méthionine qui d'ailleurs contient dans son résidu un atome de soufre. La taille caractéristique des distances mises en jeu dans ce type de liaison n'est pas très différente de la taille des atomes eux-mêmes et est de l'ordre de l'angström (1.5 Angström pour la liaison C-C, 1 Angström pour une liaison C-H).


Ces liaisons ne sont pas figées et présentent une dynamique ; cette dynamique est associée aux degrés de libertés de ces liaisons tels que par exemple un degré de liberté de rotation autour de l'axe d'une liaison C-C. Ces liaisons chimiques ont donc une certaine flexibilité et aux mouvements possibles de ces liaisons sont associés des temps caractéristiques de l'ordre de la picoseconde (mille milliardième partie de seconde) ; il s'agit de temps très rapides associés aux mouvements moléculaires.
A ce stade nous avons 2 échelles caractéristiques importantes :
- 1 échelle de taille : l'angström
- 1 échelle de temps : la picoseconde.
C'est à partir de cette liaison covalente et de petites molécules que nous fabriquerons des macromolécules. Un motif moléculaire, le monomère, peut être associé par liaison covalente à un autre motif moléculaire ; en répétant cette opération on obtiendra une chaîne constituée de multiples monomères, cette chaîne est une macromolécule. Ce type d'objets est courant dans la vie quotidienne, ce sont les polymères tels que par exemple :
- le polychlorure de vinyle (matériau des disques d'antan)
- le polytétrafluoroéthylène (le téflon des poêles)
- le polyméthacrylate de méthyl (le plexiglas)
- les polyamides (les nylons)
Quelle est la forme d'un objet de ce type ? Elle résulte des mouvements associés aux degrés de libertés discutés plus haut ; une chaîne peut adopter un grand nombre de conformations résultant de ces degrés de liberté et aucune conformation n'est privilégiée. On parle d'une marche aléatoire ou pelote statistique.


Les protéines
Quelles sont ces macromolécules qui nous intéressent particulièrement ici ? Ce sont les protéines qui ne sont rien d'autre qu'une macromolécule (ou polymère) particulière car fabriquée à partir d'acides aminés. Rappelons que ces acides aminés présentent 2 groupes présents dans toute cette famille : un groupe amine (NH2) et un groupe carboxyle (COOH) ; les acides aminés diffèrent les uns des autres par la présence d'un groupe latéral (le résidu). A partir de ces acides aminés on peut former un polymère grâce à une réaction chimique donnant naissance à la liaison peptidique : le groupement carboxyle d'un premier acide aminé réagit sur le groupement amine d'un deuxième acide aminé pour former cette liaison peptidique. En répétant cette réaction il est possible de former une longue chaîne linéaire.



Comme nous l'avons dit les acides amines diffèrent par leurs groupes latéraux (les résidus) qui sont au nombre de 20. On verra par la suite que ces 20 résidus peuvent être regroupés en familles. Pour l'instant il suffit de considérer ces 20 résidus comme un alphabet qui peut donner naissance à une extraordinaire variété de chaînes linéaires. On peut considérer un exemple particulier : le lysozyme constitué d'un enchaînement spécifique de 129 acides aminés. Une telle chaîne comporte toujours 2 extrémités précises : une extrémité amine et une extrémité carboxyle, qui résultent de la réaction chimique qui a donné naissance à cet enchaînement d'acides aminés. Il y a donc une directionnalité associée à une telle chaîne. La succession des acides aminés constituant cette chaîne est appelée la structure primaire. La structure primaire d'une protéine n'est rien d'autre que la liste des acides aminés la constituant. Pour revenir au lysozyme il s'agit d'une protéine présente dans de nombreux organismes vivants en particulier chez l'homme où on trouve cette protéine dans les larmes, les sécrétions. C'est une protéine qui agit contre les bactéries en dégradant les parois bactériennes. Pour la petite histoire, Fleming qui a découvert les antibiotiques, qui sont des antibactériens, avait dans un premier temps découvert l'action antibactérienne du lysozyme ; mais il y a une grosse différence entre un antibiotique et le lysozyme. Cette molécule est une protéine qu'il est difficile de transformer en médicament du fait de sa fragilité alors que les antibiotiques sont de petites molécules beaucoup plus aptes à être utilisées comme médicament.
Pour en revenir au lysozyme, présent donc dans les organismes vivants, on peut se poser la question de savoir comment un tel objet peut être fabriqué par ces organismes. En fait, l'information à la fabrication d'un tel objet est contenue dans le génome des organismes sous la forme d'une séquence d'acide désoxyribonucléique (ADN) constituant le gène codant pour cette protéine. Pour fabriquer une protéine on commence par lire l'information contenue dans la séquence d'ADN pour fabriquer une molécule intermédiaire : l'ARN messager, lui-même traduit par la suite en une protéine. Il s'agit donc d'un processus en 2 étapes :
- Une étape de transcription, qui fait passer de l'ADN à l'ARN messager,
- Une étape de traduction, qui fait passer de l'ARN messager à la protéine.
Ces objets, ADN et ARN, sont, d'un point de vue chimique, très différents des protéines. Ce sont eux-mêmes des macromolécules mais dont les briques de base sont des nucléotides au lieu d'acides aminés.
Ces 2 étapes font intervenir des protéines ; l'ARN polymérase pour la transcription et le ribosome pour la traduction. En ce qui concerne la transcription l'ARN polymérase se fixe sur l'ADN, se déplace le long de celui-ci tout en synthétisant l'ARN messager. Une fois cet ARN messager fabriqué un autre système protéique, le ribosome, se fixe sur cet ARN messager, se déplace le long de cet ARN tout en fabriquant une chaîne polypeptidique qui formera la protéine. Il s'agit d'un ensemble de mécanismes complexes se produisant en permanence dans les organismes vivants pour produire les protéines.
Ces protéines sont produites pour assurer un certain nombre de fonctions. Parmi ces fonctions, certaines sont essentielles pour la duplication de l'ADN et permettre la reproduction (assure la transmission à la descendance du patrimoine génétique). Par ailleurs ce sont des protéines (polymérases, ribosomes) qui assurent la production de l'ensemble des protéines. Mais les protéines assurent bien d'autres fonctions telles que :
- Des fonctions de structure (la kératine dans les poils, les cheveux ; le collagène pour former des tissus),
- Des fonctions de moteurs moléculaires (telles que celles assurées par la myosine dans les muscles) ; de telles protéines sont des usines de conversion d'énergie chimique en énergie mécanique.
- Des fonctions enzymatiques. Les protéines de ce type sont des enzymes et elles interviennent dans toutes les réactions chimiques se déroulant dans un organisme et qui participent au métabolisme ; c'est par exemple le cas du mécanisme de digestion permettant de transformer des éléments ingérés pour les transformer en molécules utilisables par l'organisme.
Pour faire bref toutes les fonctions essentielles des organismes vivants (la respiration, la digestion, le déplacement) sont assurés par des protéines.
A ce stade nous avons donc introduit les objets essentiels de cet exposé que sont les protéines. Pour être complet signalons que la taille de ces protéines est très variable ; nous avons vu le lysozyme constitué d'une centaine d'acides aminés mais certaines protéines sont plus petites et certaines peuvent être beaucoup plus grosses.
Nous allons maintenant pouvoir aborder le problème de la structure et du repliement de ces objets.


La structured'une protéine
Tout d'abord quels sont les outils disponibles pour étudier la structure de ces objets. Un des outils essentiels est la diffraction des rayons X. L'utilisation de cet outil repose sur 2 étapes. La première (pas toujours la plus facile) consiste à obtenir des cristaux de protéines. Ces protéines, souvent solubles dans l'eau, doivent être mises dans des conditions qui vont leur permettre de s'arranger sous la forme d'un arrangement régulier : un cristal. C'est ce cristal qui sera utilisé pour analyser la structure des protéines qui le composent par diffraction des rayons X. A partir du diagramme de diffraction (composé de multiples tâches) il sera possible de remonter à la position des atomes qui constituent les protéines. Un des outils essentiels à l'heure actuelle pour ce type d'expérience est le rayonnement synchrotron (SOLEIL, ESRF).
Il existe d'autres outils telle que la résonance magnétique nucléaire qui présente l'avantage de ne pas nécessiter l'obtention de cristaux mais qui reste limitée à l'heure actuelle à des protéines de petite taille.
Finalement à quoi ressemble une protéine ? Dans le cas du lysozyme on obtient une image de cette protéine où tous les atomes sont positionnés dans l'espace de taille typique environ 50 Angströms. Il s'agit d'un cas idéal car souvent on n'obtient qu'une image de basse résolution de la protéine dans laquelle on n'arrive pas à localiser précisément tous les atomes qui la constituent. Très souvent cette mauvaise résolution est liée à la mauvaise qualité des cristaux. C'est l'exemple donné ici d'une polymérase à ARN. Néanmoins on peut obtenir des structures très précises même dans de le cas de gros objets.


Repliement,dénaturation et paradoxede Levinthal
Très clairement on voit sur ces structures que les protéines sont beaucoup plus compactes que les chaînes désordonnées mentionnées au début. Cette structure résulte du repliement vers un état compact replié sur lui-même et c'est cet état qui est l'état fonctionnel. C'est ce qui fait que le repliement est un mécanisme extrêmement important puisque c'est ce mécanisme qui fait passer de l'état de chaîne linéaire déplié à un état replié fonctionnel. L'importance de ce repliement peut être illustrée dans le cas d'un enzyme qui permet d'accélérer une réaction chimique entre 2 objets A et B ; ces 2 objets peuvent se lier à l'enzyme, ce qui permet de les approcher l'un de l'autre dans une disposition où une liaison chimique entre A et B peut être formée grâce à l'environnement créé par l'enzyme. Tout ceci ne peut se produire que si les sites de fixation de A et B sont correctement formés par le repliement de la longue chaîne peptidique. C'est la conformation tridimensionnelle de la chaîne linéaire qui produit ces sites de fixation.



Il y a une notion associée au repliement qui est la dénaturation. Nous venons de voir que le repliement est le mécanisme qui fait passer de la forme dépliée inactive à la forme repliée active ; la dénaturation consiste à passer de cette forme active repliée à la forme inactive dépliée sous l'influence de facteurs aussi variés que la température, le pH, la présence d'agents dénaturants tels que l'urée.

La grande question du repliement c'est la cinétique de ce phénomène. Pour la plupart des protéines où des expériences de repliement-dénaturation ont été effectuées le temps caractéristique de ces phénomènes est de l'ordre de la seconde. Comment donc une protéine peut trouver sa conformation active en un temps de l'ordre de la seconde ?
Une approche simple consiste à développer une approche simplifiée sur réseau ce qui permet de limiter le nombre de degrés de liberté à traiter ; on peut par exemple considérer une protéine (hypothétique) placée sur un réseau cubique. On peut considérer le cas d'une protéine à 27 acides aminés. On peut alors compter le nombre de conformations possibles de telles protéines ; à chaque acide aminé on compte le nombre de directions pour positionner le suivant. Sur un réseau cubique à chaque étape nous avons 6 possibilités ce qui fera pour une chaîne de 27 acides aminés 627 possibilités. Cela n'est vrai qu'à condition d'accepter de pouvoir occuper 2 fois le même site du réseau ce qui, bien sur, n'est pas vrai dans la réalité ; si on tient compte de cela on arrive en fait à diminuer quelque peu ce nombre qui sera en fait 4,727. Plus généralement pour une chaîne de N acides aminés on obtiendra 4,7N possibilités. Si on part d'une chaîne dépliée on peut alors se dire que pour trouver le « bon état replié » il suffit d'essayer toutes les conformations possibles. Cela va s'arrêter lorsqu'on aura trouvé une conformation stable, c'est-à-dire une conformation énergétiquement favorable. Pour passer d'une conformation à une autre il faut au moins un mouvement moléculaire élémentaire dont nous avons vu que l'échelle de temps caractéristique est la picoseconde (10-12 seconde). I faut donc un temps total (afin d'explorer toutes les conformations) :
Trepliement= 4,7N * Tmoléculaire.
Si on prend N=100, Tmoléculaire= 1picoseconde=10-12seconde, alors :

Trepliement= 1055 secondes !!!
C'est beaucoup car on cherche 1 seconde et on trouve quelque chose de beaucoup plus grand que l'âge de l'univers (de l'ordre de 1027 secondes). Avec cette approche il faut plus de temps à une protéine pour se replier et met plus de temps que l'âge de l'univers.
C'est le paradoxe de Levinthal.
Comment s'en sortir ?
Il faut revenir aux acides aminés et en particulier aux résidus qui permettent de différencier les 20 acides aminés. Ces 20 acides aminés peuvent se regrouper en famille selon la nature de ce résidu.


Une première famille est constituée par les acides aminés hydrophobes. Qu'est ce qu'un acide aminé hydrophobe ou l'effet hydrophobe ? Il s'agit de l'effet qui fait que l'eau et l'huile ne se mélangent pas. Si sur une chaîne on dispose des acides aminés hydrophobes alors ceux-ci vont faire « collapser » la chaîne afin de se regrouper et de se « protéger » de l'eau, tout comme l'eau et l'huile ont tendance à ne pas se mélanger. Ce mécanisme tend à créer ainsi une poche hydrophobe qui permet à ces acides aminés d'éviter l'eau. On commence ainsi à avoir une amorce de solution au paradoxe de Levinthal : la protéine ne va essayer que toutes les conformations, elle va commencer à utiliser dans un premier temps ce mécanisme qui à lui seul va éliminer un grand nombre de conformations possibles.





Mais il y a d'autres familles d'acides aminés et parmi celles-ci celle des acides aminés chargés (+ ou -) qui vont être soumis aux interactions électrostatiques classiques (les charges de même signe se repoussent, les charges de signe contraire s'attirent). Ainsi, si le long de la chaîne nous avons 2 acides aminés de signe opposé ils vont avoir tendance à s'attirer ; cet effet a là encore tendance à diminuer le nombre de conformations possibles pour la chaîne.
Dernière famille, un peu plus complexe mais au sein de laquelle les interactions sont de même nature que pour les acides aminés chargés, à savoir des interactions de type électrostatique. Cette famille est constituée par les acides aminés polaires qui ne portent pas de charge globale mais au sein desquels la distribution des électrons est telle qu'il apparaît une distribution non uniforme de charges ; cette asymétrie dans la répartition des charges va permettre par exemple de créer des liaisons hydrogènes entre molécules d'eau (interactions qui donnent à l'eau des propriétés particulières par rapport à la plupart des autres liquides).
Au total l'image initiale que nous avions des chaînes polypeptidiques doit être un peu repensée et l'on doit abandonner l'idée d'une marche au hasard permettant d'explorer toutes les conformations possibles puisque les briques de base de ces chaînes interagissent fortement les unes avec les autres. On peut ainsi récapituler l'ensemble des interactions au sein d'une chaîne (effet hydrophobe, liaison ionique, liaison hydrogène, sans oublier un mécanisme un peu particulier faisant intervenir des acides aminés soufrés qui peuvent former un pont disulfure ; il s'agit néanmoins d'une liaison un peu moins générale que les précédentes et qui par ailleurs est beaucoup plus solide).
La structure globale de nos protéines résulte de la présence de toutes ces interactions entre les acides aminés présents le long de la chaîne. Lorsque l'on regarde attentivement de telles structures on observe la présence d'éléments répétitifs assez réguliers : hélices, feuillets. Ces feuillets sont des structures locales au sein desquelles la chaîne est organisée dans un plan au sein duquel la chaîne s'organise. Ces éléments de régularité résultent des interactions entre acides aminés et pour la plupart il s'agit des fameuses liaisons hydrogènes entre atomes spécifiques. Bien évidemment certaines régions sont moins organisées et on retrouve localement des structures de type marche au hasard.






Si on récapitule ce que nous avons vu concernant la structure des protéines, nous avons introduit la notion de structure primaire qui n'est rien d'autre que l'enchaînement linéaire des acides aminés. Nous venons de voir qu'il existait des éléments de structure locale (hélices, feuillets) que nous appellerons structure secondaire. Et ces éléments associés aux uns aux autres forment la structure globale tridimensionnelle de la protéine que nous appellerons structure tertiaire.

Il faut noter que cette structure des protéines résulte d'interactions entre acides aminés et il est intéressant de connaître les ordres de grandeur des énergies d'interactions mises en jeu. Ces énergies sont en fait faibles et sont de l'ordre de grandeur de l'énergie thermique (kBT). C'est le même ordre de grandeur que les énergies d'interaction entre molécules au sein d'un liquide comme l'eau ; on peut s'attendre donc à ce que de tels objets ne soient pas rigides ou totalement fixes. Ces mouvements demeurent faibles car il y a une forme de coopérativité (au sens ou plusieurs acides aminés coopèrent pour assurer une stabilité des structures observées) qui permet néanmoins d'observer une vraie structure tridimensionnelle. Ainsi, au sein d'un feuillet ou d'une hélice, plusieurs liaisons sont mises en jeu et à partir de plusieurs éléments interagissant faiblement, on peut obtenir une structure relativement stable de type feuillet ou hélice ; il suffit néanmoins de peu de chose pour détruire ces structures, par exemple chauffer un peu.
Si on revient au mécanisme de repliement on doit abandonner notre idée initiale de recherche au hasard de la bonne conformation. Si on part d'un état initial déplié, un premier phénomène a lieu (essentiellement lié à l'effet hydrophobe, qui vise à regrouper les acides aminés hydrophobes) qui fait rapidement collapser la chaîne sur elle-même. D'autres phénomènes vont alors se mettre en route comme la nucléation locale de structures secondaires de type hélices ou feuillets qui vont s'étendre rapidement le long de la chaîne. Le processus de Levinthal est donc complètement faux et l'image correcte est beaucoup plus celle donnée ici de collapse essentiellement lié à l'effet hydrophobe et de nucléation locale de structures secondaires.

Les protéines n'essaient donc pas d'explorer l'ensemble des conformations possibles pour trouver la bonne solution mais plutôt utiliser les interactions entre acides aminés pour piloter le mécanisme de repliement.
En fait la composition chimique de la chaîne contient une forme de programme qui lui permet de se replier correctement et rapidement.
Au sein des organismes vivants il y a donc plusieurs programmes ; un programme au sein du génome qui permet la synthèse chimique des protéines et un programme de dynamique intramoléculaire interne à la chaîne protéique qui lui permet d'adopter rapidement la bonne conformation lui permettant d'assurer sa fonction.
Il faut noter qu'il existe d'autres façons de s'assurer que les protéines se replient correctement qui font intervenir d'autres protéines (les chaperons).
Notons enfin les tentatives effectuées à l'heure actuelle de modélisation réaliste sur ordinateurs.

 

VIDEO         CANAL  U          LIEN

 

( si la vidéo n'est pas accessible, inscrivez  le titre dans le moteur de recherche de CANAL U )

 
 
 
initiation musicale toulon  

ÉVOLUTION : UN CHAINON MANQUANT ...

 

Évolution : un "chaînon manquant" découvert au fond des océans
Erwan Lecomte Par Erwan Lecomte

Une équipe internationale de chercheurs a découvert une archéobactérie intermédiaire entre les cellules simples procaryotes et les cellules complexes eucaryotes.
Vue d'artiste représentant l'une des théories du passage des cellules procaryotes aux eucaryotes par agglomération entre elles de plusieurs cellules procaryotes. JACOPIN / BSIPVue d'artiste représentant l'une des théories du passage des cellules procaryotes aux eucaryotes par agglomération entre elles de plusieurs cellules procaryotes. JACOPIN / BSIP


DÉCOUVERTE. Si la découverte faite par cette équipe internationale est confirmée, c'est un pas de géant qui vient d'être franchi dans le domaine de la génétique de l'évolution. Dans un article publié dans le magazine Nature le 6 mai 2015, des chercheurs affirment avoir découvert "le chaînon manquant" entre les cellules les plus simples (les "procaryotes" qui composent par exemple les bactéries) et les cellules les plus complexes (dites "eucaryotes" que l'on retrouve dans tout le règne animal). Risquons une analogie technologique afin d'expliciter le gouffre qui sépare ces deux types de cellules : il y a à peu près autant de différence entre une cellule procaryote et une cellule eucaryote qu'entre une calculatrice de poche et un super-ordinateur. Les organismes "procaryotes" sont parmi les plus simples qui soient. Ils sont d'ailleurs la plupart du temps constitués d'une seule cellule, beaucoup moins cloisonnée, et dans laquelle le matériel génétique n'est pas protégé derrière la membrane d'un noyau.



Schéma représentant une cellule eucaryote (à gauche) et une cellule procaryote (à droite). La cellule eucaryote se caractérise par la présence d'un noyau enfermé derrière une membrane, et de petits organites appelés des mitochondries, dont la fonction est d'alimenter la cellule en énergie chimique. Dans la cellule procaryote, le matériel génétique forme une pelote directement au contact. Crédit image : creative commons.

La complexité des cellules eucaryotes et la présence en leur sein de ces véritables petites usines énergétiques que sont les mitochondries a permis l'émergence d'êtres vivants composés, comme vous et moi, de plusieurs milliards de cellules travaillant de concert au bon fonctionnement de notre corps.

Un saut évolutif considérable

Comment expliquer alors un tel saut d'un type de cellule à l'autre au fil de l'évolution ? Les chercheurs de l'université de Bergen et d'Uppsala ont peut-être trouvé un élément de réponse au fond de l'océan Arctique, dans une zone située entre le Groenland et la Norvège. Affrontant des eaux glacées et des pressions considérables par plus de 3000 mètres de fond, un vaillant robot d'exploration est allé collecter des échantillons de sédiments marins au pied d'une zone volcanique sous-marine active appelée "Château de Loki". Etant donné les conditions qui règnent à ces profondeurs (température, pression, absence de lumière...), une seule catégorie de micro-organismes peut y survivre : les archéobactéries. Des cousines des bactéries procaryotes, découvertes dans les années 1970, qui s'épanouissent dans un environnement apocalyptique.

PROTÉINES. Et le patrimoine génétique de l'une de ces archéobactéries a littéralement stupéfait les chercheurs. Bien que ce micro-organisme n'ait, comme tout bon procaryote, ni noyau pour protéger son ADN, ni mitochondries, "l'étude de son génome la fait apparaître dans l'arbre phylogénétique comme un groupe sœur des cellules procaryotes" nous a confié Anja Spang, chercheuse au département de biologie cellulaire et moléculaire à l'université d'Uppsala, et principal auteure de ces travaux. Autrement dit, ce procaryote, présenterait une troublante similarité génétique avec les cellules eucaryotes beaucoup plus complexes. D'ailleurs en fouillant le génome de ce micro-organisme inconnu, aussitôt baptisé Lokiarchaeum (du fait de sa découverte à proximité du fameux "Château de Loki" cité précédemment) l'équipe a a découvert des gènes qui codent pour des protéines que l'on ne retrouve habituellement que chez les eucaryotes. "On n'en connaît pas encore la fonction chez Lokiarcheum" précise Anja Spang.

Une nouvelle pièce dans le puzzle de l'évolution

Ce nouveau micro-organisme constituerait donc un intermédiaire un peu plus évolué qu'un procaryote, mais pas encore aussi perfectionné qu'un eucaryote. Lokiarchaeum serait donc le descendant le plus proche de l'organisme qui, il y a très longtemps, a "avalé" (on dit "phagocyter" dans le monde impitoyable des bactéries) une autre bactérie qui, par la suite, est devenue la première mitochondrie. Et cet organisme disposant d'un "kit génétique" capable de lui faire fabriquer des protéines plus complexes, a ensuite évolué vers les eucaryotes tels que nous les connaissons aujourd'hui. "Naturellement cela ne veut pas dire que Lokiarchaeum est la copie conforme de cet ancêtre commun relativise Anja Spang. Lokiarchaeum a également évolué pendant des siècles." La découverte et l'étude de ce nouveau micro-organisme fournit toutefois un nouvel éclairage sur la manière dont, il y a des milliards d'années, les cellules complexes qui composent aujourd'hui les plantes, les champignons, mais aussi les animaux et les humains, ont évolué à partir des microbes simples.

 

 DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
initiation musicale toulon  

TRISOMIE 21

 

Trisomie 21 : vers un test 100 % efficace pour la dépister

Une vaste étude réalisée sur plus de 16.000 femmes enceintes a confirmé une meilleure fiabilité et précision pour un nouveau test de détection sur trois types de trisomie, dont la trisomie 21.

TRISOMIE. Un test de l'ADN du fœtus circulant dans le sang de la mère serait plus efficace que les tests standards pour détecter la trisomie 21 ainsi que deux autres anomalies chromosomiques moins fréquentes, indique une étude publiée mercredi 1er avril dans la prestigieuse revue médicale New England Journal of Medicine. Ce travail a porté sur 16.000 femmes dont la grossesse allait de dix à quatorze semaines. Elles étaient âgées de 30 ans en moyenne et environ 25% avaient plus de 35 ans, âge à partir duquel on estime que le risque de trisomie 21 augmente fortement.
Les analyses, effectuées grâce à la faible quantité d'ADN fœtal se trouvant dans le sang maternel, ont permis d'identifier la trisomie 21 chez l'ensemble des 38 fœtus affectés. Les résultats ont été confirmés par des examens du nouveau-né ou prénataux, ainsi que par des analyses génétiques post-natales. Cette vaste étude permet de confirmer des résultats préliminaires publiés en 2014 mais qui n'avaient concerné qu'un peu moins de 1.000 femmes à risque.
Une technique nettement plus efficace, mais partielle
C'est une quantité plus importante d'ADN du fœtus circulant dans le sang de la mère qui constituerait ainsi une possible indication de certaines anomalies chromosomiques, dont la trisomie qui se caractérise par une copie supplémentaire d'un chromosome formant une des 23 paires de chromosomes. Une nouvelle technique qui pourrait bien s'avérer plus fiable et plus précise que les tests standard de dépistage. En effet, ces derniers, appliqués au même groupe de femmes, n'ont détecté la trisomie que chez 30 des 38 fœtus concernés. Et alors que ces tests standards se traduisent par un taux élevé de diagnostics faussement positifs, l'analyse de l'ADN fœtal dans le plasma maternel en a produit nettement moins : neuf, contre 854 pour le dépistage conventionnel.
Outre un taux d'erreur de diagnostic plus élevé, les examens prénataux invasifs comportent des risques. L'amniocentèse, qui consiste à prélever du liquide amniotique, présente notamment un risque de transmission du sida ou de l'hépatite B quand la mère en est porteuse, des risques d'infection, de fausse couche, de naissance prématurée ou encore de mort in utero.
Deux autres anomalies également mieux dépistées
Pour ce qui est des deux autres anomalies génétiques moins fréquentes (trisomie 18 et trisomie 13), le test de l'ADN fœtal à là-aussi montré une bonne efficacité même si celle-ci est moins flagrante. Ainsi, parmi les dix cas de trisomie 18 ou syndrome d'Edwards, l'analyse de l'ADN en a diagnostiqué correctement neuf, tandis que les autres tests en ont identifié huit et ont produit 49 diagnostics faussement positifs. Quant à la trisomie 13, ou syndrome de Patau, le test de l'ADN fœtal a détecté les deux cas et produit un seul faux positif. Les techniques standard en ont identifié un seul et donné 28 diagnostics faussement positifs.
Bien que ces résultats suggèrent la supériorité du test de l'ADN fœtal sur les techniques standard, ces dernières sont les seules à ce stade à pouvoir "détecter le risque d'un ensemble d'autres anomalies du fœtus", qui ne se résument pas aux trois types de trisomie sur lesquels se sont concentrés les chercheurs. Les cas de trisomie 21 ne représentent en effet qu'un peu plus de 50% des aneuploïdies, les troubles résultant d'un nombre anormal de chromosomes, selon les chercheurs.

 

 DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google