ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

ABYSSES

 

« Des organismes d'une beauté plus exquise »


spécial mer - par Patrick Geistdoerfer dans mensuel n°355 daté juillet 2002 à la page 18 (2274 mots) | Gratuit
On doit à la campagne du navire britannique Challenger , conduite de 1872 à 1876 par Charles Wyville Thomson, la preuve que la vie existe bien dans les abysses. Mais il faudra attendre encore près d'un siècle pour que les scientifiques constatent l'incroyable diversité des espèces peuplant les grandes profondeurs.

Pendant des siècles, l'imagination populaire, aidée par notre parfaite ignorance du monde sous-marin, a peuplé de monstres les grands fonds océaniques. Pourtant, une connaissance plus précise des mers et de leurs habitants se fait jour dès le XVIIIe siècle, celui des Lumières. L'Encyclopédie leur consacre plusieurs articles. L'Académie de marine, société de pensée créée en 1752, rassemblant des astronomes, des hydrographes et des marins, contribue également à ces découvertes. A cette époque, les voyages d'exploration associant marins et naturalistes se multiplient à la recherche de nouveaux mondes et aussi de nouvelles richesses. En France et en Grande- Bretagne, les marines de guerre sont parties prenantes de l'exploration du Globe, comme de nos jours de la recherche océanographique.

Les espèces marines récoltées dans toutes les mers du monde sont inventoriées et étudiées, notamment au Jardin du Roi à Paris, dont la Convention fera le Muséum national d'histoire naturelle. C'est le prélude à la naissance de l'océanographie. Cette science se développera véritablement au cours de la seconde moitié du XIXe siècle aussi bien avec l'étude des zones côtières qu'avec la « course » aux grandes profondeurs, qui sera l'un de ses traits marquants. La géographie du Globe commence à être bien connue. L'intérêt du monde savant se tourne vers les profondeurs océaniques, là où « ne règnent que ténèbres et nuit insondables », comme l'écrivait Héraclite cinq cents ans avant notre ère. Par pure soif de connaissances certes, mais aussi parce que la pose des premiers câbles télégraphiques nécessite une bonne connaissance de leur relief.

En 1844, le naturaliste anglais Edward Forbes, se fondant sur les résultats de ses dragages en mer Egée, affirme qu'il n'y a plus de vie dans les mers au-delà de 600 m. « A mesure que l'on descend dans les profondeurs, écrit-il, les habitants se modifient toujours davantage et deviennent de plus en plus rares, faisant pressentir l'abîme où la vie est éteinte, où, du moins, elle ne manifeste plus sa présence que par quelques étincelles. » Alors même que Forbes soutient sa théorie de la zone azoïque sans vie, plausible à l'époque, bon nombre d'observations l'ont déjà remise en cause.

En 1810, Antoine Risso est le premier à publier la description de crustacés et de poissons de grande profondeur capturés au large de Nice. En 1818, John Ross, au cours d'un sondage en mer de Baffin*, remonte des invertébrés trouvés par 1 500 m de fond. De 1839 à 1843, dans l'Antarctique, au cours de l'expédition britannique de James Clark Ross, Hooker récolte jusqu'à 800 m des anémones, des étoiles de mer et des crustacés. En 1850, le Norvégien Michael Sars remonte des mers scandinaves 19 espèces vivant à plus de 550 m. Son fils, Georg Ossian Sars, fait état en 1864 de 92 espèces différentes capturées entre 360 et 550 m. Il montre la présence d'une vie abondante à plus de 850 m. En 1860, en Méditerranée, le Français Henri de Milne Edwards découvre un corail solitaire et des mollusques fixés sur un câble télégraphique sous-marin reliant la Sardaigne à l'Algérie, remonté de 2 180 m pour une réparation. La vie existe bien dans les grands fonds !

Expéditions océanographiques. Contraints de l'admettre, les sceptiques ne désarment pas : ils présentent cette vie comme misérable et précaire, constituée, comme l'écrit le biologiste Thomas Huxley, d'« animaux aveugles qui triment et qui peinent dans le froid et l'obscurité des abysses ». C'est pour combattre cette conception que les premières grandes expéditions océanographiques sont entreprises dans l'Atlantique nord-est et en Méditerranée, durant les années 1860-1870, à l'instigation de l'Ecossais Charles Wyville Thomson. « Il était question depuis longtemps, écrit Wyville Thomson, parmi les naturalistes, de la possibilité de draguer le fond de la mer par les procédés ordinaires et d'y plonger des récipients et des instruments enregistreurs pour résoudre la question d'un zéro de vie animale, et pour déterminer avec précision la composition et la température de l'eau de mer dans les grandes profondeurs. » Michael Sars ayant récolté un animal d'une famille qui n'était connue que comme un fossile du Crétacé, Wyville Thomson espère lui aussi trouver des formes relictes*. Cet espoir sera déçu. Ce n'est que des années plus tard, en 1938, que sera découvert dans le canal de Mozambique un coelacanthe, survivant d'un groupe de poissons que l'on croyait disparu depuis plus de soixante millions d'années.

A partir de 1868, Wyville Thomson et William B. Carpenter effectuent des dragages jusqu'à 1 200 m de profondeur à bord du Lightning, « petit navire passé depuis longtemps à l'état de sabot, [...] peut-être le plus vieux bateau à roues de Sa Majesté ». En 1869, la Porcupine, canonnière de 382 tonneaux qui remplace le Lightning, drague jusqu'à 4 550 m. Toutes les récoltes confirment que la vie en profondeur est abondante et variée, et que les organismes y sont différents de ceux des eaux superficielles. Dans The Depths of the Seas, premier ouvrage d'océanographie traitant des abysses, publié en 1874, Wyville Thomson écrit : « Le lit de la profonde mer, les 140 000 000 de milles carrés que nous venons d'ajouter au légitime champ d'étude des naturalistes, ne constitue pas un désert stérile. Il est peuplé d'une faune plus riche et plus variée que celle qui pullule dans la zone bien connue des bas-fonds qui bordent la mer ; ces organismes sont encore plus finement et plus délicatement construits, d'une beauté plus exquise, avec les nuances adoucies de leurs coloris et les teintes irisées de leur merveilleuse phosphorescence. » On découvre également que ces eaux sont froides - 2 °C à + 2 °C, alors que l'on pensait jusque-là que la température des grands fonds était uniforme et égale à 4 °C densité maximale de l'eau. Et l'on comprend comment se forment en surface, aux hautes latitudes, les eaux froides qui vont constituer les profondeurs de l'océan mondial. Les observations font conclure à l'existence de courants. Wyville Thomson écrit : « Un courant froid parti des mers polaires passe sur le fond de l'Atlantique. [...] Courant froid d'une grande lenteur. » Lire l'article de Pascale Delécluse, p. 42. Les différences de température et de faune constatées entre les eaux situées à 60° de latitude nord et celles situées au sud de 50° nord suggèrent même l'existence d'une ride immergée, un seuil, allant du Groenland aux îles Féroé, passant par l'Islande et séparant la mer de Norvège du nord de l'océan Atlantique. Son existence est confirmée, en 1880, par les sondages de La Porcupine. Il s'appelle désormais le seuil de Wyville Thomson. Evoquant l'opposition entre les conditions océanographiques régnant de part et d'autre de ce seuil, Johan Hjort écrit en 1912 : « Dans l'histoire des recherches océaniques, rien n'a autant contribué à éveiller l'intérêt que la découverte de communautés animales entièrement différentes vivant de chaque côté du seuil de Wyville Thomson. Les formes atlantiques sont au sud et les formes arctiques au nord du seuil, ce qui correspond à des conditions thermiques très différentes des deux côtés. »

Moisson de données. De décembre 1872 à mai 1876 se déroule, sous la direction de Wyville Thomson, la célèbre campagne autour du monde de Challenger, la corvette de la Royal Navy, beau bâtiment de 68 m de long. Cette campagne de 58 890 milles plus de 100 000 km établit définitivement que la vie existe jusqu'à son plus haut niveau d'organisation à des profondeurs pouvant atteindre 5 200 m, et que les genres et espèces y sont différents de ceux des eaux superficielles. La campagne fournit une énorme moisson de données biologiques et, dans le Pacifique, près des îles Mariannes, une profondeur de 8 180 m est découverte. Le chimiste William Dittmar confirme en 1885 qu'à l'échelle du Globe les proportions relatives des différents sels contenus dans l'eau de mer demeurent constantes entre elles, quelle que soit la teneur totale, ce qui avait déjà été observé par Alexandre Marcet 1819 et Matthew Fontaine Maury 1855. Les résultats de la campagne de Challenger sont publiés dans les Report on the Scientific Results of the Voyage of HMS Challenger during the Years 1873-1876, une cinquantaine de volumes, synthèse des connaissances de l'époque sur les océans, mais aussi à l'origine de l'idée que les grandes profondeurs, bien que froides et obscures, sont riches en espèces différentes. Il faudra attendre près d'un siècle pour que cette croyance soit confirmée.

John Murray, collaborateur de Wyville Thomson, participe à des campagnes océanographiques à bord du Michael Sars. En 1912, avec Johan Hjort, il publie un ouvrage qui relate ces campagnes en Atlantique nord, entre 1900 et 1910, et propose une nouvelle synthèse, The Depths of the Oceans. Y figure notamment une carte du fond des océans établie à partir de 5 969 sondages et la plus grande fosse connue qui a été trouvée dans le Pacifique, à 9 636 m. La distribution des animaux est analysée, ainsi que leur adaptation à la vie dans les grandes profondeurs.

Après celles des Britanniques, les campagnes océanographiques se multiplient : expédition américaine avec le Blake et l'Albatros 1888, allemande avec le Valdivia 1899, néerlandaise avec le Sigoba 1900. En France, Alphonse Milne-Edwards le fils de Henri, à partir de 1880, effectue des expéditions du golfe de Gascogne à Madère et en Méditerranée à bord du Travailleur, petit bâtiment de guerre à roues de la Marine nationale. Mais ce dernier « n'a pas été construit pour exécuter de lointains voyages », écrit Milne-Edwards en 1884. L'amiral Jauréguiberry, alors ministre de la Marine, ordonne qu'un éclaireur d'escadre, le Talisman, soit aménagé en vue d'une campagne d'exploration sous-marine. En 1883, le Talisman fait des récoltes profondes jusqu'aux îles du Cap-Vert, dans la mer des Sargasses et au large des Açores. Lors d'un sondage, une profondeur de 6 250 m est découverte. Tous les animaux capturés poissons, crustacés... sont décrits et conservés par le Muséum national d'histoire naturelle à Paris, où ils figurent depuis parmi les collections.

Animaux luminescents. Le prince Albert Ier de Monaco met ses yachts au service des scientifiques, pour des campagnes de recherche océanographique en Méditerranée et dans l'Atlantique nord. En 1901, un poisson, est pêché à 6 035 m : Grimaldichtys profundissimus. Après un ralentissement des campagnes, lié à la Première Guerre mondiale, il faut attendre le début des années 1930 pour que le biologiste américain William Beebe invente la « Bathysphère » : une sphère d'acier d'un diamètre de 1,45 m, épaisse de 3 cm, pourvue de trois hublots et suspendue à un câble de 1 200 m. Beebe fut un précurseur voir l'encadré : « Les submersibles visiteurs des abysses ». Beebe effectue plusieurs plongées au large des Bermudes. Il tombe sous le charme de la beauté des animaux luminescents : « Les teintes sous-marines sont indescriptibles d'après la gamme des couleurs terrestres et, de même, notre langage devient vague et limité si nous l'utilisons pour reconstituer des images sous-marines. Même les poissons les plus vulgaires, ceux que l'on trouve non loin de la surface, sont entièrement différents, quand on est à leur hauteur, de ce qu'ils sont quand on les regarde d'en haut. [...] Bientôt notre vue s'adaptant, notre petit monde commence à être rempli de voies lactées, de constellations, de météores et de comètes blanches et bleues. Peu à peu nous réussissons à expliquer la raison de toutes ces lumières. [...] Une fois de plus, nous ne pouvons que demeurer muets, nous ne pouvons que rester là et bien regarder, afin de nous souvenir plus tard de toutes ces merveilles qui nous donneront envie de recommencer le plus tôt possible. »

La course aux abîmes ne reprendra de l'ampleur qu'après la Seconde Guerre mondiale pour les grandes nations maritimes comme la Grande- Bretagne, les Etats-Unis, les pays scandinaves, le Japon, etc. Les navires suédois Albatross 1947-1948 et danois Galathea 1950-1952 pêchent dans les fosses océaniques jusqu'à plus de 10 000 m. Le navire soviétique Vitiaz découvre, à 11 000 m dans le Pacifique, la plus grande profondeur connue, la fosse des Mariannes. Les grands laboratoires américains, financés partiellement par l'US Navy, explorent la côte atlantique Woods Hole Oceanographic Institution et la côte pacifique Scripps Institution of Oceanography. Toutes ces campagnes révèlent une diversité d'espèces beaucoup plus grande que ce qu'on avait cru jusqu'alors et viennent confirmer, au début des années 1960, la théorie révolutionnaire de la tectonique des plaques lire l'article de Catherine Mével, p. 38.

Sources hydrothermales. C'est seulement à cette époque que l'océanographie des grandes fonds est relancée en France avec le Thalassa, chalutier de recherche de l'Institut scientifique et technique des pêches maritimes devenu depuis l'Ifremer : il commence en 1960 une fructueuse carrière, qui durera trente-six ans, au service de l'océanographie des pêches. Désormais, chaque année, des expéditions françaises mobilisent différents navires - dont les derniers-nés des années 1990, l'Atalante et une nouvelle Thalassa - pour explorer les grandes profondeurs océaniques lire l'article de Patrice Cayré et Bertrand Richer de Forges p. 59.

A la fin des années 1980, on découvre sur le sommet des dorsales médio-océaniques des sources hydrothermales auxquelles sont associées des communautés animales dont l'existence révèle une nouvelle forme de vie indépendante de l'énergie solaire lire l'article de Frank Zals, p. 22 : ce pourrait être là qu'il faut rechercher la première forme de vie apparue sur notre Globe, au fond des mers, il y a trois milliards d'années. En cent cinquante ans, l'océanographie a profondément bouleversé notre vision des grandes profondeurs. Mais les mécanismes qui commandent la vie sous-marine commencent seulement à être compris.

Par Patrick Geistdoerfer

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

ABEILLES SAUVAGES

 


1. Les abeilles sauvages, butineuses menacées

palmarès - par Lise Barnéoud dans mensuel n°483 daté décembre 2013 à la page 24 (1925 mots) | Gratuit
L'année 2013 signe leur revanche. Discrets et le plus souvent solitaires, les insectes pollinisateurs sauvages étaient jusqu'alors éclipsés par leur cousine domestique : l'abeille Apis mellifera, considérée comme la reine des butineuses et à ce titre vue comme un précieux auxiliaire agricole. En effet, nombreuses sont les plantes qui nécessitent, à des degrés divers, l'intervention d'insectes pour leur reproduction. Sans ces transporteurs de pollen, la plupart des fruits et légumes de nos contrées n'existeraient pas. Adieu également café, cacao, poivre ou encore vanille... Or, selon une étude internationale publiée en mars, cette distinction était largement usurpée : les abeilles sauvages (dont les bourdons), mais aussi certaines guêpes et mouches sont des pollinisateurs bien plus efficaces que l'abeille domestique [1].

De quoi réjouir les agriculteurs, confrontés à l'hécatombe de cette dernière (lire « Les abeilles domestiques s'effondrent », p. 27) ? Hélas, peut-être pas. Car la reconnaissance du rôle des pollinisateurs sauvages s'accompagne d'un signal d'alarme : eux aussi déclinent [2].

Et c'est plus qu'inquiétant puisque, comme l'a montré une troisième étude, la disparition de quelques espèces dans une zone donnée suffit parfois à diminuer la productivité des plantes [3].

Voilà des millénaires que l'homme n'en a que pour les abeilles mellifères, domestiquées dès l'Antiquité. Et pour cause : le miel qu'elles produisent en grandes quantités est l'aliment le plus concentré en sucres disponible à l'état sauvage. Reste qu'au-delà des sept espèces connues dans le monde (Apis mellifera étant la plus représentée d'entre elles), il existe environ 20 000 espèces d'abeilles sauvages, au mode de vie essentiellement solitaire, qui vivent cachées dans le sol, dans le bois, contre les murs ou les rochers. Mais aussi quelque 6 000 espèces de syrphes, petites mouches rayées qui se nourrissent de nectar, environ 5 000 espèces de guêpes, sans parler des papillons et même des fourmis qui passent de fleur en fleur.

Tous ces insectes, qui appartiennent à des groupes très différents, sont susceptibles de participer à la pollinisation des plantes en transportant les grains de pollen depuis les étamines (organe mâle) d'une fleur jusqu'au stigmate (organe femelle) d'une autre. Mais jusqu'alors, leur efficacité pollinisatrice n'avait fait l'objet que de rares études.

Tournesols, courges et amandiers
En 2006, un premier article avait montré que certaines cultures de tournesols produisaient jusqu'à cinq fois plus de semences lorsqu'elles étaient visitées par les abeilles domestiques et les abeilles sauvages [4]. Un constat complété en 2008 sur les cultures de courges puis d'amandiers : dans les deux cas, la présence d'abeilles sauvages permet d'augmenter le taux de fructification, c'est-à-dire le pourcentage de fleurs qui donnent des fruits. « Ces exemples individuels étaient intéressants, mais ils ne permettaient pas d'extrapoler à l'ensemble des cultures dites "entomophiles" qui dépendent des insectes pour leur pollinisation », retrace Bernard Vaissière, spécialiste de la pollinisation à l'Institut national de la recherche agronomique d'Avignon.

Mais en 2011, les résultats d'une première étude de plus grande envergure sont rendus publics. Coordonnée par Lucas Garibaldi et Alexandra-Maria Klein, respectivement de l'université de Rio Negro, en Argentine, et de l'université de Lunebourg, en Allemagne, cette étude a porté sur 369 parcelles et 21 cultures différentes dans 15 pays [5]. Les observations réalisées montrent que plus les cultures sont éloignées des zones naturelles telles que des forêts, des friches ou des prairies permanentes, plus le taux de fructification diminue. Or, cette diminution est corrélée à une baisse de la diversité des pollinisateurs sauvages dans les cultures en question. Ainsi, les champs situés à 1 kilomètre des zones sauvages possèdent une diversité en pollinisateurs environ 25 % plus faible et un taux de fructification inférieur de 9 % à celui des champs qui jouxtent ces milieux préservés, alors que le nombre d'abeilles mellifères qui les visitent est identique.

Déjà importants, ces résultats sont désormais surpassés par ceux que les deux scientifiques ont publiés en 2013. Avec leurs 48 coauteurs issus de 17 pays, ils ont cette fois observé 600 parcelles réparties sur les 5 continents, incluant 41 cultures différentes, c'est-à-dire la majorité des cultures entomophiles [fig. 1]. Les pratiques culturales étaient variées, allant de la monoculture intensive à la culture biologique. Et la moitié des parcelles étudiées était située à proximité de ruches, facilitant la comparaison entre les pollinisateurs sauvages et les abeilles domestiques.

Dans chacune de ces 600 parcelles, les observateurs ont compté le nombre d'espèces de pollinisateurs visitant les fleurs d'une plante ou, dans le cas des arbres fruitiers, d'une branche, sur un certain laps de temps (allant de quelques minutes à une heure). Ils ont alors constaté qu'en moyenne chaque parcelle est fréquentée par 9 espèces différentes d'insectes pollinisateurs. Essentiellement des abeilles (sauvages et/ou domestiques), mais aussi des syrphes, ainsi que quelques papillons ou guêpes. En termes quantitatifs, Apis mellifera est la plus représentée dans la plupart des parcelles.

Fructification accrue
Pour 32 cultures, ils ont ensuite mesuré le succès de ces visites en comptant le pourcentage de fleurs ayant produit des fruits ou des graines. Les résultats sont sans appel : lorsque les visites de pollinisateurs sauvages augmentent, le taux de fructification augmente aussi, quelle que soit la culture considérée. En revanche, en cas de visites plus nombreuses des abeilles domestiques, il n'augmente que pour 14 % des cultures. Plus frappant encore : l'augmentation de fructification induite par les pollinisateurs sauvages est deux fois plus élevée que celle induite par la butineuse domestique. Enfin, le taux de fructification maximum n'est atteint que lorsque ces parcelles sont visitées à de nombreuses reprises, à la fois par des pollinisateurs sauvages et par l'abeille mellifère.

« Il s'agit d'une étude majeure qui démontre clairement l'importance de ces insectes sauvages dans la pollinisation des cultures », juge Bernard Vaissière, qui regrette toutefois que les auteurs n'aient pas pris en considération les variétés des différentes espèces cultivées. « Le niveau de dépendance aux insectes peut énormément varier en fonction des variétés végétales », explique-t-il. « C'est exact, reconnaît Lucas Garibaldi. Mais nos résultats étant identiques quelles que soient les cultures, on peut penser qu'ils ne dépendent pas non plus du type de variétés utilisées. »

Quoi qu'il en soit, il y a désormais peu de doute que les insectes pollinisateurs sauvages, et surtout les abeilles sauvages, sont plus efficaces que leurs cousines domestiques pour induire une fructification. Comment cela se fait-il ? Les chercheurs ont mis en évidence un phénomène susceptible de l'expliquer, au moins en partie. Pour 14 cultures, ils ont mesuré le nombre de grains de pollen déposé sur un stigmate après la visite des différents insectes. Or, ils ont constaté que les abeilles mellifères déposent en moyenne plus de pollen que les abeilles sauvages. Ce qui veut dire qu'un même pollen est moins efficace en termes de fécondation lorsqu'il a été transporté par Apis mellifera, qu'après son transport par une abeille sauvage.

Pollen plus disponible
Pour Bernard Vaissière, cela viendrait du fait que les abeilles mellifères mélangent le pollen avec du miel dilué ou du nectar, suc produit par les glandes nectarifères situées à la base de certaines fleurs. « Ce mélange réduit la viabilité du pollen, estime-t-il. En revanche, à part les bourdons, la plupart des abeilles sauvages transportent majoritairement le pollen à sec, dans des brosses de poils situées au niveau des pattes postérieures ou de la face ventrale de l'abdomen. Il reste ainsi plus viable et disponible pour la pollinisation. »

Lucas Garibaldi, lui, privilégie une autre piste : le fait que les abeilles domestiques sont beaucoup plus fidèles que les abeilles sauvages à leur source de nourriture, allant jusqu'à privilégier une plante individuelle donnée, dans un champ donné. « Or, pour se reproduire efficacement, de nombreuses plantes nécessitent une pollinisation croisée, le pollen devant être transporté d'une plante vers une autre de la même espèce. Les abeilles sauvages procèdent bien davantage ainsi. »

Quelle que soit l'explication, les observateurs sont confrontés à un fait alarmant : tout comme les butineuses des ruches, les pollinisateurs sauvages déclinent de façon préoccupante. On s'en est d'abord rendu compte pour les bourdons. Aux États-Unis, 4 espèces ont décru en vingt ans, la diminution atteignant 96 % par endroits [6]. Et plusieurs dizaines d'extinctions de bourdons ont aussi été recensées localement en Europe [7].

Puis, début 2013, Laura Burkle de l'université Washington à Saint-Louis, dans le Missouri, a élargi ce constat. Après avoir étudié des parcelles de forêt de l'Illinois, aux États-Unis, et comparé ses observations avec des relevés effectués en ces mêmes lieux à la fin des années 1800 ainsi qu'en 1970, elle a conclu que la diversité des interactions entre plantes et insectes pollinisateurs avait diminué de moitié en l'espace de cent vingt ans. En se focalisant sur une seule espèce de plante, Claytonia virginica, petite fleur blanche très abondante au printemps, elle a découvert que ce déclin s'était en fait produit au cours des quarante dernières années. Et elle a aussi noté que chaque fleur recevait quatre fois moins de visites en 2010 qu'en 1970.

Butinage sélectif
Vu le nombre et la diversité des pollinisateurs sauvages, on aurait pu espérer que la disparition de quelques espèces n'ait pas d'impact notable sur la pollinisation. Las... L'étude publiée en août 2013 par Berry Brosi de l'université Emory, à Atlanta, et Heather Briggs de l'université de Californie montre qu'il en va tout autrement.

Les deux écologues ont d'abord délimité 20 parcelles, chacune de la taille d'un cours de tennis, dans des prairies des Rocheuses du Colorado. Ils ont ensuite déterminé quelles étaient les différentes espèces de pollinisateurs présentes. Puis, pour chaque parcelle, ils ont enlevé l'espèce la plus abondante (à chaque fois, une espèce de bourdon). Ils ont alors constaté que les pollinisateurs restants devenaient moins sélectifs. Plutôt que de butiner une seule espèce de plante, ils allaient se nourrir sur 4 ou 5 espèces différentes et en mélangeaient les pollens. Résultat : l'efficacité de la pollinisation s'en trouvait réduite, car la quantité de pollen spécifique déposé sur une plante donnée n'était pas suffisante [fig. 2]. Chez la fleur sauvage que les chercheurs avaient plus précisément choisi d'observer, Delphinium barbeyi, abondante sur le site, ils ont comptabilisé une diminution moyenne de 32 % du nombre de graines produites.

Au vu de ces résultats, il est d'autant plus important d'enrayer le déclin des abeilles sauvages afin de préserver leur apport. Comment ? « En conservant des zones naturelles intactes proches des cultures, en favorisant la diversification agricole et en évitant l'usage d'insecticides », suggèrent Lucas Garibaldi et ses coauteurs. Ce qui ne correspond pas vraiment à la tendance actuelle, qui prétend limiter l'érosion de la biodiversité, en préservant, certes, les dernières zones sauvages, mais en intensifiant les cultures. Quitte à ajouter quelques ruches pour « remplacer » les pollinisateurs sauvages.

Pratiques agricoles à réviser.
Publiée en juillet 2013, une étude financée par l'Union européenne dans le cadre du programme STEP (acronyme anglais de « situation et tendances des pollinisateurs européens ») confirme la nécessité de changer en profondeur les pratiques agricoles [8]. En comparant 71 sites de cultures et de prairies à travers l'Europe, ses auteurs montrent que la mise en place de pratiques agro-environnementales telles que la conservation des talus et des bosquets, la création de bandes fleuries ou encore un usage limité de produits phytosanitaires, augmente la richesse et l'abondance des pollinisateurs sauvages les plus communs.

Un avantage en termes de productivité agricole, certes, mais pas seulement. Car ces insectes ne butinent pas que nos plantes cultivées ! Au-delà de leur intérêt économique pour l'agriculture, les insectes pollinisateurs sont les véritables artisans de nos paysages puisque près de 80 % de notre flore en dépend. Sans eux, plus de couleurs éclatantes chaque printemps, plus d'odeurs enivrantes dans la garrigue, plus de framboises ni de mûres sauvages à déguster au détour d'un chemin. Un service inestimable, impossible à chiffrer.

Par Lise Barnéoud

 

 DOCUMENT      larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

DÉVELOPPEMENT DU CERVEAU

 

L'ENFANT ET SON DÉVELOPPEMENT
La turbulente dynamique de la matière grise


l'enfant et son développement - par Arthur Toga, Paul Thompson et Elizabeth Sowell dans mensuel n°388 daté juillet 2005 à la page 42 (2718 mots) | Gratuit
Comment le cerveau se développe-t-il ? Jusqu'à quel âge ? Appliquée à l'enfant et à l'adolescent, l'imagerie par résonance magnétique révèle une maturation qui, loin d'être uniforme, s'effectue par vagues successives selon les zones du cerveau.

Qui dit développement, dit dynamique, mouvement, changement. Le développement du cerveau humain n'échappe pas à la règle. Le ballet cellulaire débute très tôt chez l'embryon. Dès le deuxième mois de grossesse, les cellules précurseurs des neurones prolifèrent de façon intensive dans une zone particulière du cerveau rudimentaire, puis migrent jusqu'à leur emplacement définitif. Arrivées là, elles commencent à se différencier, et émettent des prolongements en direction les unes des autres celles qui n'établiront pas de contacts mourront. À partir du sixième mois, les connexions entre neurones survivants se multiplient, et de nouvelles synapses se forment en abondance. Dans le même temps, les axones commencent à être recouverts d'une substance lipidique appelée myéline. Synthétisée par des cellules nommées oligodendrocytes, la myéline augmente la vitesse de conduction de l'influx nerveux le long de l'axone.

Vient la naissance, qui n'interrompt en rien ces processus. Le cerveau du nouveau-né - riche de 100 milliards de neurones environ - continue à grandir, sous le contrôle de certains gènes, mais aussi sous l'influence des stimulations externes, bien plus nombreuses que celles que recevait le foetus. Les dendrites des neurones prolifèrent, les synapses se multiplient. Mais ce foisonnement cède peu à peu la place à un processus d'élagage : certaines connexions sont conservées et renforcées, d'autres, éliminées, tandis que la myélinisation se poursuit. Le tout aboutit à la sélection d'un réseau de connexions certes privilégié, mais pas statique il est continûment remanié au cours de la vie de l'individu.

C'est en examinant sous le microscope des cerveaux provenant de spécimens autopsiés que l'Américain Peter Huttenlocher a pour la première fois, il y a vingt-cinq ans, mis en évidence cette succession d'étapes. Il devait également dresser un second constat : elle ne se déroule pas partout en même temps. Par exemple, dans le cortex visuel, le maximum de connexions advient aux alentours du quatrième mois après la naissance. Commence alors l'élagage, qui se poursuit jusqu'à l'âge préscolaire, où le nombre de connexions est alors grosso modo celui qu'aura l'adulte. Mais dans le cortex préfrontal médian, une aire du cerveau impliquée dans des fonctions cognitives supérieures, le maximum survient vers 3-4 ans seulement, et l'élagage n'est pas notable avant le milieu - voire la fin - de l'adolescence [1].

Examens sans risques

Ces données histologiques suggéraient que le développement du cerveau était un processus dynamique impliquant tant l'apparition que la disparition de certaines structures cellulaires. Problème : ces données étaient très fragmentaires. Et c'est là que l'imagerie par résonance magnétique nucléaire - l'IRM, encore dans sa prime enfance à l'époque des premiers travaux de Huttenlocher - s'est révélée précieuse. D'une part, elle permet d'explorer dans sa globalité, mais aussi dans sa diversité, le développement du cerveau de sujets vivants. La substance grise où se trouvent les corps cellulaires des neurones, les dendrites et les synapses se distingue clairement, sur les clichés, de la substance blanche les axones entourés de myéline. D'autre part, le fait qu'elle ne requière ni molécules radioactives ni exposition aux rayons X, permet de l'utiliser sans danger pour étudier le développement du cerveau de l'enfant.

Les premières études par IRM anatomique du cerveau d'enfants en bonne santé ont eu lieu à la fin des années quatre-vingt. Terry Jernigan et ses collègues, de l'université de Californie à San Diego, ont montré que chez les jeunes adultes la quantité de matière grise corticale était moindre que chez les enfants, bien que le volume de leur cerveau soit supérieur. Le volume global de matière grise semblait décliner après l'âge de 7 ans. Impossible cependant d'afficher une certitude : la croissance globale du cerveau résultant surtout de l'augmentation de substance blanche, il se pouvait très bien que le déclin de substance grise ne soit que relatif. Jernigan et ses collaborateurs devaient ensuite montrer que cette diminution n'avait pas lieu partout au même moment. Elle se produisait d'abord dans les ganglions de la base lire « Variations sous le cortex », p. 45 durant la prime enfance, puis dans les lobes pariétaux et frontaux à la puberté [2]. Quand bien même l'IRM était impuissante à déterminer la densité des synapses, c'était tout de même les premiers indices in vivo venant appuyer les découvertes post mortem de Huttenlocher.

Pour les spécialistes de biologie du développement, l'objectif suivant était bien défini : créer des cartes tridimensionnelles plus précises du cerveau en train de grandir et de mûrir. La méthode utilisée au début des années quatre-vingt-dix consistait à subdiviser le cerveau en différentes régions anatomiques, et de mesurer le volume de chacune de ces régions et ses variations au cours du temps. Malheureusement, le traitement des données impliquait de dessiner à la main les régions en question sur les clichés obtenus. Aussi quelques équipes, dont la nôtre, ont-elles entrepris de développer l'identification automatique des structures cérébrales. À partir de 1999, nous avons commencé à construire des cartes tridimensionnelles des structures cérébrales en développement, l'usage d'un code couleur nous permettant de visualiser, par exemple, les variations de matière grise chez les enfants, les adolescents et les adultes. À l'heure actuelle, nous parvenons même à présenter les données sous forme de courts films qui compactent les données acquises sur plusieurs années [3].

Bien que quelques chercheurs se soient intéressés aux structures de matière grise non corticales enfouies dans le cerveau lire « Variations sous le cortex », p. 45, la plupart des travaux de cartographie du cerveau en développement portent sur le cortex. À cela, une raison simple : il est le siège de fonctions aussi importantes et diverses que la vision, l'audition, le langage, ou encore la planification des actions.

Dans un premier temps, la plupart des études avaient pour objectif de voir s'il existait des différences statistiquement significatives entre enfants en bonne santé et enfants souffrant de troubles neuropsychiatriques citons, par exemple, la schizophrénie. Mais ces études ont aussi largement contribué à une meilleure connaissance du développement normal du cerveau. En effet, la plupart des anomalies détectées par IRM chez des enfants atteints de troubles du développement ne sont pas flagrantes. En d'autres termes, il est impossible de les détecter si l'objet de l'étude est un seul et unique sujet. Le seul moyen de les mettre en évidence est de comparer un groupe d'enfants atteints de tel ou tel trouble à un groupe d'enfants indemnes, et de voir s'il existe des différences statistiquement significatives entre ces deux groupes. Et les enfants « témoins » permettent aussi de dégager des conclusions quant au développement normal.

En 1992, par exemple, Judith Rapoport et son équipe du National Institute of Mental Health NIMH, à Bethesda, ont suivi, pendant cinq ans, 50 adolescents développant une schizophrénie infantile et, à titre de groupe contrôle, plus de 300 adolescents en bonne santé. C'est ensuite notre équipe qui a analysé les données [4]. Résultat ? Chez les adolescents en bonne santé, la substance grise diminue faiblement dans le cortex pariétal 1 ou 2 % par an, tandis qu'aucun changement n'est nettement perceptible dans les autres lobes. En revanche, chez les patients, nous avons détecté une perte rapide de substance grise dans le cortex supérieur frontal et dans le cortex temporal. Cette perte atteint 3 ou 4 % dans certaines sous-régions. La diminution de matière grise débute en fait dans les régions pariétales du cortex impliquées dans le langage et les associations d'idées. Elle s'étend ensuite vers les lobes temporaux et vers le cortex moteur supplémentaire. Cette évolution correspond aux troubles neuromoteurs et sensoriels caractéristiques de la maladie.

L'étape de l'adolescence

Ce type de résultats a souligné l'importance de mieux étudier le développement normal en tant que tel, et des études longitudinales ont été lancées dans cette seule intention. Leurs résultats remettent parfois en question certaines des conclusions antérieures établies sur la base d'études transversales c'est-à-dire où les données correspondant à des âges différents sont obtenues chez des personnes différentes. Par exemple, les données, publiées en 1999 par Jay Giedd, ses collègues du National Institute of Mental Health et des collaborateurs du Montreal Neurological Institute [5], ont dépeint un tableau partiellement différent de celui présenté par Terry Jernigan au début des années quatre-vingt-dix. Leurs travaux, qui portaient sur la croissance des lobes du cerveau entre 4 et 22 ans, ont confirmé l'augmentation linéaire de substance blanche jusqu'à l'âge de 20 ans. En revanche, ils ont montré des changements non linéaires de la substance grise : elle augmente durant la préadolescence, avec un maximum à environ 12 ans pour le lobe frontal et le lobe pariétal, et à 16 ans pour le lobe temporal. C'est après seulement qu'elle commence à diminuer.

Quelle conclusion en tirer quant aux mécanismes sous-jacents ? Il est difficile d'émettre autre chose que des hypothèses. L'IRM permet certes de mesurer les changements de densité et de volume des structures cérébrales, mais sa résolution est trop faible pour caractériser les mécanismes cellulaires correspondants. De plus, le volume de substance grise ne reflète pas seulement les modifications qui affectent les neurones, mais aussi celles qui touchent les autres cellules du cerveau les cellules gliales, et les vaisseaux sanguins. Tout ce que l'on peut dire, c'est que les changements observés par l'équipe de Giedd sont corrélés aux données post mortem indiquant un accroissement de l'élagage des connexions au cours de l'adolescence et de l'entrée dans la vie adulte, et qu'ils soulignent l'importance de cette période dans le développement du cerveau.

Scanné tous les deux ans

Par ailleurs, il était impossible d'extraire de cette étude des informations pertinentes quant à la géographie précise de l'évolution de la substance grise, étant donné que les lobes y étaient chacun considérés dans leur globalité. En 2004, en revanche, nous avons produit, en collaboration avec cette même équipe du NIMH, une carte montrant point par point l'évolution de l'épaisseur du cortex entre 4 et 21 ans [6]. Nous l'avons construite à partir de séries de clichés d'IRM obtenus chez treize enfants recrutés au NIMH au début des années quatre-vingt-dix, et suivis ensuite pendant plusieurs années : chacun des enfants a été scanné tous les deux ans pendant huit ou dix ans, tout en faisant l'objet, à chaque session, d'un entretien visant à s'assurer qu'il ne souffrait d'aucun trouble psychologique.

Cette étude est la première à visualiser l'évolution du cortex sous forme de film [fig. 1]. Dans ses grandes lignes, elle montre que l'amincissement de la substance grise a d'abord lieu, entre 4 et 8 ans, dans les régions du cortex moteur et du cortex somato-sensoriel situées à proximité du sillon séparant les deux hémisphères cérébraux, ainsi qu'au pôle postérieur et au pôle antérieur du cerveau. Autrement dit, les premières régions qui mûrissent sont celles où s'effectue l'intégration primaire des données sensorielles et motrices. Aux alentours de la puberté, soit vers 11 à 13 ans, la diminution de substance grise progresse dans le cortex pariétal - zone impliquée dans l'orientation spatiale et la maîtrise du langage. À la fin de l'adolescence, c'est le cortex préfrontal qui s'affine, autrement dit la zone où sont gérées nombre de fonctions cognitives supérieures, par exemple les capacités de raisonnement. La dernière région concernée par le processus est la partie moyenne et supérieure du cortex temporal. Il est possible que cela traduise la croissance continue de l'hippocampe enfoui au creux du cortex temporal l'hippocampe est une structure impliquée entre autres dans les processus de mémorisation. On notera, non sans intérêt, que le même type de suivi appliqué à des patients atteints de la maladie d'Alzheimer montre une séquence antagoniste [7] : les régions qui se développent le plus tôt chez l'enfant celles qui contrôlent la vision et les sensations sont épargnées jusqu'au stade ultime de la maladie ; celles qui se développent en dernier chez l'enfant sont les premières à dégénérer chez les patients.

Au vu de ces résultats, on s'interroge bien évidemment sur le lien entre l'affinement du cortex et les changements cognitifs que l'on observe au cours de l'enfance et de l'adolescence. Là encore, l'IRM anatomique a son mot à dire - ainsi que l'IRM fonctionnelle lire « La cognition en images », p. 48. Des résultats publiés en 2004, et obtenus sur un groupe de 45 enfants scannés deux fois à deux ans d'intervalle entre 5 et 11 ans, ont montré une corrélation entre l'amincissement du cortex frontal et pariétal gauche et des performances accrues dans l'exécution d'un test de maîtrise verbale [8]. D'après ces données, il semble raisonnable de spéculer mais seulement spéculer que l'évolution du cortex est effectivement liée aux changements cognitifs.

Inné et acquis

Quels sont les paramètres qui régissent ce développement ? Autrement dit, quelle est la part respective de la génétique et de l'environnement dans l'évolution du cerveau ? Afin d'apporter quelques éléments de réponse à ce débat sur l'inné et l'acquis, nous avons mis à profit l'IRM pour étudier des jumeaux.

En la matière, la base de données la plus connue - et utilisée dans diverses études épidémiologiques - est le registre finlandais des jumeaux, qui répertorie tous les jumeaux nés en Finlande depuis 1940. Nous avons donc songé à l'utiliser pour explorer quelles sont les régions du cerveau qui se développent sous un contrôle génétique strict, et quelles sont celles qui sont plus sensibles aux influences extérieures [9]. Certes, des jumeaux avaient déjà été étudiés par IRM avant que nous nous lancions dans cette étude. Il en était ressorti des ressemblances plus marquées chez les vrais jumeaux que chez les faux. Nous avions l'ambition d'aller plus loin dans la description des structures « héritables ».

En deux mots : Précieux outil que l'imagerie par résonance magnétique : ne requérant ni molécules radioactives, ni rayons X, elle peut être utilisée sans danger avec des enfants. Il y a quinze ans, débutaient les premières études sur le développement du cerveau. À l'époque, il s'agissait surtout d'étudier les troubles pathologiques tels que l'autisme ou la schizophrénie. Cet objectif est toujours d'actualité, mais le développement du cerveau normal est aussi devenu un objet d'étude. Résultat : l'IRM anatomique présente un panorama de plus en plus détaillé de l'évolution du cortex cérébral. Elle montre qu'en matière de développement du cerveau tout ne se joue pas pendant la prime enfance. Des changements ont lieu à l'adolescence, et même après.

Nous avons sélectionné quarante adultes en bonne santé à partir d'une cohorte comprenant toutes les paires de jumeaux de même sexe nés entre 1940 et 1957, dont chacun des membres vivait encore en Finlande. Notre panel consistait en dix paires de vrais jumeaux et dix paires de faux jumeaux, avec cinq paires d'hommes et cinq paires de femmes dans chaque groupe. Nous avons scanné tous les sujets, construit des cartes tridimensionnelles de la substance grise corticale, et confronté, paire par paire, les cartes de vrais jumeaux et celles de faux jumeaux. Nous avons ensuite estimé le degré de similarité au sein de chaque paire, et entre les paires. Le résultat le plus net a concerné le cortex frontal : le volume de substance grise est plus étroitement apparié chez les vrais jumeaux que chez les faux. Ainsi, il semble que le développement de cette partie du cortex, impliquée dans le contrôle du comportement, soit plus étroitement sous contrôle génétique que d'autres régions, par exemple, celles impliquées dans la mémorisation et l'apprentissage. Des études longitudinales de jumeaux enfants ou adolescents pourraient à l'avenir permettre de tester cette hypothèse.

Imagerie fonctionnelle

On le voit, les apports de l'IRM à l'étude du développement neurocognitif sont multiples. Néanmoins, les résultats obtenus jusque-là ne doivent pas masquer plusieurs limitations. Certaines sont techniques. Étant donné les prérequis statistiques de l'analyse des données, il est par exemple nécessaire d'avoir des échantillons de grande taille. D'autres relèvent de la nécessaire prudence dans l'interprétation de certaines données. La question clé est : que signifient les changements que l'on observe dans telle ou telle partie du cerveau ? À l'heure actuelle, l'IRM ne nous permet pas d'accéder aux causes cellulaires de ces changements, et nous sommes loin, en la matière, de pouvoir nous affranchir des données post mortem. En revanche, il est très probable qu'elle nous permettra de mieux comprendre le lien entre le développement des structures cérébrales et le développement cognitif - et de mieux comprendre également l'évolution de certaines pathologies. Et ce, qu'il s'agisse de l'IRM anatomique, ou d'autres techniques déjà utilisées chez l'adulte et qui commencent à l'être chez l'enfant, comme l'IRM fonctionnelle.

Par Arthur Toga, Paul Thompson et Elizabeth Sowell

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

SANG CHAUD , SANG FROID ...

 

Sang chaud, sang froid ? Des indices dans la coquille des œufs de dinosaures
Joël IgnassePar Joël Ignasse

En analysant les éléments qui constituent la coquille des œufs, il est possible de déterminer la température interne de la mère durant leur formation. La technique a été employée pour deux espèces de dinosaures.
Un oeuf de titanosaure. Gerald Grellet-TinnerUn oeuf de titanosaure. Gerald Grellet-Tinner


ŒUFS. Depuis plus d’un siècle les paléontologues débattent de la question de la température corporelle des dinosaures. Etaient-ils des créatures à sang froid ou à sang chaud ? La question est importante car la réponse permettra de mieux appréhender le comportement des géants du Jurassique et du Crétacé, la température du corps influençant sur le niveau d’activité. Cette nouvelle étude, publiée par la revue Nature Communications, ne permet pas de trancher complètement le débat mais elle offre pour la première fois la possibilité de déterminer la température interne de deux espèces de dinosaures grâce à l’étude de la coquille de leurs œufs.

Un système thermique probablement mixte

Les coquilles d’œufs sont formées en grande partie de carbonate de calcium qui contient deux isotopes rares et lourds, le carbone 13 et l’oxygène 18. Ces deux éléments peuvent se lier et le nombre de liaison est fonction de la température de formation des minéraux. Les œufs formés dans un organisme à sang froid présentent le plus grand nombre de liaisons 13C- 18O. En analysant les œufs de 13 espèces d’oiseaux et de neufs reptiles, Robert Eagle de l’université de Californie-Los Angeles et son équipe ont pu dresser une sorte de tableau associant la mesure des liaisons isotopiques et une approximation de la température autour de l’œuf en construction. La coquille étant formée au cœur de l’organisme des femelles, cela procure une bonne estimation de la température interne. Ils ont appliqué leur méthode sur des œufs de titanosaures découverts en Argentine, datés de 80 millions d’années et sur ceux de théropodes, des dinosaures plus petits et dont les oiseaux sont de lointains descendants, ramassés dans le désert de Gobi, en Mongolie, vieux de 71 à 75 millions d’années.

ENDOTHERMES. Les calculs indiquent que les titanosaures avaient une température d’environ 37,7°c tandis que les théropodes eux étaient moins « chauds », avec une température corporelle probablement inférieure à 32,2°c. Les chercheurs ont aussi évalué la température ambiante de l’environnement dans lequel les théropodes sont morts : à l’époque le thermomètre atteignait en moyenne 26,11°c. « Les températures du corps des théropodes étaient plus élevées que les températures environnementales - ce qui suggère qu'ils ne sont pas vraiment des créatures à sang froid, mais plutôt des animaux intermédiaires », a déclaré Aradhna Tripati, co-auteur de l’étude. Pour les sauropodes, la température de leur milieu naturel n’a pas été calculé mais les chiffres indiquent qu’ils étaient probablement endothermes, à sang chaud. Concernant les théropodes, les scientifiques envisagent une physiologie mixte : « quelque part entre les alligators ou les crocodiles modernes et les oiseaux modernes. Cela pourrait signifier qu'ils produisaient un peu de chaleur interne mais ne maintenaient pas des températures aussi élevées ou des températures aussi contrôlées que les oiseaux modernes. Mais s’ils étaient même à un petit degré endothermiques, ils avaient plus de capacités à courir à la recherche de nourriture que les alligators modernes  » précise Robert Eagle. Il faudra calculer la température corporelle de plusieurs autres espèces pour mieux comprendre les différentes physiologies en cours chez les dinosaures. La méthode exposée dans cette étude le permettra et clôturera enfin un débat séculaire et en plus sans fâcher personne puisque ces résultats tendent à prouver que les dinosaures étaient probablement à sang froid et à sang chaud.

LEXIQUE : Homéotherme, ectotherme, ou poïkilotherme…
On désigne communément les mammifères et les oiseaux par l’expression «animaux à sang chaud»; tandis qu’on qualifie les reptiles ou les amphibiens d’  «animaux à sang froid». Plus précisément, les animaux qui contrôlent leur température corporelle par un mécanisme interne sont dits endothermes. Généralement ils sont aussi homéothermes : leur température est stable. A l’inverse, ceux qui dépendent de l’environnement pour leur température sont dits ectothermes et souvent ils sont aussi poïkilothermes : leur température connaît d’importantes variations


DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google