ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Les glaces polaires fondent de plus en plus

 

 

 

 

 

 

 

Les glaces polaires fondent de plus en plus
Frédérique Rémy dans dlr 51
daté octobre 2012 -  Réservé aux abonnés du site


De la grande calotte du Groenland aux petits glaciers, toutes les régions de l'Arctique fondent. Mais pas toutes au même rythme. Le plus inquiétant est que, dans certaines zones, la fonte s'accélère.
Le 12 juillet 2012, pour la première fois depuis trente ans que des satellites sont en orbite pour surveiller les régions polaires, la fonte des glaces a été observée sur la totalité de la surface du Groenland. Victime spectaculaire du réchauffement dans l'Arctique, la banquise* n'est donc pas, loin s'en faut, l'unique sujet de préoccupation des climatologues. Un autre élément joue un rôle déterminant dans le réchauffement : ce sont les quantités considérables de glace qui recouvrent les terres émergées de l'Arctique, comme le Groenland ou le nord du Canada. Elles subissent de plein fouet l'effet du réchauffement dans la région, qui est deux fois plus rapide que dans le reste du globe. C'est leur fonte, et non celle de la banquise (lire « La banquise a un effet protecteur sur le réchauffement », p. 20), qui est l'une des principales sources de l'élévation actuelle du niveau de la mer.

Or les glaces des terres arctiques existent sous des formes très diverses : les calottes* et les inlandsis - vastes plateaux de glace en forme de dôme -, les glaciers - masses de glace des zones montagneuses qui glissent lentement vers le fond des vallées -, le sol gelé ou pergélisol... Tous réagissent différemment au réchauffement. Aujourd'hui, la multiplication des études de télédétection satellitaire permet de mieux cerner les effets de ce phénomène sur chacune des composantes des glaces arctiques. Et de préciser leurs rôles dans le système climatique.

UNE FONTE DES GLACES ALARMANTE AU GROENLAND
Globalement, la fonte des glaces de l'Arctique, si on y inclut l'ensemble du Groenland, contribue à hauteur de 25 % à 40 % à l'élévation du niveau de la mer. La contribution de l'Antarctique reste débattue, mais inférieure à 15 %. Quant au reste, il est causé par la fonte de l'ensemble des glaciers présents ailleurs sur la Terre, comme ceux de l'Himalaya ou de la Patagonie, et par la dilatation de l'océan due à l'élévation de température.

De toutes les régions arctiques, le Groenland est de loin celle dont la situation est la plus préoccupante. Malgré l'inertie thermique de cette calotte gigantesque, qui représente 1,7 million de kilomètres carrés et un volume de 3 millions de kilomètres cubes, ses glaces sont particulièrement touchées par le réchauffement.

Au Groenland, tous les voyants climatiques sont au rouge. Ainsi, chaque année, la portion de la calotte groenlandaise dont la surface fond en été est de plus en plus importante. Sa superficie a augmenté de 40 % en vingt-cinq ans. Cette tendance est constante depuis le début des observations des radiomètres satellites en 1979. Cette augmentation est clairement corrélée à l'élévation des températures au Groenland, estimée à 2,4 °C durant la même période. Au départ, la fonte était confinée dans les régions les moins froides, au sud du Groenland, et à basse altitude. Aujourd'hui, elle atteint le nord et se produit au-delà de 1 500 mètres d'altitude, y compris dans les zones les plus proches du pôle. Elle a même atteint toute la calotte l'été dernier.

DES GLACIERS QUI BOUGENT DE PLUS EN PLUS VITE
Autre indicateur clair de la diminution de la calotte groenlandaise, l'accélération des glaciers émissaires. Il s'agit de langues de glace présentes au pourtour d'une calotte. Ces glaciers ont pour effet, en quelque sorte, d'évacuer le contenu de cette dernière. Car ils s'écoulent vers le fond des vallées, voire vers la mer, où ils rencontrent des températures plus chaudes. Plus ils vont vite, plus ils libèrent des icebergs dans la mer. La vitesse de ces glaciers a été mesurée en comparant des images radar ou optique, prises à quelques semaines d'écart. Résultat : la majorité d'entre eux ont vu leur vitesse augmenter de quelques dizaines de pour cent pendant la dernière décennie. Ainsi, la vitesse du plus emblématique glacier du Groenland, le Jakobshavn Isbræ, classé au patrimoine mondial de l'Unesco, a fait plus que doubler depuis 1995, passant de 20 mètres par jour à plus de 40. Cette tendance est confirmée par les mesures d'épaisseur des ces glaciers, qui ont tendance à s'amincir quand ils vont plus vite.

Plusieurs phénomènes peuvent expliquer l'accélération de ces glaciers. En général, le déplacement du glacier sur son socle rocheux est lubrifié par un mince film d'eau, très discontinu, qui est situé entre les deux. Ce film est en partie alimenté par l'eau provenant de la glace fondue en surface qui s'infiltre jusqu'au socle rocheux. Le glacier glisse donc d'autant plus vite que la fonte est élevée. Toutefois, l'accélération vient surtout de la lubrification par l'eau de mer. Elle s'infiltre sous le glacier, à l'endroit où celui-ci atteint le rivage. Plus le réchauffement est important, plus l'eau de mer fait fondre le glacier, et mieux elle s'infiltre en dessous de lui.

Globalement, toutes les études confirment aujourd'hui que la calotte groenlandaise perd plus de masse en fondant qu'elle n'en reçoit sous forme de neige. Bilan : entre 100 et 250 milliards de tonnes en moins tous les ans. Les glaciologues obtiennent ces estimations en observant par satellite les variations de l'épaisseur de la calotte, mais également en analysant de fines variations de la gravité terrestre, mesurées là aussi par satellite. Et toutes les régions du Groenland sans exception perdent aujourd'hui de la masse. Bien que le réchauffement accélère le cycle de l'eau et provoque ainsi des neiges plus abondantes dans le centre du territoire, ces dernières ne compensent plus l'importante fonte des glaces des régions côtières. Pendant longtemps, jusqu'en 2005, le nord de la calotte recevait encore suffisamment de neige pour compenser la fonte accrue. Actuellement, même cette région perd de la masse.

LES CONSÉQUENCES SUR LA MONTÉE DES OCÉANS
Cette perte annuelle de masse de glace contribue à élever le niveau de la mer de 0,3 à 0,7 millimètre par an, selon les estimations. Cela représente de 10 % à 20 % environ de l'augmentation annuelle du niveau de la mer. En outre, la plupart des climatologues estiment aujourd'hui que l'on est en présence d'une vraie tendance de fond et non de fluctuations d'une année sur l'autre. Depuis au moins quelques décennies, les pertes de masse de la calotte groenlandaise s'accélèrent.

D'autres calottes et glaciers de l'Arctique connaissent une évolution inquiétante. C'est le cas du nord du Canada et de l'Alaska, qui constituent les deux plus vastes terres recouvertes de glace dans l'Arctique après le Groenland. L'Alaska, en particulier, semble particulièrement vulnérable au réchauffement de la région. Car il comporte de nombreuses langues de glace assez étendues. Or ces dernières sont situées à basse altitude, leurs extrémités étant souvent en contact direct avec l'océan. Comme celui-ci, tout comme l'atmosphère, se réchauffe, elles ont tendance à fondre rapidement.

Pour ces raisons, la seconde partie du XXe siècle a été très destructrice pour les glaces de l'Alaska. Alors qu'elles ne représentent que 5 % de la surface du Groenland, elles ont contribué à près de 10 % de la hausse totale du niveau de la mer pendant cette période. La fonte, qui s'était accélérée pendant la décennie 1990, s'est un tout petit peu ralentie lors de la décennie suivante. Elle s'est aujourd'hui stabilisée à un rythme qui reste très important : elle contribue à élever le niveau de la mer de 0,22 millimètre par an, soit environ 7 % de l'augmentation annuelle.

L'ARCTIQUE CONNAÎT DES SITUATIONS CONTRASTÉES
Longtemps assez épargné, le Canada semble désormais suivre la voie de l'Alaska. Jusqu'à la fin du XXe siècle, les glaciers et les calottes qui recouvrent les îles du nord du pays résistaient plutôt bien au réchauffement des régions arctiques. Mais des travaux récents viennent de montrer que leur fonte s'est accentuée brutalement depuis 2004. Entre 2007 et 2009, la contribution de ces glaces à l'élévation du niveau de la mer a même dépassé celle de l'Alaska, atteignant 0,25 millimètre par an. Toutefois, cette forte hausse n'a été observée que sur une courte période. Elle peut être due à la variabilité du climat. Les prochaines années confirmeront ou non s'il s'agit d'une tendance de fond.

Le cas de l'Islande se révèle tout aussi inquiétant. La fonte y est la plus rapide de tout l'Arctique. Depuis le milieu des années 1990, les calottes de glace islandaises perdent, en moyenne, un peu plus d'un mètre d'épaisseur chaque année, contre 90 centimètres pour l'Alaska et 10 centimètres pour le Groenland. Leur impact sur l'élévation du niveau de la mer s'avère toutefois très faible, dans la mesure où elles couvrent une surface réduite.

Dans le reste de l'Arctique, les glaces contribuent très peu à l'élévation du niveau de la mer. Bien qu'elles occupent des surfaces relativement conséquentes, la fonte y est encore modérée. C'est le cas des îles du Spitzberg, au nord de la Norvège, ou de la Nouvelle-Zemble et de Severnaïa Zemlia, au nord de la Russie.

Pourquoi cette fonte modérée ? D'abord parce que ces petites calottes ne sont pas ou très peu en contact avec la mer. C'est donc principalement l'atmosphère qui peut les réchauffer. Or ces calottes sont, en général, relativement proches du pôle, à seulement 1 000 kilomètres, par exemple, pour le Spitzberg. À ces latitudes, les températures sont encore assez froides durant une grande partie de l'année et largement au-dessous de 0 °C. La fonte reste donc modeste et l'effet du réchauffement également. Mais pour combien de temps encore ? Si les températures continuent d'augmenter, notamment en été, ces calottes devraient, elles aussi, perdre de plus en plus de masse.

La conclusion est sans appel : de la grande calotte du Groenland aux petits glaciers, quelles que soient leur taille ou leur nature, tous les objets glaciaires de l'Arctique fondent. Que des objets constitués de glace soient particulièrement sensibles au réchauffement n'est pas en soi une surprise. En revanche, l'accélération de ce processus pose question. Pour l'expliquer, les climatologues avancent plusieurs hypothèses. Ils invoquent des phénomènes d'emballement, appelés aussi rétroactions positives, qui accentuent les effets du réchauffement.

QUAND LES GLACIERS FONDENT, ILS S'AMINCISSENT
L'un de ces phénomènes est le fait qu'un glacier qui fond s'amincit. Par conséquent, son altitude moyenne baisse. Les températures auxquelles il est soumis en haut, près du sommet, sont donc légèrement moins froides. En moyenne, il se réchauffe un petit peu plus. Donc il fond un petit peu plus vite. Donc il s'amincit encore plus, et ainsi de suite. Cet emballement est toutefois en partie freiné. Car, en s'amincissant, le glacier se rétracte : son extrémité la plus basse remonte légèrement, passant dans une atmosphère un peu plus froide, donc moins propice à la fonte. À cause de ces deux effets antagonistes, l'amincissement des glaciers peut donc accélérer la fonte, ou la freiner, ou n'avoir pratiquement pas d'effet.

Un autre facteur d'accélération vient des poussières déposées par le vent, année après année, sur la surface de la glace. Chaque été où la fonte est forte, ces particules sombres réapparaissent en surface des glaciers. Elles sont à chaque fois plus nombreuses. Or, un glacier moins blanc absorbe beaucoup plus la chaleur du soleil, donc fond plus vite. L'impact de ces poussières sur la fonte peut être massif, comme l'a montré l'éruption du volcan Eyjafjallajökull en avril 2010 (lire « 3 mètres d'épaisseur en moins en quelques mois », p. 21 ). Ces poussières peuvent être des cendres de volcans, s'il y en a à proximité. Mais elles peuvent aussi être produites par le déplacement du glacier, qui érode les roches en dessous de lui, transporte et repousse des amas de pierres et de terre sur les côtés. Il peut également s'agir de suies présentes dans l'atmosphère, issues, par exemple, d'incendies ailleurs sur la Terre. L'impact de ce phénomène sur la fonte des glaces en Arctique n'est toutefois pas encore très bien quantifié pour l'instant.

Cependant, nous ne savons pas vraiment comment ces mécanismes se combinent entre eux. Ainsi, au nord du Groenland, la fonte en surface est apparue relativement récemment. Et alors que, partout ailleurs, une telle fonte provoque une accélération de l'écoulement des glaciers, au nord du Groenland, ce n'est pas le cas. Pour le moment, nous essayons de comprendre pourquoi.

Dans ce contexte, l'avenir des diverses calottes et glaciers des terres arctiques demeure difficile à prédire. Beaucoup de travail reste à mener pour comprendre la réaction de ces objets au réchauffement. D'autres phénomènes doivent être pris en compte, comme la modification de la circulation océanique.
* La banquise est la glace de mer.

* La calotte glaciaire est de la glace de terre constituée d'eau douce ; elle se forme par l'accumulation de neige en surface, son tassement et sa transformation progressive en glace.
L'ESSENTIEL
- La fonte des glaces de terre de l'Arctique, et non celle de la banquise, est la principale cause de l'élévation actuelle du niveau de la mer.

- La zone la plus touchée est la calotte glaciaire du Groenland, dont la surface diminue de plus en plus chaque année en été.

- La banquise fond, elle aussi, ce qui contribue à augmenter le réchauffement climatique.
DAVID SALAS Y MÉLIA EST CHERCHEUR EN CLIMATOLOGIE AU CENTRE NATIONAL DE RECHERCHES MÉTÉOROLOGIQUES DE MÉTÉO-FRANCE À TOULOUSE.« LA BANQUISE A UN EFFET PROTECTEUR DANS LE RÉCHAUFFEMENT »
Quel est le rôle joué par la banquise vis-à-vis du réchauffement ?

Cette fine couche de mer gelée tend à protéger la Terre du réchauffement. Elle est en effet très blanche, notamment quand elle est recouverte de neige fraîche, alors que l'océan est plutôt sombre. La banquise renvoie donc dans l'espace 50 % à 85 % de la lumière du soleil qu'elle reçoit, alors que l'océan en absorbe, lui, plus de 90 %. Il s'échauffe donc beaucoup plus facilement que la banquise. Et plus celle-ci fond, à cause du réchauffement, plus l'océan se réchauffe lui aussi. Car la surface qu'il occupe s'étend. Ce qui augmente à nouveau le réchauffement. En revanche, la fonte de la banquise ne participe en rien à l'élévation du niveau de la mer, de même que le niveau de l'eau dans un verre ne monte pas quand les glaçons fondent.

La fonte de la banquise augmente-t-elle ?

En Arctique, la banquise décroît continûment. Elle a même atteint un record de rétraction, début septembre 2012, couvrant moins de 4 millions de kilomètres carrés, quand son précédent record de 2007 s'établissait à 4,5 millions. En revanche, la banquise antarctique ne diminue pas, voire augmente légèrement.

Pourquoi cette différence ?

En Antarctique, la banquise peut s'étendre beaucoup plus facilement. Car elle n'est pas limitée, comme dans l'Arctique, par la présence de plusieurs continents tout autour du pôle Nord : nord du Canada, Groenland, nord de la Russie, etc.

Et d'autres phénomènes entrent en jeu, comme la fonte des glaces des continents, qui apporte de l'eau douce près de la surface. Devenue moins salée, l'eau proche de la surface se mélange peu avec les eaux plus profondes, car leurs températures s'homogénéisent moins. Or, l'impact de cet effet diffère selon les saisons et le lieu. En Antarctique, il a plutôt tendance à protéger la banquise, tandis qu'en Arctique, il a plutôt tendance à la faire fondre.

Propos recueillis par Nicolas Constans
3 MÈTRES D'ÉPAISSEUR EN MOINS EN QUELQUES MOIS
L'éruption du volcan Eyjafjallajökull en avril 2010, qui paralysa le trafic aérien européen, a eu un impact très fort sur les glaces islandaises. Au cours de l'été suivant, celles-ci ont fondu trois fois plus vite que les années précédentes, perdant 3 mètres d'épaisseur en seulement quelques mois ! En effet, la fine couche de cendres volcaniques qui a alors recouvert toutes les calottes islandaises les a noircies, ce qui a absorbé très efficacement le rayonnement solaire. Heureusement, cette éruption n'a eu qu'un effet transitoire. Au cours du même été, la fonte a été forte dans la moitié basse des glaciers. En conséquence, l'eau qui en a résulté a emporté les cendres. Quant à celles qui recouvraient le haut des glaciers, elles ont été ensevelies par d'importantes chutes de neige lors de l'hiver suivant. Redevenus blancs, les glaciers se sont remis à fondre à un rythme plus lent, comme avant.
L'ANTARCTIQUE, UN BILAN PLUS CONTRASTÉ
L'ANTARCTIQUE, lui aussi, perd de la masse. Les chiffres exacts font toujours débat, mais ils sont de l'ordre de plusieurs dizaines à plusieurs centaines de milliards de tonnes chaque année. En outre, ces pertes s'accélèrent : d'une année sur l'autre, elles augmentent d'environ 15 milliards de tonnes en moyenne.

LES CLIMATOLOGUES ont pourtant longtemps pensé que l'Antarctique subissait moins les effets du réchauffement que l'Arctique. D'une part, parce qu'il a une grande inertie thermique : l'essentiel de sa glace forme une vaste calotte de 2 000 mètres d'épaisseur en moyenne, qui occupe des millions de kilomètres carrés. Ensuite, parce qu'il est relativement isolé du climat du reste du globe. Enfin, parce que, contrairement au Groenland, il ne fond quasiment pas au contact de l'atmosphère, car la température n'atteint que rarement 0 °C.

DES OBSERVATIONS PAR SATELLITE, menées depuis une quinzaine d'années, indiquent néanmoins que certains glaciers antarctiques s'écoulent de plus en plus vite. De ce fait, ils évacuent de plus en plus de glace vers la mer. Une partie de cette glace fond au contact de l'eau, le reste est libéré sous forme d'icebergs. Les chutes de neige de l'intérieur des terres, même si elles augmentent à cause du réchauffement, ne compensent pas cette perte de glace. La calotte « puise dans ses réserves », elle perd de la masse.

CES PERTES AFFECTENT surtout la partie ouest du continent, pour le moment. Les plus grosses contributions viennent du glacier appelé Pine Island et de ses voisins de la mer d'Amundsen, ainsi que d'autres situés dans la longue péninsule Antarctique. À l'est de l'Antarctique, en revanche, rien n'est encore vraiment tranché.

Thomas Flament, Legos

 

  DOCUMENT   larecherche.fr    LIEN

 
 
 
initiation musicale toulon  

Darwin revisité par la sélection artificielle

 

 

 

 

 

 

 

Darwin revisité par la sélection artificielle
Dario Floreano dans mensuel 350
daté février 2002 -  Réservé aux abonnés du site


Un robot peut-il évoluer de manière autonome ? Tel est le champ d'étude de la robotique évolutionniste, qui s'attache à mettre au point des robots capables de s'adapter à leur environnement. Aujourd'hui, les performances de certains types de réseaux de neurones artificiels résultent effectivement d'un processus de sélection darwinien.
En dépit des progrès immenses que la robotique a connus au XXe siècle grâce aux développements de l'électronique, de l'informatique et des capteurs artificiels, la plupart des robots actuellement en fonction dans les usines ne diffèrent pas beaucoup des anciens automates. Ils sont toujours programmés pour accomplir exactement des séries d'actions prédéfinies. Peut-on dire de ces machines qu'elles sont intelligentes ? Pas vraiment : elles se bornent à traduire l'intelligence des ingénieurs qui les ont conçues et programmées. Dans son passionnant petit ouvrage intitulé Véhicules. Expériences de psychologie de synthèse , le neurophysiologiste Valentino Braitenberg envisageait a contrario , dès 1984, la possibilité d'aboutir à des robots « intelligents » par l'intermédiaire d'un processus évolutionniste voir l'encadré : « A l'origine de la robotique révolutionnaire ». Il voulait ainsi appliquer à la robotique l'idée de Darwin selon laquelle l'évolution de la vie biologique sur Terre résulte d'un processus de copie sélective avec erreurs aléatoires, sans participation d'un créateur conscient. C'est ce concept de robotique évolutionniste que certains chercheurs ingénieurs, biologistes et spécialistes des sciences cognitives tentent depuis quelques années de développer, en essayant de mettre au point des formes de vie robotique capables de s'adapter de manière autonome à leur environnement.

Au printemps 1994, deux équipes de chercheurs -la nôtre à l'Ecole polytechnique fédérale de Lausanne EPFL et celle dirigée par Inman Harvey à l'université du Sussex, à Brighton1 - ont réalisé les premiers robots ayant développé, par simulation mais sans intervention humaine, divers types de circuits neuronaux leur permettant de se déplacer de manière autonome dans des environnements réels. A la base de ces réalisations, deux postulats communs. Premièrement, la conception planifiée d'un robot ne permet pas de faire face à la complexité des interactions entre le robot et son environnement physique, ni d'élaborer les circuits neuronaux nécessaires à ces interactions. Au lieu de tenter de formaliser ces interactions pour ensuite structurer le cerveau du robot, pourquoi ne pas les laisser, sous la pression de certains critères de sélection, guider elles-mêmes l'évolution de ce dernier ? Deuxièmement, le processus évolutionniste appliqué aux robots est susceptible d'aboutir à des circuits neuronaux beaucoup plus simples que ceux en général dessinés par les ingénieurs appliquant des méthodes d'analyse formelle. La nature n'est-elle pas riche en exemples de circuits nerveux simples et pourtant responsables de comportements apparemment très complexes ?

Réseaux de neurones. Pour expérimenter l'évolution sans intervention humaine, notre équipe de l'EPFL a créé un robot mobile miniature baptisé Khepera à présent distribué par la société K-Team SA. Doté d'un corps circulaire de 6 centimètres de diamètre pour un poids de 70 grammes, il est équipé de deux roues et de huit capteurs lumineux simples répartis autour de son corps six à l'avant et deux à l'arrière fig. 1. Khepera est relié à un ordinateur par l'intermédiaire d'un câble suspendu au plafond et de contacteurs rotatifs spécialement conçus pour assurer sans rupture son alimentation électrique. L'enregistrement permanent de tous les mouvements du robot et de la structure de ses circuits neuronaux au cours de l'évolution permet d'analyser a posteriori le processus évolutionniste.

Par circuits neuronaux, il faut bien sûr comprendre « réseaux de neurones artificiels ». Ces derniers sont soit matérialisés sous forme de composants électroniques, soit, comme c'est le cas ici, simulés par informatique. Comme dans le monde du vivant, ces circuits sont composés d'un certain nombre de neurones interconnectés de façons diverses. Ce sont du reste ce nombre et la nature des interconnexions qui définissent la structure d'un circuit neuronal. L'analogie ne s'arrête pas là, puisque chaque neurone reçoit des signaux des neurones voisins via la propagation unidirectionnelle des signaux en question dans ses dendrites, et envoie ensuite son propre signal à d'autres neurones, via son unique axone.

Certains neurones sont activateurs - ils émettent un signal positif - tandis que d'autres sont inhibiteurs - ils émettent un signal négatif. Quelle que soit sa nature, ce signal de sortie est construit par comparaison entre la somme de signaux reçus par un neurone, et la valeur seuil qui a été attribuée à ce dernier pour qu'il réponde. Enfin, un « poids » est attribué à chaque point de connexion synapse entre un axone et une dendrite, poids qui selon les cas amplifie ou diminue le signal transitant à cet endroit. Le nombre et le type de neurones valeur seuil, nature du signal engendré, le profil des connexions et le poids attribué à chaque synapse sont codés informatiquement dans ce que l'on appelle le chromosome du robot - seconde analogie avec le monde du vivant. Ce chromosome est une chaîne de bits se succédant en séquences dénommées « gènes », dont chacune représente une propriété du circuit de neurones. Le premier gène, composé, par exemple, de 8 bits, code la présence et la connectivité d'un neurone donné dans le circuit. Le second gène, composé, par exemple, de 20 bits, code le poids attribué à chacune des connexions synaptiques au niveau des dendrites de ce même neurone. C'est l'ordinateur lui-même qui produit, de façon aléatoire, une première population de ces chromosomes artificiels. Chacun d'eux sert ensuite à programmer le réseau de neurones qui est relié, en entrée, aux capteurs sensoriels du robot, et en sortie, à ses roues, de façon à en gérer la vitesse de rotation. Chaque configuration est ensuite testée sur le robot pendant quelques minutes, au cours desquelles l'ordinateur évalue ses performances.

Sélection et reproduction. Dans une première expérience2, nous avons voulu développer la capacité du robot à avancer en ligne droite et à éviter les obstacles. Nous avons donc demandé à l'ordinateur de sélectionner, pour reproduction, les individus dont les roues tournaient à peu près dans la même direction mouvement en ligne droite et dont les capteurs étaient peu activés ce qui reflète l'éloignement du robot par rapport aux obstacles. Ces paramètres sont du reste les seules données injectées par la main humaine : tout le processus ultérieur est autogéré par un algorithme. Après avoir testé le chromosome de chaque individu de la population initiale sur un robot physique, les chromosomes les plus performants sont sélectionnés, puis reproduits de façon à obtenir une population de même taille que la population initiale. Ces copies sont alors, au hasard, agencées par paires : le chromosome de l'individu 8 est par exemple apparié au chromosome de l'individu 67. Un point est aléatoirement fixé le long de ces deux chromosomes, autour duquel ont lieu des échanges de séquence, sorte d'équivalent des mutations par recombinaison du monde vivant. De plus, la valeur des bits de chaque chromosome est basculée de 0 à 1 ou inversement suivant une probabilité très faible, créant ainsi des mutations ponctuelles. On obtient alors une nouvelle génération de chromosomes, à son tour testée et reproduite plusieurs fois fig. 2.

Premiers cas d'adaptation. Au bout de 50 générations ce qui correspondait à environ deux jours d'activité en continu, nous avons observé un robot capable de faire le tour complet du labyrinthe-test sans jamais heurter un obstacle. Le circuit obtenu par ce processus d'évolution s'est révélé être relativement simple, mais malgré tout plus complexe que les circuits conçus à la main pour accomplir des tâches similai-res : il mettait en effet à profit des connexions non linéaires entre les neurones moteurs pour empêcher le robot de se retrouver bloqué dans les coins. De plus, ce Khepera parfaitement circulaire comme tous ses confrères se déplaçait toujours dans la direction correspondant au plus grand nombre de capteurs. Pourtant, les premières générations étaient capables de se déplacer dans les deux sens. Mais les individus roulant avec la majeure partie des capteurs à l'arrière ont eu tendance à rester bloqués dans des coins parce qu'ils ne les percevaient pas bien : ils ont donc disparu de la population. Ce résultat a représenté un premier cas d'adaptation d'un réseau de neurones artificiels à la morphologie d'un robot dans un environnement donné.

Etait-il possible, par la voie de l'évolution, de développer des aptitudes cognitives plus complexes en exposant simplement les robots à des environnements plus stimulants ? Pour tenter de répondre à cette question, nous avons mis Khepera dans une enceinte où un chargeur de batterie est placé dans un coin, sous une source lumineuse2 ; nous l'avons ensuite laissé évoluer jusqu'à déchargement de ses batteries. Pour accélérer l'obtention des résultats du processus évolutif, nous avons procédé par simulation tant des batteries et de leur durée de charge seulement 20 secondes, que du chargeur, figuré quant à lui par une zone peinte en noir. Lorsque le robot y passait, ses batteries se rechargeaient automatiquement. Le critère d'adaptation était le même que dans l'expérience de navigation en ligne droite : rester en mouvement le plus possible tout en évitant les obstacles. Les robots qui parvenaient à trouver le chargeur de batterie vivaient plus longtemps et accumulaient donc davantage de capacités adaptatives. Au départ, la « rencontre » avec le chargeur de batterie découlait du hasard. Mais au bout de 240 générations, soit une semaine d'activité en continu, nous avons trouvé un robot capable de rejoindre le poste de charge deux secondes seulement avant le déchargement complet de ses batteries, puis de retourner immédiatement vers la partie centrale de l'enceinte, éloignée des parois. En analysant l'activité du circuit neuronal de ce robot lors de ses déplacements, nous avons observé que l'un de ses neurones, et un seul, présentait une caractéristique très particulière : son activation dépendait de la position et de l'orientation du robot dans l'environnement. Il ne dépendait pas, en revanche, du niveau de charge de la batterie. Autrement dit, ce neurone codait une représentation spatiale de l'environnement ce que les psychologues appellent parfois une « carte cognitive », tout comme certains neurones découverts par les neurophysiologistes dans le cerveau des rats qui explorent leur milieu. Dans un cas comme dans l'autre, il est tout aussi difficile d'expliquer pourquoi une telle évolution a eu lieu...

Encouragés par ces expériences, nous avons décidé de rendre l'environnement encore plus complexe en faisant évoluer simultanément deux robots en compétition l'un avec l'autre. Le groupe du Sussex avait déjà commencé à étudier, en simulation, la coévolution de prédateurs et de proies afin de voir s'il apparaissait dans les deux espèces des comportements de plus en plus complexes. Il avait ainsi montré que cette coévolution de deux populations en compétition modifie massivement le processus d'évolution, mais n'avait pu observer de résultats vraiment marquants quant au stade évolutif final. De notre côté, nous avons choisi de travailler en grandeur nature sur des robots morphologiquement différents3 : le robot prédateur est doté d'un champ visuel de 36 degrés et le robot proie, s'il est seulement muni de capteurs simples capables de déceler un objet distant de 2 centimètres, peut se déplacer deux fois plus vite que le prédateur. Ces robots sont mis à « coévoluer » dans une enceinte carrée, chaque paire proie-prédateur se déplaçant librement pendant deux minutes ou moins si le prédateur parvient à atteindre son but, le critère de sélection étant le délai précédant la collision fig. 1. Les résultats sont très surprenants. Au bout de 20 générations, le prédateur a acquis la capacité de rechercher la proie et de la poursuivre pendant que celle-ci s'échappe en se déplaçant dans toute l'enceinte. Cependant, comme la proie est plus rapide que lui, cette stratégie n'est pas toujours payante. Après 25 générations supplémentaires, il repère la proie à distance, puis finit par l'attaquer en anticipant sur sa trajectoire. Dès lors, la proie se met à se déplacer si vite le long des parois que le prédateur la manque souvent et va s'écraser sur une paroi. Encore 25 générations plus tard, le prédateur a mis au point la « stratégie de l'araignée ». Il se déplace lentement jusqu'à une paroi et attend la proie, qui bouge trop vite pour déceler à temps le prédateur et donc pour l'éviter !

Cependant, lorsque nous avons laissé coévoluer les deux espèces de robots encore plus longtemps, nous avons constaté qu'elles redécouvraient de vieilles stratégies qui se révélaient efficaces contre celles utilisées au même moment par l'opposant. Ce constat n'est pas surprenant : étant donné la simplicité de l'environnement, le nombre des stratégies possibles pour les deux espèces de robots est en effet limité. Même dans la nature, on observe que des hôtes et des parasites évoluant ensemble par ex-emple, des plantes et des insectes recyclent au fil des générations de vieilles stratégies. Stefano Nolfi, qui a travaillé avec nous sur ces expériences, a remarqué qu'en rendant l'environnement plus complexe par exemple, en ajoutant des objets dans l'enceinte, la diversité des stratégies mises au point par les robots était beaucoup plus grande et qu'il fallait plus longtemps avant que les deux espèces en reviennent à des stratégies anciennes. Des équipes de plus en plus nombreuses travaillent aujourd'hui sur les systèmes de coévolution, et je pense que c'est une voie très prometteuse d'une part pour développer l'intelligence du comportement chez les robots et d'autre part pour comprendre comment les espèces biologiques ont évolué jusqu'à leur stade actuel ou ont disparu au cours de l'histoire de la Terre.

Autres supports d'évolution. Dans les expériences décrites jusqu'ici, le processus d'évolution s'exerçait sur les caractéristiques du logiciel de commande du robot. Mais de fait, on peut envisager d'appliquer aux circuits électroniques eux-mêmes le processus évolutionniste permettant d'obtenir des comportements intéressants. Malheureusement, les électroniciens ont plutôt tendance à éviter les circuits trop complexes, fortement non linéaires et au comportement difficilement prévisible, alors que c'est justement de ce type de circuits dont une machine capable de comportements autonomes aurait sans doute besoin !

A l'université du Sussex, Adrian Thompson a développé des systèmes affranchis des contraintes usuelles de structure4. Il a utilisé un nouveau type de circuit électronique, le FPGA Field Programmable Gate Array, dont l'architecture des connexions internes peut être entièrement modifiée en quelques nanosecondes, en jouant sur le voltage traversant le circuit. La configuration d'un FPGA étant une chaîne binaire de 0 et de 1, A. Thompson a considéré cette chaîne comme un chromosome et l'a fait évoluer pour diverses applications, telles la discrimination des sons et même la commande de robots. Les circuits obtenus grâce à ce processus d'évolution demandent cent fois moins de composants que les circuits électroniques classiques conçus pour des tâches similaires, et font intervenir de nouveaux types de connexions. De plus, ces circuits sont sensibles à certains paramètres environnementaux tels que la température. Cette caractéristique, défavorable en électronique classique, constitue par contre un atout dans une optique évolutionniste, puisque cette sensibilité est une caractéristique de tous les organismes vivants. Le domaine de l'électronique évolutionniste était né et plusieurs chercheurs à travers le monde utilisent aujourd'hui l'évolution artificielle pour découvrir de nouveaux types de circuits, ou laissent les circuits évoluer vers de nouvelles conditions de fonctionnement.

Nous avons, jusqu'à présent, essentiellement traité de l'évolution du « système nerveux » des robots. Or, dans la nature, la forme du corps et la configuration sensori-motrice sont, elles aussi, soumises à évolution. Est-il possible que la répartition des capteurs d'un robot s'adapte à un circuit neuronal fixe et relativement simple ? L'équipe de Rolf Pfeifer a créé, au laboratoire d'intelligence artificielle de Zurich, le robot Eyebot dont l'oeil peut changer de configuration5. Le système visuel d'Eyebot, analogue dans son principe à celui de la mouche, est composé de plusieurs photorécepteurs directionnels dont l'angle peut être modifié par des moteurs fig. 3. Une fois Eyebot implémenté avec un circuit neuronal fixe et simple, les auteurs ont observé l'évolution de la position relative de ses capteurs dans une situation où le critère de sélection était de se maintenir à une distance donnée d'un obstacle. Les résultats expérimentaux ont confirmé les prédictions théoriques : l'évolution a conduit à une distribution des photorécepteurs plus dense vers l'avant du robot que sur les côtés. Les enseignements de cette expérience sont très importants : d'une part, la forme du corps joue un rôle majeur dans le comportement d'un système autonome, et il faut lui permettre d'évoluer en même temps que d'autres caractéristique du système ; d'autre part, une morphologie adaptée à l'environnement et aux comportements du robot permet d'alléger la complexité des calculs.

L'idée de faire évoluer simultanément la morphologie et les circuits neuronaux d'un robot autonome avait, elle, déjà été explorée en 1994 par Karl Sims, par simulation. Il n'y a pas longtemps qu'elle a été concrétisée sous forme matérielle6. Jordan Pollack et son équipe de Brandeis University ont fait coévoluer la morphologie et le circuit de neurones moteurs de robots composés de tiges de longueur variable, dont le critère d'adaptation est d'avancer le plus loin possible. Les chromosomes de ces robots contiennent les paramètres de commande d'une « imprimante » en trois dimensions, laquelle fabrique des corps de robots à partir d'un matériau thermoplastique. Ces derniers sont alors équipés de moteurs, et on les laisse évoluer librement tout en mesurant leur taux d'adaptation. L'évolution artificielle a produit des formes extérieures souvent innovantes qui évoquent des morphologies biologiques comme celles de poissons fig. 3.

Conditions d'amélioration. Quels que soient les progrès décrits ci-dessus, ils ne valent pourtant que dans un environnement assez simple. Si ce dernier ou les aptitudes requises pour y évoluer sont trop complexes, de telle sorte que tous les individus de la première génération ont une adaptation nulle, l'évolution ne peut pas sélectionner les bons éléments et donc accomplir le moindre progrès. L'une des solutions possibles consisterait à travailler avec des environnements et des critères d'adaptation initialement simples, mais se complexifiant au fil du temps. Cette solution suppose toutefois de consacrer davantage d'efforts à la mise au point de méthodes incrémentales d'évolution par étapes, méthodes qui seraient, dans une certaine mesure, capables de préserver les premières solutions découvertes et de bâtir à partir d'elles. Cela implique que nous sachions déterminer les paramètres initiaux convenables et le codage génétique à partir duquel l'évolution artificielle pourra produire des structures plus complexes. Un autre défi est, on l'a entrevu, celui de la fabrication matérielle. Malgré les résultats encourageants obtenus dans le domaine de l'évolution des circuits électroniques, nous sommes nombreux à considérer qu'il faut repenser radicalement le type de composants sur lesquels faire agir l'évolution artificielle. Dans cette optique, un renforcement des efforts de développement de circuits auto-assembleurs, qui imposent moins de contraintes au système en évolution, pourrait accélérer les progrès de la robotique évolutionniste.
1 I. Harvey et al., Robotics and Autonomous Systems, 20 2-4, 205, 1997.

2 F. Mondada et D. Floreano, Robotics and Autonomous Systems, 16, 183, 1995.

3 S. Nolfi, S. et D. Floreano, Artificial Life, 4 4, 311, 1998.

4 A. Thompson, « Hardware evolution : automatic design of electronic circuits in reconfigurable hardware by artificial evolution », Distinguished Dissertations Series, ISBN 3-540-76253-1, Springer-Verlag, 1998.

5 L. Lichtensteiger et P. Eggenberger, « Evolving the morphology of a compound eye on a robot », Proceedings of the Third European Workshop on Advanced Mobile Robots Eurobot '99, Cat. No.99EX355. IEEE, Piscataway, NJ, USA, p.127-134, 1999.

6 H. Lipson et J. B. Pollack, Nature, 406, 974, 2000.
NOTES
Ce texte a été traduit par Philippe Brenier.

Les expériences menées à l'EPFL ont été rendues possibles grâce à la collaboration de Francesco Mondada, Stefano Nolfi, Joseba Urzelai, Jean-Daniel Nicoud et André Guignard. L'auteur exprime sa reconnaissance à la Fondation nationale suisse pour la science pour le soutien permanent qu'elle a apporté au projet.
A L'ORIGINE DE LA ROBOTIQUE ÉVOLUTIONNISTE
En 1984, Valentino Braitenberg imagine une expérience qui, à l'époque, reste fictive. Plusieurs robots simples, montés sur roues et équipés de différents capteurs connectés par des fils électriques et autres circuits électroniques aux moteurs commandant les roues, sont posés sur une table. Ils vont bien sûr avoir des comportements divers aller tout droit, s'approcher de sources de lumière, s'arrêter un moment, puis s'éloigner rapidement, etc.. La tâche de l'ingénieur consistera à prélever de temps à autre l'un des robots, à le recopier et à poser la copie sur la table ; il devra aussi remplacer par l'une de ces copies les robots tombés par terre, pour que le nombre de robots en présence demeure constant. Or, lors de la construction de la copie, il se produira inévitablement de petites erreurs, comme l'inversion de la polarité d'une connexion électrique ou la pose d'une résistance différente. Certaines de ces erreurs induiront des comportements nouveaux grâce auxquels un robot restera plus longtemps sur la table. Selon le principe de « sélection naturelle », les copies modifiées qui parviendront à rester longtemps sur la table auront un grand nombre de descendants, alors que celles qui tomberont disparaîtront pour toujours de la population.
SAVOIR
:

-S. Nolfi et D. Floreano, Evolutionary Robotics. The Biology, Intelligence and Technology of Self-Organizing Machines, MIT Press, 2000.

-V. Braitenberg, Vehicles. Experiments in Synthetic Psychology, MIT Press, 1984.

-R. Pfeifer et C. Scheier, Understanding Intelligence, MIT Press, 1999.

 

    DOCUMENT       la recherche.fr      LIEN

 
 
 
initiation musicale toulon  

LE BIG-BANG

 

 

 

 

 

 

 

Texte de la 186e conférence de l'Université de tous les savoirs donnée le 4 juillet 2000.


Le Big-bang


par Marc Lachièze-Rey

Si les modèles de Big-bang sont l'expression de notre cosmologie contemporaine, la discipline est loin d'être nouvelle : aussi loin que l'on remonte dans l'Antiquité, les regards et les pensées sont tournés vers le Ciel, le Monde, le Cosmos, l'Univers,... Concernée par l'Univers dans son ensemble, la cosmologie nous indique sans doute quelque chose sur la place que nous y occupons. Aujourd'hui, la cosmologie est devenue une science.

On fait le plus souvent remonter l'origine de la science moderne à l'époque de Galilée et Newton. La cosmologie scientifique prend naissance au même moment. Le vingtième siècle bouleversera cette cosmologie scientifique en lui conférant un caractère relativiste, et en la concrétisant sous forme de modèles, en particulier la famille des modèles de Big-bang. Il ne s'agit pas d'un modèle unique, d'une vision totalement figée de l'Univers et de son évolution, mais plutôt d'un ensemble de descriptions possibles, partageant des caractéristiques communes, mais aussi des différences. Une grande part du travail actuel des astrophysiciens et des cosmologues consiste, précisément, à examiner, au sein de la classe des modèles de Big-bang, lesquels semblent décrire le mieux notre Univers. Ils vérifient également sans cesse, avec jusqu'à présent des succès toujours grandissants, la validité de cette classe de modèles.

L'Univers

Le concept d'univers, tel que nous le concevons aujourd'hui, constitue l'objet même de la cosmologie. Mais il ne remonte pas plus tôt que le XVIIe siècle, le moment où l'unité du Monde fut reconnue et admise. Deux millénaires plus tôt, Platon qualifiait le Monde de Cosmos, insistant ainsi sur son harmonie (à la source étymologique du terme grec). L'Antiquité décrivait un monde très différent du nôtre : hiérarchisé plutôt que unifié, d'extension très petite et bien moindre que ce que nous concevons aujourd'hui puisque limitée au système solaire. Ce monde se constituait d'un emboîtement hiérarchique de sphères, centrées sur la Terre située au centre du monde : sphères de la Lune, du Soleil, des planètes, jusqu'à la Sphère des Fixes, portant les étoiles (fixes). Celle-ci constituait la frontière du Monde, fini, borné.

Ces idées, développées essentiellement par Platon et Aristote et mises en Suvre par de nombreux mathématiciens, géomètres et astronomes, ont régné pendant près de deux millénaires. D'origine pythagoricienne, l'idée de la prééminence du cercle et de la sphère fut reprise et promue par Platon. Ces figures hautement symétriques ont joué un rôle déterminant, conforme à la nécessité de décrire le monde harmonieux de manière harmonieuse. Le dogme a tenu deux mille ans, tous les mouvements célestes devant être décrits par des combinaisons de sphères et de cercles en rotation, jusqu'à ce que Johannes Kepler découvre la nature elliptique des orbites planétaires. L'événement, à la charnière des XVIe et XVIIe, constitue l'un des ingrédients essentiels d'une première révolution cosmologique. Cet ample mouvement débute après la Renaissance (avec de nombreux précurseurs comme Nicole Oresme, Nicolas de Cuse...) et se poursuit jusqu'à la fin du XVIIe siècle. Newton y porte la touche finale avec ses Principia qui synthétisent les travaux de nombreux précurseurs (Giordano Bruno, Nicolas Copernic, Tycho Brahe, Johannes Kepler, Galilée...). Il établit ainsi les bases de la mécanique, de l'astronomie, de la cosmologie, et fonde la physique moderne.

L'univers du XVIIe est devenu beaucoup plus vaste que celui de l'antiquité. Il ne s'arrête pas à la Sphère des Fixes, ne se réduit pas au système solaire : les étoiles ne sont pas toutes à la même distance de nous mais se répartissent dans tout l'espace. Copernic déplace le centre du Monde de la Terre vers le Soleil, mais Newton niera l'idée même d'un centre du Monde. Telle est notre conviction actuelle : dans le Monde dépourvu de tout centre, tous les points sont équivalents, aucun n'est particulier. Le Monde - l'Univers en tant que Monde unifié - est homogène. Cela signifie que tous les points sont équivalents dans un Univers, et que les lois physiques sont donc partout et toujours identiques. Cette idée d'universalité (des lois physiques, des mouvements, de la composition de la matière) rend tout simplement possible la physique, et l'astrophysique. L'universalité, le concept d'univers, garantit que le résultat d'une expérience menée là-bas est identique à celui d'une expérience menée ici ; que les résultats seront encore les mêmes si je mène l'expérience demain. Une telle reproductibilité fonde la possibilité de faire de la physique.

L'idée d'univers, comme tant d'autres idées nouvelles émises à cette époque, va à l'encontre des conceptions aristotéliciennes : plus de centre du Monde, plus de position privilégiée de la terre, plus d'espace borné, clos, plus de mouvements circulaires. L'Univers n'est plus constitué de quatre éléments (la terre, l'eau, l'air et le feu) mais de petites particules (retour à l'atomisme). Sa composition est universelle comme le vérifieront les astrophysiciens au XIXe : l'Univers est bien ... un univers. La matière est la même sur terre, dans les étoiles, dans les galaxies, dans le vide interstellaire, etc. Les lois de la gravitation, l'électromagnétisme, la physique quantique, la relativité, s'y appliquent pareillement.

Espace, temps, espace-temps

Newton énonce, et c'est essentiel, les propriétés de l'espace et du temps. Ce cadre immuable de la physique est identifié à l'Univers vu d'un point de vue géométrique. La physique newtonienne ira de succès en succès pendant trois siècles, et reste encore aujourd'hui très efficace pour de très nombreux problèmes. Ce sont des difficultés purement conceptuelles, et non pas observationnelles ou expérimentales - rien ne remet en cause la pertinence de cette théorie pour prédire ou interpréter tous les résultats observés -, qui conduisent à sa remise en cause au début du XXe siècle, et à l'introduction des théories relativistes. En 1917, la Relativité Générale renouvelle fondamentalement la cosmologie. Quelques décennies plus tard, se mettra en place la physique quantique, volet complémentaire de la physique du XXe siècle.

Ce début de XXe siècle voit donc un renouveau total de la physique, qui provoquera une seconde révolution cosmologique fondée à la fois sur la nouvelle théorie de la Relativité générale et sur de nouveaux résultats observationnels. La cosmologie moderne, relativiste, et en particulier les modèles de Big-bang, n'auraient pas vu le jour sans cette conjonction remarquable entre nouvelles théories (introduites, j'insiste, pour des raisons purement conceptuelles) et nouveaux résultats d'observations dus à l'introduction de grands télescopes, l'utilisation de la photographie et de la spectroscopie (ceci permettant d'étudier des objets très peu lumineux, et donc très éloignées tels que galaxies, quasars,...). Cette convergence entre théorie et observations permit le développement d'une nouvelle cosmologie, aboutissant à la construction des modèles de Big-bang.

Le grand Univers

Depuis la fin du XIXe siècle, un Grand Débat occupait la communauté astrophysique, à propos de l'extension de notre Univers. Après la Renaissance, les philosophes de la nature avaient compris qu'il s'étendait beaucoup plus loin que le système solaire, les étoiles se répartissant à des éloignements divers et très importants. Il devenait possible d'envisager un univers très grand, voire même infini comme l'avaient imaginé quelques précurseurs dont Giordano Bruno. à la fin du XIXe siècle, de nombreux dénombrements d'étoiles font comprendre aux astronomes que notre système solaire (l'étoile Soleil entourée de ses planètes) n'est qu'une zone minuscule au sein d'un rassemblement d'étoiles beaucoup plus vaste : notre galaxie, la Voie Lactée, comprend des dizaines ou des centaines de milliards d'étoiles. Les astronomes en dessinent les contours, y situent notre système solaire. La plupart estiment, à l'époque, que notre galaxie constitue la totalité de l'Univers. Au-delà de notre galaxie, il n'y aurait rien : du vide mais pas de matière, pas d'étoiles. Pourtant, certains avaient déjà soupçonné qu'il y avait peut-être autre chose, bien au-delà. Parmi eux, le philosophe Emmanuel Kant avait par exemple suggéré, dès la fin du XVIIIe siècle, l'existence d'autres univers-îles. En visionnaire, il anticipait notre vision d'un Univers constitué d'un rassemblement de galaxies, semblables en effet aux îles d'un archipel au milieu de l'océan.

Ces questions suscitèrent des débats de plus en plus virulents à la charnière des deux siècles. Les arguments présentés par les opposants aux univers-îles semblaient très convaincants, mais il apparut par la suite qu'ils reposaient sur des résultats d'observations erronés. Le débat fut définitivement tranché en 1924 grâce aux observations menées par l'astronome américain Edwin Hubble. Utilisant les grands télescopes à sa disposition, il réussit à montrer qu'un objet céleste, appelé à cette époque la Grande Nébuleuse d'Andromède, se situait en dehors de notre propre Galaxie, et même très loin d'elle : il devenait évident que l'Univers s'étendait bien au-delà de notre Galaxie, qu'il était immense, beaucoup plus grand que la Voie Lactée. Et il se révélait peuplé d'innombrables galaxies : la nébuleuse d'Andromède (appelée aujourd'hui galaxie d'Andromède) est l'une d'elles, à-peu-près analogue à la nôtre mais située à des millions d'années-lumière. Par la suite, les astronomes en ont découvert des milliers, des millions, peut-être bientôt des milliards. Ainsi, en 1924, l'Univers est brusquement devenu extrêmement grand, nous ne savons toujours pas aujourd'hui jusqu'à quel point. Nous ne savons même pas si l'espace est fini ou infini. La Relativité Générale, fondée sur une géométrie nouvelle particulière, dite non euclidienne, permet un univers de volume et de circonférence finis, mais dépourvu de toute limite.

Expansion relativiste

L'Univers est donc immense, constitué d'innombrables galaxies. Mais ce n'est qu'un premier aspect de la révolution cosmologique en cours. Toute une série d'observations remontant à la fin du XIXe siècle, effectuées essentiellement par l'astronome américain Vesto Slipher, suggèrent un mouvement apparent et global de toutes les galaxies. Bien plus, des régularités surprenantes se manifestent : toutes s'éloignent, aucune ne se rapproche (les très rares exceptions n'ont guère d'importance dans ce schéma). Enfin, moins les galaxies sont lumineuses (et donc, plus elles sont lointaines), plus elles semblent s'éloigner rapidement. Cela dévoile une sorte de mouvement d'expansion, dont l'extension, la régularité et les propriétés, dépassent de loin l'échelle des galaxies. Les astronomes comprennent rapidement qu'il s'agit d'un phénomène d'échelle cosmologique (impliquant l'Univers dans son ensemble et non pas telle ou telle de ses parties) mais ils ne savent pas l'interpréter. Découverte de manière empirique, cette expansion restait encore en 1929 un mystère complet pour les astronomes, lorsque Hubble énonça sa fameuse loi de Hubble qui déclare que la vitesse d'expansion d'une galaxie est proportionnelle à son éloignement. La solution avait en fait déjà été trouvée en 1927 par le physicien belge Georges Lemaître (qui avait énoncée la loi de Hubble)mais elle ne fut portée à la connaissance de la communauté astronomique qu'en 1930 (voir xxx). Lemaître avait trouvé la solution du problème cosmologique, en montrant que les équations de la Relativité Générale impliquent que l'Univers doit être en expansion ou en contraction. Ayant eu connaissance des premiers résultats observationnels de Slipher, il les avait interprétés comme une manifestation de cette expansion de l'Univers comprise dans un cadre relativiste.

Les résultat initiaux de Lemaître, publiés en 1927 dans une revue belge, n'ayant eu quasiment aucun écho, les cosmologues se demandaient encore, en 1930, comment interpréter les résultats de Slipher et de Hubble. En 1931, Georges Lemaître envoya une copie de son article à son ancien professeur Arthur Eddington. Ce dernier, le publiant de nouveau, lui donna la publicité qu'il méritait. L'expansion de l'Univers fut alors comprise et admise par la majorité de la communauté astronomique (il est à signaler que le physicien soviétique Alexandre Friedmann avait trouvé dès 1922 les mêmes solutions de la relativité générale, néanmoins sans les relier aux résultats observationnels) : le mouvement observé des galaxies, si régulier, d'extension si grande, est bien de nature cosmique, et relativiste. Il est impossible de l'imputer à une cause locale : ce sont ne sont pas les galaxies qui s'attirent ou se repoussent par leurs interactions. Il s'agit d'une propriété de l'Univers lui-même, parfaitement comprise et interprétée dans le cadre de la Relativité Générale.

Cette théorie énonce essentiellement deux points extrêmement nouveaux. Le premier (déjà présent en relativité restreinte) implique de mêler l'espace et le temps dans une entité plus globale que l'on appelle l'espace-temps. Deuxième point, la géométrie de cet espace-temps peut être déformée, posséder une courbure, une topologie, et elle peut varier dans le temps. En fait, la nouvelle géométrie spatio-temporelle fait apparaître toute modification des propriétés de l'espace dans le temps comme une courbure de l'espace-temps. C'est un avantage de cette approche : ce que l'on considérait comme une variation dans le temps, est maintenant considéré comme un pur effet géométrique, dans la géométrie étendue incluant la dimension temporelle. Parler de la géométrie de l'espace-temps, c'est donc parler à la fois de la géométrie de l'espace et de son évolution dans le temps. Dans ce cadre, l'expansion cosmique (de l'espace) apparaît comme un aspect géométrique de la géométrie de l'espace-temps.

Les galaxies ne sont pas en mouvement dans l'espace. Mais l'espace lui-même est en expansion, entraînant les galaxies comme le courant d'une rivière peut entraîner des bateaux dont les moteurs sont à l'arrêt. Ces derniers sont immobiles par rapport à l'eau ; de même, les galaxies sont immobiles, ou plutôt comobiles, par rapport à l'espace qui les entraîne. Si l'on ne peut voir directement un tel courant d'espace, la Relativité prévoit un tel phénomène et lui donne un sens : l'espace est en expansion, la découverte observationnelle a coïncidé avec l'invention de la Relativité qui offre un cadre théorique pour l'interpréter.

Une fois l'expansion reconnue, il reste à en tirer les conséquences physiques. Là encore, Georges Lemaître fut un précurseur, avec son modèle de l'atome primitif (1931) qui en tire les conséquences physiques sur l'histoire de l'Univers. On ne connaissait encore, à l'époque, ni la physique nucléaire ni la physique des particules, et à peine la physique quantique, aussi ces idées restaient encore vagues. Mais ces modèles, retravaillés, réajustés, sont finalement devenus les modèles de Big-bang. À l'époque, les idées de Lemaître, impossibles à tester, ne suscitèrent que très peu d'intérêt. Dès le début, elles suscitèrent même une certaine hostilité. Le recul historique montre aujourd'hui l'aspect dogmatique (encore parfois présent) d'une bonne part des critiques contre le Big-bang, résultant de la difficulté de remettre en cause une idée établie depuis des siècles, quasiment mythique : celle d'un monde éternellement identique à lui-même, sans évolution. Des opposants aux Big-bang ont tenté de soutenir, sans doute au-delà du raisonnable, un modèle cosmologique selon lequel l'Univers resterait toujours identique à lui-même (état stationnaire), alors que les observations nous montrent de plus en plus clairement l'expansion et l'évolution des galaxies. Ces modèles, originellement intéressants et astucieux, ne purent résister à la confrontation aux observations. D'autres esprits critiques, parfois les mêmes, soulignaient une ressemblance entre les idées de Lemaître et le Fiat Lux des Écritures. De ce fait, ils accusaient Georges Lemaître, simultanément physicien et prêtre catholique, de concordisme : n'aurait-il pas introduit ses convictions religieuses dans la physique ? Il faut pourtant rendre justice à Lemaître qui s'est constamment défendu de cette accusation. Les bases scientifiques des modèles de Big-bang ont été affermies d'autant plus soigneusement qu'elles ont été fortement critiquées.

L'intérêt pour les modèles de Big-bang renaît dans les années 1940, avec le début du développement de la physique nucléaire. Les physiciens nucléaires comprennent que, selon ces modèles, l'Univers a dû passer par un état très dense, très chaud et très concentré, idéal pour le déroulement de réactions nucléaires. Puisque ces dernières fabriquent des éléments chimiques, ne serait-il pas possible que tous les éléments chimiques que l'on rencontre dans l'Univers - fer, azote, oxygène, carbone, etc... - aient été fabriqués durant les instants très reculés de l'Univers, selon le modèle du Big-bang chaud ? La réponse est en fait négative, nous le savons maintenant, car ces éléments n'ont pas eu le temps de se former. Cependant, les plus légers d'entre eux (le deutérium, l'hélium et le lithium en partie), ont sans doute bien été fabriqués de cette manière, lors d'un épisode de nucléosynthèse primordiale caractéristique des modèles de Big-bang. Nous en avons aujourd'hui la conviction car les distributions universelles de ces éléments sont en accord avec les prédictions de ces modèles.

L'intérêt pour ces modèles a repris de nouveau dans les années 1960. Effectuant de nouveaux calculs de réactions nucléaires, quelques physiciens de Princeton ont pu prédire que, si l'histoire de l'Univers s'est effectivement déroulée conformément aux modèles de Big-bang, il doit subsister aujourd'hui des vestiges d'un passé très reculé - l'époque où l'Univers était très chaud et très condensé - sous la forme d'un rayonnement « fossile » observable. Ce rayonnement électromagnétique devrait baigner tout l'Univers d'ondes radio. En 1964, alors que ces physiciens de Princeton commençaient à construire un appareillage pour tenter de le détecter, deux collègues radioastronomes de la compagnie Bell Telephone (Penzias et Wilson, qui reçurent pour cela le prix Nobel) le découvrent fortuitement en testant une antenne destinée à la radioastronomie. L'ayant tout d'abord interprété comme un parasite gênant à éliminer, ils conclurent finalement à l'existence d'un rayonnement omniprésent. Ses propriétés, rapidement mesurées, se révélèrent en accord avec les prédictions des modèles de Big-bang. Ces derniers furent alors acceptés par une large fraction (mais pas la totalité) de la communauté scientifique.

Les fondements du Big-bang

Les modèles de Big-bang sont quasiment inévitables. Les observations astronomiques et les lois physiques que nous connaissons nous y mènent de manière quasiment inéluctable. Il s'agit en premier lieu de la constatation de l'immensité de l'Univers fait de galaxies, confirmée depuis 1924 par d'innombrables observations de galaxies lointaines, avec des télescopes toujours plus puissants.

Les cosmologues énoncent un principe fondamental, le principe cosmologique. Exprimant l'abandon définitif des conceptions pré-coperniciennes, il énonce l'équivalence de tous les points : pas de centre, pas de bords. L'Univers est homogène, d'une homogénéité qui prend son sens à l'échelle cosmologique : il peut y avoir une galaxie ici, et pas à côté. Mais aux très grandes échelles, dépassant celles des amas ou des superamas de galaxies (soit plusieurs dizaines de millions d'années-lumière, mais ceci est bien inférieur aux échelles cosmologiques) il n'y a pas de zone où les galaxies soient plus ou moins nombreuses, ou différentes. Ce principe s'oppose à toute conception « anthropique » ou géocentrique. Il énonce également que l'Univers est isotrope : non seulement il n'y a aucun point particulier, mais aucune direction particulière non plus : pas de haut et de bas, pas de centre de l'Univers, donc pas de direction vers un centre, pas d'axe de rotation. En l'absence d'indices suggérant le contraire, ce principe est adopté pour construire les modèles cosmologiques.

Cependant, le fondement essentiel des modèles de Big-bang reste l'expansion de l'Univers. Elle se fonde sur ce que l'on appelle l'effet Doppler : lorsqu'un objet (une source) émet un rayonnement, nous voyons ce rayonnement « resserré »(c'est-à-dire avec une fréquence plus grande) si l'objet se rapproche, ou « desserré » (avec une fréquence inférieure) si la source s'éloigne. Lorsqu'une étoile ou une galaxie émet de la lumière (un type particulier de rayonnement, dans le domaine électromagnétique) qui parvient jusqu'à nous, cette lumière est décalée à une longueur d'onde plus petite ou plus grande (vers le bleu ou vers le rouge) si la source se rapproche ou s'éloigne de nous. C'est exactement ce que l'on observe : un décalage vers le rouge d'autant plus prononcé que la galaxie est éloignée. Dans le spectre d'une galaxie, c'est-à-dire dans la décomposition de la lumière qu'elle a émise, les astronomes savent parfaitement reconnaître un éventuel décalage, vers le rouge ou vers le bleu (on le mesure à partir de certaines « raies » présentes à des longueurs d'onde bien définies). C'est ainsi que, depuis Vesto Slipher, les astronomes mesurent les vitesses des galaxies et établissent l'expansion de l'Univers. Quelques physiciens et astrophysiciens ont contesté cette interprétation, mais ils n'ont pas réussi à proposer d'autre explication satisfaisante. L'expansion de l'Univers est donc très fermement établie.

D'autres ont suggéré que l'évolution de l'Univers pourrait être gouvernée par autre chose que la gravitation. Pourtant, toutes les autres interactions connues, par exemple électromagnétiques, sont de portée très limitée. L'univers semble donc bien gouverné par la gravitation, elle-même décrite par la théorie de la relativité générale (cette dernière hypothèse est aujourd'hui discutée : même si les analyses du système solaire et de certains systèmes astrophysiques la confirment[1], il n'est pas définitivement prouvé qu'elle s'applique à l'échelle de l'Univers entier. Mais aucune autre théorie n'existe actuellement et il reste raisonnable d'admettre sa validité. Au demeurant, l'adoption d'une théorie concurrente ne modifierait sans doute pas les caractéristiques essentielles des modèles de Big-bang).

La relativité générale décrit l'Univers comme un espace-temps, muni de propriétés géométriques (courbure en particulier) qui incluent l'évolution temporelle. Selon la relativité générale, ces propriétés géométriques dépendent, par les équations d'Einstein, du contenu en énergie de l'Univers. Par exemple, la matière massive contribue à ralentir l'expansion. Selon que l'Univers en contient plus ou moins (en moyenne), c'est-à-dire qu'il est plus ou moins dense, l'expansion se ralentira plus ou moins (il est même possible d'envisager qu'elle s'accélère).

Admettant la Relativité Générale et la physique bien établie (électromagnétisme, physique atomique, thermodynamique, physique nucléaire, astronomie etc.) on est inévitablement conduit aux modèles de Big-bang. Pour les contester, et décrire l'Univers par un autre modèle (qui resterait à trouver), il faudrait remettre en cause des pans entiers de notre physique d'aujourd'hui. Par exemple, les partisans des « modèles stationnaires » avaient dû supposer des phénomènes physiques nouveaux : présence de particules de masses négatives, création spontanée de matière (à partir de rien). Aujourd'hui, seuls les modèles de Big-bang réussissent à décrire ce que nous observons, toutes les propositions de modèles concurrents ayant été démenties par l'expérience. Mais peut-être un jour ...

Les modèles de Big-bang

Ces modèles disent en premier lieu que l'Univers est homogène et isotrope, en expansion. Calculs et observations concordent pour établir que cette expansion de déroule sans changement notable depuis une certaine durée tU, que l'on appelle âge de l'Univers, actuellement estimé à 15 milliards d'années environ (compte tenu des incertitudes, il vaut mieux dire entre 10 et 25 milliards d'années). Cela implique, conséquence immédiate, que rien dans l'Univers ne peut être plus âgé que tU. Or, les estimations d'âges de planètes, étoiles, galaxies, donnent à peu près toutes les valeurs possibles entre 0 et 15 milliards d'années. Un succès pour le Big-bang ! En effet, si l'Univers n'est pas est lui-même âgé de quinze milliards d'années, comment comprendre que nous n'observons aucune étoile ou galaxies d'un âge supérieur ?

À cause de l'expansion, la matière cosmique se trouve dans des volumes de plus en plus grands. Autrement dit, elle se dilue et donc, en conformité avec les lois de la physique, se refroidit. En même temps, dilution et refroidissement sont accompagnés d'une lente structuration. Ainsi, les modèles de Big-bang énoncent l'histoire d'un Univers en expansion depuis quinze milliards d'années, en dilution, en refroidissement et qui se structure.

Plus on remonte dans le passé, plus l'Univers était concentré et chaud, moins il était structuré. Il est aujourd'hui peuplé d'objets structurés, aussi bien au niveau microscopique - atomes, molécules, cristaux - qu'au niveau astronomique: des étoiles, des galaxies, des planètes. Rien de tout cela n'existait dans l'Univers primordial. Les modèles de Big-bang permettent de reconstituer l'évolution passée de l'Univers par l'application des lois de la physique. Cela conduit à distinguer deux époques : l'Univers primordial correspond au premier million d'années ; l'ère de la matière qui suit est beaucoup plus longue et dure à-peu-près quinze milliards d'années. Bien que beaucoup plus court, l'Univers primordial fut le siège de nombreux phénomènes d'importance cosmique.

La limite entre ces deux périodes est marquée par une transition, évènement très important appelé recombinaison. L'Univers primordial (premier million d'années) était opaque au rayonnement électromagnétique : on ne pourra jamais rien observer directement de cette période. On ne peut que le reconstituer en appliquant les lois de la physique, ce que font les modèles de Big-bang. C'est durant l'Univers primordial que furent fabriqués d'abord les particules élémentaires, puis les noyaux atomiques les plus légers. à la fin, précisément au moment de la recombinaison, furent fabriqués les premiers atomes proprement dits. L'Univers primordial était baigné de rayonnement électromagnétique, dont l'énergie dépassait alors de beaucoup celle de la matière (alors qu'aujourd'hui l'énergie du rayonnement est mille fois inférieure à celle de la matière). Les atomes n'étant pas encore formés, il n'existait dans l'Univers primordial aucune structure, hormis quelques noyaux d'atomes.

La recombinaison marque le moment où l'Univers devient transparent. Tout ce que les astronomes sont capables d'observer se situe donc plus tardivement. La recombinaison est elle-même un évènement très intéressant car c'est à ce moment-là que fut émis le fameux rayonnement diffus cosmologique, que nous observons tout autour de nous, dans toutes les directions : nous avons l'impression d'être au centre d'une gigantesque sphère brillante de luminosité (en ondes radio) uniforme. Au-delà de cette surface, réside l'Univers opaque inobservable (à cause de la vitesse finie de la lumière, cet « au-delà » possède une signification à la fois spatiale et temporelle). Les plus récentes observations ont montré que l'intensité de ce rayonnement est parfaitement identique dans toutes les directions du ciel, à quelques millionièmes près. C'est l'un des arguments forts qui montre qu'il ne peut avoir été engendré que dans le cadre des modèles de Big-bang. En plus de cette remarquable uniformité, il se caractérise par une répartition en énergie extrêmement particulière : un spectre de corps noir, bien connu des physiciens, qui manifeste une situation d'équilibre thermique. L'observation du fonds diffus cosmologique indique donc que l'Univers dans son ensemble devait être en équilibre thermique dans un passé très reculé, exactement ce que prédisent les modèles de Big-bang. Les très nombreux résultats d'observation du fonds diffus cosmologique (dont les plus fameux par le satellite COBE) confirment de mieux en mieux l'accord exceptionnel entre la réalité et les prédictions théoriques des modèles de Big-bang.

Après la recombinaison, l'Univers entre dans l'ère de la matière, où il commence à ressembler à ce qu'il est aujourd'hui. Le rayonnement électromagnétique perd son influence au profit de la matière. Celle-ci, continuant à se diluer et à se refroidir, commence à s'organiser. Aux petites échelles spatiales, se forment des atomes (à la recombinaison), des molécules, des cristaux, des poussières... Une partie de ces objets, avec le gaz omniprésent (essentiellement de l'hydrogène) s'agglomèrent et donnent naissance aux galaxies, aux étoiles, aux planètes, aux amas de galaxies ... à tous les objets que les astronomes observent dans l'Univers.

Géométrie cosmique

Telle est l'histoire de l'Univers du point de vue de la physique. Cependant, il n'y a pas un seul modèle de Big-bang, mais toute une famille dont les membres se distinguent par certaines caractéristiques de leur géométrie. D'une part l'aspect spatial de cette géométrie conduit à distinguer trois familles selon la courbure spatiale négative, nulle ou positive. Un espace à courbure positive généralise, à trois dimensions, la surface d'une sphère. Un espace à courbure nulle généralise à trois dimensions la surface d'un plan. Il existe en outre des espaces à courbure négative, moins familiers. Les trois versions sont possibles, seules les observations permettent de trancher. Les affirmations récentes selon lesquelles « l'Univers serait plat » correspondent à la version intermédiaire où l'espace est plat (les modèles de Big-bang se distinguent également, en principe, par leur topologie spatiale). Par ailleurs, la loi d'expansion cosmique constitue la partie temporelle de la géométrie de l'espace-temps. L'expansion indique que l'espace-temps ne peut être plat, même si l'espace peut l'être.

La relativité générale permet aussi, en principe, de prévoir le destin de l'Univers. Deux possibilités se présentent, dont nous ne savons pas encore laquelle est la bonne. Ou bien la phase d'expansion continuera indéfiniment. Ou bien elle se terminera et l'Univers débutera une phase de recontraction sur lui-même, processus inverse de l'expansion, qui mènera à une fin grosso modo symétrique au Big-bang, appelée le big crunch. Nul ne sait ce qui se passera alors, pas plus que l'on ne sait ce qui s'est passé aux tous premiers instants de l'Univers primordial. Peut-être que l'Univers rebondira pour amorcer une nouvelle phase d'expansion. Peut-être sera-ce la fin de tout, ou ...

Aujourd'hui, certains indices suggèrent que l'expansion pourrait continuer éternellement, voire s'accélérer. Mais tout ceci est à prendre avec de grandes précautions car nous ne savons pas encore précisément lesquels, dans la famille des modèles de Big-bang, conviennent le mieux pour décrire notre Univers. Astrophysiciens et cosmologues s'interrogent sur la courbure et la topologie de la géométrie spatiale, sur la valeur de la constante de Hubble qui mesure le taux actuel de l'expansion, sur la forme précise de la loi d'expansion, accélérée ou décélérée, sur son futur, éternel ou débouchant sur un big crunch.

Le plus surprenant est la simplicité, notamment géométrique, de ces modèles cosmologiques fondés sur la relativité générale. Comment se fait-il que des modèles aussi simples décrivent si bien quelque chose d'aussi compliqué que l'Univers dans sa globalité ? Bien entendu, ce n'est pas aux modèles eux-mêmes qu'il faut demander la réponse à cette question. Certains l'oublient un peu facilement et critiquent les modèles à ce propos, mais il faudrait critiquer de même l'ensemble de la physique, sinon de la science. À vrai dire, tenter de comprendre pourquoi un modèle fonctionne exige de se placer dans un cadre plus général, une sorte de super-modèle, de super-théorie. Nous avons d'ailleurs d'autres motivations à cela car aujourd'hui, les deux théories physiques de base, relativité générale et (physique) quantique, sont incompatibles. Outre le malaise que cela suscite d'un point de vue conceptuel, cela interdit de décrire les trous noirs, ou l'Univers primordial. La recherche est extrêmement active, en vue d'une théorie plus fondamentale que la Relativité Générale ou la physique quantique, qui les engloberait chacune comme une approximation (tout comme la relativité générale englobe la physique newtonienne). Cela pourrait mener à une cosmologie (quantique ?) plus globale qui permettrait peut-être de comprendre l'origine du bien fondé des modèles de Big-bang. Cette nouvelle théorie reste encore inconnue même si des pistes intéressantes (cosmologie quantique, supercordes, supersymétrie,...) sont explorées.

L'origine du monde ?

Je ne puis terminer sans évoquer la question de l'Origine de l'Univers, que beaucoup associent au Big-bang. Le lien n'est cependant pas si clair. L'Univers étant en expansion, toutes les dimensions cosmiques augmentent avec le temps (on repère augmentation par l'évolution temporelle d'un facteur d'échelle : toute longueur cosmique augmente avec le temps proportionnellement à ce facteur). Vers le passé primordial, ce facteur d'échelle devient de plus en plus petit, tellement qu'il semble naturel de penser qu'il y eut un moment où il était nul. Ce moment est parfois assimilé à « l'origine de tout », quelquefois appelé Big-bang. À vrai dire, la physique et la cosmologie ne prédisent nullement un tel instant. Elles impliquent certes que le facteur d'échelle et toutes les longueurs cosmiques ont été très petites (en comparaison d'aujourd'hui), mais non pas nulles. On ne peut décrire aucun événement qui correspondrait à une explosion cosmique. La reconstitution vers le passé ne peut être menée jusqu'à un hypothétique instant zéro car les densité, énergie, température, très élevées de l'Univers primordial sortent du cadre de notre physique : elles impliquent qu'effets quantiques et relativistes devraient opérer simultanément, une situation que la physique actuelle est impuissante à traiter (à cause de l'incompatibilité mentionnée). Il est impossible de prolonger la reconstitution vers le passé au-delà d'une « barrière de non-connaissance » (aucun événement cosmique spécial identifié, mais la limite de notre ignorance). Elle est baptisée barrière de Planck, en référence à la constante de Planck qui caractérise les phénomènes quantiques.

La physique quantique implique que toute grandeur dynamique doit fluctuer. La relativité générale implique que l'espace et le temps sont des grandeurs dynamiques. Espace et temps devraient donc tous deux fluctuer, y compris à l'échelle de l'Univers entier (très ramassé à cette époque). Cela interdit par exemple de savoir si deux événements se déroulent en un même point ou non, à un même instant ou non, si l'un précède l'autre ou si c'est l'opposé. Ces questions perdent même leur sens, ce qui empêche toute approche physique. Sans espace et temps bien définis, on ne peut faire de physique. Peut-être un cadre complètement différent, encore à trouver, permettra-t-il d'opérer sans temps ni espace.

Toujours est-il que la reconstitution du passé de l'Univers ne mène à aucune origine, à aucune création. La simple logique devrait d'ailleurs nous mettre en garde contre une assimilation entre la création de l'Univers et son début temporel. Selon nos conceptions, le temps est partie constituante de l'Univers, si bien que la création de ce dernier (pour autant que ceci ait un sens) intègre la création du temps. Or le temps ne peut être créé au sein d'un temps déjà existant !

Une création de l'Univers, si l'on tient absolument à l'envisager, ce serait la création de l'espace-temps, donc de l'espace et aussi du temps. Elle ne peut pas procéder dans le temps, et ne peut donc qu'être atemporelle. Rien dans la physique ou dans la cosmologie ne permet de parler d'un instant de Création !

Malgré les immenses succès des modèles de Big-bang, il nous faut rester modestes : la cosmologie, et la science en général, ne nous fournira jamais l'explication du monde, et de la place que nous y occupons.

Bibliographie

- Figures du ciel, J.-P. Luminet et M. Lachièze-Rey, Seuil - BnF, 1998.

- Initiation à la cosmologie, M. Lachièze-Rey, Dunod, 1999.

- Du monde clos à l'univers infini, Alexandre Koyré, Gallimard 1973.

- Le rayonnement cosmologique, M. Lachièze-Rey et E. Gunzig, Masson 1995.

- Alexandre Friedmann et Georges Lemaître, Essais de cosmologie, l'invention du Big-bang, Seuil - Sources 1997.

- Connaissance du Cosmos, Marc Lachièze-Rey, Albin Michel , 1987.

- Gravitation and cosmology, Steven Weinberg, 1980, John Wiley and Sons, New York.

- Univers, J. Demaret, Le Mail 1991.

- À la poursuite du Big-bang, J Gribbin, Éditions du Rocher, 1991.

- Chronique de l'espace-temps, A. Mazure, G. Mathez et Y. Mellier, Masson 1994.

- Cosmologies du XXème siècle. Etude Epistémologique et historique des théories de la Cosmologie contemporaine, J. Merleau-Ponty, Gallimard, Paris, 1965.

- Le Big-bang en questions, Science et Vie Hors série n° 189, décembre 1994.

[1] Voir la 183e conférence de l'Université de tous les savoirs donnée par T. Damour.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
initiation musicale toulon  

LES ATOMES FROIDS ...

 

 

 

 

 

 

 

La preuve par les atomes froids
Frédéric Chevy dans mensuel 393
daté janvier 2006 -  Réservé aux abonnés du site


À quoi pourraient servir les gaz d'atomes refroidis à très basse température où, entre autres comportements étranges, la viscosité est nulle ? À fabriquer un nouveau type d'ordinateur, ont montré des physiciens en s'appuyant sur des travaux engagés depuis une dizaine d'années.
Comment se comportent les noyaux atomiques, les étoiles à neutrons ou encore les matériaux supraconducteurs qui

conduisent l'électricité sans perte d'énergie ? Pour répondre à cette question, les physiciens butent sur un problème : les calculs concernant ces systèmes composés d'un grand nombre de particules en interaction sont d'une énorme complexité. Même les ordinateurs les plus puissants sont incapables de les effectuer en des temps raisonnables.

Pour contourner les obstacles posés par ces systèmes à « n-corps quantiques », une approche consisterait à simuler leur comportement avec des systèmes physiques modèles, en réalisant ce qu'on appelle un « calculateur analogique quantique ». Depuis quelques années, les physiciens étaient de plus en plus nombreux à penser que des gaz d'atomes refroidis à quelques milliardièmes de degrés au-dessus du zéro absolu constitueraient d'excellents candidats. Cette intuition a été confirmée, en juillet 2005, par les travaux de Wolfgang Ketterle et son équipe au MIT. En identifiant un nouvel état de la matière où la viscosité est nulle, ils ont franchi un premier pas vers la réalisation d'un simulateur quantique, laissant poindre la résolution d'autres problèmes fondamentaux de la physique [1] .

Calcul analogique
Les calculateurs analogiques sont fondés sur un principe foncièrement différent de celui des ordinateurs que nous utilisons aujourd'hui. Ces derniers sont des dispositifs programmables qui, pour résoudre un problème donné, réalisent une série d'opérations élémentaires « ET », « OU », « NON », etc.. Leur nombre est d'autant plus grand que l'on souhaite un résultat précis. Or, pour satisfaire cette exigence, le temps de calcul peut parfois excéder la durée de vie d'un chercheur ! Cette difficulté ne se pose pas pour les calculateurs analogiques dont le principe consiste à résoudre un problème mathématique en s'appuyant sur un système physique qui obéit à la même équation : des résultats de mesures sont utilisés pour répondre à la question initiale. Pour un ordinateur analogique, le temps de calcul correspond ainsi à la durée de la manipulation. Et la précision n'est limitée que par celle des instruments de mesure.

Historiquement, le calcul analogique préexiste au calcul numérique. Son origine est même très ancienne. Vers - 100 avant notre ère, par exemple, la machine dite d'Anticythère simulait la marche apparente du Soleil et de la Lune. Constitué d'une vingtaine de roues dentées, d'axes, de tambours et d'aiguilles mobiles, ce mécanisme était l'ancêtre des horloges astronomiques du Moyen Âge et de la Renaissance, comme celle d'une douzaine de mètres de haut que l'on peut toujours admirer dans la cathédrale de Strasbourg.

Polyvalence du numérique
Pendant des siècles, les calculateurs analogiques ont été utilisés pour résoudre des problèmes divers. Ainsi, dans les années 1930, l'armée américaine calculait encore les trajectoires balistiques avec des ordinateurs analogiques mécaniques. Mais en dépit de leurs performances en termes de temps de calcul, ces machines présentaient un inconvénient de taille : leur manque de souplesse. On ne pouvait les utiliser que pour résoudre un seul type de problème. Après la Seconde Guerre mondiale, ce concept fut progressivement abandonné au profit des ordinateurs numériques, programmables et beaucoup plus polyvalents, avec le succès que l'on sait.

Quelques physiciens, comme le Prix Nobel Richard Feynman, continuèrent de penser que l'ordinateur analogique n'avait pas dit son dernier mot : devant les difficultés posées par l'étude des systèmes à n-corps quantiques, il constituerait un atout précieux [2] . Mais les contraintes étaient très fortes. Le système ne devait contenir aucune impureté de manière à correspondre le plus exactement possible aux modèles théoriques. Et tous les paramètres physiques, en particulier l'intensité des interactions entre les constituants, devaient pouvoir être contrôlés afin de simuler le comportement d'autres systèmes physiques. Faute

de candidats valables, l'idée de Feynman resta temporairement sans suite.

Il fallut attendre l'essor des gaz d'« atomes froids » pour qu'une piste crédible se révèle enfin. Dans les années 1980, grâce à la lumière laser, les physiciens avaient appris à refroidir des gaz à des températures jamais atteintes par l'homme. Les initiateurs de cette technique, Steve Chu, de l'université Stanford, Claude Cohen-Tannoudji, de l'École normale supérieure, et William Phillips, du National Institute of Standard and Technology, obtinrent le prix Nobel de physique en 1997. Si les atomes froids apparaissaient comme de si bons candidats pour la réalisation d'un simulateur analogique quantique, c'est parce que leur très basse température ainsi que leur faible densité permettent un contrôle quasi total des propriétés physiques du gaz. Et, puisque dans de telles conditions les atomes se déplacent lentement, on peut effectuer des mesures d'une très grande précision, comme le prouvent les dernières générations d'horloges à atomes froids : à ce jour, elles fournissent les étalons de fréquence, et donc de temps, les plus précis au monde.

Un prototype à portée de main
Dans la pratique, le paramètre physique le plus difficile à moduler sur une large gamme était l'interaction entre particules. En 1999, l'observation d'un phénomène quantique appelé « résonance de Feshbach * » permit de passer outre cette difficulté : en utilisant des champs magnétiques, les physiciens apprirent à contrôler la force des interactions entre les atomes froids [3] . Cette découverte laissa penser au groupe de théoriciens dirigés par Ignacio Cirac et Peter Zoller, de l'université d'Innsbruck, en Autriche, qu'un prototype d'ordinateur analogique était à portée de main. Ils réussirent à convaincre plusieurs groupes de théoriciens et d'expérimentateurs, issus de l'optique quantique, la physique atomique, la physique des solides et la physique nucléaire, de combiner leurs talents et de se lancer dans cette aventure.

La validité de l'approche analogique devait d'abord être testée dans la situation la plus simple, en l'occurrence un système contenant une seule espèce d'atomes. À très basse température, on savait que le comportement d'un groupe de particules était dominé par une propriété quantique fondamentale, le « spin », qui, en quelque sorte, décrit la vitesse de rotation de chaque particule sur elle-même à la manière d'une toupie. Le spin ne peut pas prendre de valeurs quelconques : il peut être soit entier 0, 1, 2, etc., soit demi-entier 1/2, 3/2, etc.. Dans le premier cas, la particule est appelée « boson », dans le deuxième, c'est un « fermion ». Or, contrairement aux bosons comme les photons, par exemple dont le comportement était relativement bien compris, les fermions posaient de multiples questions qui résistaient aux spécialistes du domaine. Il parut donc opportun de développer un ordinateur analogique utilisant des atomes fermioniques.

L'une des questions ouvertes concernait l'existence et la nature de la superfluidité des systèmes fermioniques, un état où la matière s'écoule sans frictions du fait de sa viscosité nulle. Cette propriété était habituellement associée aux particules bosoniques, car celles-ci ont tendance à se placer dans le même état énergétique. En 1924, Albert Einstein avait montré qu'il existait une température au-dessous de laquelle les bosons s'accumulaient dans l'état de plus basse énergie, formant ce que l'on nomme aujourd'hui un « condensat de Bose-Einstein » CBE. Dès les années 1930, le caractère superfluide de ce condensat avait pu être démontré dans l'hélium liquide. Plus récemment, en 1995, les premiers condensats de Bose-Einstein gazeux ont été observés par le groupe d'Eric Cornell et Carl Weinman, de l'université du Colorado, et par celui de Wolfgang Ketterle. Un tour de force expérimental qui est à l'origine des avancées les plus récentes en physique des atomes froids, et qui valut à ces physiciens d'être récompensé par le prix Nobel en 2001.

Contrairement aux bosons, les fermions sont « individualistes » : ils ne peuvent occuper à deux le même état énergétique. Pour placer des fermions, comme les électrons, par exemple, dans un piège, il est nécessaire de remplir un à un les niveaux d'énergie en commençant par le plus bas [fig. 1] : l'« énergie de Fermi » est alors associée au dernier état peuplé. En raison du comportement individualiste des fermions, on pourrait penser qu'il n'existe pas d'état superfluide dans un système composé de ce type de particules. Cette hypothèse était pourtant invalidée par l'existence des métaux supraconducteurs qui étaient connus depuis le début du XXe siècle, où la disparition de la résistance électrique est analogue à la perte de viscosité. Dans les métaux, les physiciens américains John Bardeen, Leon Cooper et John Schrieffer ont démontré dans les années 1950 que l'état supraconducteur résultait de l'appariement des électrons entre eux.

Interactions attractives
Or, lorsque deux particules s'associent pour former une paire, leurs spins peuvent s'ajouter ou se soustraire, mais celle-ci possède toujours un spin entier : c'est donc un boson. En formant une paire, des fermions soumis à des interactions attractives sont donc susceptibles de former un état superfluide. C'est la théorie dite « BCS », dont le domaine de validité était restreint aux interactions faiblement attractives entre fermions.

Cette théorie pouvait-elle être étendue à tout régime d'interaction ? Vers le début des années 1980, Philippe Nozières, Anthony Leggett et Stefan Schmitt-Rink en avaient fait l'hypothèse en se fondant qualitativement sur le fait que la distance entre les atomes d'une paire devait être d'autant plus faible que les interactions entre particules étaient attractives [4] . Pour des interactions fortes, on s'attend donc à obtenir des paires de très petite taille. Celles-ci peuvent alors être considérées comme des particules ponctuelles, ce qui nous ramène à la théorie d'Einstein appliquée à un gaz de molécules bosoniques. Lorsqu'on réduit l'intensité des interactions, la taille des paires augmente. Et lorsque l'attraction devient extrêmement faible, la distance entre deux particules d'une même paire devient bien plus grande que la distance entre deux paires. Nozières, Leggett et Schmitt-Rink retrouvaient ainsi les paires de Cooper telles qu'elles avaient été décrites, dans les années 1950, par Bardeen, Cooper et Schrieffer [fig. 2] .

L'argument précédent était relativement solide dans les régimes d'interactions très fortes ou très faibles, puisqu'on pouvait leur appliquer soit la théorie d'Einstein soit la théorie BCS. La situation était nettement plus confuse dans le régime d'interactions intermédiaire. En effet, les interactions y étaient trop importantes pour traiter le gaz comme un groupe de fermions sans interactions, et elles étaient trop faibles pour traiter les paires comme des particules ponctuelles. Or, d'un point de vue aussi bien théorique qu'expérimental, ce régime était le plus intéressant à étudier puisque celui-ci décrit des systèmes aussi divers que les étoiles à neutrons, l'un des stades ultimes de l'évolution d'une étoile, les matériaux supraconducteurs à haute température critique, dont l'interprétation théorique est controversée et dont les enjeux économiques sont potentiellement considérables, ou encore le plasma de quarks et de gluons, un état qui se serait formé quelques millionièmes

de secondes après le Big Bang !

Pour trancher entre l'hypothèse de Nozières, Leggett et Schmitt-Rink et d'autres modèles qui prédisaient notamment une transition non continue et un comportement instable dans le régime intermédiaire, la réponse ne pouvait venir que d'une résolution exacte du problème : soit en mobilisant des ressources informatiques très puissantes, soit, dans l'optique d'un calcul analogique en la

testant sur un système pour lequel il serait possible de faire varier l'intensité des interactions.

L'approche analogique a commencé à porter ses fruits en 2003 : des condensats moléculaires composés de fermions ont été observés presque simultanément par Rudolph Grimm, à Innsbruck, et Deborah Jin, à Boulder [5] . Mettant à profit les connaissances acquises sur les résonances de Feshbach, la transition CBE-BCS a ensuite pu être explorée. En accord avec les prédictions de Leggett, Nozières et Schmitt-Rink, un nuage d'atome pour toutes les intensités d'interactions a été conservé intact, sans qu'aucune des

instabilités prédites par les modèles concurrents ne se manifeste.

Suite à ce premier résultat qualitatif, une période d'activité expérimentale intense permit de caractériser plus précisément le régime de transition. L'existence d'un appariement entre fermions a pu être démontrée, et l'énergie du gaz entre le condensat de molécules et l'état BCS a été établie. Il s'avère que l'énergie de chaque particule est proportionnelle à l'énergie de Fermi du système. Et la constante de proportionnalité, que l'on note par la lettre grecque prononcez xi est un nombre « universel », au même titre que par exemple. Autrement dit, elle ne dépend pas du système physique auquel on applique ce modèle de fermions en interactions, qu'il s'agisse d'un gaz d'atomes froids ou d'une étoile à neutrons !

Tourbillons quantiques
En 2004, notre groupe de l'École normale supérieure a déterminé expérimentalement ce paramètre dans le régime intermédiaire en ouvrant brusquement le piège servant à confiner les atomes [6] . Le gaz « explose », et s'étend d'autant plus rapidement que que son énergie est importante.Ainsi, en mesurant le rayon du gaz après une milliseconde, nous avons pu remonter à une valeur de . Celle-ci était en profond désaccord avec la valeur prédite par Nozière, Leggett et Schmitt-Rink. Cependant, leur calcul était sujet à caution puisqu'il avait été réalisé en dehors du cadre de validité de la théorie BCS.

En travaillant sur un très petit nombre de fermions une trentaine, Vijay Pandharipande, de l'université d'Urbana-Champaign, a réalisé une simulation informatique numérique qui semble confirmer nos mesures [7] . D'autres simulations prenant en compte

plusieurs dizaines de milliers de particules, plus

réalistes et donc plus pertinentes, sont actuellement en cours. Elles nécessiteront une année de calcul,

et mobiliseront les plus puissants ordinateurs branchés en réseau, ce qui souligne la pertinence de l'approche analogique.

Mais en dépit des résultats et d'indices expérimentaux obtenus depuis 2003, il manquait encore une preuve directe de l'existence d'un état superfluide dans la transition CBE-BCS. Celle-ci est venue au printemps 2005 avec les expériences

de mise en rotation

de gaz de fermions dans le régime intermédiaire réalisées par le groupe de Ketterle. Lorsqu'un fluide classique, comme de l'eau par exemple, est placé dans un seau en rotation, la friction avec les parois entraîne le liquide : celui-ci se met à tourner « en bloc » avec le seau. Or, du fait de l'absence de viscosité dans l'état superfluide, une telle situation ne peut se produire. À la place, des tourbillons se forment. Ils ont le même diamètre et se manifestent par le trou qu'ils percent dans le nuage, puisque la force centrifuge rejette les atomes de leur centre. De tels tourbillons avaient été observés dans l'hélium superfluide par Richard Packard, de l'université de Californie, en 1974, et dans des gaz de bosons, par notre groupe, en 2001.

Dans l'expérience de Ketterle, des atomes de lithium sont piégés par un faisceau laser. Le gaz prend la forme d'un cigare allongé dans la direction du faisceau voir ci-dessus . Un deuxième faisceau permet de mettre le gaz en rotation. Lorsque sa vitesse est suffisament grande, des tourbillons apparaissent. Ils s'organisent selon un réseau triangulaire connu sous le nom de « réseau d'Abrikosov » [8] . Si l'existence des tourbillons résulte bien des lois de la mécanique quantique, le réseau d'Abrikosov est une conséquence d'effets hydrodynamiques et sa structure est le produit de deux forces en compétition : la poussée d'Archimède, qui tend à ramener chaque tourbillon vers le centre du piège, et la force de Magnus * , qui repousse les tourbillons tournant dans le même sens. Caractéristique du régime superfluide, l'observation de tourbillons dans un gaz de fermions montre bien que le nuage reste superfluide sur toute la transition CBE-BCS.

L'élucidation du comportement d'un gaz de fermions monoatomiques constitue un pas important vers l'élaboration d'un simulateur quantique capable d'étudier des systèmes composés d'atomes différents et dans des situations aussi variées que possible. Un enjeu important sera d'isoler les problèmes abordables ainsi que le système expérimental le plus polyvalent. Actuellement à l'étude, la possibilité de piéger des gaz d'atomes froids dans des réseaux optiques obtenus par l'interférence de plusieurs lasers ouvre des perspectives prometteuses.

EN DEUX MOTS Dans le monde quantique, celui de l'infiniment petit, les interactions

entre particules peuvent mener à des calculs

très complexes. Tellement que la puissance des ordinateurs ne suffit pas à les comprendre. Pour s'affranchir de cette difficulté, les physiciens cherchent à mettre au point un calculateur analogique

à l'aide d'atomes ultra-froids qui simuleraient

le comportement de particules en interaction. Un premier pas a été franchi au printemps 2005 par l'équipe du physicien allemand Wolfgang Ketterle.
[1] M. Zwierlein et al., Nature, 435, 1047, 2005.

[2] R. Feynman, Int. J. Theor. Phys., 21, 467, 1982.

[3] A. Moerdijk et al., Phys. Rev. A, 51, 4852, 1995.

[4] A. Leggett, Modern Trends in The Theory of Condensed Matter, Springer Verlag, 1980 ; P. Nozières et S. Schmitt-Rink, J. Low. Temp. Phys, 59 , 195, 1985.

[5] S. Jochim et al., Nature, 426, 537, 2003.


[6] T. Bourdel et al., Phys. Rev. Lett., 93, 050401, 2004.


[7] J. Carlson et al., Phys. Rev. Lett., 91, 050401, 2003.


[8] Alexandre Bouzdine, « L'héritage de Lev Landau », La Recherche, janvier 2004, p. 63.
NOTES
* Dans le phénomène de résonance de Feshbach, on utilise un champ magnétique pour déplacer les niveaux d'énergie des électrons et maîtriser la manière dont les atomes interagissent.

* L'effet Magnus correspond à la force exercée par un fluide sur un objet en rotation. Cet effet est utilisé par les footballeurs pour donner une trajectoire incurvée au ballon en le mettant en rotation au moment du coup de pied.
SAVOIR
F. Chevy et C. Salomon, « Superfluidity in Fermi gases », Physics World, 18, 3, 2005.

F. Chevy et J. Dalibard, « Les Condensats de Bose-Einstein en rotation », Bulletin de la SFP, décembre 2003-janvier 2004, p. 4.

W J.-J. Gleitz, Le Calcul analogique, PUF, 1968.

 

  DOCUMENT       la recherche.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante
 
 
 
Google