|
|
|
|
|
|
La physique quantique réinvente les algorithmes |
|
|
|
|
|
La physique quantique réinvente les algorithmes
Frédéric Magniez, Iordanis Kerenidis dans mensuel 501
daté juillet-août 2015 (numéro double, n° 501 + 502) -
Les algorithmes peuvent réaliser des opérations en parallèle de façon massive et combiner leurs résultats en une réponse unique. De quoi casser tous les modes classiques de chiffrement.
Calculer plus vite, utiliser moins de mémoire et résoudre des problèmes plus complexes ! Tels sont les espoirs portés par l'ordinateur quantique. Grâce aux propriétés de la physique quantique, on estime que le temps passé à résoudre des problèmes liés à la recherche de documents serait réduit quadratiquement, c'est-à-dire en temps T au lieu de T2. Dans d'autres cas, comme la factorisation ou autres problèmes arithmétiques réputés difficiles, le calculateur pourrait faire encore mieux et résoudre ces problèmes en temps T au lieu de l'ordre de 2T ! Ainsi, un problème qui prendrait 30 milliards d'années à un ordinateur classique serait résolu en 60 secondes par un ordinateur quantique...
Comment s'explique cette supériorité du calculateur quantique ? Comme le calculateur classique, il utilise des données binaires, codées par des 1 et des 0. Mais, tandis qu'un bit classique se trouve soit dans l'état 1, soit dans l'état 0, indépendamment de l'état des autres bits, les bits quantiques (qubits) peuvent être dans des états intermédiaires et être corrélés les uns avec les autres. Ces propriétés permettent de calculer plus rapidement, notamment de factoriser* plus facilement, alors que la plupart des calculateurs classiques doivent passer par des étapes logiques bien plus nombreuses pour arriver à la réponse. Ainsi, les algorithmes quantiques mènent de front plusieurs calculs (en superposition) et combinent leurs différents résultats en une réponse unique ou en un petit ensemble. C'est d'ailleurs cette deuxième étape qui différencie le calcul quantique du calcul classique, y compris probabiliste. En effet, rien n'empêche un ordinateur actuel de tirer au sort un des différents calculs à mener. Le résultat est alors une distribution de probabilités de « tous » les calculs possibles. En revanche, il ne peut pas combiner ces différents calculs, alors qu'un ordinateur quantique le pourrait.
Transformée de Fourier
Pour le moment, l'ordinateur capable d'utiliser ces propriétés de la physique quantique n'existe pas. Cela n'a pas empêché les physiciens et les mathématiciens, depuis les années 1980, d'imaginer ces applications dans les calculs algorithmiques. Examinons quelques-uns des algorithmes quantiques.
Le premier d'entre eux repose sur l'application d'une opération bien connue en mathématiques et en physique classique : la transformée de Fourier. Cette opération révèle la structure périodique d'un signal telle qu'elle apparaît, par exemple, sur un oscilloscope. Ses propriétés combinatoires sont aussi utilisées pour multiplier rapidement deux nombres à n chiffres : les n X n opérations sont alors transformées n log n opérations. La transformée de Fourier n'est pas trop longue en calcul classique, mais elle devient quasiment instantanée pour un ordinateur quantique. Une des raisons de cette accélération tient au fait que la transformée quantique ne calcule pas tous les coefficients de Fourier, mais seulement une superposition de ces derniers. Il s'avère que c'est ce type de superpositions quantiques qui donne la puissance au calcul quantique, permettant ainsi de craquer tous les systèmes de chiffrement actuels (RSA, Diffie-Hellman...).
Appliquons cela au chiffrement RSA (dit asymétrique), un algorithme de cryptographie décrit en 1977 et très utilisé pour échanger des données confidentielles sur Internet. Ce chiffrement encode un message à l'aide de deux grands entiers p et q. Ces entiers ont plusieurs propriétés dont celle d'être premiers, c'est-à-dire qu'il est impossible de les écrire comme produit de deux autres nombres. Par exemple, 17 est premier, mais 15 = 3 X 5 ne l'est pas. Le chiffrement s'effectue par la connaissance de l'entier n = p X q résultant du produit de p par q, alors que le déchiffrement utilise la connaissance « explicite » de p et q. Seul l'entier n est donc rendu public afin que tout le monde puisse chiffrer un message avant de l'envoyer, et seul celui qui connaît p et q peut alors le déchiffrer. Cette capacité de chiffrement « public » semble être une faiblesse puisqu'il suffit de factoriser n pour connaître p et q. Il existe en effet depuis bien longtemps une construction élégante qui permet de ramener le problème de la factorisation de n à celui du calcul de la période d'une fonction construite à partir de n uniquement. Cette fonction associe à tout entier x un entier f(x) tel que pour toute période entière r, f(x+r) = f(x) pour toute valeur x. Non seulement la fonction se calcule très rapidement, mais, de surcroît, la période est directement reliée à p et q (il faut faire tout de même un peu d'arithmétique élémentaire, non détaillée ici).
Cependant, le calcul d'une période est difficile pour un calculateur classique, cela prendrait même plusieurs millénaires avec les systèmes de chiffrement actuels. C'est pour cette raison qu'on l'utilise en cryptographie, notamment pour les cartes bancaires. Mais, en 1994, Daniel Simon et Peter Shor ont établi le premier algorithme quantique. Cet algorithme permet notamment le calcul de la période de telles fonctions, et donc des facteurs p et q. Ainsi, le déchiffrement de l'algorithme de cryptographie devient quasi instantané !
Les applications de la transformée de Fourier en calcul quantique ont évolué. Ainsi, l'informaticien américain Lov Grover l'a utilisée en 1996 pour concevoir un autre algorithme quantique permettant de rechercher un élément dans un ensemble non structuré de taille N (par exemple, retrouver un nom à partir d'un numéro de téléphone à partir d'un annuaire alphabétique) en seulement T√N, alors qu'une recherche exhaustive nécessiterait d'examiner toutes les possibilités, et donc en TN. L'idée a donné naissance à la technique d'amplitude des superpositions qui explique ce gain quadratique. Dans notre exemple, on pourrait imaginer tirer un nom au hasard. La chance de tirer le bon nom correspond à la probabilité p=1/N. Les statistiques nous enseignent qu'il suffit de recommencer 1/p=N fois pour tomber sur le bon nom. En quantique, chaque probabilité des statistiques est remplacée par une « amplitude de superposition » qui correspond intuitivement à la racine carrée d'une probabilité. Il suffit alors de recommencer le tirage √N fois (l'inverse de 1/√N), mais quantiquement !
Marche aléatoire
Un autre principe classique trouve une application dans le domaine quantique, celui de la marche aléatoire. Une marche aléatoire modélise le fait de se déplacer aléatoirement, par exemple sur Internet en cliquant sur des liens au hasard, ou bien dans une ville en choisissant des rues au hasard à chaque intersection. Les marches aléatoires sont des objets mathématiques très utilisés dans la modélisation de phénomènes statistiques, mais aussi dans la conception d'algorithmes, comme le PageRank de Google. Il se trouve, encore une fois, que ces marches ont leurs analogues quantiques qui se propagent quadratiquement plus vite [1]. Ces marches quantiques ont été utilisées pour concevoir les meilleurs algorithmes quantiques de recherche de stratégies dans les jeux à deux joueurs [2] (comme les échecs, mais en plus simple), ou pour rechercher des doublons dans une base de données (par exemple, deux fois le même numéro de téléphone dans un annuaire).
Le calcul quantique peut résoudre des problèmes de communication avec une efficacité inédite et prouvée. Étudions un exemple concret de calcul dans « le nuage » (cloud computing). Imaginons que deux grands concurrents, appelons-les Pomme et Androïde, prétendent pouvoir effectuer des calculs très difficiles (par exemple, des simulations) sur des données massives. En tant que client, nous voudrions savoir si ces calculs sont indifféremment exécutés par ces deux compagnies. Bien entendu, Pomme et Androïde ne veulent pas communiquer entre eux, mais ils se mettent d'accord néanmoins pour nous envoyer chacun un message afin de nous laisser établir si leurs résultats sont identiques ou pas. En informatique, un tel message est appelé une empreinte numérique (fingerprint). Si la taille des données est de 1 téraoctet*, alors l'empreinte à envoyer est seulement d'environ 40 octets si elle peut être quantique, mais de plus de 1 mégaoctet si elle est classique.
Le nom d'empreinte numérique (lire « Réduire considérablement la taille des empreintes quantiques », p. 71) se justifie par le fait que ces messages, même en contenant peu d'informations, sont suffisamment expressifs pour identifier un grand document. Dans le cas quantique, ces empreintes quantiques ne sont pas facilement réalisables car elles nécessitent des états fortement intriqués. Néanmoins, des tentatives de réalisation ont débuté, notamment par une collaboration entre plusieurs groupes d'Amérique du Nord et de Chine [3], en utilisant des états cohérents, c'est-à-dire avec des variables continues. Cela donnera peut-être bientôt lieu à la première réalisation pratique d'une communication quantique plus efficace qu'une communication classique.
Carte quantique
Nous venons de voir quelques exemples de la supériorité du calcul quantique. Cependant, il existe quelques limites. D'un point de vue purement calculatoire, un ordinateur quantique ne résout pas plus de choses qu'un ordinateur classique. Sa supériorité se situe au niveau de l'efficacité. De même, il n'est pas plus rapide pour certains problèmes tels que la recherche de documents déjà triés par ordre alphabétique. La situation n'est pas simple, et toute une communauté de chercheurs s'est investie de la lourde tâche de dresser une carte « quantique » de la complexité algorithmique des problèmes informatiques.
Par ailleurs, que faire de toute cette recherche si les ordinateurs quantiques tardaient à venir, ou pire, s'ils n'étaient jamais créés ? Sur le plan scientifique, l'étude des algorithmes quantiques a d'ores et déjà fourni de nouveaux outils permettant d'étudier et de mieux comprendre le calcul et l'information classiques. Plusieurs fois, une intuition venue de l'informatique quantique a déclenché la résolution de problèmes ouverts et réputés difficiles en informatique non quantique [4]. Ainsi, des résultats sur les codes correcteurs classiques, sur l'efficacité des programmes linéaires pour résoudre des problèmes tels que ceux du voyageur de commerce, ou encore sur les liens entre théorie de l'information et la complexité de la communication ont été retrouvés, simplifiés ou juste découverts grâce à deux décennies de recherche dédiée à une meilleure compréhension des supériorités offertes par l'information et le calcul quantiques.
*FACTORISER c'est écrire une somme de deux expressions littérales sous la forme d'un produit. Exemple : la forme factorisée de ab+ac c'est a×(b+c).
*1 OCTET = 8 BITS, 1 megaoctet = 106 octets, 1 téraoctet = 1012 octets.
L'ESSENTIEL
- DÈS LES ANNÉES 1980, les physiciens souhaitent appliquer les propriétés de la physique quantique aux ordinateurs.
- À DÉFAUT DE RÉALISER un ordinateur quantique, ils conçoivent des algorithmes permettant d'entrevoir sa puissance de calcul.
- DES PROBLÈMES qui prendraient des milliards d'années, seraient résolus en quelques secondes par un ordinateur quantique.
RÉDUIRE CONSIDÉRABLEMENT LA TAILLE DES EMPREINTES NUMÉRIQUES
La magie de l'empreinte quantique repose sur la possibilité de représenter un grand nombre de bits classiques avec un très petit nombre de bits quantiques (en réalité logarithmique). Il est ainsi possible d'encoder un fichier classique de mille milliards d'octets en utilisant seulement 40 octets quantiques, de telle sorte que cette empreinte est suffisante pour confirmer si les deux fichiers sont identiques ou pas.
La première étape est en fait très « classique ». Elle consiste à utiliser des codes correcteurs d'erreurs afin de transformer le fichier, de sorte que tout autre fichier différent deviendrait très différent, même s'il différait initialement d'un seul bit. Les codes correcteurs sont présents dans les applications numériques de tous les jours : télécommunications, disques durs, disques Blu-Ray, etc. La deuxième étape actuelle, et donc classique, consiste à effectuer une empreinte de taille quadratiquement plus petite (1 mégaoctet dans l'exemple) que le fichier initial. C'est dans cette seconde étape que les empreintes quantiques peuvent être beaucoup plus petites (40 octets dans l'exemple). Pour expliquer cette construction, considérons un fichier constitué des 8 bits : 00110101. Une façon d'encoder ce fichier est d'énumérer chaque bit précédé de sa position : (1,0), (2,0), (3,1), (4,1), (5,0), (6,1), (7,0), (8,1). Un des intérêts de cette première empreinte (bien trop longue) est que l'ordre n'est plus important, puisque la position est ajoutée à chaque bit. La position peut elle-même être écrite en binaire, cette fois-ci de 0 à 7 au lieu de 1 à 8 : (000,0), (001,0), (010,1), (011,1), (100,0), (101,1), (110,0), (111,1). L'empreinte quantique est donc obtenue par la création d'une superposition de ces 8 paires, au lieu de les écrire à la suite les unes des autres. On utilise ainsi 3 qubits (bits quantiques) pour les indices et un qubit pour la valeur. La superposition est donc sur seulement 4 qubits au lieu des 8 bits du fichier classique initial.
LÉO DUCAS : L'ELDORADO POST-QUANTIQUE
« TOUS LES SYSTÈMES DE SÉCURISATION utilisés en pratique aujourd'hui sur Internet ou sur les cartes à puce (RSA et logarithmes discrets) sont fondés sur des problèmes mathématiques « difficiles » qu'un ordinateur quantique est susceptible de casser rapidement. La cryptographie post-quantique est, par définition, celle qui résiste - ou plutôt résisterait - à l'avènement de l'ordinateur quantique. Résisterait, car on ne peut pas prouver qu'un crypto-système est incassable, sauf à faire des hypothèses supplémentaires. Par exemple, en s'appuyant sur la difficulté supposée du problème du logarithme discret, on construit des signatures* sûres. La cryptographie s'offre ainsi quelques axiomes, mais la meilleure garantie de sécurité reste l'épreuve du temps.
POUR RÉSISTER À L'ORDINATEUR QUANTIQUE, il faut trouver de nouveaux problèmes insensibles à l'approche quantique. Depuis quelques années, les réseaux euclidiens - sorte de grille multidimensionnelle -, objets fondamentalement géométriques, se sont révélés de bons candidats. Précisément, l'hypothèse est qu'il est difficile de calculer un court vecteur dans un réseau euclidien à n dimensions. Avant même de construire à partir de cette hypothèse, il faut comprendre les attaques potentielles. Phong Nguyen et Nicolas Gama, de l'École normale supérieure, ont ainsi mis en évidence que les meilleures méthodes cherchant des courts vecteurs pouvaient s'interpréter comme des versions algorithmiques de théorèmes que Charles Hermite ou Hermann Minkowski avaient énoncés au XIXe siècle [1]. L'intérêt nouveau pour ces réseaux a été l'occasion d'une grande créativité comme l'invention en 2009 du « chiffrement totalement homomorphe » par Craig Gentry [2], issue du foisonnement de travaux sur les réseaux euclidiens. Ce chiffrement permet dans son principe d'effectuer des calculs directement sur les données dont on ne connaît pas les valeurs.
RESTE QUE LES RÉSEAUX EUCLIDIENS présentent un inconvénient majeur : il faut près d'un mégaoctet pour enregistrer les données correspondant à un réseau de 500 dimensions, taille minimale pour résister aux attaques connues. Autrement dit, la taille des clés est en pratique beaucoup trop longue pour être enregistrée sur la puce d'une carte de crédit, par exemple. Certains types de réseaux euclidiens nouvellement considérés - les réseaux compacts - fournissent toutefois des clés bien plus petites. Mais ces réseaux compacts issus de la « théorie des corps de nombres » sont-ils aussi sûrs que les réseaux euclidiens quelconques ? C'est une question à laquelle les cryptanalystes et les algébristes doivent répondre. Une réponse possible serait que certaines classes de réseaux compacts sont sûres aujourd'hui, mais ne seraient pas « post-quantiques ». De nouveau, l'exercice consiste à réinterpréter des théories mathématiques des XIXe et du XXe siècle, pour construire des algorithmes.
Les systèmes de sécurisation capables de résister à un ordinateur quantique sont donc encore hors de portée, dans la mesure où leurs frontières ne sont pas aujourd'hui parfaitement définies. Cependant, la quête de cet « eldorado postquantique » aura fait avancer nos connaissances cryptographiques de manière considérable ! »
Propos recueillis par Philippe Pajot
[1] N. Gama et P. Q. Nguyen, STOC 2008.
[2] C. Gentry, STOC 2009.
* LA SIGNATURE est un mécanisme permettant de garantir l'intégrité d'un document électronique et d'en authentifier l'auteur.
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
INTELLIGENCE ARTIFICIELLE |
|
|
|
|
|
intelligence artificielle
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.
Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.
Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.
Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.
Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.
Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.
Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.
Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.
Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.
Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.
Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.
Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.
La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.
Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.
Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.
Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).
Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.
Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.
Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.
Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !
Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.
Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.
L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.
L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.
Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
Les glaces polaires fondent de plus en plus |
|
|
|
|
|
Les glaces polaires fondent de plus en plus
Frédérique Rémy dans dlr 51
daté octobre 2012 - Réservé aux abonnés du site
De la grande calotte du Groenland aux petits glaciers, toutes les régions de l'Arctique fondent. Mais pas toutes au même rythme. Le plus inquiétant est que, dans certaines zones, la fonte s'accélère.
Le 12 juillet 2012, pour la première fois depuis trente ans que des satellites sont en orbite pour surveiller les régions polaires, la fonte des glaces a été observée sur la totalité de la surface du Groenland. Victime spectaculaire du réchauffement dans l'Arctique, la banquise* n'est donc pas, loin s'en faut, l'unique sujet de préoccupation des climatologues. Un autre élément joue un rôle déterminant dans le réchauffement : ce sont les quantités considérables de glace qui recouvrent les terres émergées de l'Arctique, comme le Groenland ou le nord du Canada. Elles subissent de plein fouet l'effet du réchauffement dans la région, qui est deux fois plus rapide que dans le reste du globe. C'est leur fonte, et non celle de la banquise (lire « La banquise a un effet protecteur sur le réchauffement », p. 20), qui est l'une des principales sources de l'élévation actuelle du niveau de la mer.
Or les glaces des terres arctiques existent sous des formes très diverses : les calottes* et les inlandsis - vastes plateaux de glace en forme de dôme -, les glaciers - masses de glace des zones montagneuses qui glissent lentement vers le fond des vallées -, le sol gelé ou pergélisol... Tous réagissent différemment au réchauffement. Aujourd'hui, la multiplication des études de télédétection satellitaire permet de mieux cerner les effets de ce phénomène sur chacune des composantes des glaces arctiques. Et de préciser leurs rôles dans le système climatique.
UNE FONTE DES GLACES ALARMANTE AU GROENLAND
Globalement, la fonte des glaces de l'Arctique, si on y inclut l'ensemble du Groenland, contribue à hauteur de 25 % à 40 % à l'élévation du niveau de la mer. La contribution de l'Antarctique reste débattue, mais inférieure à 15 %. Quant au reste, il est causé par la fonte de l'ensemble des glaciers présents ailleurs sur la Terre, comme ceux de l'Himalaya ou de la Patagonie, et par la dilatation de l'océan due à l'élévation de température.
De toutes les régions arctiques, le Groenland est de loin celle dont la situation est la plus préoccupante. Malgré l'inertie thermique de cette calotte gigantesque, qui représente 1,7 million de kilomètres carrés et un volume de 3 millions de kilomètres cubes, ses glaces sont particulièrement touchées par le réchauffement.
Au Groenland, tous les voyants climatiques sont au rouge. Ainsi, chaque année, la portion de la calotte groenlandaise dont la surface fond en été est de plus en plus importante. Sa superficie a augmenté de 40 % en vingt-cinq ans. Cette tendance est constante depuis le début des observations des radiomètres satellites en 1979. Cette augmentation est clairement corrélée à l'élévation des températures au Groenland, estimée à 2,4 °C durant la même période. Au départ, la fonte était confinée dans les régions les moins froides, au sud du Groenland, et à basse altitude. Aujourd'hui, elle atteint le nord et se produit au-delà de 1 500 mètres d'altitude, y compris dans les zones les plus proches du pôle. Elle a même atteint toute la calotte l'été dernier.
DES GLACIERS QUI BOUGENT DE PLUS EN PLUS VITE
Autre indicateur clair de la diminution de la calotte groenlandaise, l'accélération des glaciers émissaires. Il s'agit de langues de glace présentes au pourtour d'une calotte. Ces glaciers ont pour effet, en quelque sorte, d'évacuer le contenu de cette dernière. Car ils s'écoulent vers le fond des vallées, voire vers la mer, où ils rencontrent des températures plus chaudes. Plus ils vont vite, plus ils libèrent des icebergs dans la mer. La vitesse de ces glaciers a été mesurée en comparant des images radar ou optique, prises à quelques semaines d'écart. Résultat : la majorité d'entre eux ont vu leur vitesse augmenter de quelques dizaines de pour cent pendant la dernière décennie. Ainsi, la vitesse du plus emblématique glacier du Groenland, le Jakobshavn Isbræ, classé au patrimoine mondial de l'Unesco, a fait plus que doubler depuis 1995, passant de 20 mètres par jour à plus de 40. Cette tendance est confirmée par les mesures d'épaisseur des ces glaciers, qui ont tendance à s'amincir quand ils vont plus vite.
Plusieurs phénomènes peuvent expliquer l'accélération de ces glaciers. En général, le déplacement du glacier sur son socle rocheux est lubrifié par un mince film d'eau, très discontinu, qui est situé entre les deux. Ce film est en partie alimenté par l'eau provenant de la glace fondue en surface qui s'infiltre jusqu'au socle rocheux. Le glacier glisse donc d'autant plus vite que la fonte est élevée. Toutefois, l'accélération vient surtout de la lubrification par l'eau de mer. Elle s'infiltre sous le glacier, à l'endroit où celui-ci atteint le rivage. Plus le réchauffement est important, plus l'eau de mer fait fondre le glacier, et mieux elle s'infiltre en dessous de lui.
Globalement, toutes les études confirment aujourd'hui que la calotte groenlandaise perd plus de masse en fondant qu'elle n'en reçoit sous forme de neige. Bilan : entre 100 et 250 milliards de tonnes en moins tous les ans. Les glaciologues obtiennent ces estimations en observant par satellite les variations de l'épaisseur de la calotte, mais également en analysant de fines variations de la gravité terrestre, mesurées là aussi par satellite. Et toutes les régions du Groenland sans exception perdent aujourd'hui de la masse. Bien que le réchauffement accélère le cycle de l'eau et provoque ainsi des neiges plus abondantes dans le centre du territoire, ces dernières ne compensent plus l'importante fonte des glaces des régions côtières. Pendant longtemps, jusqu'en 2005, le nord de la calotte recevait encore suffisamment de neige pour compenser la fonte accrue. Actuellement, même cette région perd de la masse.
LES CONSÉQUENCES SUR LA MONTÉE DES OCÉANS
Cette perte annuelle de masse de glace contribue à élever le niveau de la mer de 0,3 à 0,7 millimètre par an, selon les estimations. Cela représente de 10 % à 20 % environ de l'augmentation annuelle du niveau de la mer. En outre, la plupart des climatologues estiment aujourd'hui que l'on est en présence d'une vraie tendance de fond et non de fluctuations d'une année sur l'autre. Depuis au moins quelques décennies, les pertes de masse de la calotte groenlandaise s'accélèrent.
D'autres calottes et glaciers de l'Arctique connaissent une évolution inquiétante. C'est le cas du nord du Canada et de l'Alaska, qui constituent les deux plus vastes terres recouvertes de glace dans l'Arctique après le Groenland. L'Alaska, en particulier, semble particulièrement vulnérable au réchauffement de la région. Car il comporte de nombreuses langues de glace assez étendues. Or ces dernières sont situées à basse altitude, leurs extrémités étant souvent en contact direct avec l'océan. Comme celui-ci, tout comme l'atmosphère, se réchauffe, elles ont tendance à fondre rapidement.
Pour ces raisons, la seconde partie du XXe siècle a été très destructrice pour les glaces de l'Alaska. Alors qu'elles ne représentent que 5 % de la surface du Groenland, elles ont contribué à près de 10 % de la hausse totale du niveau de la mer pendant cette période. La fonte, qui s'était accélérée pendant la décennie 1990, s'est un tout petit peu ralentie lors de la décennie suivante. Elle s'est aujourd'hui stabilisée à un rythme qui reste très important : elle contribue à élever le niveau de la mer de 0,22 millimètre par an, soit environ 7 % de l'augmentation annuelle.
L'ARCTIQUE CONNAÎT DES SITUATIONS CONTRASTÉES
Longtemps assez épargné, le Canada semble désormais suivre la voie de l'Alaska. Jusqu'à la fin du XXe siècle, les glaciers et les calottes qui recouvrent les îles du nord du pays résistaient plutôt bien au réchauffement des régions arctiques. Mais des travaux récents viennent de montrer que leur fonte s'est accentuée brutalement depuis 2004. Entre 2007 et 2009, la contribution de ces glaces à l'élévation du niveau de la mer a même dépassé celle de l'Alaska, atteignant 0,25 millimètre par an. Toutefois, cette forte hausse n'a été observée que sur une courte période. Elle peut être due à la variabilité du climat. Les prochaines années confirmeront ou non s'il s'agit d'une tendance de fond.
Le cas de l'Islande se révèle tout aussi inquiétant. La fonte y est la plus rapide de tout l'Arctique. Depuis le milieu des années 1990, les calottes de glace islandaises perdent, en moyenne, un peu plus d'un mètre d'épaisseur chaque année, contre 90 centimètres pour l'Alaska et 10 centimètres pour le Groenland. Leur impact sur l'élévation du niveau de la mer s'avère toutefois très faible, dans la mesure où elles couvrent une surface réduite.
Dans le reste de l'Arctique, les glaces contribuent très peu à l'élévation du niveau de la mer. Bien qu'elles occupent des surfaces relativement conséquentes, la fonte y est encore modérée. C'est le cas des îles du Spitzberg, au nord de la Norvège, ou de la Nouvelle-Zemble et de Severnaïa Zemlia, au nord de la Russie.
Pourquoi cette fonte modérée ? D'abord parce que ces petites calottes ne sont pas ou très peu en contact avec la mer. C'est donc principalement l'atmosphère qui peut les réchauffer. Or ces calottes sont, en général, relativement proches du pôle, à seulement 1 000 kilomètres, par exemple, pour le Spitzberg. À ces latitudes, les températures sont encore assez froides durant une grande partie de l'année et largement au-dessous de 0 °C. La fonte reste donc modeste et l'effet du réchauffement également. Mais pour combien de temps encore ? Si les températures continuent d'augmenter, notamment en été, ces calottes devraient, elles aussi, perdre de plus en plus de masse.
La conclusion est sans appel : de la grande calotte du Groenland aux petits glaciers, quelles que soient leur taille ou leur nature, tous les objets glaciaires de l'Arctique fondent. Que des objets constitués de glace soient particulièrement sensibles au réchauffement n'est pas en soi une surprise. En revanche, l'accélération de ce processus pose question. Pour l'expliquer, les climatologues avancent plusieurs hypothèses. Ils invoquent des phénomènes d'emballement, appelés aussi rétroactions positives, qui accentuent les effets du réchauffement.
QUAND LES GLACIERS FONDENT, ILS S'AMINCISSENT
L'un de ces phénomènes est le fait qu'un glacier qui fond s'amincit. Par conséquent, son altitude moyenne baisse. Les températures auxquelles il est soumis en haut, près du sommet, sont donc légèrement moins froides. En moyenne, il se réchauffe un petit peu plus. Donc il fond un petit peu plus vite. Donc il s'amincit encore plus, et ainsi de suite. Cet emballement est toutefois en partie freiné. Car, en s'amincissant, le glacier se rétracte : son extrémité la plus basse remonte légèrement, passant dans une atmosphère un peu plus froide, donc moins propice à la fonte. À cause de ces deux effets antagonistes, l'amincissement des glaciers peut donc accélérer la fonte, ou la freiner, ou n'avoir pratiquement pas d'effet.
Un autre facteur d'accélération vient des poussières déposées par le vent, année après année, sur la surface de la glace. Chaque été où la fonte est forte, ces particules sombres réapparaissent en surface des glaciers. Elles sont à chaque fois plus nombreuses. Or, un glacier moins blanc absorbe beaucoup plus la chaleur du soleil, donc fond plus vite. L'impact de ces poussières sur la fonte peut être massif, comme l'a montré l'éruption du volcan Eyjafjallajökull en avril 2010 (lire « 3 mètres d'épaisseur en moins en quelques mois », p. 21 ). Ces poussières peuvent être des cendres de volcans, s'il y en a à proximité. Mais elles peuvent aussi être produites par le déplacement du glacier, qui érode les roches en dessous de lui, transporte et repousse des amas de pierres et de terre sur les côtés. Il peut également s'agir de suies présentes dans l'atmosphère, issues, par exemple, d'incendies ailleurs sur la Terre. L'impact de ce phénomène sur la fonte des glaces en Arctique n'est toutefois pas encore très bien quantifié pour l'instant.
Cependant, nous ne savons pas vraiment comment ces mécanismes se combinent entre eux. Ainsi, au nord du Groenland, la fonte en surface est apparue relativement récemment. Et alors que, partout ailleurs, une telle fonte provoque une accélération de l'écoulement des glaciers, au nord du Groenland, ce n'est pas le cas. Pour le moment, nous essayons de comprendre pourquoi.
Dans ce contexte, l'avenir des diverses calottes et glaciers des terres arctiques demeure difficile à prédire. Beaucoup de travail reste à mener pour comprendre la réaction de ces objets au réchauffement. D'autres phénomènes doivent être pris en compte, comme la modification de la circulation océanique.
* La banquise est la glace de mer.
* La calotte glaciaire est de la glace de terre constituée d'eau douce ; elle se forme par l'accumulation de neige en surface, son tassement et sa transformation progressive en glace.
L'ESSENTIEL
- La fonte des glaces de terre de l'Arctique, et non celle de la banquise, est la principale cause de l'élévation actuelle du niveau de la mer.
- La zone la plus touchée est la calotte glaciaire du Groenland, dont la surface diminue de plus en plus chaque année en été.
- La banquise fond, elle aussi, ce qui contribue à augmenter le réchauffement climatique.
DAVID SALAS Y MÉLIA EST CHERCHEUR EN CLIMATOLOGIE AU CENTRE NATIONAL DE RECHERCHES MÉTÉOROLOGIQUES DE MÉTÉO-FRANCE À TOULOUSE.« LA BANQUISE A UN EFFET PROTECTEUR DANS LE RÉCHAUFFEMENT »
Quel est le rôle joué par la banquise vis-à-vis du réchauffement ?
Cette fine couche de mer gelée tend à protéger la Terre du réchauffement. Elle est en effet très blanche, notamment quand elle est recouverte de neige fraîche, alors que l'océan est plutôt sombre. La banquise renvoie donc dans l'espace 50 % à 85 % de la lumière du soleil qu'elle reçoit, alors que l'océan en absorbe, lui, plus de 90 %. Il s'échauffe donc beaucoup plus facilement que la banquise. Et plus celle-ci fond, à cause du réchauffement, plus l'océan se réchauffe lui aussi. Car la surface qu'il occupe s'étend. Ce qui augmente à nouveau le réchauffement. En revanche, la fonte de la banquise ne participe en rien à l'élévation du niveau de la mer, de même que le niveau de l'eau dans un verre ne monte pas quand les glaçons fondent.
La fonte de la banquise augmente-t-elle ?
En Arctique, la banquise décroît continûment. Elle a même atteint un record de rétraction, début septembre 2012, couvrant moins de 4 millions de kilomètres carrés, quand son précédent record de 2007 s'établissait à 4,5 millions. En revanche, la banquise antarctique ne diminue pas, voire augmente légèrement.
Pourquoi cette différence ?
En Antarctique, la banquise peut s'étendre beaucoup plus facilement. Car elle n'est pas limitée, comme dans l'Arctique, par la présence de plusieurs continents tout autour du pôle Nord : nord du Canada, Groenland, nord de la Russie, etc.
Et d'autres phénomènes entrent en jeu, comme la fonte des glaces des continents, qui apporte de l'eau douce près de la surface. Devenue moins salée, l'eau proche de la surface se mélange peu avec les eaux plus profondes, car leurs températures s'homogénéisent moins. Or, l'impact de cet effet diffère selon les saisons et le lieu. En Antarctique, il a plutôt tendance à protéger la banquise, tandis qu'en Arctique, il a plutôt tendance à la faire fondre.
Propos recueillis par Nicolas Constans
3 MÈTRES D'ÉPAISSEUR EN MOINS EN QUELQUES MOIS
L'éruption du volcan Eyjafjallajökull en avril 2010, qui paralysa le trafic aérien européen, a eu un impact très fort sur les glaces islandaises. Au cours de l'été suivant, celles-ci ont fondu trois fois plus vite que les années précédentes, perdant 3 mètres d'épaisseur en seulement quelques mois ! En effet, la fine couche de cendres volcaniques qui a alors recouvert toutes les calottes islandaises les a noircies, ce qui a absorbé très efficacement le rayonnement solaire. Heureusement, cette éruption n'a eu qu'un effet transitoire. Au cours du même été, la fonte a été forte dans la moitié basse des glaciers. En conséquence, l'eau qui en a résulté a emporté les cendres. Quant à celles qui recouvraient le haut des glaciers, elles ont été ensevelies par d'importantes chutes de neige lors de l'hiver suivant. Redevenus blancs, les glaciers se sont remis à fondre à un rythme plus lent, comme avant.
L'ANTARCTIQUE, UN BILAN PLUS CONTRASTÉ
L'ANTARCTIQUE, lui aussi, perd de la masse. Les chiffres exacts font toujours débat, mais ils sont de l'ordre de plusieurs dizaines à plusieurs centaines de milliards de tonnes chaque année. En outre, ces pertes s'accélèrent : d'une année sur l'autre, elles augmentent d'environ 15 milliards de tonnes en moyenne.
LES CLIMATOLOGUES ont pourtant longtemps pensé que l'Antarctique subissait moins les effets du réchauffement que l'Arctique. D'une part, parce qu'il a une grande inertie thermique : l'essentiel de sa glace forme une vaste calotte de 2 000 mètres d'épaisseur en moyenne, qui occupe des millions de kilomètres carrés. Ensuite, parce qu'il est relativement isolé du climat du reste du globe. Enfin, parce que, contrairement au Groenland, il ne fond quasiment pas au contact de l'atmosphère, car la température n'atteint que rarement 0 °C.
DES OBSERVATIONS PAR SATELLITE, menées depuis une quinzaine d'années, indiquent néanmoins que certains glaciers antarctiques s'écoulent de plus en plus vite. De ce fait, ils évacuent de plus en plus de glace vers la mer. Une partie de cette glace fond au contact de l'eau, le reste est libéré sous forme d'icebergs. Les chutes de neige de l'intérieur des terres, même si elles augmentent à cause du réchauffement, ne compensent pas cette perte de glace. La calotte « puise dans ses réserves », elle perd de la masse.
CES PERTES AFFECTENT surtout la partie ouest du continent, pour le moment. Les plus grosses contributions viennent du glacier appelé Pine Island et de ses voisins de la mer d'Amundsen, ainsi que d'autres situés dans la longue péninsule Antarctique. À l'est de l'Antarctique, en revanche, rien n'est encore vraiment tranché.
Thomas Flament, Legos
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
Darwin revisité par la sélection artificielle |
|
|
|
|
|
Darwin revisité par la sélection artificielle
Dario Floreano dans mensuel 350
daté février 2002 - Réservé aux abonnés du site
Un robot peut-il évoluer de manière autonome ? Tel est le champ d'étude de la robotique évolutionniste, qui s'attache à mettre au point des robots capables de s'adapter à leur environnement. Aujourd'hui, les performances de certains types de réseaux de neurones artificiels résultent effectivement d'un processus de sélection darwinien.
En dépit des progrès immenses que la robotique a connus au XXe siècle grâce aux développements de l'électronique, de l'informatique et des capteurs artificiels, la plupart des robots actuellement en fonction dans les usines ne diffèrent pas beaucoup des anciens automates. Ils sont toujours programmés pour accomplir exactement des séries d'actions prédéfinies. Peut-on dire de ces machines qu'elles sont intelligentes ? Pas vraiment : elles se bornent à traduire l'intelligence des ingénieurs qui les ont conçues et programmées. Dans son passionnant petit ouvrage intitulé Véhicules. Expériences de psychologie de synthèse , le neurophysiologiste Valentino Braitenberg envisageait a contrario , dès 1984, la possibilité d'aboutir à des robots « intelligents » par l'intermédiaire d'un processus évolutionniste voir l'encadré : « A l'origine de la robotique révolutionnaire ». Il voulait ainsi appliquer à la robotique l'idée de Darwin selon laquelle l'évolution de la vie biologique sur Terre résulte d'un processus de copie sélective avec erreurs aléatoires, sans participation d'un créateur conscient. C'est ce concept de robotique évolutionniste que certains chercheurs ingénieurs, biologistes et spécialistes des sciences cognitives tentent depuis quelques années de développer, en essayant de mettre au point des formes de vie robotique capables de s'adapter de manière autonome à leur environnement.
Au printemps 1994, deux équipes de chercheurs -la nôtre à l'Ecole polytechnique fédérale de Lausanne EPFL et celle dirigée par Inman Harvey à l'université du Sussex, à Brighton1 - ont réalisé les premiers robots ayant développé, par simulation mais sans intervention humaine, divers types de circuits neuronaux leur permettant de se déplacer de manière autonome dans des environnements réels. A la base de ces réalisations, deux postulats communs. Premièrement, la conception planifiée d'un robot ne permet pas de faire face à la complexité des interactions entre le robot et son environnement physique, ni d'élaborer les circuits neuronaux nécessaires à ces interactions. Au lieu de tenter de formaliser ces interactions pour ensuite structurer le cerveau du robot, pourquoi ne pas les laisser, sous la pression de certains critères de sélection, guider elles-mêmes l'évolution de ce dernier ? Deuxièmement, le processus évolutionniste appliqué aux robots est susceptible d'aboutir à des circuits neuronaux beaucoup plus simples que ceux en général dessinés par les ingénieurs appliquant des méthodes d'analyse formelle. La nature n'est-elle pas riche en exemples de circuits nerveux simples et pourtant responsables de comportements apparemment très complexes ?
Réseaux de neurones. Pour expérimenter l'évolution sans intervention humaine, notre équipe de l'EPFL a créé un robot mobile miniature baptisé Khepera à présent distribué par la société K-Team SA. Doté d'un corps circulaire de 6 centimètres de diamètre pour un poids de 70 grammes, il est équipé de deux roues et de huit capteurs lumineux simples répartis autour de son corps six à l'avant et deux à l'arrière fig. 1. Khepera est relié à un ordinateur par l'intermédiaire d'un câble suspendu au plafond et de contacteurs rotatifs spécialement conçus pour assurer sans rupture son alimentation électrique. L'enregistrement permanent de tous les mouvements du robot et de la structure de ses circuits neuronaux au cours de l'évolution permet d'analyser a posteriori le processus évolutionniste.
Par circuits neuronaux, il faut bien sûr comprendre « réseaux de neurones artificiels ». Ces derniers sont soit matérialisés sous forme de composants électroniques, soit, comme c'est le cas ici, simulés par informatique. Comme dans le monde du vivant, ces circuits sont composés d'un certain nombre de neurones interconnectés de façons diverses. Ce sont du reste ce nombre et la nature des interconnexions qui définissent la structure d'un circuit neuronal. L'analogie ne s'arrête pas là, puisque chaque neurone reçoit des signaux des neurones voisins via la propagation unidirectionnelle des signaux en question dans ses dendrites, et envoie ensuite son propre signal à d'autres neurones, via son unique axone.
Certains neurones sont activateurs - ils émettent un signal positif - tandis que d'autres sont inhibiteurs - ils émettent un signal négatif. Quelle que soit sa nature, ce signal de sortie est construit par comparaison entre la somme de signaux reçus par un neurone, et la valeur seuil qui a été attribuée à ce dernier pour qu'il réponde. Enfin, un « poids » est attribué à chaque point de connexion synapse entre un axone et une dendrite, poids qui selon les cas amplifie ou diminue le signal transitant à cet endroit. Le nombre et le type de neurones valeur seuil, nature du signal engendré, le profil des connexions et le poids attribué à chaque synapse sont codés informatiquement dans ce que l'on appelle le chromosome du robot - seconde analogie avec le monde du vivant. Ce chromosome est une chaîne de bits se succédant en séquences dénommées « gènes », dont chacune représente une propriété du circuit de neurones. Le premier gène, composé, par exemple, de 8 bits, code la présence et la connectivité d'un neurone donné dans le circuit. Le second gène, composé, par exemple, de 20 bits, code le poids attribué à chacune des connexions synaptiques au niveau des dendrites de ce même neurone. C'est l'ordinateur lui-même qui produit, de façon aléatoire, une première population de ces chromosomes artificiels. Chacun d'eux sert ensuite à programmer le réseau de neurones qui est relié, en entrée, aux capteurs sensoriels du robot, et en sortie, à ses roues, de façon à en gérer la vitesse de rotation. Chaque configuration est ensuite testée sur le robot pendant quelques minutes, au cours desquelles l'ordinateur évalue ses performances.
Sélection et reproduction. Dans une première expérience2, nous avons voulu développer la capacité du robot à avancer en ligne droite et à éviter les obstacles. Nous avons donc demandé à l'ordinateur de sélectionner, pour reproduction, les individus dont les roues tournaient à peu près dans la même direction mouvement en ligne droite et dont les capteurs étaient peu activés ce qui reflète l'éloignement du robot par rapport aux obstacles. Ces paramètres sont du reste les seules données injectées par la main humaine : tout le processus ultérieur est autogéré par un algorithme. Après avoir testé le chromosome de chaque individu de la population initiale sur un robot physique, les chromosomes les plus performants sont sélectionnés, puis reproduits de façon à obtenir une population de même taille que la population initiale. Ces copies sont alors, au hasard, agencées par paires : le chromosome de l'individu 8 est par exemple apparié au chromosome de l'individu 67. Un point est aléatoirement fixé le long de ces deux chromosomes, autour duquel ont lieu des échanges de séquence, sorte d'équivalent des mutations par recombinaison du monde vivant. De plus, la valeur des bits de chaque chromosome est basculée de 0 à 1 ou inversement suivant une probabilité très faible, créant ainsi des mutations ponctuelles. On obtient alors une nouvelle génération de chromosomes, à son tour testée et reproduite plusieurs fois fig. 2.
Premiers cas d'adaptation. Au bout de 50 générations ce qui correspondait à environ deux jours d'activité en continu, nous avons observé un robot capable de faire le tour complet du labyrinthe-test sans jamais heurter un obstacle. Le circuit obtenu par ce processus d'évolution s'est révélé être relativement simple, mais malgré tout plus complexe que les circuits conçus à la main pour accomplir des tâches similai-res : il mettait en effet à profit des connexions non linéaires entre les neurones moteurs pour empêcher le robot de se retrouver bloqué dans les coins. De plus, ce Khepera parfaitement circulaire comme tous ses confrères se déplaçait toujours dans la direction correspondant au plus grand nombre de capteurs. Pourtant, les premières générations étaient capables de se déplacer dans les deux sens. Mais les individus roulant avec la majeure partie des capteurs à l'arrière ont eu tendance à rester bloqués dans des coins parce qu'ils ne les percevaient pas bien : ils ont donc disparu de la population. Ce résultat a représenté un premier cas d'adaptation d'un réseau de neurones artificiels à la morphologie d'un robot dans un environnement donné.
Etait-il possible, par la voie de l'évolution, de développer des aptitudes cognitives plus complexes en exposant simplement les robots à des environnements plus stimulants ? Pour tenter de répondre à cette question, nous avons mis Khepera dans une enceinte où un chargeur de batterie est placé dans un coin, sous une source lumineuse2 ; nous l'avons ensuite laissé évoluer jusqu'à déchargement de ses batteries. Pour accélérer l'obtention des résultats du processus évolutif, nous avons procédé par simulation tant des batteries et de leur durée de charge seulement 20 secondes, que du chargeur, figuré quant à lui par une zone peinte en noir. Lorsque le robot y passait, ses batteries se rechargeaient automatiquement. Le critère d'adaptation était le même que dans l'expérience de navigation en ligne droite : rester en mouvement le plus possible tout en évitant les obstacles. Les robots qui parvenaient à trouver le chargeur de batterie vivaient plus longtemps et accumulaient donc davantage de capacités adaptatives. Au départ, la « rencontre » avec le chargeur de batterie découlait du hasard. Mais au bout de 240 générations, soit une semaine d'activité en continu, nous avons trouvé un robot capable de rejoindre le poste de charge deux secondes seulement avant le déchargement complet de ses batteries, puis de retourner immédiatement vers la partie centrale de l'enceinte, éloignée des parois. En analysant l'activité du circuit neuronal de ce robot lors de ses déplacements, nous avons observé que l'un de ses neurones, et un seul, présentait une caractéristique très particulière : son activation dépendait de la position et de l'orientation du robot dans l'environnement. Il ne dépendait pas, en revanche, du niveau de charge de la batterie. Autrement dit, ce neurone codait une représentation spatiale de l'environnement ce que les psychologues appellent parfois une « carte cognitive », tout comme certains neurones découverts par les neurophysiologistes dans le cerveau des rats qui explorent leur milieu. Dans un cas comme dans l'autre, il est tout aussi difficile d'expliquer pourquoi une telle évolution a eu lieu...
Encouragés par ces expériences, nous avons décidé de rendre l'environnement encore plus complexe en faisant évoluer simultanément deux robots en compétition l'un avec l'autre. Le groupe du Sussex avait déjà commencé à étudier, en simulation, la coévolution de prédateurs et de proies afin de voir s'il apparaissait dans les deux espèces des comportements de plus en plus complexes. Il avait ainsi montré que cette coévolution de deux populations en compétition modifie massivement le processus d'évolution, mais n'avait pu observer de résultats vraiment marquants quant au stade évolutif final. De notre côté, nous avons choisi de travailler en grandeur nature sur des robots morphologiquement différents3 : le robot prédateur est doté d'un champ visuel de 36 degrés et le robot proie, s'il est seulement muni de capteurs simples capables de déceler un objet distant de 2 centimètres, peut se déplacer deux fois plus vite que le prédateur. Ces robots sont mis à « coévoluer » dans une enceinte carrée, chaque paire proie-prédateur se déplaçant librement pendant deux minutes ou moins si le prédateur parvient à atteindre son but, le critère de sélection étant le délai précédant la collision fig. 1. Les résultats sont très surprenants. Au bout de 20 générations, le prédateur a acquis la capacité de rechercher la proie et de la poursuivre pendant que celle-ci s'échappe en se déplaçant dans toute l'enceinte. Cependant, comme la proie est plus rapide que lui, cette stratégie n'est pas toujours payante. Après 25 générations supplémentaires, il repère la proie à distance, puis finit par l'attaquer en anticipant sur sa trajectoire. Dès lors, la proie se met à se déplacer si vite le long des parois que le prédateur la manque souvent et va s'écraser sur une paroi. Encore 25 générations plus tard, le prédateur a mis au point la « stratégie de l'araignée ». Il se déplace lentement jusqu'à une paroi et attend la proie, qui bouge trop vite pour déceler à temps le prédateur et donc pour l'éviter !
Cependant, lorsque nous avons laissé coévoluer les deux espèces de robots encore plus longtemps, nous avons constaté qu'elles redécouvraient de vieilles stratégies qui se révélaient efficaces contre celles utilisées au même moment par l'opposant. Ce constat n'est pas surprenant : étant donné la simplicité de l'environnement, le nombre des stratégies possibles pour les deux espèces de robots est en effet limité. Même dans la nature, on observe que des hôtes et des parasites évoluant ensemble par ex-emple, des plantes et des insectes recyclent au fil des générations de vieilles stratégies. Stefano Nolfi, qui a travaillé avec nous sur ces expériences, a remarqué qu'en rendant l'environnement plus complexe par exemple, en ajoutant des objets dans l'enceinte, la diversité des stratégies mises au point par les robots était beaucoup plus grande et qu'il fallait plus longtemps avant que les deux espèces en reviennent à des stratégies anciennes. Des équipes de plus en plus nombreuses travaillent aujourd'hui sur les systèmes de coévolution, et je pense que c'est une voie très prometteuse d'une part pour développer l'intelligence du comportement chez les robots et d'autre part pour comprendre comment les espèces biologiques ont évolué jusqu'à leur stade actuel ou ont disparu au cours de l'histoire de la Terre.
Autres supports d'évolution. Dans les expériences décrites jusqu'ici, le processus d'évolution s'exerçait sur les caractéristiques du logiciel de commande du robot. Mais de fait, on peut envisager d'appliquer aux circuits électroniques eux-mêmes le processus évolutionniste permettant d'obtenir des comportements intéressants. Malheureusement, les électroniciens ont plutôt tendance à éviter les circuits trop complexes, fortement non linéaires et au comportement difficilement prévisible, alors que c'est justement de ce type de circuits dont une machine capable de comportements autonomes aurait sans doute besoin !
A l'université du Sussex, Adrian Thompson a développé des systèmes affranchis des contraintes usuelles de structure4. Il a utilisé un nouveau type de circuit électronique, le FPGA Field Programmable Gate Array, dont l'architecture des connexions internes peut être entièrement modifiée en quelques nanosecondes, en jouant sur le voltage traversant le circuit. La configuration d'un FPGA étant une chaîne binaire de 0 et de 1, A. Thompson a considéré cette chaîne comme un chromosome et l'a fait évoluer pour diverses applications, telles la discrimination des sons et même la commande de robots. Les circuits obtenus grâce à ce processus d'évolution demandent cent fois moins de composants que les circuits électroniques classiques conçus pour des tâches similaires, et font intervenir de nouveaux types de connexions. De plus, ces circuits sont sensibles à certains paramètres environnementaux tels que la température. Cette caractéristique, défavorable en électronique classique, constitue par contre un atout dans une optique évolutionniste, puisque cette sensibilité est une caractéristique de tous les organismes vivants. Le domaine de l'électronique évolutionniste était né et plusieurs chercheurs à travers le monde utilisent aujourd'hui l'évolution artificielle pour découvrir de nouveaux types de circuits, ou laissent les circuits évoluer vers de nouvelles conditions de fonctionnement.
Nous avons, jusqu'à présent, essentiellement traité de l'évolution du « système nerveux » des robots. Or, dans la nature, la forme du corps et la configuration sensori-motrice sont, elles aussi, soumises à évolution. Est-il possible que la répartition des capteurs d'un robot s'adapte à un circuit neuronal fixe et relativement simple ? L'équipe de Rolf Pfeifer a créé, au laboratoire d'intelligence artificielle de Zurich, le robot Eyebot dont l'oeil peut changer de configuration5. Le système visuel d'Eyebot, analogue dans son principe à celui de la mouche, est composé de plusieurs photorécepteurs directionnels dont l'angle peut être modifié par des moteurs fig. 3. Une fois Eyebot implémenté avec un circuit neuronal fixe et simple, les auteurs ont observé l'évolution de la position relative de ses capteurs dans une situation où le critère de sélection était de se maintenir à une distance donnée d'un obstacle. Les résultats expérimentaux ont confirmé les prédictions théoriques : l'évolution a conduit à une distribution des photorécepteurs plus dense vers l'avant du robot que sur les côtés. Les enseignements de cette expérience sont très importants : d'une part, la forme du corps joue un rôle majeur dans le comportement d'un système autonome, et il faut lui permettre d'évoluer en même temps que d'autres caractéristique du système ; d'autre part, une morphologie adaptée à l'environnement et aux comportements du robot permet d'alléger la complexité des calculs.
L'idée de faire évoluer simultanément la morphologie et les circuits neuronaux d'un robot autonome avait, elle, déjà été explorée en 1994 par Karl Sims, par simulation. Il n'y a pas longtemps qu'elle a été concrétisée sous forme matérielle6. Jordan Pollack et son équipe de Brandeis University ont fait coévoluer la morphologie et le circuit de neurones moteurs de robots composés de tiges de longueur variable, dont le critère d'adaptation est d'avancer le plus loin possible. Les chromosomes de ces robots contiennent les paramètres de commande d'une « imprimante » en trois dimensions, laquelle fabrique des corps de robots à partir d'un matériau thermoplastique. Ces derniers sont alors équipés de moteurs, et on les laisse évoluer librement tout en mesurant leur taux d'adaptation. L'évolution artificielle a produit des formes extérieures souvent innovantes qui évoquent des morphologies biologiques comme celles de poissons fig. 3.
Conditions d'amélioration. Quels que soient les progrès décrits ci-dessus, ils ne valent pourtant que dans un environnement assez simple. Si ce dernier ou les aptitudes requises pour y évoluer sont trop complexes, de telle sorte que tous les individus de la première génération ont une adaptation nulle, l'évolution ne peut pas sélectionner les bons éléments et donc accomplir le moindre progrès. L'une des solutions possibles consisterait à travailler avec des environnements et des critères d'adaptation initialement simples, mais se complexifiant au fil du temps. Cette solution suppose toutefois de consacrer davantage d'efforts à la mise au point de méthodes incrémentales d'évolution par étapes, méthodes qui seraient, dans une certaine mesure, capables de préserver les premières solutions découvertes et de bâtir à partir d'elles. Cela implique que nous sachions déterminer les paramètres initiaux convenables et le codage génétique à partir duquel l'évolution artificielle pourra produire des structures plus complexes. Un autre défi est, on l'a entrevu, celui de la fabrication matérielle. Malgré les résultats encourageants obtenus dans le domaine de l'évolution des circuits électroniques, nous sommes nombreux à considérer qu'il faut repenser radicalement le type de composants sur lesquels faire agir l'évolution artificielle. Dans cette optique, un renforcement des efforts de développement de circuits auto-assembleurs, qui imposent moins de contraintes au système en évolution, pourrait accélérer les progrès de la robotique évolutionniste.
1 I. Harvey et al., Robotics and Autonomous Systems, 20 2-4, 205, 1997.
2 F. Mondada et D. Floreano, Robotics and Autonomous Systems, 16, 183, 1995.
3 S. Nolfi, S. et D. Floreano, Artificial Life, 4 4, 311, 1998.
4 A. Thompson, « Hardware evolution : automatic design of electronic circuits in reconfigurable hardware by artificial evolution », Distinguished Dissertations Series, ISBN 3-540-76253-1, Springer-Verlag, 1998.
5 L. Lichtensteiger et P. Eggenberger, « Evolving the morphology of a compound eye on a robot », Proceedings of the Third European Workshop on Advanced Mobile Robots Eurobot '99, Cat. No.99EX355. IEEE, Piscataway, NJ, USA, p.127-134, 1999.
6 H. Lipson et J. B. Pollack, Nature, 406, 974, 2000.
NOTES
Ce texte a été traduit par Philippe Brenier.
Les expériences menées à l'EPFL ont été rendues possibles grâce à la collaboration de Francesco Mondada, Stefano Nolfi, Joseba Urzelai, Jean-Daniel Nicoud et André Guignard. L'auteur exprime sa reconnaissance à la Fondation nationale suisse pour la science pour le soutien permanent qu'elle a apporté au projet.
A L'ORIGINE DE LA ROBOTIQUE ÉVOLUTIONNISTE
En 1984, Valentino Braitenberg imagine une expérience qui, à l'époque, reste fictive. Plusieurs robots simples, montés sur roues et équipés de différents capteurs connectés par des fils électriques et autres circuits électroniques aux moteurs commandant les roues, sont posés sur une table. Ils vont bien sûr avoir des comportements divers aller tout droit, s'approcher de sources de lumière, s'arrêter un moment, puis s'éloigner rapidement, etc.. La tâche de l'ingénieur consistera à prélever de temps à autre l'un des robots, à le recopier et à poser la copie sur la table ; il devra aussi remplacer par l'une de ces copies les robots tombés par terre, pour que le nombre de robots en présence demeure constant. Or, lors de la construction de la copie, il se produira inévitablement de petites erreurs, comme l'inversion de la polarité d'une connexion électrique ou la pose d'une résistance différente. Certaines de ces erreurs induiront des comportements nouveaux grâce auxquels un robot restera plus longtemps sur la table. Selon le principe de « sélection naturelle », les copies modifiées qui parviendront à rester longtemps sur la table auront un grand nombre de descendants, alors que celles qui tomberont disparaîtront pour toujours de la population.
SAVOIR
:
-S. Nolfi et D. Floreano, Evolutionary Robotics. The Biology, Intelligence and Technology of Self-Organizing Machines, MIT Press, 2000.
-V. Braitenberg, Vehicles. Experiments in Synthetic Psychology, MIT Press, 1984.
-R. Pfeifer et C. Scheier, Understanding Intelligence, MIT Press, 1999.
DOCUMENT la recherche.fr LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante |
|
|
|
|
|
|