|
|
|
|
|
|
LE NOMBRE PI |
|
|
|
|
|
Le nombre Pi
Pi est un nombre qui a fasciné tant de savants depuis l'antiquité. Si ce nombre remporte un tel succès, c'est d'abord parce qu'il recèle de propriétés passionnantes mais surtout par sa nature qui en fait un nombre d'exception.
Pi est un nombre irrationnel (c'est à dire qu'il s'écrit avec un nombre infini de décimales sans suite logique).
Les premières sont :
3,14159265358979323846264338327950288419716939937510582.
Dans la pratique, on utilise 3,14 mais il est souvent aisé de retenir 22 septièmes ou racine de 10 pour valeur approchée de Pi.
Mais l'irrationalité de Pi est encore plus étonnante que celle de

par exemple, puisque pour ce dernier, on sait au moins qu'il est solution de l'équation x2 = 2 (Quel nombre faut-il multiplier par lui-même pour trouver 2 ?). Alors que pour Pi, il n'existe pas une telle équation. Le mathématicien allemand Carl Louis Ferdinand von Lindemann (1852 - 1939) l'a démontré et qualifiera ce nombre de transcendant. (voir "La classification des nombres")
Les décimales de Pi ont été la proie des savants depuis près de 4000 ans. Une des plus anciennes approximations de Pi se trouve sur le célèbre papyrus Rhind copié par le scribe Ahmes.
Citons de lui : " L'aire du cercle de diamètre 9 coudées est celle du carré de côté 8 coudées. "
Ce qui revient à prendre pour Pi la valeur (16/9)2 soit environ 3,16. Nous sommes en 1800 avant J.C.
Chez les babyloniens, on a retrouvé à Suse (Mésopotamie) des tablettes en écriture cunéiforme qui présentent des calculs d'aires du disque menant à prendre pour Pi la valeur 3 + 1/8 = 3,125.
Cette approximation sera reprise en Inde dans les Sulvasutras (livres de règles hindoues) entre 400 et 200 avant notre ère.
Au IIIeme siècle avant J.C., dans son ouvrage "De la mesure du cercle", Archimède de Syracuse (-287 ; -212) commence par établir que le rapport de la surface d'un disque au carré de son rayon est égal au rapport de son périmètre à son diamètre.
Archimède s’inspire ensuite de la méthode d’exhaustion due à Eudoxe de Cnide (-408 ; -355) qui consiste à encadrer un cercle de rayon 1 par des polygones réguliers dont il sait calculer le périmètre de façon précise. Il applique cette méthode en prenant des polygones à 96 côtés et obtient une valeur approchée de la circonférence pour en déduire un encadrement de Pi
En Inde, le plus ancien document connu, le Siddhanta, datant de 380, nous donne comme approximation 3 + 177/1250 = 3,1416 qui sera égalée au VIème siècle par Aryabhata l'Ancien (476 ; 550).
En Chine, Liu Hui utilise, en 263 de notre ère, la méthode d'Archimède avec des polygones à 192 côtés puis 3072 côtés pour trouver une approximation de Pi au cent-millième.
Au Veme siècle, les calculs sont simplifiés grace au système décimal. Tsu Chung Chih (430 ; 501) trouve alors une approximation au millionième près (3,141592) : la fraction 355/113 (facile à retenir en lisant de bas en haut : "11,33,55").
Plus tard les arabes poussent plus loin encore les approximations de Pi. L'astronome perse de Samarkand Jemshid al Kashi (1380 ; 1429) applique lui aussi la méthode d'Archimède pour calculer une valeur approchée à 14 décimales exactes.
En occident, il faut attendre le XVIème siècle pour trouver les premières avancées sérieuses sur le sujet bien que Claude Ptolémée (90? ; 160?) et Léonard de Pise dit Fibonacci (1180 ; 1250) aient proposé des approximations intéressantes de Pi.
En 1593, François Viete (1540 ; 1603) obtient une approximation à 9 décimales grace à des méthodes analytiques novatrices mais peu efficaces où Pi se calcule par des produits infinis dont chaque facteur se déduit du précedent.
En 1609, l'allemand Ludolph van Ceulen (1540 ; 1610) reprend la méthode d'Archimède avec des polygones à 60 x 233 côtés !!! Il calcule ainsi Pi avec 34 décimales exactes.
A partir du XVII ème siècle, les recherches vont s'accélérer et les records se succéder. C'est le temps de l'analyse et des mathématiciens tels que John Wallis (1616 ; 1703) , Isaac Newton (1642 ; 1727), Gottfried Wilhelm von Leibniz (1646 ; 1716), John Machin (1680 ; 1751) ou James Stirling (1692 ; 1770) concoivent des formules de calculs infinis de plus en plus performantes.
La notation
, 16e lettre de l'alphabet grec, n'apparaît qu'en 1647. Elle est due à l'anglais William Oughtred (1574 ; 1660) qui l'utilise pour nommer le périmètre d'un cercle. Il s'est inspiré d'Archimède qui désignait la longueur de la circonférence par le mot "περιμετροξ" (périmètre).
Toutefois, il faudra attendre Leonhard Euler (1707 ; 1783) et le succès de son ouvrage "Introduction à l'Analyse infinitésimale" (1748) pour que la lettre π s'impose définitivement comme notation du nombre Pi.
Signalons encore un mathématicien remarquable, l'indien Srinivasa Ramanujan (1887 ; 1920). Ce jeune génie des nombres est doué d'une intuition fabuleuse et possède une aptitiude rare au calcul. Il fait de nombreuses découvertes mais la plupart restent sans démonstration. Ramanujan propose des formules permettant d'approcher π. Leur efficacité fait que certaines sont encore utilisées pour la programmation des ordinateurs calculant les décimales de π.
Voici une des belles formules découverte en 1910 par Ramanujan qui permet de calculer 8 décimales de π à chaque itération :
LIEN
En 1994, David Chudnovsky et les frères Gregory dépassent Ramanujan en proposant une formule fournissant 14 décimales à chaque itération :

Le 16 août 2021, une équipe de recherche suisse de l'Université des Sciences appliquées des Grisons, établit le nouveau record de 62 800 milliards de décimales de π.
Vous pouvez également télécharger des décimales de

en cliquant sur les liens suivants :
* 10 000 décimales de Pi
* 100 000 décimales de Pi
* 1 000 000 décimales de Pi (à télécharger)
Pour ceux qui en veulent encore plus, il est possible de télécharger un petit logiciel Pifast (en anglais) qui vous propose de calculer, à l'aide différentes méthodes, le nombre de décimales que vous souhaitez. Une fois le calcul terminé, les décimales sont automatiquement rangées dans un fichier à part.
Si vous êtes plus "lettres" que "nombres", il existe un petit poème qui permet de mémoriser les premières décimales de Pi.
On peut aussi trouver sur internet le club des personnes connaissant par coeur plus de 1000 décimales de Pi : The 1000-club. Actuellement, le record est détenu par un japonais, Hiroyuki Goto, qui connaît 42195 décimales. Vous vous demandez quel est l'intérêt d'accomplir de telles prouesses ... mais pour rien bien sûr ... quand on aime, on "compte" !
DOCUMENT maths-et-tiques.fr |
|
|
|
|
|
|
INTELLIGENCE ARTIFICIELLE |
|
|
|
|
|
intelligence artificielle
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.
Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.
Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.
Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.
Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.
Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.
Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.
Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.
Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.
Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.
Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.
Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.
La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.
Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.
Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.
Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).
Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.
Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.
Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.
Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !
Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.
Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.
L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.
L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.
Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.
DOCUMENT larousse.fr LIEN |
|
|
|
|
|
|
Les images sortent du flou |
|
|
|
|
|
Les images sortent du flou
Bernard Chalmond dans mensuel 380
daté novembre 2004 -
La myopie - de notre oeil ou d'un instrument de mesure -rend floues les images que nous percevons, nous empêche de déceler les détails. Aujourd'hui, par des traitements numériques, des algorithmes mathématiques permettent de corriger ce défaut.
Depuis les premières lunettes astronomiques, au XVIe siècle, et les premiers microscopes qui suivirent, des instruments de plus en plus perfectionnés ont permis de repousser les limites de la vision vers l'infiniment grand et l'infiniment petit. Sans cesse, on a tenté d'aller au-delà des limites atteintes par le perfectionnement des instruments utilisés ou l'invention de nouveaux.
Aujourd'hui, les limites de nombreux instruments sont encore repoussées sans qu'il y ait à modifier l'instrument lui-même. On procède pour cela à des post-traitements numériques des images avec des algorithmes mathématiques. Lorsque le traitement vise à remédier aux effets de flou sur les images, on parle de déconvolution. Celle-ci s'applique aussi bien à la lumière visible qu'aux rayons X, aux ultrasons, à l'infrarouge, etc.
Dégradation des signaux
Le principe de la déconvolution repose sur un postulat: «Toute image Y délivrée par l'instrument est une version floue d'une image idéale X, celle qui serait obtenue en l'absence de flou». La déconvolution elle-même consiste à inverser le processus de dégradation, c'est-à-dire à estimer X à partir de Y, et cela de façon numérique.
Le flou résulte d'un processus complexe de dégradation des signaux avant qu'ils nous parviennent en sortie de l'instrument. Ce processus comprend d'une part la dégradation due à l'instrument lui-même et d'autre part celles que subissent les signaux au cours de leur parcours. Ainsi, l'image délivrée par un appareil photographique pourra être floue à la fois du fait des conditions météorologiques et de celui du mauvais réglage de l'optique. De même, les images astronomiques prises de la Terre apparaissent floues à cause de la turbulence de l'atmosphère et de la diffraction lumineuse des lentilles.
Fonction d'étalement
Le phénomène de flou lié à un instrument est caractérisé par la «fonction d'étalement», dite PSF Point Spread Function. Celle-ci correspond à l'image Y délivrée par l'instrument pour un objet réduit à un seul point lumineux. Au lieu de donner une image réduite à ce point lumineux, c'est-à-dire l'image idéale X, l'instrument forme une image Y contenant une tache lumineuse centrée sur ce point et plus ou moins étalée suivant l'importance du flou instrumental. Ce phénomène est semblable à la diffusion de la chaleur: une chaleur émise en un point est, après un laps de temps, diffusée autour du point émetteur. La carte des températures est l'équivalent de la PSF.
Cette fonction est notée Hp, q où p désigne les coordonnées spatiales du point émetteur et q les coordonnées de tout autre point à distance de p. Souvent, pour simplifier, cette fonction est supposée être la même quelle que soit la position p et ne dépendre que de la distance entre p et q. La fonction PSF caractérise une limite intrinsèque de l'instrument; elle permet de préciser sa limite de résolution. En effet, deux points lumineux trop proches l'un de l'autre donnent lieu à deux taches lumineuses qui vont se mélanger dans l'image résultante Y. Et la présence des deux points présents dans l'image X sera ainsi masquée.
Différents flous
Suivant les domaines, la PSF peut représenter différentes entités physiques. En microscopie, elle représente essentiellement le flou lié à l'instrument seul et qui est dû à la diffraction. Dans d'autres situations, il faut également intégrer dans la PSF le flou relatif à l'environnement — qui n'est plus à proprement parler un flou.
Une façon de se représenter les choses est de dire que l'objet observé émet un ensemble de signaux qui créent une image idéale X avant que celle-ci ne soit transformée par l'instrument en une image Y. Ainsi, chaque point-image de position p, disons Xp, donne lieu au niveau du récepteur à un étalement défini par Xp*H. Xp est la valeur du signal reçu en p, par exemple l'intensité lumineuse. De proche en proche, ces étalements se cumulent pour constituer l'image floue. Avec ce processus, chaque point-image de Y, disons Yq, est la moyenne pondérée des points-image de X, la pondération étant donnée par la PSF. Cela se traduit par la formulation intégrale:
Yq = ?Xp*Hp, q*dp
On dit alors que Y est la convolution de X via H, opération notée ici Y = H‡X.
Ajouter une composantede bruit
La question qui nous intéresse maintenant porte sur le calcul de l'image idéale X à partir de l'image observée Y. Mathématiquement, cela revient à résoudre l'équation Y = H‡X vis-à-vis de l'inconnue X. Cette opération consti-tue la déconvolution. La situation est en réalité plus délicate, car la dégradation que subit X ne se résume pas à un flou. Il existe différentes sources de dégradations, et, parmi elles, le bruit doit absolument être pris en compte au risque de faire échouer la déconvolution. Le bruit peut être assimilé à des erreurs de mesure aléatoires sur les points-image; en microscopie, ce bruit est inhérent au signal, qui est composé de photons. De manière schématique, une image de bruit ressemble à notre écran de télévision quand les émissions sont interrompues et que la «neige» apparaît.
À l'équation de convolution il faut donc ajouter une composante de bruit notée B, conduisant au modèle Y = H‡X + B. Résoudre cette équation en X est une chose délicate car la solution n'est pas unique, et toute solution est «instable» une légère modification de Y entraîne un grand changement dans la sélection de l'image restaurée X lors de l'optimisation. De nombreuses méthodes, plus ou moins voisines, ont été développées. Pour contourner ces difficultés, on a coutume d'introduire des -contraintes sur l'image X afin d'obtenir une solution unique et stable [1], par exemple, imposer aux points-image de X d'être tous positifs. Ces algorithmes de déconvolution calculent alors l'image X qui minimise l'écart entre Y et H‡X tout en respectant la -contrainte choisie.
Voyons une application de la déconvolution à la biologie. Le marquage d'échantillons biologiques par un émetteur de fluorescence apporte des informations qualitatives et quantitatives sur les propriétés physiologiques et biochimiques de l'échantillon. Cependant, l'extraction visuelle de ces informations est délicate car l'image microscopique est une convolution d'une réalité tridimensionnelle, celle de la région de l'échantillon située autour du plan focal.
Cartographie tridimensionnelle
Ainsi, le signal de fluorescence que représente chaque point de l'image numérique est une information dégradée puisqu'il intègre non seulement le signal idéal en provenance du point focal sous-jacent, mais aussi les signaux en provenance de tous les points qui sont au-dessus et au-dessous du plan focal. Les techniques de déconvolution peuvent améliorer sensiblement les images de microscopie conventionnelle, et même celles des microscopes les plus sophistiqués. Cependant, pour que ces techniques puissent révéler des informations cachées, il est nécessaire d'utiliser une PSF caractéristique du système instrumental, au risque sinon de dégrader l'image au lieu de l'amé-liorer. Des logiciels de restauration d'images microscopiques permettent la cartographie tridimensionnelle de l'étalement de la lumière par rapport à une source ponctuelle, et à partir de là, l'estimation de la PSF. Cela fonctionne bien pour des échantillons relativement minces. La déconvolution des images devient en revanche techniquement difficile pour des cellules vivantes: elle fait aujourd'hui l'objet d'une recherche active. zz
DOCUMENT larecherche.fr LIEN |
|
|
|
|
|
|
Claude Shannon, le père du binaire |
|
|
|
|
|
Pionnier de la théorie de l’information, Claude Shannon aurait eu 100 ans cette année. Parmi les nombreux hommages émaillant cet anniversaire, un site interactif du CNRS relate son parcours.
L’année 2016 marque le centenaire de la naissance de Claude Shannon, ingénieur et mathématicien américain. Atypique et méconnu du grand public, il est le premier à s’intéresser à la question de l’information et de sa transmission. Un siècle plus tard, le père du binaire est à l’honneur : dans un dossier multimédia en ligne1, le CNRS retrace le parcours de ce scientifique original à travers des photos, ses travaux, ses improbables passions et l’héritage considérable qu’il nous a légué.
Né en 1916 à Petoskey, dans le Michigan, diplômé en ingénierie et mathématiques, il a partagé sa carrière entre le Massachusetts Institute of Technology (MIT) et les Laboratoires Bell. C’est en s’inspirant des travaux du mathématicien britannique Georges Boole que, dès 1937, Shannon comprend que le monde peut se laisser décrire avec des 0 et des 1. Le calcul booléen établit deux règles de logique : le 1 vaut pour une proposition vraie et le 0 pour une proposition fausse. Shannon fait l’analogie avec le flux du courant dans les circuits électriques. Le 1 pour un circuit ouvert : le courant passe. Le 0 pour un circuit fermé : le courant ne passe pas. En plein développement des télécommunications et de l’informatique, ses travaux vont connaître un retentissement inédit.
De la cryptographie à la théorie de l’information
Pendant la Seconde Guerre mondiale, Claude Shannon est employé dans le service de cryptographie de l’armée américaine. En 1948, il publie un article dans The Bell Technical Journal, « Une théorie mathématique de l’information ».
Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26.
Selon lui, « le problème fondamental de la communication est de reproduire exactement ou approximativement un message donné d’un point à un autre ». Un message, c’est une lettre, un nombre, un texte, une image, une vidéo. Traduite en langage binaire, l’information devient alors quantifiable et probabiliste, indifférente à la sémantique.
« Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26 », explique Claude Berrou, professeur au département d’électronique de Télécom Bretagne, l’un des scientifiques qui ont participé au dossier.
L’objectif est de transmettre le maximum d’information de la façon la plus efficace et la moins onéreuse possible. Claude Shannon propose une solution : ne conserver que l’information pertinente, c’est-à-dire la quantité d’information nécessaire pour que le récepteur puisse déterminer, sans ambiguïté, ce que la source a transmis. Comme dire la même chose, avec moins de mots.
Le XXIe siècle, l’avènement de Claude Shannon
L’acquisition, le traitement, le stockage et la transmission des données sous la forme numérique reposent sur la théorie de Claude Shannon : cette conversion depuis le monde analogique vers le monde numérique a façonné le début du XXIe siècle.
Fibres optiques, réseaux mobile, Wifi, IRM ou 3D sont des innovations initées par Shannon.
La transmission de ces données sur des fibres optiques, des réseaux mobiles ou des réseaux Wifi, mais aussi l’imagerie par résonance magnétique (IRM), ou encore l’imagerie 3D sont des innovations scientifiques récentes mais qui ont été initiées par Shannon.
L’information est au cœur de nos systèmes artificiels. « C’est arrivé parce que personne d’autre n’était familier avec ces deux champs, l’ingénierie et les mathématiques, en même temps », a dit Claude Shannon.
Il s’est éteint en 2001. Souffrant de la maladie d’Alzheimer, il a passé les dernières années de sa vie sans pouvoir prendre la mesure de l’immense patrimoine scientifique qu’il laisse derrière lui. Un patrimoine à découvrir en détail, donc, dans le dossier en ligne "Claude Shannon, le monde en binaire".
DOCUMENT CNRS LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 ] - Suivante |
|
|
|
|
|
|