initiation musicale toulon   INTELLIGENCE ARTIFICIELLE
  initiation musicale

 

 

 

 

 

 

intelligence artificielle

Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.

Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.

Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.
Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.


Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).

Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.
Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon   Les images sortent du flou
 

 

 

 

 

 

 

Les images sortent du flou
Bernard Chalmond dans mensuel 380
daté novembre 2004 -

La myopie - de notre oeil ou d'un instrument de mesure -rend floues les images que nous percevons, nous empêche de déceler les détails. Aujourd'hui, par des traitements numériques, des algorithmes mathématiques permettent de corriger ce défaut.

Depuis les premières lunettes astronomiques, au XVIe siècle, et les premiers microscopes qui suivirent, des instruments de plus en plus perfectionnés ont permis de repousser les limites de la vision vers l'infiniment grand et l'infiniment petit. Sans cesse, on a tenté d'aller au-delà des limites atteintes par le perfectionnement des instruments utilisés ou l'invention de nouveaux.
Aujourd'hui, les limites de nombreux instruments sont encore repoussées sans qu'il y ait à modifier l'instrument lui-même. On procède pour cela à des post-traitements numériques des images avec des algorithmes mathématiques. Lorsque le traitement vise à remédier aux effets de flou sur les images, on parle de déconvolution. Celle-ci s'applique aussi bien à la lumière visible qu'aux rayons X, aux ultrasons, à l'infrarouge, etc.

Dégradation des signaux
Le principe de la déconvolution repose sur un postulat: «Toute image Y délivrée par l'instrument est une version floue d'une image idéale X, celle qui serait obtenue en l'absence de flou». La déconvolution elle-même consiste à inverser le processus de dégradation, c'est-à-dire à estimer X à partir de Y, et cela de façon numérique.
Le flou résulte d'un processus complexe de dégradation des signaux avant qu'ils nous parviennent en sortie de l'instrument. Ce processus comprend d'une part la dégradation due à l'instrument lui-même et d'autre part celles que subissent les signaux au cours de leur parcours. Ainsi, l'image délivrée par un appareil photographique pourra être floue à la fois du fait des conditions météorologiques et de celui du mauvais réglage de l'optique. De même, les images astronomiques prises de la Terre apparaissent floues à cause de la turbulence de l'atmosphère et de la diffraction lumineuse des lentilles.

Fonction d'étalement
Le phénomène de flou lié à un instrument est caractérisé par la «fonction d'étalement», dite PSF Point Spread Function. Celle-ci correspond à l'image Y délivrée par l'instrument pour un objet réduit à un seul point lumineux. Au lieu de donner une image réduite à ce point lumineux, c'est-à-dire l'image idéale X, l'instrument forme une image Y contenant une tache lumineuse centrée sur ce point et plus ou moins étalée suivant l'importance du flou instrumental. Ce phénomène est semblable à la diffusion de la chaleur: une chaleur émise en un point est, après un laps de temps, diffusée autour du point émetteur. La carte des températures est l'équivalent de la PSF.

Cette fonction est notée Hp, q où p désigne les coordonnées spatiales du point émetteur et q les coordonnées de tout autre point à distance de p. Souvent, pour simplifier, cette fonction est supposée être la même quelle que soit la position p et ne dépendre que de la distance entre p et q. La fonction PSF caractérise une limite intrinsèque de l'instrument; elle permet de préciser sa limite de résolution. En effet, deux points lumineux trop proches l'un de l'autre donnent lieu à deux taches lumineuses qui vont se mélanger dans l'image résultante Y. Et la présence des deux points présents dans l'image X sera ainsi masquée.

Différents flous
Suivant les domaines, la PSF peut représenter différentes entités physiques. En microscopie, elle représente essentiellement le flou lié à l'instrument seul et qui est dû à la diffraction. Dans d'autres situations, il faut également intégrer dans la PSF le flou relatif à l'environnement — qui n'est plus à proprement parler un flou.

Une façon de se représenter les choses est de dire que l'objet observé émet un ensemble de signaux qui créent une image idéale X avant que celle-ci ne soit transformée par l'instrument en une image Y. Ainsi, chaque point-image de position p, disons Xp, donne lieu au niveau du récepteur à un étalement défini par Xp*H. Xp est la valeur du signal reçu en p, par exemple l'intensité lumineuse. De proche en proche, ces étalements se cumulent pour constituer l'image floue. Avec ce processus, chaque point-image de Y, disons Yq, est la moyenne pondérée des points-image de X, la pondération étant donnée par la PSF. Cela se traduit par la formulation intégrale:
Yq = ?Xp*Hp, q*dp
On dit alors que Y est la convolution de X via H, opération notée ici Y = H‡X.

Ajouter une composantede bruit
La question qui nous intéresse maintenant porte sur le calcul de l'image idéale X à partir de l'image observée Y. Mathématiquement, cela revient à résoudre l'équation Y = H‡X vis-à-vis de l'inconnue X. Cette opération consti-tue la déconvolution. La situation est en réalité plus délicate, car la dégradation que subit X ne se résume pas à un flou. Il existe différentes sources de dégradations, et, parmi elles, le bruit doit absolument être pris en compte au risque de faire échouer la déconvolution. Le bruit peut être assimilé à des erreurs de mesure aléatoires sur les points-image; en microscopie, ce bruit est inhérent au signal, qui est composé de photons. De manière schématique, une image de bruit ressemble à notre écran de télévision quand les émissions sont interrompues et que la «neige» apparaît.

À l'équation de convolution il faut donc ajouter une composante de bruit notée B, conduisant au modèle Y = H‡X + B. Résoudre cette équation en X est une chose délicate car la solution n'est pas unique, et toute solution est «instable» une légère modification de Y entraîne un grand changement dans la sélection de l'image restaurée X lors de l'optimisation. De nombreuses méthodes, plus ou moins voisines, ont été développées. Pour contourner ces difficultés, on a coutume d'introduire des -contraintes sur l'image X afin d'obtenir une solution unique et stable [1], par exemple, imposer aux points-image de X d'être tous positifs. Ces algorithmes de déconvolution calculent alors l'image X qui minimise l'écart entre Y et H‡X tout en respectant la -contrainte choisie.
Voyons une application de la déconvolution à la biologie. Le marquage d'échantillons biologiques par un émetteur de fluorescence apporte des informations qualitatives et quantitatives sur les propriétés physiologiques et biochimiques de l'échantillon. Cependant, l'extraction visuelle de ces informations est délicate car l'image microscopique est une convolution d'une réalité tridimensionnelle, celle de la région de l'échantillon située autour du plan focal.

Cartographie tridimensionnelle
Ainsi, le signal de fluorescence que représente chaque point de l'image numérique est une information dégradée puisqu'il intègre non seulement le signal idéal en provenance du point focal sous-jacent, mais aussi les signaux en provenance de tous les points qui sont au-dessus et au-dessous du plan focal. Les techniques de déconvolution peuvent améliorer sensiblement les images de microscopie conventionnelle, et même celles des microscopes les plus sophistiqués. Cependant, pour que ces techniques puissent révéler des informations cachées, il est nécessaire d'utiliser une PSF caractéristique du système instrumental, au risque sinon de dégrader l'image au lieu de l'amé-liorer. Des logiciels de restauration d'images microscopiques permettent la cartographie tridimensionnelle de l'étalement de la lumière par rapport à une source ponctuelle, et à partir de là, l'estimation de la PSF. Cela fonctionne bien pour des échantillons relativement minces. La déconvolution des images devient en revanche techniquement difficile pour des cellules vivantes: elle fait aujourd'hui l'objet d'une recherche active. zz

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
initiation musicale toulon   Claude Shannon, le père du binaire
 

Pionnier de la théorie de l’information, Claude Shannon aurait eu 100 ans cette année. Parmi les nombreux hommages émaillant cet anniversaire, un site interactif du CNRS relate son parcours.
L’année 2016 marque le centenaire de la naissance de Claude Shannon, ingénieur et mathématicien américain. Atypique et méconnu du grand public, il est le premier à s’intéresser à la question de l’information et de sa transmission. Un siècle plus tard, le père du binaire est à l’honneur : dans un dossier multimédia en ligne1, le CNRS retrace le parcours de ce scientifique original à travers des photos, ses travaux, ses improbables passions et l’héritage considérable qu’il nous a légué.
 
Né en 1916 à Petoskey, dans le Michigan, diplômé en ingénierie et mathématiques, il a partagé sa carrière entre le Massachusetts Institute of Technology (MIT) et les Laboratoires Bell. C’est en s’inspirant des travaux du mathématicien britannique Georges Boole que, dès 1937, Shannon comprend que le monde peut se laisser décrire avec des 0 et des 1. Le calcul booléen établit deux règles de logique : le 1 vaut pour une proposition vraie et le 0 pour une proposition fausse. Shannon fait l’analogie avec le flux du courant dans les circuits électriques. Le 1 pour un circuit ouvert : le courant passe. Le 0 pour un circuit fermé : le courant ne passe pas. En plein développement des télécommunications et de l’informatique, ses travaux vont connaître un retentissement inédit.

De la cryptographie à la théorie de l’information

Pendant la Seconde Guerre mondiale, Claude Shannon est employé dans le service de cryptographie de l’armée américaine. En 1948, il publie un article dans The Bell Technical Journal, « Une théorie mathématique de l’information ».

Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26.
Selon lui, « le problème fondamental de la communication est de reproduire exactement ou approximativement un message donné d’un point à un autre ». Un message, c’est une lettre, un nombre, un texte, une image, une vidéo. Traduite en langage binaire, l’information devient alors quantifiable et probabiliste, indifférente à la sémantique.

« Pour Shannon, “amour” et “haine” ne sont que deux mots de cinq lettres prises dans un alphabet qui en compte 26 », explique Claude Berrou, professeur au département d’électronique de Télécom Bretagne, l’un des scientifiques qui ont participé au dossier.

L’objectif est de transmettre le maximum d’information de la façon la plus efficace et la moins onéreuse possible. Claude Shannon propose une solution : ne conserver que l’information pertinente, c’est-à-dire la quantité d’information nécessaire pour que le récepteur puisse déterminer, sans ambiguïté, ce que la source a transmis. Comme dire la même chose, avec moins de mots.

Le XXIe siècle, l’avènement de Claude Shannon

L’acquisition, le traitement, le stockage et la transmission des données sous la forme numérique reposent sur la théorie de Claude Shannon : cette conversion depuis le monde analogique vers le monde numérique a façonné le début du XXIe siècle.

Fibres optiques, réseaux mobile, Wifi, IRM ou 3D sont des innovations initées par Shannon.
La transmission de ces données sur des fibres optiques, des réseaux mobiles ou des réseaux Wifi, mais aussi l’imagerie par résonance magnétique (IRM), ou encore l’imagerie 3D sont des innovations scientifiques récentes mais qui ont été initiées par Shannon.

L’information est au cœur de nos systèmes artificiels. « C’est arrivé parce que personne d’autre n’était familier avec ces deux champs, l’ingénierie et les mathématiques, en même temps », a dit Claude Shannon.

Il s’est éteint en 2001. Souffrant de la maladie d’Alzheimer, il a passé les dernières années de sa vie sans pouvoir prendre la mesure de l’immense patrimoine scientifique qu’il laisse derrière lui. Un patrimoine à découvrir en détail, donc, dans le dossier en ligne "Claude Shannon, le monde en binaire".


 DOCUMENT           CNRS        LIEN

 
 
 
initiation musicale toulon   Des maths et des data pour faciliter le quotidien
 

Des maths et des data pour faciliter le quotidien
Pierre Vandeginste dans mensuel 513
daté juillet-août 2016 - 1581 mots


Mettre la science des données au service de chacun d'entre nous, telle est l'ambition de Snips, jeune entreprise française spécialisée dans l'intelligence artificielle. Comment? En transformant nos mobiles en assistants efficaces et discrets.
Succès tangible de la science des données, l'intelligence artificielle regagne en vigueur depuis qu'elle pratique l'apprentissage profond (deep learning) . Facebook, Google, Apple, Microsoft et Amazon s'arrachent les chercheurs et ingénieurs spécialisés dans cette discipline pour peupler des centres de recherche et développement qui poussent comme des champignons. Mais à côté de ces laboratoires de luxe, on compte quelques jeunes entreprises intrépides. En France, la start-up Snips a été remarquée par la Technology Review du MIT et les investisseurs.

La société est créée en 2012 par Rand Hindi, un jeune chercheur franco-libanais passé par le University College de Londres, et deux autres passionnés de données, Maël Primet et Michael Fester. Dans un premier temps, l'idée est de mettre la science des données au service du quotidien de tout un chacun. L'application phare est alors Tranquilien. Développée pour la SNCF, elle est fondée sur l'analyse d'une grande quantité de données historiques (flux de voyageurs minute par minute) et sur l'information fournie par les usagers via leur smartphone (affluence dans chaque voiture), qui lui permettent de prédire le taux de remplissage, wagon par wagon, des trains de banlieue parisienne. Grâce à quoi l'usager peut choisir la voiture où il aura le plus de chances de trouver une place assise. Dans la même veine, Snips a mis au point une application qui évalue les risques d'accidents de la circulation à San Francisco en fonction du lieu, de l'heure, du trafic, etc., et une autre qui prévoit la disponibilité des places de parking à New York.

Mais en 2014, Rand Hindi se passionne pour un tout autre problème. Nos mobiles, remarque-t-il, nous submergent de notifications (arrivée de courriers sans importance, réactions de connaissances sur les réseaux sociaux...) qui nous perturbent en plein rendez-vous ou nous font perdre du temps alors que nous sommes déjà en retard. Il faut en permanence leur dire toutes sortes de choses qui vont de soi pour nous (oui, je préfère manger japonais à midi ; non, jamais de rendez-vous le mercredi matin).

PRÉDIRE NOS BESOINS

L'entrepreneur décide de mettre le savoir-faire de sa société au service d'une application qui jouerait le rôle d'une couche d'intelligence entre l'utilisateur et son mobile. Une application qui se souviendrait de Jo, du bistro où nous refaisons le monde, du chemin pour y aller après le travail... (oui, il s'agit de Joseph Robert, mais je l'appelle Jo, au « Petit Bar », comme d'habitude, 6 minutes à pied). En juin 2015, il fait un tour de table, réunit 5,6 millions d'euros, ce qui lui permet d'embaucher une belle brochette de « scientifiques de données » (data scientists) . L'effectif est porté à 35 .

Baptisée Snips, du même nom que la société, cette application doit être capable de prédire plus ou moins nos besoins, nos intentions. Pour cela, il faut qu'elle soit sensible aux circonstances dans lesquelles elle intervient : l'utilisateur est-il au travail, chez lui, en train de déjeuner, est-ce qu'il fait beau ou pas, dans combien de temps est son prochain rendez-vous ? Dans le jargon, on parle de sensibilité au contexte (context awareness) .

Par ailleurs, cette application doit apprendre les habitudes de son utilisateur. « Pour que cette intelligence artificielle soit vraiment efficace, assure Rand Hindi, il faut qu'elle comprenne toutes sortes d'aspects de notre vie. » Elle devra donc détecter des régularités, faire des hypothèses, et des propositions en conséquence.

Snips n'est pas la seule application à promettre ce type de relation simplifiée avec nos mobiles. Sur ce terrain, on trouve déjà Siri chez Apple, Cortana chez Microsoft, Alexa chez Amazon, Google Assistant et depuis peu Viv, de la société du même nom, fondée par les créateurs de Siri. Et en plus, tous ces concurrents parlent et obéissent à la voix.

ANALYSE DU LANGAGE NATUREL

Mais Rand Hindi a un argument choc. Dans une période où le public commence à s'inquiéter sérieusement de l'usage que les ténors du Web font de tout ce qu'ils savent sur nous, Snips promet le respect de la vie privée « par construction » (privacy by design) : les données confiées à l'application ne sont traitées et enregistrées que sur le mobile de l'utilisateur, et ne sont envoyées à aucun serveur central.

L'application est disponible depuis mai dernier aux États-Unis. Lors de son installation sur smartphone, elle demande à l'utilisateur l'accès à son calendrier, à ses contacts, à sa boîte mails et en permanence au GPS de son mobile. La localisation de l'utilisateur est un élément essentiel du contexte : Snips veut savoir s'il est au travail, chez lui, en rendez-vous...

Tous ces éléments sont mis en relation. « Tout ce que Snips sait sur l'utilisateur, précise Rand Hindi, est représenté dans un graphe, un réseau de connaissances qui constitue une sorte de mémoire artificielle. » L'application permet tout d'abord de fouiller dans cette mémoire. En tapant « Lille », on fera apparaître un prochain rendez-vous dans cette ville, des contacts locaux, une réservation de train pour s'y rendre... Car Snips détecte dans le mail les confirmations de réservations. À l'approche d'un rendez-vous, Snips proposera d'afficher le trajet et de commander un taxi ou un VTC. Un doigt sur l'une de ces suggestions, et l'application ad hoc est lancée, les paramètres allant de soi sont déjà là.

« Dans l'avenir, Snips analysera de plus en plus d'informations définissant le contexte et les comparera aux habitudes connues de l'utilisateur, explique Maël Primet, cofondateur et directeur de la technologie. Si par exemple il fait beau, un vendredi, sans obligation le soir, alors que des concerts de jazz sont programmés dans des salles appréciées ou proches ou réputées, Snips pourra faire l'hypothèse d'une soirée spectacle et suggérer des réservations. »

Snips intégrera aussi des capacités d'analyse du langage naturel. Avec deux objectifs : l'extraction d'information des textes échangés entre l'utilisateur et ses interlocuteurs (mail, chat, messagerie instantanée...) et le dialogue vocal entre l'utilisateur et l'application.

Le traitement du langage naturel est un domaine où l'on est amené à traiter des volumes de données respectables, notamment pour « entraîner » des réseaux de neurones chargés de capter des informations utiles dans nos échanges. Et ces données prennent la forme de vecteurs de grande taille (représentés par une colonne de nombres), avec de nombreuses composantes. Autrement dit, ces vecteurs évoluent dans des espaces de grande dimension. Ainsi, un type de codage classique des textes est le « sac de mots » (bag of words). Il s'agit d'un vecteur dont chaque composante correspond à un mot précis du dictionnaire. Le sac de mots représentant le sens général d'un texte sera par exemple un vecteur dont les composantes indiquent le nombre d'occurrences de chaque mot dans le texte. De tels vecteurs peuvent ainsi atteindre des dimensions de l'ordre de 100 000 ou plus.

Au sein de Snips, Tristan Deleu est chargé de la recherche sur le langage naturel. « Pour échapper aux inconvénients d'une trop forte dimensionnalité, on utilise des codages plus compacts appelés "word embeddings" , produits par apprentissage profond, explique-t-il. Cette technique représente chaque mot par un vecteur dans un espace de dimension 300 à 500. » Avec une propriété étonnante : les mots proches se retrouvent à proximité les uns des autres dans cet espace. Une étrange arithmétique s'applique dans ce type d'espace. Ainsi, on constate que : « roi - homme + femme = reine ». Une réalisation réputée de ce concept, Word2vec, a été mise au point par une équipe de Google et est disponible en open source (« code source ouvert »).

Une ambition affichée de Snips sera alors d'être capable d'extraire des informations factuelles utiles d'un dialogue entre l'utilisateur et l'un de ses contacts. Par exemple, il devrait pouvoir interpréter un échange qui commencerait ainsi : « Resto chinois ce soir ? - Ou pizza ? - Encore ! - Bon, d'accord », et décider si les intéressés iront au restaurant ou pas, et si oui, dans lequel. Cela permettra de proposer ses services pour trouver une bonne adresse et effectuer une réservation par exemple.

UNE VEILLE CONSTANTE

« L'outil de choix pour ce genre de problème est le réseau de neurones à mémoire, estime Tristan Deleu. Un peu comme le cerveau humain, il dispose d'une mémoire de travail, dans laquelle il peut noter ce qu'il apprend à mesure de l'analyse de la conversation. » Par apprentissage, c'est-à-dire en ingurgitant une énorme quantité d'exemples de conversations, assorties de questions et de réponses, un réseau de ce type devrait in fine être capable d'extraire des informations d'une conversation simple.

« Un autre domaine auquel nous nous intéressons beaucoup est la cryptographie, parce que nous nous interdisons de faire circuler en clair hors du mobile toute information concernant l'utilisateur », précise Joseph Dureau, vice-président chargé de la recherche. Son rôle est d'organiser une veille constante sur les thèmes de recherche qui pourraient servir à moyen terme dans une version ultérieure de Snips. Et il s'en trouve parfois de cocasses.

Ainsi, Joseph Dureau a mené une étude sur la localisation d'un usager circulant en métro (inaccessible au GPS) par le suivi de la pression atmosphérique locale. Car certains mobiles, à partir du Samsung Galaxy Nexus, comportent un baromètre. Or, il se trouve que la pression dans une rame chute dans la phase d'accélération et remonte en arrivant à quai, et ce avec une grande régularité. Il est donc facile de détecter les intervalles entre les stations et leur durée. Cette dernière étant variable, il est possible, par comparaison avec une base de données ad hoc de deviner dans quelle direction va l'utilisateur. Cela après deux stations dans 90 % des cas. La science des données aurait-elle inventé le GPS du métro ?
REPÈRES
- Créée en 2012, la start-up Snips utilise des données pour créer des applications pratiques.

- La première d'entre elles, Tranquilien, permet aux usagers des trains de banlieue de connaître l'espace disponible dans chaque wagon.

- Aujourd'hui, la start-up cherche à détecter nos habitudes et à interpréter le contexte pour rendre notre téléphone mobile prévenant.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 ] - Suivante
 
 
 
Google