|
|
|
|
 |
|
TERRES RARES |
|
|
|
|
|
COMMUNIQUE DE PRESSE
Le 13 octobre 2016
Le projet CYTER : un procédé de recyclage et récupération des terres rares
Le projet CYTER a pour but le développement d’un nouveau procédé simple, efficace, sélectif et de très faible consommation énergétique, pour la récupération et le recyclage des métaux appelés « terres rares ». Ce procédé utilise de nouveaux matériaux facilement régénérables. La SATT Paris-Saclay investit dans le projet CYTER, piloté par l’Université Paris-Sud, le CEA et le CNRS.
Le nouveau procédé développé dans le cadre du projet CYTER (reCYclage des Terres Rares) permet en comparaison avec les procédés d’extraction existants de :
Supprimer la consommation des solvants organiques toxiques en comparaison avec les procédés d’extraction liquide-liquide ;
Réduire de 10 fois la durée des cycles de régénération des matériaux sorbants ;
Réduire de 10 fois le temps opérationnel des procédés d’extraction des métaux (amélioration de la cinétique de réaction) ;
Supprimer les opérations dangereuses (manipulation d’acides ou de bases) lors des étapes de régénération » des matériaux.
Une nouvelle génération de matériaux sorbants solides et un procédé de séparation et d’extraction des terres rares sont la base de cette innovation.
L’investissement accordé au projet CYTER par la SATT Paris-Saclay, participera au succès commercial de cette innovation.
La start-up AJELIS qui valorisera les travaux du projet CYTER, se positionne comme concepteur, fabricant et fournisseur de matériaux innovants pour la capture sélective de métaux en solution, par exemple les terres rares contenues dans certains effluents industriels. La mission d’AJELIS est d’accompagner les industriels dans le traitement de finition de leurs effluents et dans l’extraction de métaux à forte valeur stratégique ou économique, ou alors dans un contexte de dépollution.
AJELIS, présidée par Ekaterina Shilova, s’appuiera sur les travaux du projet qu’elle a mené conjointement avec des chercheurs de l’ICMMO1 et du NIMBE2 :
Vincent Huc (CNRS), porteur et responsable scientifique du projet à l’ICMMO ;
Pascal Viel (CEA), responsable scientifique du projet au NIMBE.
1 ICMMO : Institut de Chimie Moléculaire et des Matériaux d’Orsay (Université Paris-Sud - CNRS)
2 NIMBE : Nanosciences et Innovation pour les Matériaux, la Biomédecine et l'Énergie (CEA - CNRS)
COMMUNIQUE DE PRESSE
Le 13 octobre 2016
Start-up innovante et accompagnée par IncubAlliance, AJELIS a déjà obtenu plusieurs récompenses : elle est lauréate du Concours Mondial de l’Innovation 2030, 17ème au Concours national d’aide à la création d’entreprises de technologies innovantes (i-LAB) en 2015.
« L’accompagnement de la SATT Paris-Saclay permet de transformer ce qui n’est aujourd’hui qu’un projet en un réel plan d’action construit et opérationnel pour atteindre nos ambitions industrielles » déclare Ekaterina Shilova.
À propos de la SATT Paris-Saclay
La SATT Paris-Saclay développe la compétitivité des entreprises par l’innovation exploitant des technologies ou des compétences provenant de l’Université Paris-Saclay. Son coeur de métier est la maturation d’innovation sur les plans technologique (preuve de concept), juridique (propriété intellectuelle) et économique (marché).
La SATT Paris-Saclay travaille en étroite collaboration avec les entreprises (grands-groupes, ETI, PME et start-up), qu’elle peut associer dans l’élaboration et/ou la réalisation de projets de co-maturation. Elle propose à l’industrie des licences d’exploitation sur les technologies matures (brevets, licences et savoir-faire). La SATT Paris-Saclay est une société par actions simplifiées au capital social de 1M€. Ses actionnaires sont la Fondation de Coopération Scientifique Campus Paris-Saclay et la Caisse des Dépôts. Son siège social est situé au 86, rue de Paris à Orsay. www.satt-paris-saclay.fr
Contact presse : communication@satt-paris-saclay.fr ; Tél : 01 84 00 00 25
À propos d’AJELIS
La start-up AJELIS a été créée par trois associés en septembre 2014. Sa présidente, Ekaterina Shilova, est une chercheuse en chimie qui développe depuis 2010 un procédé de séparation de différents métaux à l’état de traces en collaboration avec l’Université Paris-Sud et le Commissariat à l’Énergie Atomique et aux Énergies Alternatives (CEA) de Saclay. Vincent Huc, co-fondateur d’AJELIS et conseiller scientifique, est chercheur CNRS à l’ICMMO. Expert dans la synthèse de molécules « complexantes », il est l’auteur de 41 publications scientifiques et inventeur de 10 brevets. Également co-fondateur et conseiller scientifique, Pascal Viel est chercheur au CEA de Saclay. Expert de la chimie des surfaces, il est l’inventeur de 22 brevets et ses travaux ont contribué à la création de 4 start-up.
AJELIS est accompagnée par IncubAlliance, incubateur technologique et généraliste de Paris-Saclay dont le siège social est situé au 86 rue de Paris à Orsay, et par l’association NOVA GREEN, organisme dédié aux éco-activités dont l’objectif est de dynamiser et accélérer le développement de l'économie verte.
Contact presse : contact@ajelis.com ; Tél. 06 08 03 16 80
À propos de l’Université Paris-Sud
L’Université Paris-Sud est un acteur majeur de l’Université Paris-Saclay.
Pluridisciplinaire et à forte dominante scientifique et de santé, l'excellence de sa recherche est marquée par de nombreux prix internationaux, notamment dans le domaine des mathématiques (quatre médailles Fields) et de la physique (trois prix Nobel). L'Université Paris-Sud est l'une des plus prestigieuses universités en Europe sur le plan de la recherche ; elle est classée parmi les premiers établissements d'enseignement supérieur français et 41e au classement mondial de Shanghai 2015.
L’Université Paris-Sud rassemble plus de 75 laboratoires reconnus internationalement, accueille 30 200 étudiants dont 2 400 doctorants, compte 4300 enseignants-chercheurs et chercheurs, et 3100 personnels ingénieurs, techniques et administratifs.
COMMUNIQUE DE PRESSE
Le 13 octobre 2016
Elle dispose du plus grand campus de France avec 2 700 000 m² de patrimoine environnemental intégré dans un cadre exceptionnel dont 240 000 m² actuellement en rénovation ou en construction. www.u-psud.fr
Contact presse : Cécile Pérol ; cecile.perol@u-psud.fr, Tél. 01 69 15 41 99
À propos du CNRS
Le Centre national de la recherche scientifique est un organisme public de recherche (Établissement public à caractère scientifique et technologique, placé sous la tutelle du Ministère de l'Éducation nationale, de l'Enseignement supérieur et de la Recherche). Il produit du savoir et met ce savoir au service de la société.
Sa gouvernance est assurée par Alain Fuchs, président du CNRS, assisté de deux directeurs généraux délégués : Anne Peyroche à la science et Christophe Coudroy aux ressources, d’un délégué à la valorisation : Nicolas Castoldi.
Avec près de 33 000 personnes (dont 24 747 statutaires - 11 116 chercheurs et 13 631 ingénieurs, techniciens et administratifs), un budget pour 2014 de 3,3 milliards d'euros dont 722 millions d'euros de ressources propres, une implantation sur l'ensemble du territoire national, le CNRS exerce son activité dans tous les champs de la connaissance, en s'appuyant sur plus de 1100 unités de recherche et de service.
Avec 20 lauréats du prix Nobel et 12 de la médaille Fields, le CNRS a une longue tradition d’excellence. Chaque année le CNRS décerne la médaille d’or, considérée comme la plus haute distinction scientifique française.
Contact presse : presse@cnrs.fr, Tél. 01 44 96 51 51
À propos du CEA
Le CEA est un organisme public de recherche qui intervient dans quatre domaines : la défense et la sécurité, les énergies nucléaire et renouvelables, la recherche technologique pour l’industrie et la recherche fondamentale. S'appuyant sur une capacité d'expertise reconnue, le CEA participe à la mise en place de projets de collaboration avec de nombreux partenaires académiques et industriels. Fort de ses 16 000 chercheurs et collaborateurs, il est un acteur majeur de l’espace européen de la recherche et exerce une présence croissante à l'international.
Deux des dix centres du CEA, le centre de Saclay et le centre de Fontenay-aux-Roses, inscrivent leurs activités de recherche et de formation dans le périmètre de l’Université Paris-Saclay.
Les chercheurs du CEA impliqués dans les départements de recherche de l’Université Paris-Saclay représentent plus de 20 % du potentiel de recherche de l’université, en particulier dans le domaine de la physique et de l’ingénierie.
Grâce à l’INSTN, opérateur de formation, et aux enseignements dispensés par ses chercheurs, le CEA assure une forte présence dans les formations au niveau master et ingénieur. Avec ses 400 chercheurs titulaires d’une habilitation à diriger les recherches, il contribue significativement à l’espace doctoral de l’Université Paris-Saclay. En savoir plus : www.cea.fr
Contact presse : Nicolas Tilly ; nicolas.tilly@cea.fr, Tél. 01 64 50 17 16
À propos de l’Université Paris-Saclay
Dans un environnement international très compétitif, l’Université Paris-Saclay fédère 18 des plus prestigieux établissements d’enseignement supérieur et de recherche français. Le projet partagé par ces fondateurs articule une offre de formations communes, un potentiel scientifique interdisciplinaire qui représente 15% de la recherche française et la mise en place de leviers pour l’innovation, l’entrepreneuriat et le transfert de technologies. Au coeur d’un écosystème fertile, l’Université Paris-Saclay suit une trajectoire collective
DOCUMENT cnrs LIEN |
|
|
|
|
 |
|
Entretien avec luc steels : une machine peut-elle parler ? |
|
|
|
|
|
Entretien avec luc steels : une machine peut-elle parler ?
Gautier Cariou dans dossiers 18
daté juin-juillet 2016 -
Grâce à des travaux originaux à la croisée de la robotique, de l'informatique, de la psychologie et de la linguistique, Luc Steels, chercheur en intelligence artificielle, entend donner parole à la machine.
La Recherche. Vous développez des méthodes d'intelligence artificielle (IA) pour décrypter les mécanismes de l'intelligence, et en particulier du langage. Quelles réponses l'IA peut-elle apporter
à un champ déjà tant balayé par les sciences sociales et les neurosciences ?
Luc Steels Pour étudier l'acquisition du langage et le développement des capacités sensorielles et motrices chez l'enfant, les linguistes, les psychologues et les neuroscientifiques n'ont que deux outils à leur disposition : des expériences de pensée et des observations du comportement ou du cerveau. Mais aucun de ces outils ne leur permet de créer des modèles formels qui rendent compte des mécanismes d'acquisition de ces capacités cognitives. À la fin des années 1980, avec mon collègue Rodney Brooks, fondateur de la société américaine iRobot, nous avons donc eu l'idée de fabriquer des systèmes artificiels - des robots - et de les utiliser comme plates-formes expérimentales pour tester différents mécanismes pouvant expliquer l'émergence de comportements intelligents chez les espèces vivantes. Bien sûr, cette approche ne garantit pas à 100 % que les principes utilisés sont transposables aux systèmes vivants mais cette méthodologie est une source importante de progrès pour appréhender au plus près l'extraordinaire complexité des phénomènes observés dans la cognition humaine. En d'autres termes, c'est par la construction de systèmes artificiels que l'on peut espérer comprendre au mieux l'intelligence réelle.
Quels mécanismes de l'intelligence avez-vous mis en évidence ?
L'un de ces mécanismes est l'« auto-organisation ». Il m'a été inspiré par le groupe d'Ilya Prigogine, Prix Nobel de chimie en 1977. Il étudiait alors les systèmes complexes : les colonies de fourmis, le vol des oiseaux, etc., et se demandait comment l'ordre et l'organisation peuvent émerger du chaos. De fait, dans ces systèmes, aucun programme central ne commande quoi que ce soit. Il n'y a pas une fourmi chef d'orchestre qui donne des ordres à ses congénères ; et pourtant, au fil des interactions entre chaque fourmi, en échangeant des phéromones, un comportement collectif intelligent émerge. J'étais convaincu que ce phénomène d'auto-organisation pouvait devenir un mécanisme clé de l'intelligence des machines. C'est ce que nous avons démontré avec Rodney Brooks (1). Plutôt que de doter un robot d'un programme central complexe, nous avons créé des robots dont l'intelligence est distribuée entre plusieurs modules, chacun programmé pour une action simple : éviter un obstacle, revenir en arrière si le robot est coincé, revenir vers une station de rechargement avant que la batterie soit épuisée. Toutes ces actions élémentaires donnent lieu à un comportement global intelligent de la part du robot sans qu'il soit programmé à l'avance pour ce comportement. Cette approche constituait un changement de paradigme : nous passions d'une IA « classique », avec un programme central dédié à une tâche bien définie comme le pilotage des avions, la planification du trafic ferroviaire - ce que l'on appelle les systèmes experts -, à une robotique qui se programme elle-même, en fonction des interactions avec son environnement.
Vous vous êtes ensuite intéressé au langage...
Oui, pendant mes études au laboratoire d'IA du MIT, je suivais en parallèle le cours de linguistique de Noam Chomsky, figure la plus emblématique du domaine. Dans les années 1980, j'étais imprégné des idées nouvelles de l'IA, et il était pour moi très clair qu'il fallait trouver une autre voie que celle des sciences sociales pour avancer dans l'étude et la compréhension du langage. Je me disais que si les mécanismes d'auto-organisation pouvaient faire émerger des comportements intelligents, alors ces mêmes mécanismes devaient également être utiles pour expliquer une autre forme d'intelligence : le langage.
En quoi l'auto-organisation aide-t-elle à comprendre le langage ?
Prenons l'exemple des oiseaux migrateurs. Lorsqu'ils volent, ils suivent une trajectoire aléatoire au départ puis s'influencent mutuellement et, de proche en proche, ils finissent par s'aligner. Chaque oiseau pris individuellement n'a pourtant pas de vision d'ensemble et ne reçoit pas d'ordre mais, collectivement, le groupe devient cohérent. J'étais persuadé que l'émergence des mots au sein d'une population humaine utilisait le même principe. On peut imaginer, par exemple, que deux personnes se mettent d'accord pour nommer un objet « stylo ». Chacun d'eux va ensuite parler avec deux autres personnes et ainsi de suite. Le choix du mot initial étant aléatoire, il est fort probable qu'un autre groupe utilise plutôt le mot « Bic » ou n'importe quel autre mot pour désigner le même objet. Au début, de nombreux mots coexistent dans la population. Puis, par interactions successives, de plus en plus d'individus emploient le mot « stylo » et le lexique se stabilise.
Avez-vous testé la validité de cette hypothèse ?
Oui, en 1999. J'étais alors directeur du laboratoire d'intelligence artificielle de Sony, à Paris. J'avais mis en place une expérience pour étudier le phénomène de propagation des mots dans une population d'agents artificiels. Par agent artificiel, j'entends une entité informatique capable de se télécharger dans un robot. Les robots impliqués étaient de simples « têtes parlantes », des systèmes dotés d'un micro, d'un haut-parleur, d'une caméra mobile et d'un ordinateur de bord connecté à Internet, installés sur plusieurs sites : à Paris, à Londres, à Tokyo... Dans chaque ville, deux robots étaient positionnés devant un tableau blanc sur lequel étaient représentées des formes géométriques de couleurs différentes. Téléchargés dans ces robots, les agents artificiels étaient programmés pour se prêter à un jeu de langage. L'un d'entre eux (l'enseignant) devait choisir une figure et la faire deviner à l'autre agent (l'apprenant) en prononçant à voix haute un mot produit à partir de sons élémentaires puisés dans sa mémoire de travail. L'apprenant devait alors interpréter la signification du mot prononcé en pointant sa caméra vers la figure qu'il pensait correspondre au mot prononcé. En cas d'erreur, l'enseignant pointait sa caméra en direction de la bonne figure et l'apprenant enregistrait cette information. Pour toute nouvelle partie, les agents pouvaient changer de rôle et se télécharger dans n'importe quel robot à travers le monde. Après un demi-million d'interactions entre un millier d'agents artificiels, un vocabulaire commun a émergé et a été adopté par l'ensemble des agents.
Le mécanisme d'auto-organisation est-il suffisant pour comprendre le langage ?
Non. Il ne rend compte que du phénomène de propagation et de partage d'un vocabulaire commun mais n'explique en aucun cas la création et l'évolution du langage. Pour explorer cette question, je me suis inspiré de la science de l'évolution qui essaie de déterminer les mécanismes à l'origine de l'apparition des espèces. J'avais l'intuition que le langage faisait l'objet d'un processus évolutif analogue : les mots, les groupes de mots, la grammaire et la syntaxe sélectionnés sont ceux qui sont les plus efficaces pour que les individus puissent se comprendre. Pour vérifier la pertinence de ce mécanisme, j'ai implémenté un algorithme qui incite les robots à sélectionner les stratégies de communication qui, à la fois maximisent le succès de la communication et minimisent l'effort cognitif à fournir.
Quels résultats avez-vous obtenus ?
Dotés des mécanismes de sélection culturelle et d'auto-organisation, des robots qui n'avaient aucune grammaire au départ, en viennent à partager et à adopter des règles grammaticales communes, pourvu qu'ils interagissent suffisamment longtemps (2). La grammaire en question n'est pas celle des langues humaines, mais un ensemble d'outils à partir desquels les machines peuvent créer leur propre grammaire (3).
À chaque nouvelle expérience, une grammaire différente émerge. C'est le principe même de l'évolution : il n'est pas possible de prévoir les étapes de l'évolution mais on peut comprendre comment ça marche. Faire émerger une grammaire chez des robots, c'était une première à tous les points de vue. En reproduisant des expériences analogues à celles des têtes parlantes, nous avons mis en évidence qu'elle n'apparaît pas d'un seul coup, mais en plusieurs étapes et gagne en complexité de façon graduelle.
Aujourd'hui, vous continuez d'étudier la grammaire avec ces outils d'intelligence artificielle, un domaine baptisé « linguistique évolutionnaire ». Quel genre d'expériences menez-vous ?
À l'Institut de biologie évolutive de Barcelone, mon équipe et moi-même examinons certains aspects spécifiques de la grammaire. Par exemple, en français, il existe des phrases nominales, des phrases verbales, des phrases principales, etc. Or, avec des robots, on voit émerger ce genre de structure hiérarchique, ce qui nous permet d'étudier les mécanismes de leur apparition. Nous étudions également le phénomène d'accord sujet-verbe, ou encore les processus d'apparition et d'évolution des cas comme l'accusatif, le datif, etc. (4) À titre d'exemple, au XIIIe siècle, la langue anglaise comportait un système de cas, avec la même complexité que le latin, avant de disparaître. L'anglais a évolué et c'est désormais l'ordre des mots dans la phrase qui s'est substitué au cas. C'est ce genre de problèmes très concrets que l'on étudie aujourd'hui.
Sur le plan théorique, qu'apporte l'ensemble de vos travaux aux sciences humaines ?
En linguistique, deux théories s'affrontent pour expliquer notre capacité pour le langage. Selon la première, proposée par Noam Chomsky dans les années 1950, les hommes sont dotés d'une capacité innée pour le langage. Il existerait une « grammaire universelle » ancrée dans le cerveau dès la naissance et un organe biologique dédié au langage. Une autre théorie, dite « constructiviste », considère au contraire que l'acquisition du langage est le fruit d'un apprentissage. En interagissant avec son environnement, l'enfant acquerrait le langage de façon graduelle. Sans nier le rôle central du cerveau dans cette capacité langagière, la théorie constructiviste s'oppose à l'idée d'un organe spécifique au langage. De mon point de vue, le langage est un système dynamique, évolutif, émergent et non pas un système fixe et inné comme le prétend Chomsky : les mécanismes que j'ai testés indiquent clairement que les robots n'ont pas de programme dédié au langage. Ils sont seulement dotés de mécanismes généraux qui leur permettent de créer leur propre vocabulaire et règles grammaticales.
Pensez-vous que vos travaux closent le débat inné/acquis ?
Aujourd'hui, nous avons des expériences reproductibles qui valident un certain nombre de mécanismes. Malgré tout, nous sommes encore dans une phase d'écriture de livres et de débats et les résistances sont encore fortes de la part des chercheurs en sciences humaines. Pour eux, ces expériences ne sont pas pertinentes. Et pour cause, la méthode que nous employons constitue un changement de paradigme qui nécessite de redéfinir ce que l'on accepte comme preuve. En sciences humaines, un chercheur écrit un livre, puis un autre chercheur donne sa réponse. La matière du débat est l'histoire des idées, et les preuves sont des références à des figures d'autorité. Dans notre approche de linguistique évolutionnaire, l'autorité ne joue pas. Seules les preuves mathématiques comptent. J'essaie de me battre pour que ces preuves formelles soient mieux comprises et acceptées dans les sciences humaines. Mais pour l'heure, c'est un choc des cultures !
DOCUMENT larecherche.fr LIEN |
|
|
|
|
 |
|
ROBOTIQUE |
|
|
|
|
|
robotique
Science et technique de la robotisation, de la conception et de la construction des robots.
Réalité industrielle ou science-fiction ? La robotique évoque à la fois l'univers ultra-mécanisé des lignes automatisées de montage de l'industrie automobile et les sympathiques robots androïdes truffés d'électronique de la Guerre des étoiles. Le premier robot industriel a été installé en 1961 dans une fonderie d'aluminium américaine ; depuis, la robotique est devenue une réalité industrielle avec plus de 200 000 robots en service dans le monde. Dans les grands ateliers automatisés de production comme dans les petites et moyennes entreprises, ils assurent des tâches dangereuses, pénibles ou répétitives : manutention-transfert-conditionnement de pièces, assemblage et soudage électrique par points ou à l'arc, montage de composants électromécaniques, peinture au pistolet, découpe au laser ou par jet fluide à très haute pression….
Tout comme les machines-outils à commande numérique, dont ils empruntent la technologie, les robots sont des matériels programmables, donc polyvalents. Pilotés à l'aide de systèmes informatiques, ils peuvent être programmés pour exécuter des tâches diversifiées, contrairement à l'idée répandue, mais inexacte, du « travail robotisé ». Associés à d'autres machines-outils, à des convoyeurs, installations également programmables, éventuellement connectés à des ordinateurs munis d'écrans graphiques pour la conception informatisée des pièces, les robots s'intègrent aujourd'hui dans les cellules et les ateliers flexibles de production. On cherche ainsi à concilier deux objectifs : productivité élevée et flexibilité de la fabrication. Une même installation produit des pièces de taille et de configuration diverses grâce à l'ordinateur, qui optimise le fonctionnement de chaque machine.
À côté des robots industriels évolués, dont certains sont déjà associés à des caméras de vision pour le contrôle automatique, on met au point des engins mobiles autonomes faisant appel à des capteurs d'environnement et aux techniques d'intelligence artificielle.
DATES CLÉS DE LA ROBOTIQUE
1920 Création par l'écrivain tchèque Karel Čapek du mot « robot » (du tchèque robòta,travail forcé).
1945 Commande numérique étudiée à la demande de l'US Air Force.
Mise au point de télémanipulateurs pour l'industrie nucléaire américaine.
1954 George C. Devol dépose les brevets d'un robot programmable.
1961 Mise en service du premier robot industriel, Unimate,construit par Unimation d'après les brevets de G. C. Devol.
1968 Début de la robotique au Japon chez Kawasaki, qui acquiert ces brevets.
1970 Le C.E.A. étudie des engins mobiles d'intervention et de maintenance pour les installations électronucléaires françaises.
1973 La firme suédoise ASEA présente le premier robot « tout électrique ».
1977 Recherches sur la robotique avancée aux États-Unis et lancement au Japon du programme « Usine sans homme ».
1978 Les premiers robots de soudage français en service à l'usine Renault de Flins.
1981 Inauguration du premier atelier flexible français chez Renault Véhicules industriels à Saint-Étienne.
1982 Élaboration du concept de « productique » et lancement d'un plan par les pouvoirs publics français.
Premier robot industriel associé à un système de reconnaissance visuelle à l'usine Renault de Cléon.
1985 Wasubot,robot joueur d'orgue à l'Exposition universelle d'Osaka.
1988 Les systèmes électroniques de vision et les réseaux locaux informatiques se mettent en place dans les usines.
1990 La robotique s'intègre dans le concept de C.F.A.O. (conception et fabrication assistées par ordinateur).
Les grandes étapes de la robotique
i
L'homme a toujours cherché à construire des figurines animées à son image. Les premiers automates et jouets mécanisés apparaissent au ier siècle : les « mécaniciens grecs » d'Alexandrie utilisent alors les inventions mécaniques et hydrauliques d'Archimède : came, ressort, vis élévatoire… Le Moyen Âge et la Renaissance voient se développer des régulateurs pour moulins à eau ou à vent et surtout des horloges mécaniques de plus en plus perfectionnées, dont les personnages, mus par d'ingénieux mécanismes à picots, défilent et s'animent… Cette technique horlogère atteindra son apogée au xviiie s. avec les boîtes à musique, oiseaux chantants, tableaux animés et les célèbres automates androïdes de Jacques de Vaucanson : « le Joueur de flûte » et « le Canard digérateur ». À l'aide des cartons perforés de Falcon, Jacquard perfectionne le métier à tisser de Vaucanson, préfigurant la révolution industrielle. Mais il faudra attendre près d'un siècle pour que cette technique de programmation binaire soit appliquée aux machines-outils à commande numérique et aux robots.
La robotique industrielle, qui utilise toute la gamme des technologies pneumatiques, hydrauliques et électriques, se développe à partir des années 1960 grâce aux progrès de l'électronique, des circuits intégrés et des micro-ordinateurs.
Vers la robotique de service
Robot humanoïde
Cueillir des fruits dans les vergers, débroussailler la forêt landaise, nettoyer les quais du métro, faire le plein de carburant des autobus, extraire du charbon au fond des mines, souder sous la mer des oléoducs et explorer l'épave du Titanic, intervenir au cœur même d'une centrale nucléaire accidentée, réparer dans l'espace l'antenne d'un satellite, garder des entrepôts et même des prisons… mais aussi assister les handicapés, effectuer les micro-mouvements du chirurgien pour une opération délicate de l'œil, aider la ménagère dans ses activités domestiques…, autant de tâches variées qui relèvent de la robotique non manufacturière, appelée aussi robotique de service.
Celle-ci s'est développée parallèlement à la productique, mais plus lentement : elle requiert la maîtrise d'engins beaucoup plus élaborés que les robots industriels, notamment des plates-formes mobiles autonomes capables d'effectuer des tâches complexes et disposant de calculateurs embarqués et de capteurs de proximité et d'environnement afin d'éviter les obstacles. Ces robots commencent tout juste à émerger des laboratoires, mais ils représentent un immense champ d'application pour la robotique. C'est pourquoi ils font l'objet de programmes de recherche et de développement aux États-Unis (pour des besoins militaires) et au Japon.
En France, ces recherches commencent à déboucher sur des prototypes, notamment en agriculture, avec le robot de cueillette des fruits Magali du Cémagref, les robots de nettoyage du métro pour la R.A.T.P. ainsi que ceux de sécurité civile, utilisés pour le déminage et la neutralisation d'engins explosifs. On distingue six grandes familles de robots non manufacturiers : ceux travaillant en milieux extrêmes ou dans des ambiances hostiles à l'homme (nucléaire, espace, fond des océans) ; les robots de services professionnels (nettoyage) ; les robots agricoles et forestiers ; ceux des mines, du bâtiment et des travaux publics ; les robots d'application médicale ; enfin, les machines pour le grand public à usage domestique, mais aussi pédagogique.
De l'atelier flexible à l'usine du futur
La robotique s'intègre actuellement dans un concept d'automatisation plus étendu : la productique. Ce néologisme marque l'entrée de l'ordinateur dans les ateliers de production, à l'exemple de la Bureautique pour les travaux administratifs et comptables. Dans un atelier flexible d'usinage, les robots sont ainsi associés aux machines-outils à commande numérique et à des centres d'usinage polyvalents équipés de changeurs automatiques d'outils, tandis que les pièces à usiner sont acheminées aux différents postes de travail par des convoyeurs programmables ou des chariots mobiles autonomes filoguidés. La production est gérée en temps réel par des ordinateurs qui optimisent le temps de fonctionnement de chaque machine, tiennent compte des approvisionnement en outillage et en matières premières et réalisent l'ordonnancement optimal des fabrications en fonction des commandes reçues chaque jour. Minimiser les stocks, éliminer les pièces en attente devant les machines, changer de fabrication sans modifier l'implantation des machines sont les enjeux de la flexibilité recherchée.
On associe également à ces installations de production des postes de conception assistée par ordinateur (C.A.O.) : grâce à leurs écrans graphiques interactifs et à des logiciels spécialisés, ils permettent à l'ingénieur-projeteur de concevoir et de visualiser aussitôt des pièces et d'en étudier les méthodes de fabrication.
DOCUMENT larousse.fr LIEN
|
|
|
|
|
 |
|
UNE NOUVELLE SOURCE DE LUMIÈRE QUANTIQUE |
|
|
|
|
|
Paris, 7 mars 2016
Une nouvelle source de lumière quantique
Une nouvelle source de photons uniques ultra-brillante, 15 fois plus brillante que les sources usuelles et émettant des photons indiscernables à 99,5% les uns des autres, a été mise au point par des chercheurs du CNRS, de l'université Paris Diderot et de l'université Paris-Sud1. Cette prouesse a été rendue possible grâce au positionnement, avec une précision nanométrique, d'une boîte quantique2 dans une microcavité optique. Un contrôle électrique permet en outre de réduire le « bruit » autour des boites quantiques, bruit qui rend habituellement les photons différents les uns des autres. Obtenus en collaboration avec des chercheurs de Brisbane (Australie), ces résultats permettront de réaliser des calculs quantiques d'une complexité sans précédent, premier pas vers la création d'ordinateurs quantiques. Ils sont publiés dans Nature Photonics le 7 mars 2016.
Le domaine de l'information quantique est un enjeu majeur pour l'économie à venir, les ordinateurs quantiques pouvant, théoriquement, être des centaines de millions fois plus rapides que les ordinateurs classiques. De nombreux systèmes sont explorés aujourd'hui pour développer ces futures technologies quantiques : atomes, ions, photons, etc. Les technologies quantiques optiques, qui utilisent la lumière comme vecteur de l'information quantique, ont connu des succès remarquables ces dernières années, tels que la communication de clés cryptographiques ou la téléportation quantique sur des centaines de kilomètres.
Cependant, les sources de photons disponibles aujourd'hui ne sont pas suffisamment efficaces pour utiliser l'information quantique à grande échelle. Ces sources doivent permettre l'émission d'un seul et unique photon par impulsion lumineuse, ce que l'on appelle la brillance, et il est nécessaire que chacun de ces photons soient parfaitement identiques à ceux précédemment émis, c'est-à-dire qu'ils soient indiscernables les uns des autres. Alors que le premier frein a été levé grâce à l'utilisation de boîtes quantiques, qui permettent l'émission d'un seul photon par impulsion lumineuse, aucune technologie ne permettait, jusqu'à aujourd'hui, l'émission de photons parfaitement identiques à des rendements suffisants pour une utilisation en optique quantique.
Le principal défi pour les chercheurs a été de réduire le « bruit » autour de la boîte quantique, tout en obtenant une forte brillance, qui limite habituellement l'indiscernabilité des photons. Les scientifiques ont donc positionné, avec une précision nanométrique, une boîte quantique dans une microcavité optique, une sorte de pilier micrométrique confinant la lumière. L'application d'une tension sur la microcavité permet de supprimer toute fluctuation électronique qui rendrait les photons émis discernables. En collaboration avec l'équipe du Pr. Andrew White à Brisbane (Australie), ils ont pu comparer ces nouvelles sources aux sources usuelles. Ils démontrent que ces sources de photons uniques indiscernables à 99,5% sont environ 15 fois plus brillantes que les sources usuelles : un photon unique indiscernable est collecté toutes les 6 impulsions excitatrices, contre 100 impulsions pour les sources lumineuses utilisées aujourd'hui. Par ailleurs, le processus de fabrication utilisé est le seul, à ce jour, à être parfaitement contrôlé et reproductible.
Ce résultat, attendu depuis longtemps par la communauté internationale, devrait donner un nouveau souffle aux technologies quantiques optiques grâce auxquelles des milliers de photons tous identiques pourront être manipulés pour réaliser des calculs quantiques d'une complexité sans précédent, un premier pas vers la création d'ordinateurs quantiques.
DOCUMENT cnrs LIEN |
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 ] Précédente - Suivante |
|
|
|
|
|
|