ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LE TEMPS ET SA FLÈCHE

  initiation musicale

 

 

 

 

 

 

Le temps et sa flèche

Conférence du 6 juillet 2000 par Etienne Klein. Chacun comprend de quoi nous voulons parler lorsque nous prononçons le mot temps, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l'est pas, qui se perd dans les brumes dès qu'on tente de la saisir. Pourtant les sciences, en particulier la physique, interrogent sans relâche la nature et les propriétés du temps. Quel statut faut-il lui donner ? S'écoule-t-il de façon régulière ? Est-il réversible ? Comment est-il relié à l'espace ? Peut-on concilier temps physique et temps psychologique ? Nous verrons comment chacune des révolutions qui ont agité la physique a remis en cause notre représentation du temps et des liens qu'entretient ce dernier avec l'espace et la matière.

Texte de la 188e conférence de l’Université de tous les savoirs donnée le 6 juillet 2000.


Le temps, son cours et sa flèche
par Etienne KLEIN


Un peu de poésie pour commencer

C'est à un physicien britannique, Arthur Eddington, que le temps doit d'être équipé (depuis 1929) d'un emblème, la flèche, que la mythologie attribuait jusque-là à Éros, le dieu de l'amour, représenté comme un enfant fessu et ailé qui blesse les cœurs de ses flèches aiguisées. La flèche du temps ne symbolise plus le désir amoureux, hélas, mais le sentiment tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour les physiciens, elle se traduit par l'irréversibilité de certains phénomènes physiques. Elle se distingue du cours même du temps, avec lequel elle est pourtant souvent confondue.
Avant d'entrer dans le vif du sujet, je voudrais vous proposer quelques phrases d'écrivains ou de poètes, qui chacune à sa façon, évoquent soit le cours du temps, soit sa flèche, soit un mélange des deux.
Commençons par Sacha Guitry : « Madame est en retard. C’est donc qu’elle va venir. » C'est le cours du temps qui est ici évoqué, d'une façon non dramatique mais cruellement misogyne. Continuons avec Georges Perros, l'auteur des Papiers Collés : « L’horloge sonne. C’est le temps qui tâte son pouls. » Voilà sans doute la façon la plus neutre d'évoquer le fait que le temps passe et de dire qu'il a un cours bien défini. Poursuivons avec Robert Desnos : « La feuille qui tombe et la roue qui tourne te diront que rien n’est perpétuel sur terre. » Cette phrase juxtapose l'idée de temporalité à celle de finitude. Tristan Tzara, un autre poète surréaliste, enfonce le clou d'une façon qui fait froid dans le dos : « Je me souviens d’une horloge coupant des têtes pour indiquer les heures. » C'est que le temps a à voir avec l'irréversibilité et avec la mort. Loin de pouvoir tuer le temps, c’est lui qui nous dévore. L'Antiquité associait d'ailleurs la planète Saturne au cruel titan Kronos qui dévorait ses enfants au fur et à mesure que son épouse Rhéa les mettait au monde. Mais comme il n'est pas question aujourd'hui de sombrer dans la délectation morose en associant trop directement temps et mort, nous terminerons ce petit florilège par ces mots de Jorge Luis Borges (dans Aleph), qui rappellent que la valeur de la vie, la vie comme valeur, s'enracine justement dans la connaissance de son essentielle précarité : « La mort rend les hommes précieux et pathétiques. Ils émeuvent par leur condition de fantômes ; chaque acte qu'ils accomplissent peut être le dernier ; aucun visage qui ne soit à l'instant de se dissiper comme un visage de songe. Tout chez les mortels a la valeur de l'irrécupérable et de l'aléatoire. »

Qu'est-ce que temps ?
Nos réflexions sur le temps sont presque toujours confuses, sans doute parce que nous ne savons pas trop de quel type d'objet il s’agit. Le temps est-il une chose ? Est-ce une idée ? Est-ce une apparence ? N'est-ce qu'un mot ? Existe-t-il en dehors de l’ « âme », selon le terme de saint Augustin ? Est-il un produit de la « conscience », selon le terme de Husserl ? Il est difficile de répondre à ces questions, mais très souvent on croit que les scientifiques, et notamment les physiciens, seront un jour capables de nous révéler la nature du temps, ou du moins d'en proposer une définition qui serait plus exacte que les autres. Il s'agit sans doute d'un malentendu, car il est toujours difficile de définir les mots importants. Peut-être est-ce même impossible puisque, si ces mots sont vraiment fondamentaux, on ne peut pas les rapporter à autre chose qu'eux-mêmes. Définir, c’est avant tout ramener une conception donnée à une autre plus fondamentale. Mais qu’y a-t-il de plus fondamental que ce qui est déjà fondamental ? Rien, et c’est sans doute pourquoi le philosophe Martin Heidegger avait raison de remarquer que les scientifiques posent finalement très peu de questions comme « Qu’est-ce que le temps ? », « Qu’est-ce que l’espace? », « Qu’est-ce que la matière? », alors que c’est souvent la réponse à ces questions que l’on attend d’eux.
On oublie trop souvent que la puissance de la physique vient de ce qu'elle a su limiter ses ambitions. Elle ne s'intéresse pas à toutes les questions qui se posent dans nos têtes, loin s'en faut. Elle prend soin de ne sélectionner que celles qui relèvent de ses compétences et de sa méthode. Par exemple, elle n'essaie pas de résoudre la question de la nature du temps, ou du moins, si elle le fait, c'est seulement à la marge de ses théories. Elle cherche plutôt la meilleure façon de représenter le temps, ce qui est une tout autre affaire.
Attardons-nous deux minutes sur l'épineuse question de la définition du temps. Chacun comprend de quoi on veut parler lorsque le mot temps est prononcé, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l’est pas. Bien sûr, on peut tenter de définir le temps et les philosophes n'ont pas manqué de le faire : le temps est ce qui passe quand rien ne se passe, il est ce qui fait que tout se fait ou se défait, il est l’ordre des choses qui se succèdent, il est le nombre du mouvement selon l'avant et l'après, il est le devenir en train de devenir. Mais toutes ces expressions contiennent déjà l'idée du temps (par exemple, l’idée de « passage » présuppose l’idée d’une temporalité, c’est-à-dire de quelque chose qui s’écoule). Elles ne sont donc que des métaphores du temps, impuissantes à rendre compte de sa véritable nature. Cela n'est pas très grave, car il n'est pas nécessaire de définir le temps pour en proposer une représentation. De fait, les physiciens sont parvenus à en faire un concept opératoire sans être capables de le définir précisément.

La physique et le temps
Y flairant une source de paradoxes, les philosophes n’ont cessé d’interroger la réalité du temps, et ce depuis l’Antiquité grecque. Souvenons-nous par exemple de la solution avancée par Parménide et les Éléates, qui proposaient de confondre la matière et l'espace, excluant par là même le vide et se trouvaient contraints de penser le mouvement comme une simple translation, c'est-à-dire comme une succession de positions fixes. Du coup, le temps leur demeurait inexplicable, et c'est pourquoi ils s'attachaient à le démontrer impossible et à tout décrire à partir de l'immobilité. Souvenons-nous également de Héraclite et des atomistes, qui prirent un autre parti : ils proposaient de confondre la matière avec le mouvement et affirmaient la réalité du vide. Selon eux, tout est mobile, tellement mobile même qu'on ne peut pas imaginer de point fixe pour évaluer les changements d'état ni expliquer quoi que ce soit.
L'influence de Parménide a été très forte en physique. En effet, la physique a longtemps cherché à éliminer le temps. Le temps est associé au variable, à l’instable, à l'éphémère, tandis que la physique, elle, est soi-disant à la recherche de rapports qui soient soustraits au changement. Lors même qu’elle s’applique à des processus qui ont une histoire ou une évolution, c’est pour y discerner soit des substances et des formes, soit des lois et des règles indépendantes du temps. Mais dans sa pratique, elle se heurte évidemment au temps, d'une façon telle que la question de savoir si le monde doit être vu plutôt comme un système ou plutôt comme une histoire continue de se poser. La physique a-t-elle vocation à décrire l'immuable ou bien doit-elle être la législation des métamorphoses ?

Le temps existe-t-il ?
Aristote a posé la question de l'existence du temps d'une façon qui a été abondamment discutée : puisque le passé n'est plus, puisque que l'avenir n'est pas encore, puisque le présent lui-même a déjà fini d'être dès qu’il a commencé d’exister, comment pourrait-il y avoir un « être » du temps ? Le temps a beau contenir la totalité de ce qui est, nous ne parvenons pas à le penser autrement que comme une limite toujours disparaissante entre deux néants, le passé d'un côté, l’avenir de l'autre. Mais un être qui n’est qu’en cessant d’être, est-ce encore un être ?
Si l’on peut ainsi s’interroger sur l’existence même du temps, il est en revanche très difficile de dire le monde sans faire appel à lui, et tout aussi difficile de nier les marques indélébiles qu’il imprime sur les choses et sur nos propres corps. Le temps se présente à nous d'une façon ambiguë : d'une part, il est ce qui fait que les choses persistent à être (on pourrait donc dire, plus plaisamment, qu'il est le moyen le plus commode qu'a trouvé la nature pour que tout ne se passe pas d'un seul coup) ; d'autre part, il est ce qui les fait changer. Le présent, qui est finalement la seule chose qui nous soit présente, a en effet ceci de paradoxal qu'étant à la fois toujours présent et jamais le même, de sorte que l'on doit admettre qu'il imbrique la permanence et le changement.
Une difficulté soulevée par la question du temps consiste en ce que nous ne pouvons pas nous mettre en retrait par rapport à lui. D’habitude, lorsque nous voulons étudier un objet, nous commençons par l’observer sous divers angles, mais lorsqu’il s’agit du temps, la mise à distance n’est plus possible puisqu’il nous affecte sans cesse. Nous sommes dans le temps et nous ne pouvons pas en sortir. C’est d’ailleurs une caractéristique que le temps partage avec l’espace puisque nous ne pouvons pas non plus nous extraire de l’espace. Mais il y a une différence essentielle entre le temps et l’espace : nous pouvons nous déplacer à l’intérieur de l’espace, aller et venir dans n’importe quelle direction, alors que nous ne pouvons pas changer notre place dans le temps. L’espace est donc le lieu de notre liberté, le temps la marque de notre emprisonnement.
Je cesserai là mes petites digressions philosophiques, par manque de temps d'abord, mais aussi parce que les historiens des sciences s'accordent à dire que la physique moderne a commencé avec Galilée, qui justement prit garde à ne pas se perdre en vaines discussions à propos de la nature ou de la réalité du temps. Il ne s'intéressa qu'au statut qu'il convenait de lui donner dans le champ de la physique. Cela l'amena à considérer le temps comme une grandeur quantifiable susceptible d'ordonner des expériences et de les relier mathématiquement. C'est dans cet esprit qu'il étudia la chute des corps. Il réalisa que si le temps, plutôt que l'espace parcouru, était choisi comme le paramètre fondamental, alors la chute des corps obéissait à une loi simple : la vitesse acquise est simplement proportionnelle à la durée de la chute. Cette découverte signa la naissance de la dynamique moderne, qui allait donner au temps un statut inédit. Jusqu'alors, l'idée que l'on s'était faite du temps était restée centrée sur des préoccupations humaines. Le temps servait essentiellement aux hommes de moyen d'orientation dans l'univers social et de mode de régulation de leur coexistence, mais il n'intervenait pas de façon explicite et quantitative dans l'étude des phénomènes naturels.

Temps physique et temps psychologique
Puisqu'elle est limitée dans ses ambitions, la physique ne prétend pas répondre à toutes les questions qui concernent le temps. Par exemple, elle échoue à rendre compte de la relation entre le temps physique et le temps psychologique, entre le temps des horloges et celui de la conscience. Ces deux temps ont certainement des liens, mais certaines de leurs propriétés sont distinctes, voire antagonistes. Déjà, leurs structures diffèrent. Le temps physique est toujours représenté comme un mince filament qui s'écoule identiquement à lui-même. Mais le temps subjectif, lui, se déploie en ligne brisée, entremêle des rythmes différents, des discontinuités, de sorte qu'il ressemble plutôt à un cordage tressé. Notre conscience éprouve en effet plusieurs temporalités enchevêtrées, tant par leur nature (le temps de nos sensations, celui de nos idées, de nos humeurs,…) que par leurs échelles, tout comme une corde est faite de multiples brins, eux-mêmes composés de fines et courtes fibres.

Temps physique et temps psychologique se distinguent aussi par le fait que le premier, toujours ponctuellement concentré dans le présent, sépare l’infini du passé de l’infini du futur tandis que le second mélange au sein du présent un peu du passé récent et un peu de l’avenir proche. Dans le temps physique, des instants successifs n’existent jamais ensemble, par définition. Le temps psychologique, lui, élabore une sorte de coexistence au sein du présent du passé immédiat et du futur imminent[1]. Il unit donc ce que le temps physique ne cesse de séparer, il retient ce qu’il emporte, inclut ce qu’il exclut, maintient ce qu’il supprime. Ainsi, lorsqu’on entend une mélodie, la note précédente est « retenue » avec la note présente et la projection de la note future pour former un ensemble harmonieux. Passé immédiat et futur imminent coexistent donc dans le présent. Sans cette alliance au sein de la conscience, chaque note serait isolée et il n’y aurait pas de mélodie à proprement parler.
Temps physique et temps psychologique se distinguent également par leur fluidité. Le premier s'écoule uniformément (du moins dans la conception classique) tandis que le deuxième a une fluidité si variable que la notion de durée éprouvée n'a qu'une consistance très relative : il n'y a pas deux personnes qui, dans un temps donné, compteraient un nombre égal d'instants. Notre estimation des durées varie avec l’âge, et surtout avec l'intensité et la signification pour nous des événements qui se produisent[2] Rien de tel pour le temps physique, et c'est bien pourquoi nous portons des montres.
Enfin, les temps physique et psychologique n'accordent pas des statuts semblables aux notions de passé et d'avenir. C'est la question de la flèche du temps, sur laquelle nous reviendrons par la suite. Ce que je veux dire dans un premier temps, c'est que l'irréductibilité des temps physique et psychologique semble insurmontable, du moins pour le moment. On se doute bien que leurs liens se situent à la couture de la matière et de la vie, mais les tentatives pour dériver le temps du « monde » du temps de « l'âme » ou l'inverse n’ont pas vraiment abouti. Le temps mathématisé du physicien ne semble pas épuiser le sens du temps vécu, pas plus que le temps vécu ne donne l'intuition de toutes les facettes du temps physique.
À force de schématisation, la physique a peut-être laissé échapper quelques-unes des propriétés fondamentales du temps. Le temps monotone des physiciens, constitué de tic-tac répétitifs et esseulés, n'est peut-être qu'une idéalisation très appauvrie du temps de la vie.

L'écoulement du temps pourrait-il être discontinu ?
Tout au long de son histoire, la physique a considéré que l'espace est un continuum, c'est-à-dire qu'il est possible d'envisager des portions de longueurs aussi petites que l'on veut, sans jamais atteindre de limite. Le point, qui correspondrait à un nombre infini de divisions, reste toutefois hors d'atteinte, mais on peut en principe s'en rapprocher continûment. Le fait qu'il soit ainsi possible de considérer des longueurs infimes, et même nulles, fait surgir d'énormes difficultés, par exemple lorsque l'on s'intéresse au champ électrique produit par une charge électrique, disons un électron, à la distance r de celui-ci. Ce champ, variant comme 1/ r2, devient infini lorsque la distance r s'annule. De telles divergences ou singularités conduisent à des difficultés mathématiques que les physiciens tentent d'éviter de différentes façons : soit en assignant un domaine de validité limité aux expressions divergentes (on supposera pour l'exemple cité ci-dessus que, si la distance r devient trop petite, l'expression en 1/ r2 doit être remplacée par une autre, non divergente) ; soit en utilisant des procédés mathématiques qui abolissent « artificiellement » ces divergences et autorisent le calcul. On peut citer par exemple la théorie des distributions, être mathématiques ressemblant à des fonctions discontinues qui prendraient une valeur nulle en tous les points de l'espace, sauf en un seul. On peut également évoquer la procédure dite de renormalisation. Celle-ci consiste à éliminer toutes les quantités infinies qui apparaissent dans les calculs en retranchant à celles-ci un petit nombre de quantités elles-mêmes infinies, de sorte d'obtenir un résultat fini.
Une dernière piste, plus audacieuse, consiste à imaginer que l'espace lui-même pourrait être discret, c'est-à-dire structuré selon un réseau, dont la maille, finie et non nulle, représenterait une distance minimale au-dessous de laquelle il serait impossible de descendre. Toute divergence serait ainsi évitée. Mais là aussi, de terribles problèmes se posent. D'abord, quelle serait la taille de la maille et d'où proviendrait-elle ? Ensuite, un tel réseau introduirait des directions privilégiées qui détruirait l'isotropie de l'espace, c'est-à-dire son invariance par rotation. Or cette invariance joue, avec d'autres symétries du même type, un rôle fondamental dans toute la physique en imposant des lois de conservation très contraignantes.

Des travaux mathématiques récents, notamment effectués par Alain Connes dans les années 1980, pourraient toutefois changer la donne. Ils concernent ce qu'on appelle la géométrie non commutative. Celle-ci permet de considérer des structures spatiales qui présentent un caractère discontinu mais qui ne brisent pas les symétries fondamentales. Cette nouvelle géométrie est obtenue en remplaçant les coordonnées spatiales usuelles, qui sont des nombres ordinaires, par des opérateurs algébriques. L'appellation de la théorie provient de ce que ces opérateurs ne commutent pas entre eux (l'ordre de leur application n'est pas indifférent), mais vérifient au contraire certaines relations de commutation qui définissent les propriétés de l'espace à petite échelle. Les propriétés habituelles de l'espace étant restituées aux échelles de la physique habituelle, ce n'est qu'au-dessous d'une certaine échelle que les effets de cette géométrie apparaissent. Cette échelle, qui pourrait être celle dite de Planck (10-35 m), représenterait une limite à la divisibilité de l'espace.
Mais revenons-en au temps. Les physiciens le supposent constitué d'instants qui se succèdent dans une structure continue. Ces instants jouent pour le temps le même rôle que le point pour l'espace. Ils sont tout aussi inaccessibles à la perception. En effet, nous ne sentons pas les instants qui passent. Pour nous, ainsi que nous l'avons déjà dit, le présent est une sorte de fluide continu qui mélange un peu du passé immédiat et du futur imminent, sans qu'aucune de nos sensations ne vienne indiquer l'alchimie par laquelle une succession d'instants parvient à s’épaissir en durée. L'idée d'un temps discontinu, c'est-à-dire d'une atomicité de la durée, est parfois évoquée, mais aucune théorie n'est jamais venue l'éclairer, du moins à ma connaissance. Il faut dire qu'elle pose d'énormes difficultés conceptuelles : comment le temps pourrait-il être constitué d'instants séparés par des durées privées de temps ? L'impossibilité d'observer les instants ne va en tous cas pas contre l'idée d'un temps continu, de la même façon que l'absence d'objet véritablement ponctuel ne va contre la possibilité d'un espace continu.

La causalité et l’interdiction des voyages dans le temps
Le mouvement des aiguilles de nos montres incite à assimiler le temps à un flux composé d'instants infiniment proches parcourus les uns après les autres, c'est-à-dire à une variable à une seule dimension. Cette représentation du temps accorde au temps une topologie beaucoup plus pauvre que celle de l’espace, qui lui a trois dimensions. Elle n'offre en fait que deux variantes, la ligne ou le cercle, selon que la courbe du temps est ouverte ou fermée. Il n’y a donc a priori que deux types de temps possibles, le temps linéaire et le temps cyclique. Le cours du temps se manifeste sur ces courbes par le fait qu'elles sont orientées, c'est-à-dire parcourues dans un sens bien défini, du passé vers le futur.

Si les physiciens ont choisi d'adopter un temps linéaire plutôt que cyclique, c'est en vertu du principe de causalité selon lequel la cause d'un phénomène est nécessairement antérieure au phénomène lui-même. Ce principe de causalité interdit en outre les voyages dans le temps, car ceux-ci permettraient en principe de rétroagir dans le passé pour modifier une séquence d’événements ayant déjà eu lieu. Une telle possibilité conduirait à affronter de pénibles situations : un jeune homme pourrait rejoindre dans le passé sa grand-mère alors que celle-ci est encore jeune, lui faire un brin de cour au volant d'une belle voiture de sport, rater un virage et expédier la jeune femme ad patres, l'empêchant ainsi de mettre au monde le premier maillon de la descendance dont le susdit jeune homme fait pourtant partie… Un tel paradoxe, possible avec un temps cyclique puisque ce qu’on appelle la cause pourrait tout aussi bien être l’effet et vice versa, ne l'est pas avec un temps linéaire, celui-ci ordonnant les événements selon un enchaînement chronologique irrémédiable. On en peut pas à la fois aller vers le passé et vers l'avenir. De même qu'un fleuve coule toujours dans le même sens, de l'amont vers l'aval, le temps a un cours bien défini, s'écoulant du passé vers l'avenir, sans jamais rebrousser chemin ni faire de boucle, de sorte qu'un instant donné ne peut jamais se reproduire…
Le principe de causalité se décline de différentes façons selon les théories physiques. Il ne renvoie pas toujours explicitement à l'idée de cause, se contentant parfois d'imposer une chronologie obligatoire entre certains types d'événements. Mentionnons rapidement, à titre d'illustrations, la façon dont il est pris en compte en relativité (restreinte ou générale) et en physique quantique.
En relativité restreinte
Le principe de causalité est garanti par l'impossibilité de transmettre de l'énergie ou de l'information à une vitesse supérieure à celle de la lumière. Cette impossibilité interdit les voyages dans le temps et les renversements de chronologie.

En relativité générale
La causalité est violée s’il existe une boucle temporelle, c’est-à-dire une ligne d’univers refermée sur elle-même. La théorie prévoit que de telles boucles pourraient apparaître derrière l’horizon de trous noirs en rotation très rapide, mais rien ne garantit qu'elles existent.

En physique quantique non relativiste
La causalité est inscrite dans l’équation de Schrödinger qui fait jouer au Hamiltonien le rôle de générateur infinitésimal des translations dans le temps. Il s’agit d’une causalité sans cause explicite.
En théorie quantique des champs
Les contraintes de la causalité s’expriment au moyen des règles de commutation des opérateurs de champs. Un opérateur de création Ф*(x) d’une particule au point x et l’opérateur d’annihilation de cette même particule Ф(y) au point y doivent commuter pour une séparation du genre espace et ne pas commuter pour une séparation du genre temps. Ces règles empêchent une particule de se propager sur une ligne du genre espace (la particule se propagerait plus vite que la lumière) et imposent, pour une propagation sur une ligne du genre temps, que la création d’une particule précède son annihilation. Ces contraintes ne peuvent être satisfaites que si la décomposition en ondes planes des opérateurs de champs contient des fréquences négatives, correspondant à des antiparticules. L’antimatière est donc la trace « matérielle » du fait que le temps passe en sens unique.
D'une façon générale, le principe de causalité s'exprime par le biais de ce que l'on appelle l'invariance CPT, sur laquelle nous allons nous attarder.
L'invariance CPT
Certaines symétries géométriques nous sont familières. D’autres, plus abstraites, sont couramment invoquées par les physiciens. C'est le cas de la « parité », de la « conjugaison de charge », et du « renversement du temps ».
La parité est une opération, notée P, qui consiste à regarder l'image d'une expérience donnée dans un miroir. Prenons l’exemple d'une expérience réelle mettant en jeu une collision entre particules. Appliquer l'opération P à une telle situation consiste à réaliser par la pensée l'expérience telle qu'elle serait vue dans un miroir. La nature des particules mises en jeu reste la même. En revanche, leurs positions sont modifiées puisque droite et gauche sont inversées dans l'opération.
La question se pose évidemment de savoir si, une fois cette opération réalisée, la nouvelle expérience peut ou non se réaliser dans la nature ou en laboratoire. Si la réponse est oui, on dira que l'expérience respecte la symétrie P. Dans le cas contraire, on dira qu'elle la viole.
À toute particule est par ailleurs associée une antiparticule, de même masse qu'elle et dont toutes les charges, notamment la charge électrique, sont opposées à celle de la particule correspondante. La conjugaison de charge est précisément l'opération qui consiste à transformer (sur le papier) une particule en son antiparticule, et vice versa. Par exemple, elle transforme l'électron en positron et le positron en électron, le proton en antiproton et l'antiproton en proton. Cette opération est notée C, pour « charge », en raison de l'inversion des charges entre particule et antiparticule.
Partons à nouveau d'une expérience réelle mettant en jeu une collision entre particules. Enregistrons soigneusement les vitesses et les positions de chacune des particules qui interviennent tout au long de l'expérience. Appliquons maintenant l'opération C : à chaque fois que l'on rencontre une particule, on la remplace par son antiparticule et on lui impose de suivre exactement la même trajectoire que celle qu'avait la particule dans la situation initiale. Si par exemple on regarde une collision entre un proton et un neutron, l'opération C nous décrira la « même » collision, sauf qu'elle se produira entre un antiproton et un antineutron. Si, une fois cette opération accomplie, la nouvelle expérience peut se réaliser, on dira que l'expérience respecte la symétrie C. Dans le cas contraire, on dira qu'elle la viole.
Enfin, l'opération « renversement du temps », notée T, correspond à un renversement du mouvement plutôt qu'à une inversion du temps proprement dit. Elle consiste à dérouler un phénomène dans le sens inverse de celui dans lequel il s'est produit, autrement dit à passer le film à l'envers. Selon les lois classiques, si à un instant donné t0, pris comme origine des temps ( t0 = 0), les vitesses de chaque astre du système solaire (Soleil, planètes et leurs satellites) étaient renversées, leur trajectoire ne serait pas modifiée, mais la position de chaque astre sur sa trajectoire à l'instant ultérieur t serait celle qu'il occupait à l'instant -t.
La parité, la conjugaison de charge et le renversement du temps jouent un rôle fondamental dans les équations que manient les physiciens des particules, par le biais de l'invariance CPT : comme son sigle l'indique, l'opération CPT est le produit des trois opérations C, P et T. Cette opération ne modifiant aucune des lois connues de la physique, on parle d'invariance CPT.
En langage imagé, l'invariance CPT se traduit en disant que les lois physiques qui gouvernent notre monde sont identiques à celles d'un monde d'antimatière observé dans un miroir et où le temps s'écoulerait à l'envers. Fondamentalement liée au principe de causalité, qui ordonne les événements selon un enchaînement irrémédiable, elle a notamment comme conséquence une sorte de symétrie entre la matière et l'antimatière. En particulier, elle prévoit que la masse et la durée de vie des particules sont rigoureusement égales à celles de leurs antiparticules.
L’interaction faible et les kaons neutres
Pendant longtemps, les physiciens, s'appuyant sur le sens commun, crurent que toutes les lois de la physique respectaient la symétrie P. N'est-il pas évident, lorsque nous voyons un arrangement d'objets dans un miroir, que nous pourrions réaliser cet arrangement dans la réalité aussi ? Pourtant, il fut démontré en 1957, à la surprise générale, que l'interaction nucléaire faible, responsable notamment de la radioactivité  par laquelle un neutron se désintègre en un proton et un électron, ne respecte pas la symétrie P. Autrement dit, l'image dans un miroir d'un phénomène régi par l'interaction faible correspond à un phénomène qui n'existe pas dans la nature et qu'on ne peut pas non plus produire en laboratoire. Cette violation de la parité, apanage de l'interaction faible, permet de définir de façon absolue la droite et la gauche.
On démontra dans le même temps que l’interaction faible violait également l’invariance par conjugaison de charge, d’une façon telle que la symétrie globale PC était, elle, préservée. Cette invariance par CP, combinée à l’invariance CPT, impliquait l‘invariance par T. Ce résultat rassurant ne tint que quelques années. En 1964, une expérience révéla que l’invariance par PC est elle aussi brisée, même si ce n’est que très légèrement, lors de la désintégration (par l’interaction faible) de particules étranges qu’on appelle les kaons neutres. Ces particules sont les seules pour lesquelles une telle dissymétrie ait jamais été observée. Mais alors, CPT étant toujours conservée, si PC ne l’est pas en l’occurrence, c’est que T ne l’est pas non plus, mais cette violation n’avait pas été mise en évidence directement.
Une expérience du CERN, baptisée CPLEAR, a apporté en 1998 une pierre décisive à ce débat. Elle a permis de mettre en évidence, de façon directe, une violation de la symétrie temporelle au sein d’un système microscopique particulier, celui formé par un kaon neutre et son antiparticule. Il est établi depuis longtemps qu’un kaon neutre se transforme au cours du temps en sa propre antiparticule, qui à son tour se retransforme en kaon neutre. Ce que l’expérience CPLEAR vient de mettre en évidence, c’est que la vitesse à laquelle un kaon neutre se transforme en son antiparticule n’est pas exactement la même que celle du processus inverse, contrairement à ce que la symétrie T prévoit. C’est la première fois qu’est mesurée directement une différence entre un processus microscopique et le processus inverse. L’origine profonde de cette légère brisure de la symétrie temporelle passé-futur demeure mystérieuse.

La question de la flèche du temps
Pour nous, passé et futur ne sont pas équivalents. Par exemple, nous nous souvenons en partie du passé, mais pas du tout de l’avenir. Cette asymétrie entre passé et futur est la manifestation du cours même du temps. Depuis Newton, les physiciens se demandent si cette distinction existe également au niveau des phénomènes physiques. Font-ils eux aussi la distinction entre le passé et l'avenir ?
Pensons à une table de billard sur laquelle nous faisons entrer deux boules en collision. Après le choc, les deux boules repartent dans des directions opposées. Si les frottements sont négligeables, leurs vitesses resteront constantes. Imaginons que nous ayons filmé la collision et que nous projetions le film à l’envers. Cela équivaut à échanger les rôles respectifs du passé et de l’avenir, c’est-à-dire à inverser le cours du temps. Ce que l’on voit alors à l’écran, c’est une autre collision de deux boules, correspondant à la collision qui s’est réellement produite mais avec toutes les vitesses inversées.
Le point important est qu'un spectateur qui ne verrait que la projection du film inversé serait tout à fait incapable de dire si ce qu’il voit correspond à ce qui s’est réellement passé ou si le film a effectivement été retourné. La raison de cette ambiguïté est que la deuxième collision est régie par les mêmes lois dynamiques que la première. Elle est donc tout aussi « physique », au sens où elle est tout aussi réalisable que la collision originale. Autrement dit, une telle collision est « réversible ». Sa dynamique ne dépendant pas de l’orientation du cours du temps, elle ne fait aucune distinction entre le passé et l’avenir. Cela signifie, non pas qu'elle autorise les voyages dans le temps, mais que pour elle le cours du temps est arbitraire.

Selon la physique d’aujourd’hui, tous les phénomènes ayant lieu au niveau microscopique sont comme ces collisions de boules de billard, c'est-à-dire réversibles. Or à notre échelle, nous n'observons que des phénomènes irréversibles, à commencer par le fait que nous vieillissons : si nous filmons une scène de la vie courante et projetons le film à l’envers, nous voyons dès les premières images qu’il y a eu inversion (le plongeur est expulsé de la piscine et se retrouve bien sec sur son plongeoir). A l'échelle macroscopique, le temps ne fait donc pas que passer : il invente, il crée, il use, il détruit, sans jamais pouvoir refaire ce qu'il a défait.
Comment expliquer l’émergence de cette irréversibilité observée à l’échelle macroscopique à partir de lois physiques qui l’ignorent à l’échelle microscopique ? Ce problème, dit de « la flèche du temps » a été ardemment discuté depuis deux siècles. La plus ancienne explication s'appuie sur l'irréversibilité associée au second principe de la thermodynamique, selon lequel l'entropie d'un système isolé ne peut qu'augmenter au cours du temps : de même que de l'eau tiède ne redevient jamais une juxtaposition d'eau chaude et d'eau froide, un système macroscopique qui évolue ne peut revenir à sa configuration initiale. Plus récemment, des physiciens ont suggéré que la flèche du temps proviendrait plutôt de l'expansion même de l'univers, qui orienterait tous les processus physiques selon un cours irréversible. D'autres pistes faisant référence à la physique quantique ou à la physique des particules ont également été proposées. Toutefois, aucune de ces explications ne peut être présentée comme universelle et définitive. Il semble donc qu'il n'y ait pas d'unité théorique autour du concept de temps, comme si deux façons de penser ne cessent de s'affronter, celle qui se fonde sur l'histoire et le temps, et celle qui se fonde sur l'invariance et l'absence de temps. Elles correspondent peut-être à deux composantes contradictoires mais inséparables de notre effort pour comprendre le monde : nous ne pouvons pas penser le monde sans le temps et nous ne savons pas le raconter sans imaginer qu’il monnaie quelque invariance.

[1] Les spécialistes des neurosciences expliquent que la conscience fonctionne par séquences de trois secondes, pendant lesquelles un ensemble de données restent présentes simultanément à l’esprit.
[2] « Plus le temps est vide et plus il nous pèse », remarquait Vladimir Jankélévitch. Ce constat suffit à différencier le temps des objets ordinaires de la mécanique.

 

  VIDEO       CANAL  U         LIEN   

 

 
 
 
initiation musicale toulon  

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?

  initiation musicale

 

 

 

 

 

 

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?


Nouveaux smartphones, casques de réalité virtuelle… aujourd’hui, tout le monde connaît de près ou de loin la réalité virtuelle. Elle permet de s’immerger, grâce à un ensemble de technologies, dans une reproduction numérique du monde réel ou dans un monde imaginaire. La réalité virtuelle est présente dans des domaines très variés allant du cinéma à la recherche, en passant par les jeux vidéo et l’industrie. Quelles sont les technologies associées à la réalité virtuelle ? Quels sont ses enjeux dans l’industrie et la recherche ? L’essentiel sur… la réalité virtuelle.

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?

La réalité virtuelle s’appuie sur un ensemble de technologies qui immergent une personne dans une reproduction numérique du monde réel ou dans un monde imaginaire. Plus le nombre de sens mobilisés est important – la vue, l’ouïe et le toucher – et plus l’immersion est efficace.

Grâce à différents outils comme des lunettes stéréoscopiques (le même type de lunettes que pour regarder des films en 3D) ou un casque immersif, l’utilisateur peut se déplacer dans un environnement plus ou moins sophistiqué, en 3D. Il peut vivre également une expérience interactive en manipulant virtuellement des objets, jusqu’à en ressentir le poids et la texture. L’expérience peut être enrichie par des manettes, gants, volants ou autres interfaces haptiques, pour des interactions plus complexes. Toutes ces interactions avec l’environnement virtuel ont lieu en temps réel.

Au-delà des scènes visibles en images de synthèse, l’immersion peut intégrer un avatar, qui évolue dans la scène au gré des intentions de son utilisateur. Toutes ces performances sont rendues possibles grâce à d’importants développements logiciels et algorithmiques qui permettent de restituer fidèlement l’environnement et de simuler finement les interactions entre les différents objets de la scène virtuelle au millimètre et à quelques millisecondes près.


RÉALITÉ VIRTUELLE, 
AUGMENTÉE ET MIXTE, KÉSAKO ?

La réalité virtuelle est l’ensemble des technologies qui permettent une immersion dans une reproduction numérique du monde réel ou dans un monde imaginaire.
La réalité augmentée permet d’incruster, superposer à la scène réelle d’un flux vidéo capté par une caméra, des images virtuelles fixes ou animées en temps réel. Il existe déjà de telles applications dans le tourisme : monuments et restaurants sont ainsi montrés sous leur apparence d’il y a 500 ans ou décrits sur l’écran des smartphones en temps réel.
Un cran supplémentaire sera franchi avec la réalité mixte : il sera possible d’interagir avec un objet virtuel (personnages, objets, machines…) incrusté dans la captation vidéo de la scène réelle. Par exemple, on pourra étudier et valider l’utilisation d’un robot grâce à son avatar virtuel au stade de la conception, tout en le pilotant dans un environnement industriel réel.
 
L'HISTOIRE DE LA RÉALITÉ VIRTUELLE EN QUELQUES DATES CLÉS
La réalité virtuelle apparaît dans les années 50, d’abord dans le domaine du cinéma. Depuis, les progrès dans le domaine du numérique – logiciel, graphisme, algorithme, optimisation des capacités de calcul - ont permis de développer les technologies de réalité virtuelle dans de nombreux secteurs de l’économie. Aujourd’hui, la mise sur le marché de casques de réalité virtuelle (ou casques VR) permet aux industriels et au grand public des expériences immersives beaucoup plus accessibles.


Années 50-60

L’ancêtre de la réalité virtuelle est le Sensorama. Cette machine, imaginée en 1956, puis créée en 1962 par Morton Leonard Heilig, cinéaste, philosophe et documentariste permettait à son utilisateur de regarder un film en s’immergeant dans un univers 3D, comme s’il y était. La particularité de cette machine était qu’elle pouvait stimuler différents sens comme la vue, le toucher, l’ouïe et l’odorat. Cette machine est restée au stade de prototype car sa production aurait coûté trop cher.


En 1963, Ivan Sutherland, ingénieur en informatique, écrit un programme informatique nommé Sketchpad. Ce logiciel est considéré comme l’ancêtre des logiciels de conception assistée par ordinateur (CAO), aujourd’hui utilisés par tous ceux qui font de la 3D. Pour cette invention, Ivan Sutherland reçoit en 1988 le prix Turing, qui récompense une personne ayant contribué à la communauté informatique avec une importance technique majeure et durable.

De 1965 à 1968, Ivan Sutherland, et son étudiant Bob Sproull, développent un nouveau moyen de visualiser des images de synthèse : l’Ultimate Display, ou Épée de Damoclès. L’Épée de Damoclès était un casque avec détecteur de mouvement intégré. Il porte ce nom en raison du bras mécanique nécessaire pour traquer les mouvements de la tête.


Années 80-90
En 1984, le CEA et l’IRISA créent le premier système de réalité virtuelle à retour d’efforts dans le cadre du grand programme national de recherche en automatique, ARA. Il s’agissait d’utiliser en temps réel des modèles 3D de l’environnement d’un robot téléopéré. Une première dans le domaine de la recherche.

Parallèlement, Jaron Lanier, chercheur en informatique, et Thomas Zimmerman, l’inventeur du gant sensitif, fondent VPL Research en 1985, une société pionnière dans le domaine de réalité virtuelle. Ensemble, ils inventent plusieurs moyens d’explorer la réalité virtuelle dont le « Dataglove » en 1987, ou « gant de données ». Ce gant comporte des capteurs et permet à un utilisateur de saisir un objet virtuel et de le manipuler, en numérisant en temps réel les mouvements de la main. La société va également développer les premiers casques de réalité virtuelle de la NASA, le casque VIEW. Ce dernier permettait d’immerger les astronautes dans diverses situations spatiales et de les entraîner. Ce casque était accompagné d'une combinaison qui permettait un suivi complet des mouvements du corps.

L’expression « réalité virtuelle » fut proposée et utilisée pour la première fois en 1989, par Jaron Lanier, fondateur de la société VPL Research.


En 1995, le CEA propose au monde industriel le premier système de simulation de poste de travail robotisé à retour d’efforts en bénéficiant des avancées dans le domaine des calculateurs qui ont permis de représenter des environnements complexes en 3D et surtout en temps réel.

Ces avancées majeures ont permis de donner naissance à une véritable école française de réalité virtuelle industrielle qui, à partir du début des années 2000, a commencé à pénétrer les bureaux d’étude de tous les grands groupes industriels dans les secteurs de l’aéronautique et de l’automobile.

Aujourd'hui
Les progrès réalisés dans le domaine informatique améliorent toujours plus le réalisme et les interactions en temps réel de la réalité virtuelle. Parmi les innovations de rupture, la démocratisation des casques VR permet de réaliser des expériences immersives à moindre coût. En effet, il y a encore quelques années, le cave ou la salle immersive était l’unique moyen de réaliser de telles expériences. Mais ce moyen reste onéreux et lourd à mettre en œuvre. La réalité virtuelle est dans une phase de « révolution » et nombre de promesses sont encore à explorer.

LES OBJECTIFS DE LA RÉALITÉ VIRTUELLE
Pour répondre aux besoins et aux envies des industriels et du grand public, les moyens se déploient sans cesse pour rendre la réalité virtuelle encore plus performante et permettre davantage d’interactions.
En améliorant les technologies de réalité virtuelle, les chercheurs poursuivent plusieurs objectifs :



*         Voir et manipuler des objets imaginaires : les chercheurs et les utilisateurs peuvent laisser libre cours à leur créativité, et ainsi trouver des réponses à des questionnements qui étaient impossibles à résoudre sans réalité virtuelle.



*         Vérifier et valider les concepts, les process, les produits avant la réalisation d’un prototype. Tester une maquette numérique avant de passer à une maquette réelle permet d’économiser du temps et de l’argent.



*         Former à de nombreux métiers nécessite d’acquérir le « geste parfait » et les interfaces haptiques (bras articulés, manettes, gants, certains casques VR) participent à cet entraînement, par exemple pour des opérations de peinture, de pilotage d’avion, de chirurgie… voire d’apprentissage en auto-école.  La réalité virtuelle peut également aider à soigner les phobies : l’immersion à l’aide des casques de réalité virtuelle permet à des personnes atteintes de phobies, comme la peur de l’avion ou la peur des araignées, de dépasser leur peur. Ils sont aussi de précieux outils pour apprendre à réagir aux situations de crise et à divers aléas.



*         Étudier et diagnostiquer les postes de travail, établir leur cotation ergonomique, c’est-à-dire évaluer les postures des membres, du cou, et du tronc selon une grille d’observation. Les chercheurs peuvent, grâce à la réalité virtuelle, évaluer la pénibilité des tâches, repérer les postures pouvant entraîner des troubles musculo-squelettiques, et ainsi les prévenir. La réalité virtuelle permet aussi de déterminer si un geste humain est possible, compte tenu des contraintes de l’environnement où il sera réalisé et de mettre en place une éventuelle assistance cobotique.

*         Simuler le réel pour assurer la sécurité d’une activité.



LES DOMAINES D'APPLICATION DE LA RÉALITÉ VIRTUELLE

L'usine du futur
Le recours croissant au numérique est devenu incontournable pour optimiser l’outil de production, dès sa conception, mais aussi simuler la réalisation de tâches ou superviser le fonctionnement des robots. La réalité virtuelle et la réalité augmentée contribuent ainsi de façon croissante à la formation industrielle et à l’apprentissage de certaines techniques de maintenance.

Parmi les industries intéressées par les technologies de réalité virtuelle, de grands constructeurs automobiles et, pour la partie grand public, des concepteurs de salles d'arcade et de jeux vidéo avec lesquels sont menés des projets collaboratifs de serious game. Certaines sociétés spécialisées dans les outils d'évaluation HSE (Hygiène – Sécurité - Environnement) ont montré comment la cotation ergonomique pouvait contribuer à modifier le design d'un poste de travail.

Démantèlement nucléaire

La réalité virtuelle est utilisée par les acteurs de la filière nucléaire pour notamment intervenir en milieu « hostile ». Dans le cadre de projets de démantèlement nucléaire, les équipes peuvent utiliser des solutions logicielles (salle de réalité virtuelle 3D immersive) et technologiques (équipements téléopérés sur une maquette réelle à l’échelle 1) pour les aider à concevoir, tester et optimiser les scénarios de démantèlement. Concrètement, la salle immersive reconstitue en trois dimensions les chantiers de démantèlement à réaliser grâce à un robot, ainsi qu’une reproduction « image » du robot lui-même.
Un poste complet de téléopération (bras haptique à retour d’effort, baies de contrôle-commande...) similaire à ceux utilisés sur le terrain, permet aux téléopérateurs de se former ainsi que de tester les capacités du robot. Au-delà de la formation des opérateurs, la simulation et la modélisation sont très utiles pour préparer les interventions et définir les dispositifs de radioprotection nécessaires.

Recherche fondamentale
La réalité virtuelle intéresse aussi la recherche fondamentale. Par exemple, dans le domaine de la santé ou de l'archéologie, l'utilisation de la réalité virtuelle procure de nouvelles capacités de visualisation et d'interaction pour modéliser de nouvelles molécules ou se mettre 'à hauteur' de nos ancêtres dans leur environnement reconstitué.

Loisirs
Les casques de réalité virtuelle sont de plus en plus utilisés pour les loisirs : jeux vidéo, audiovisuel pour permettre aux usagers une immersion toujours plus proche de la réalité.

 

   DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

L'ESSENTIEL SUR... La réalité virtuelle

  initiation musicale



 

 

 

 

 

L'ESSENTIEL SUR...
La réalité virtuelle


Publié le 12 décembre 2017

 Nouveaux smartphones, casques de réalité virtuelle… aujourd’hui, tout le monde connaît de près ou de loin la réalité virtuelle. Elle permet de s’immerger, grâce à un ensemble de technologies, dans une reproduction numérique du monde réel ou dans un monde imaginaire. La réalité virtuelle est présente dans des domaines très variés allant du cinéma à la recherche, en passant par les jeux vidéo et l’industrie. Quelles sont les technologies associées à la réalité virtuelle ? Quels sont ses enjeux dans l’industrie et la recherche ? L’essentiel sur… la réalité virtuelle.

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?
La réalité virtuelle s’appuie sur un ensemble de technologies qui immergent une personne dans une reproduction numérique du monde réel ou dans un monde imaginaire. Plus le nombre de sens mobilisés est important – la vue, l’ouïe et le toucher – et plus l’immersion est efficace.

Grâce à différents outils comme des lunettes stéréoscopiques (le même type de lunettes que pour regarder des films en 3D) ou un casque immersif, l’utilisateur peut se déplacer dans un environnement plus ou moins sophistiqué, en 3D. Il peut vivre également une expérience interactive en manipulant virtuellement des objets, jusqu’à en ressentir le poids et la texture. L’expérience peut être enrichie par des manettes, gants, volants ou autres interfaces haptiques, pour des interactions plus complexes. Toutes ces interactions avec l’environnement virtuel ont lieu en temps réel.

Au-delà des scènes visibles en images de synthèse, l’immersion peut intégrer un avatar, qui évolue dans la scène au gré des intentions de son utilisateur. Toutes ces performances sont rendues possibles grâce à d’importants développements logiciels et algorithmiques qui permettent de restituer fidèlement l’environnement et de simuler finement les interactions entre les différents objets de la scène virtuelle au millimètre et à quelques millisecondes près.

RÉALITÉ VIRTUELLE, 
AUGMENTÉE ET MIXTE, KÉSAKO ?

La réalité virtuelle est l’ensemble des technologies qui permettent une immersion dans une reproduction numérique du monde réel ou dans un monde imaginaire.
La réalité augmentée permet d’incruster, superposer à la scène réelle d’un flux vidéo capté par une caméra, des images virtuelles fixes ou animées en temps réel. Il existe déjà de telles applications dans le tourisme : monuments et restaurants sont ainsi montrés sous leur apparence d’il y a 500 ans ou décrits sur l’écran des smartphones en temps réel.
Un cran supplémentaire sera franchi avec la réalité mixte : il sera possible d’interagir avec un objet virtuel (personnages, objets, machines…) incrusté dans la captation vidéo de la scène réelle. Par exemple, on pourra étudier et valider l’utilisation d’un robot grâce à son avatar virtuel au stade de la conception, tout en le pilotant dans un environnement industriel réel.
 
L'HISTOIRE DE LA RÉALITÉ VIRTUELLE EN QUELQUES DATES CLÉS
La réalité virtuelle apparaît dans les années 50, d’abord dans le domaine du cinéma. Depuis, les progrès dans le domaine du numérique – logiciel, graphisme, algorithme, optimisation des capacités de calcul - ont permis de développer les technologies de réalité virtuelle dans de nombreux secteurs de l’économie. Aujourd’hui, la mise sur le marché de casques de réalité virtuelle (ou casques VR) permet aux industriels et au grand public des expériences immersives beaucoup plus accessibles.


Années 50-60

L’ancêtre de la réalité virtuelle est le Sensorama. Cette machine, imaginée en 1956, puis créée en 1962 par Morton Leonard Heilig, cinéaste, philosophe et documentariste permettait à son utilisateur de regarder un film en s’immergeant dans un univers 3D, comme s’il y était. La particularité de cette machine était qu’elle pouvait stimuler différents sens comme la vue, le toucher, l’ouïe et l’odorat. Cette machine est restée au stade de prototype car sa production aurait coûté trop cher.


En 1963, Ivan Sutherland, ingénieur en informatique, écrit un programme informatique nommé Sketchpad. Ce logiciel est considéré comme l’ancêtre des logiciels de conception assistée par ordinateur (CAO), aujourd’hui utilisés par tous ceux qui font de la 3D. Pour cette invention, Ivan Sutherland reçoit en 1988 le prix Turing, qui récompense une personne ayant contribué à la communauté informatique avec une importance technique majeure et durable.

De 1965 à 1968, Ivan Sutherland, et son étudiant Bob Sproull, développent un nouveau moyen de visualiser des images de synthèse : l’Ultimate Display, ou Épée de Damoclès. L’Épée de Damoclès était un casque avec détecteur de mouvement intégré. Il porte ce nom en raison du bras mécanique nécessaire pour traquer les mouvements de la tête.


Années 80-90
En 1984, le CEA et l’IRISA créent le premier système de réalité virtuelle à retour d’efforts dans le cadre du grand programme national de recherche en automatique, ARA. Il s’agissait d’utiliser en temps réel des modèles 3D de l’environnement d’un robot téléopéré. Une première dans le domaine de la recherche.

Parallèlement, Jaron Lanier, chercheur en informatique, et Thomas Zimmerman, l’inventeur du gant sensitif, fondent VPL Research en 1985, une société pionnière dans le domaine de réalité virtuelle. Ensemble, ils inventent plusieurs moyens d’explorer la réalité virtuelle dont le « Dataglove » en 1987, ou « gant de données ». Ce gant comporte des capteurs et permet à un utilisateur de saisir un objet virtuel et de le manipuler, en numérisant en temps réel les mouvements de la main. La société va également développer les premiers casques de réalité virtuelle de la NASA, le casque VIEW. Ce dernier permettait d’immerger les astronautes dans diverses situations spatiales et de les entraîner. Ce casque était accompagné d'une combinaison qui permettait un suivi complet des mouvements du corps.


L’expression « réalité virtuelle » fut proposée et utilisée pour la première fois en 1989, par Jaron Lanier, fondateur de la société VPL Research.


En 1995, le CEA propose au monde industriel le premier système de simulation de poste de travail robotisé à retour d’efforts en bénéficiant des avancées dans le domaine des calculateurs qui ont permis de représenter des environnements complexes en 3D et surtout en temps réel.


Ces avancées majeures ont permis de donner naissance à une véritable école française de réalité virtuelle industrielle qui, à partir du début des années 2000, a commencé à pénétrer les bureaux d’étude de tous les grands groupes industriels dans les secteurs de l’aéronautique et de l’automobile.


Aujourd'hui
Les progrès réalisés dans le domaine informatique améliorent toujours plus le réalisme et les interactions en temps réel de la réalité virtuelle. Parmi les innovations de rupture, la démocratisation des casques VR permet de réaliser des expériences immersives à moindre coût. En effet, il y a encore quelques années, le cave ou la salle immersive était l’unique moyen de réaliser de telles expériences. Mais ce moyen reste onéreux et lourd à mettre en œuvre. La réalité virtuelle est dans une phase de « révolution » et nombre de promesses sont encore à explorer.

LES OBJECTIFS DE LA RÉALITÉ VIRTUELLE

Pour répondre aux besoins et aux envies des industriels et du grand public, les moyens se déploient sans cesse pour rendre la réalité virtuelle encore plus performante et permettre davantage d’interactions.
En améliorant les technologies de réalité virtuelle, les chercheurs poursuivent plusieurs objectifs :



*         Voir et manipuler des objets imaginaires : les chercheurs et les utilisateurs peuvent laisser libre cours à leur créativité, et ainsi trouver des réponses à des questionnements qui étaient impossibles à résoudre sans réalité virtuelle.



*         Vérifier et valider les concepts, les process, les produits avant la réalisation d’un prototype. Tester une maquette numérique avant de passer à une maquette réelle permet d’économiser du temps et de l’argent.



*         Former à de nombreux métiers nécessite d’acquérir le « geste parfait » et les interfaces haptiques (bras articulés, manettes, gants, certains casques VR) participent à cet entraînement, par exemple pour des opérations de peinture, de pilotage d’avion, de chirurgie… voire d’apprentissage en auto-école.  La réalité virtuelle peut également aider à soigner les phobies : l’immersion à l’aide des casques de réalité virtuelle permet à des personnes atteintes de phobies, comme la peur de l’avion ou la peur des araignées, de dépasser leur peur. Ils sont aussi de précieux outils pour apprendre à réagir aux situations de crise et à divers aléas.



*         Étudier et diagnostiquer les postes de travail, établir leur cotation ergonomique, c’est-à-dire évaluer les postures des membres, du cou, et du tronc selon une grille d’observation. Les chercheurs peuvent, grâce à la réalité virtuelle, évaluer la pénibilité des tâches, repérer les postures pouvant entraîner des troubles musculo-squelettiques, et ainsi les prévenir. La réalité virtuelle permet aussi de déterminer si un geste humain est possible, compte tenu des contraintes de l’environnement où il sera réalisé et de mettre en place une éventuelle assistance cobotique.
*
        Simuler le réel pour assurer la sécurité d’une activité.



LES DOMAINES D'APPLICATION DE LA RÉALITÉ VIRTUELLE

L'usine du futur
Le recours croissant au numérique est devenu incontournable pour optimiser l’outil de production, dès sa conception, mais aussi simuler la réalisation de tâches ou superviser le fonctionnement des robots. La réalité virtuelle et la réalité augmentée contribuent ainsi de façon croissante à la formation industrielle et à l’apprentissage de certaines techniques de maintenance.


Parmi les industries intéressées par les technologies de réalité virtuelle, de grands constructeurs automobiles et, pour la partie grand public, des concepteurs de salles d'arcade et de jeux vidéo avec lesquels sont menés des projets collaboratifs de serious game. Certaines sociétés spécialisées dans les outils d'évaluation HSE (Hygiène – Sécurité - Environnement) ont montré comment la cotation ergonomique pouvait contribuer à modifier le design d'un poste de travail.

Démantèlement nucléaire
La réalité virtuelle est utilisée par les acteurs de la filière nucléaire pour notamment intervenir en milieu « hostile ». Dans le cadre de projets de démantèlement nucléaire, les équipes peuvent utiliser des solutions logicielles (salle de réalité virtuelle 3D immersive) et technologiques (équipements téléopérés sur une maquette réelle à l’échelle 1) pour les aider à concevoir, tester et optimiser les scénarios de démantèlement. Concrètement, la salle immersive reconstitue en trois dimensions les chantiers de démantèlement à réaliser grâce à un robot, ainsi qu’une reproduction « image » du robot lui-même.
Un poste complet de téléopération (bras haptique à retour d’effort, baies de contrôle-commande...) similaire à ceux utilisés sur le terrain, permet aux téléopérateurs de se former ainsi que de tester les capacités du robot. Au-delà de la formation des opérateurs, la simulation et la modélisation sont très utiles pour préparer les interventions et définir les dispositifs de radioprotection nécessaires.

Recherche fondamentale
La réalité virtuelle intéresse aussi la recherche fondamentale. Par exemple, dans le domaine de la santé ou de l'archéologie, l'utilisation de la réalité virtuelle procure de nouvelles capacités de visualisation et d'interaction pour modéliser de nouvelles molécules ou se mettre 'à hauteur' de nos ancêtres dans leur environnement reconstitué.

 

   DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

Caractéristiques des diverses énergies

  initiation musicale

 

 

 

 

 

 

Caractéristiques des diverses énergies


Puissance, "perte" en chaleur, capacité de renouvellement… Ces caractéristiques déterminent l'usage que nous faisons des différentes énergies.

Publié le 1 juillet 2012
*

Bien que l’énergie soit une seule et même grandeur physique, ses diverses formes présentent des caractéristiques très différentes. Dans la pratique, le choix de tel ou tel type d’énergie dépendra donc du but poursuivi. Pour un objectif donné, par exemple produire de l’énergie électrique, il est essentiel, selon les circonstances, de peser le pour et le contre de chaque solution envisageable, et les critères de choix sont multiples.

ÉNERGIES DILUÉES OU CONCENTRÉES
De même qu’un billet de 50 euros permet d’acheter la même quantité de marchandises que 50 pièces de 1 euro, certaines formes d’énergie sont concentrées sous un volume beaucoup plus faible que d’autres. On peut de ce point de vue distinguer trois catégories, qui correspondent aux trois types de forces identifiées précédemment.

L’énergie de gravitation
L’énergie de gravitation n’est appréciable que si des masses considérables sont en jeu. On a vu que 1 kg d’eau tombant de 100 m ne fournit que 981 J (voir chapitre “Les diverses formes d'énergie”, paragraphe “Énergie de gravitation”) et que 1 kWh vaut 3 600 000 J (voir chapitre “Qu'est-ce que l'Énergie ?”, paragraphe “La puissance”). Pour libérer seulement 1 kWh, il faut faire chuter (3 600 000 J/981 J/kg) soit 3,67 t d’eau de 100 m. Les centrales hydroélectriques sont donc peu efficaces de ce point de vue. Les énergies mécaniques apparaissant dans notre vie courante ont aussi des ordres de grandeur très faibles. L’énergie cinétique d’une voiture pesant 1 tonne roulant à 100 km/h n’est que de 0,1 kWh.

La nature ne nous permet de convertir qu’une fraction de chaleur en une autre forme d’énergie.
Énergies calorifique, électrique, radiative et chimique

Dans la catégorie intermédiaire figurent les énergies calorifique, électrique, radiative et chimique, qui, pour les usages courants, se mesurent en nombres de l’ordre du kWh par kg de matière. Il faut fournir 0,1 kWh pour faire fondre 1 kg de glace, 0,7 kWh pour vaporiser 1 kg d’eau à 100 °C. Les appareils électroménagers consomment une puissance électrique comprise entre 0,1 et 5 kW. La combustion de 1 kg de pétrole ou de gaz fournit environ 12 kWh. Un homme élabore de l’énergie biochimique, provenant des aliments digérés et de l’air respiré. Il l’utilise pour maintenir sa température à 37 °C et exercer ses activités ; la puissance correspondante est de 100 W au repos, de 500 W en pleine activité physique.
On peut prendre conscience de l’écart qui sépare ces deux premières catégories d’énergie en notant que, si l’énergie mécanique d’un œuf tombant du sommet de la tour Eiffel était entièrement transformée en chaleur et utilisée pour échauffer l’œuf, sa température n’augmenterait que de 0,7 °C.

 
La catégorie intermédiaire des énergies diluées ou concentrées regroupe les énergies calorifique, électrique, radiative et chimique. Exemple : la combustion de pétrole ou de gaz. © PhotoDisc

 
Le calcul de l'énergie totale
Dans le Soleil, 1 kg d’hydrogène produit 180 millions de kWh. Pour des énergies aussi considérables, on vérifie la célèbre relation d’Einstein E = mc2, qui exprime que l’énergie totale d’un corps est proportionnelle à sa masse, nouvelle propriété d’équivalence ; mais le coefficient est énorme, puisque la vitesse c de la lumière vaut 300 000 km/s. De la sorte, une masse de seulement 1 mg équivaut à 25 000 kWh ; dans une centrale nucléaire, la transformation de 1 kg d’uranium naturel en d’autres éléments diminue l’énergie nucléaire du combustible de 100 000 kWh, et donc sa masse de 4 mg.

Les énergies renouvelables sont celles qui nous parviennent directement ou indirectement, du Soleil, du vent…

L’énergie nucléaire
L’énergie nucléaire est de loin une forme d’énergie beaucoup plus concentrée, puisque 1 kg d’uranium naturel fournit une quantité de chaleur de 100 000 kWh dans une centrale électrique courante, alors que 1 kg de charbon fournit en brûlant 8 kWh. C’est pourquoi on ne manipule que d’assez faibles masses de combustible nucléaire pour la production d’électricité : une centrale électronucléaire d’une puissance de 1 000 MW électriques (109 W) consomme 27 tonnes d’uranium enrichi par an, le quart de son chargement, alors qu’une centrale thermique de même puissance consomme 1 500 000 tonnes de pétrole par an. En fait, on ne sait extraire industriellement qu’une assez faible part de l’énergie nucléaire emmagasinée dans la matière. Dans le Soleil, 1 kg d’hydrogène produit, par réactions nucléaires le transformant en hélium, 180 millions de kWh.

LA DÉGRADATION
L’expérience montre qu’un système physique livré à lui-même tend à devenir spontanément de plus en plus désordonné. Parmi les diverses formes de l’énergie, la chaleur correspond à des mouvements désordonnés des molécules. Au contraire, les autres formes d’énergie, que l’on peut qualifier de “nobles”, sont ordonnées à l’échelle microscopique. Elles ont donc tendance à se changer en chaleur. Ce phénomène est appelé la dissipation, et l’on dit que la chaleur est une forme dégradée de l’énergie.

Il est facile de produire de la chaleur à partir d’une quantité équivalente d’énergie noble, par exemple dans des fours et chaudières, électriques ou à combustion, ou des capteurs solaires pour chauffe-eau. Mais les transformations inverses sont impossibles. Si l’on dispose d’une certaine quantité de chaleur, on ne peut pas la convertir intégralement en énergie mécanique, électrique ou chimique à l’aide d’un appareil qui fonctionnerait en cycle fermé, en revenant périodiquement à son état initial. Cette “interdiction” constitue l’une des grandes lois de la physique, confirmée par d’innombrables expériences : la nature ne nous autorise à convertir en une autre forme d’énergie qu’une fraction de la chaleur disponible, et elle impose à cette fraction de ne pas dépasser une certaine valeur maximale. C’est ce qui limite le rendement des turbines à vapeur dans les centrales électriques, des moteurs de voiture et d’avion, et de tous les engins délivrant de l’énergie mécanique à partir de l’énergie calorifique d’un gaz chaud.

La chaleur apparaît souvent comme une “perte” lorsqu’on manie les autres formes d’énergie (sauf, bien entendu, si l’on a en vue le chauffage domestique ou industriel). Afin d’exploiter l’énergie nucléaire ou l’énergie chimique dans une centrale électrique ou une automobile, on commence par produire de la chaleur par réaction nucléaire ou chimique ; seule une partie de cette chaleur peut ensuite être reconvertie en énergie électrique ou mécanique. La situation la plus favorable est celle de la conversion directe d’énergie mécanique en énergie électrique, et vice versa. Mais même dans ce cas, il est difficile en pratique d’éviter de détourner une part de ces énergies nobles vers de la chaleur. Si l’arbre d’un moteur entraîne celui d’un alternateur, le premier transforme de l’énergie électrique en énergie mécanique, et c’est l’alternateur qui reconvertit celle-ci en énergie électrique. Mais on récupère au total moins d’énergie électrique qu’on n’en a fourni ; la différence consiste en un dégagement de chaleur par effet joule, dans les bobinages ou par frottement, dans les paliers, impossible à éliminer totalement.
Cette équivalence entre les énergies est comparable à celle qui existe entre des monnaies convertibles, 1 dollar valant par exemple 0,98 euro. La dissipation en chaleur joue alors le rôle des frais bancaires qui nous empêchent de recouvrer le montant initial si nous changeons des euros en dollars, puis ceux-ci à nouveau en euros. La valeur comme l’énergie sont bien conservées au total, mais pas pour nous.

LE STOCKAGE
L’énergie électrique peut être emmagasinée dans des accumulateurs, sous forme d’énergie chimique. Mais la décharge d’un accumulateur fournit moins d’énergie électrique que sa charge, car les réactions électrochimiques s’accompagnent d’une assez forte dégradation en chaleur. De plus, les accumulateurs sont coûteux et lourds, puisqu’ils n’emmagasinent que 0,1 kWh par kg, ce qui est, avec le prix, la principale entrave au développement de la voiture électrique.
Nos besoins en puissance électrique varient avec l’heure, en croissant par exemple rapidement le soir ; et les centrales nucléaires ont du mal à suivre ces changements. Étant donné la faiblesse des pertes de chaleur dans les échanges électromécaniques, on a imaginé d’utiliser les barrages non seulement comme sources d’énergie hydroélectrique, mais aussi comme réservoirs d’énergie. En heures creuses, l’eau est pompée du bas du barrage vers la retenue par emploi d’énergie électronucléaire, et en heures de pointe, cette eau redescend, actionne les turbines de l’usine et l’on récupère de l’électricité. Puisque cette forme de stockage passe par de l’énergie mécanique, elle nécessite de brasser de fortes masses d’eau, plusieurs tonnes par kWh emmagasiné.
Les carburants, chimiques ou nucléaires, emmagasinent efficacement de l’énergie. Mais nous ne savons, en pareil cas, récupérer celle-ci que sous forme de chaleur.

LE TRANSPORT DE L'ÉNERGIE
La relative facilité de stockage et aussi de transport sur de grandes distances du charbon, du pétrole et du gaz a été l’un des facteurs primordiaux du développement de l’industrie depuis deux siècles. L’essor de l’automobile repose aussi sur la possibilité d’emporter avec soi assez de carburant pour parcourir plusieurs centaines de kilomètres. Mais l’électricité est la seule forme d’énergie susceptible d’être à la fois transformée en quasi-totalité en n’importe laquelle des autres, et transportée au loin en grande quantité à un coût relativement faible. Les pertes de chaleur dans les lignes à haute tension et les transformateurs atteignent cependant 8%.

LES RÉSERVES
On distingue les énergies fossiles des énergies renouvelables. Les premières reposent sur l’exploitation de minéraux et combustibles formés durant l’histoire de la Terre et n’existant qu’en quantités limitées. En tenant compte de l’évolution des consommations, et de l’espoir de découvrir de nouveaux gisements, on peut estimer les réserves mondiales à quelques dizaines d’années pour le pétrole, à une centaine d’années pour le gaz ou l’uranium, à quelques siècles pour le charbon. Le développement de techniques comme celles des surgénérateurs suffirait cependant à multiplier nos réserves en énergie nucléaire par un facteur supérieur à 100.

Les énergies renouvelables
Les énergies renouvelables sont celles qui nous parviennent directement ou indirectement du Soleil, qui nous envoie en permanence son rayonnement. Il s’agit des énergies solaire, hydraulique, éolienne (celle du vent), mais aussi de l’énergie chimique qui s’accumule dans les végétaux utilisables comme combustibles (bois, déchets, alcool). La puissance totale que l’on peut tirer de ces énergies renouvelables est cependant limitée ; par exemple, il ne faudrait pas brûler les forêts à un rythme plus rapide que celui de leur croissance. Bien qu’elles constituent un appoint essentiel, les énergies renouvelables ne sauraient se substituer qu’en faible proportion aux énergies fossiles.

LES NUISANCES
La manipulation de toutes les formes d’énergie produit sur notre environnement des effets plus ou moins néfastes, qu’il importe de savoir apprécier cas par cas. Certains résidus de combustion du charbon, du pétrole, de l’essence, ou même du gaz s’il brûle mal, sont nocifs pour l’homme. Le principal gaz dégagé, le dioxyde de carbone, s’accumule dans l’atmosphère, ce qui risque d’influer sur notre climat, en accroissant l’effet de serre. Les réactions nucléaires génèrent des déchets radioactifs, qu’il est essentiel de traiter ou de réduire surtout lorsqu’ils ont une longue durée de vie. Les centrales hydroélectriques noient des vallées. Les éoliennes sont bruyantes, et n’assurent pas une production continue ; de plus, elles occupent beaucoup d’espace pour d’assez faibles puissances. Les photopiles solaires ont le même défaut et sont très chères, de sorte que la transformation d’énergie solaire en électricité n’est adaptée qu’à l’alimentation d’habitations isolées ou au fonctionnement de petits appareils portables comme des calculettes ; de plus, la fabrication des photopiles est très coûteuse en énergie.

La pollution thermique
La dégradation de l’énergie entraîne une conséquence commune à toutes les énergies non renouvelables, la pollution thermique. La majeure partie des énergies fossiles que nous utilisons se change en définitive en chaleur. Nous avons vu, par exemple, que le bilan global du fonctionnement d’une voiture consiste en une transformation de l’énergie chimique de l’essence en chaleur cédée à l’environnement. Même si la pollution thermique est trop faible pour influencer le climat, elle peut avoir des effets locaux : une centrale thermique ou nucléaire refroidie par l’eau d’une rivière augmente de façon appréciable la température de cette eau en aval et peut ainsi modifier son équilibre écologique. D’importantes économies pourraient être réalisées en récupérant cette chaleur perdue. La moitié de l’énergie que nous utilisons est en effet destinée au chauffage domestique ou industriel, réalisé à l’aide de charbon, de gaz, de fioul ou d’électricité. Ce type de consommations pourrait être réduit par un meilleur emploi de la chaleur issue des centrales. En fait, la consommation moyenne d’énergie par habitant reflète non seulement un niveau de vie, mais aussi un niveau de gaspillage. Cet exemple illustre un point essentiel : la multiplicité des sources d’énergie répond à la diversité des usages, et une approche globale des problèmes énergétiques est indispensable.

 

   DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 ] - Suivante
 
 
 
Google