ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

UN REGARD VERS LE FUTUR

 

Un regard vers le futur
Luciano Maiani

Le sujet de cet exposé concerne la relation profonde liant la structure de la matière (les particules élémentaires) et les phénomènes à grande échelle se déroulant dans lunivers. Lidée même de ce lien a été lune des idées les plus fructueuses de notre passé moderne et il est surprenant de la retrouver clairement exprimée par les philosophes anciens et les artistes. Nous, humains, denviron 200cm, nous plaçons entre la terre (un million de fois plus grande), le soleil, la galaxie, les amas de galaxies, le fond cosmique. Ce dernier est lhorizon le plus lointain que nous puissions voir : il se trouve à 10 milliards dannées lumière, cest à dire 1028cm. Dautres choses se trouvent derrière ce ciel, mais ne sont détectables quavec des télescopes sensibles à dautres particules que les photons. De lautre coté de léchelle se trouvent latome -10-8cm, soit environ un Angstrom- le noyau -100 000 fois plus petit- et enfin les particules élémentaires, qui sont produites par des accélérateurs de particules puissants, comme le LHC en construction au CERN (Centre Européen de la Recherche Nucléaire), où ont été découverts les bosons W et Z0 qui sont les particules médiatrices des interactions faibles. Après les particules élémentaires se trouve le domaine des frontières, 10-17cm. Cependant, les phénomènes qui ont accompagné les fluctuations primordiales des premiers instants de lunivers se trouvent encore au delà de ce domaine.

Un premier exemple : lénergie du soleil

La question très simple de lorigine de lénergie du soleil permet immédiatement dappréhender les relations entre phénomènes à très petite et très grande échelle. La question sest posée à la fin du XIXème siècle. A cette époque la seule solution envisageable est la contraction gravitationnelle, au cours de laquelle lénergie potentielle est convertie en agitation thermique, c'est-à-dire en chaleur. Lord Kelvin a fait des calculs mathématiques et conclu à une durée de vie très courte du soleil de lordre de 10 ou 100 millions dannées. Au même moment, Darwin pouvait déjà conclure, sur la base de lobservation des structures biologiques et géologiques, que la Terre avait plus dun milliard dannées. Nous savons maintenant que la résolution de ce paradoxe se trouve dans le domaine de linfiniment petit : ce sont les réactions nucléaires avec la fusion des protons en hélium avec production de particules (2 positrons, 2 neutrinos et de lénergie) qui ont beaucoup plus dénergie. Ce processus permet au soleil davoir une vie qui se mesure en milliards dannées, et donc la vie sur terre. La chaleur de la Terre provient, quant à elle aussi, en partie de la radioactivité de la croûte terrestre. Cest donc la connaissance de phénomènes physiques microscopiques qui a apporté la solution à un problème macroscopique. Dès les années 1930, un modèle complet du fonctionnement des planètes et des étoiles élaboré par Hans Bethe est disponible. Elle établit un lien solide entre les données expérimentales obtenues précédemment (la mise en évidence des neutrinos) et le fonctionnement des étoiles. Contrairement à lexemple du siècle précédent, cest la connaissance de la chaleur produite par le soleil, et la découverte quil y avait moins de neutrinos quattendus qui a permis de réaliser que les neutrinos changent de nature pendant le voyage et a permis détablir le phénomène doscillations des neutrinos. Aujourdhui la nouvelle frontière de ce domaine de la physique est représentée par les faisceaux de neutrinos à longue portée. Un de ces appareils a été construit au CERN, en Suisse et Gran Sasso près de Rome. Il sagit dun très long tunnel, à lentrée duquel un faisceau produit des protons, qui passent par un tuyau de désintégration. Les particules produites voyagent ensuite dans le vide, avant dêtre toutes filtrées, à part les neutrinos. Ces particules sont ensuite détectées à larrivée, ce qui permet de mesurer les changements quelles ont subis au cours de leur voyage.

La connexion cosmique

Les relations entre les particules élémentaires et la structure de lunivers ont commencé à être élucidées à partir de la deuxième moitié du XXème siècle. A cette époque on sest aperçu que les collisions produites par les rayons cosmiques produisaient des molécules qui nétaient pas dans la chaîne de division de la matière, en unités toujours plus petites. Cétaient des muons. Pour comprendre leur rôle dans la nature, des accélérateurs ont été construits pour les recréer en laboratoire. Cest à cette occasion que lEurope a fondé un laboratoire international : le CERN, qui se trouve aujourdhui à lavant-garde de la recherche en physique des particules. Cela a permis une découverte extraordinaire : les particules que lon considérait comme élémentaires il y a cinquante ans se sont révélés être composés de quarks, particules élémentaires dont il existe six types différents. Le proton et le neutron sont chacun composés de trois quarks, le premier de deux quarks appelés up et dun appelé down, et le second composé inversement de deux quarks down et dun up. Toutes les autres particules sensibles aux forces nucléaires sont constituées par ce type de particules. Par exemple la particule responsable des interactions fortes entre protons et neutrons, le pion, est composée dun quark et dun antiquark. En vingt ans, on a compris quil existait très peu de forces :
- La force de gravité, transmise par une particule non encore observée, le graviton
- La force électromagnétique, transmise par le photon
- La force nucléaire (ou interactions fortes) transmise par les gluons, que lon ne peut pas observer à létat libre
- Les interactions faibles, transmises par les bosons W et Z0
- Une autre force mystérieuse, mal connue, dont on pense quelle est responsable des masses des particules, transmise par le boson de Higgs.
Cette théorie, appelée le modèle standard, développée dans les années 1970, permet de décrire des phénomènes physiques jusquà léchelle de masse du boson W, c'est-à-dire 10-17cm.
Au même moment de la découverte du muon se produisait un développement dramatique de la cosmologie. Hubble avait découvert que les galaxies séloignent de nous avec une vitesse proportionnelle à leur distance par une constante, dénommée H, constante de Hubble. En 1948 Gamow et Herman proposent la théorie du Big Bang, c'est-à-dire une origine de lunivers commençant il y a environ 10 milliards dannées par une grande explosion. Cette théorie a été confirmée en 1964 par Wilson qui a pu observer ce qui restait de cette boule de feu primordiale : la radiation du fond cosmique. Cette origine de lunivers lie naturellement les événements micro et macroscopiques. Les accélérateurs de particules sont donc pour nous des machines à remonter le temps qui reproduisent les conditions des premiers instants de lunivers. 300 000 ans après cette naissance se sont formés les atomes. Trois minutes après le big bang se forment les noyaux légers, 1/100 000ème de seconde après lorigine, les quarks et les gluons se condensent en hadrons. Le modèle standard nous permet de remonter jusquà un dix milliardième de seconde après le Big Bang. Cela fait partie des conquêtes extraordinaires de la physique moderne.

La forme de l'espace

La courbure de lespace est liée à la matière. Lidée dEinstein, de la relativité générale, est que la géométrie de lespace nest pas donnée à priori mais dépend de la quantité dénergie quil y a dedans. La gravité nest rien dautre que la courbure de lespace-temps. Si on relie cela à lexpansion de lunivers, cela amène à lunivers de Friedman et Lemaitre, qui prédit que lévolution et la géométrie de lunivers sont déterminées par la densité de lénergie par rapport à la constante de la gravitation et à la constante de Hubble, constante nommée W. Celle-ci détermine le futur de lunivers, va-t-il sétendre pour toujours, ou, si la gravité gagne, va-t-il se rétracter. Depuis trente ans, on a des raisons de penser que W=1. Des collaborations (COBE, Boomerang, WMAP) ont permis détablir la « carte thermique » de la surface doù proviennent les photons du fond cosmique. Cette carte permet de regarder sil y a des fluctuations dans une direction particulière, qui seraient les germes de ce quest aujourdhui la structure de lunivers. Les premiers résultats ont été donnés en 1992 par Hubble, puis dernièrement en 2003 par WMAP, ce qui a finalement permis dobtenir une carte assez précise. Deux résultats importants sont à noter :
- ces fluctuations sont minimes : pour développer les structures daujourdhui, elles doivent être la trace des fluctuations beaucoup plus étendues dun type de matière que lon abordera plus loin : la matière sombre
- les fluctuations ont une ampleur angulaire denviron 1°, soit le diamètre angulaire de la Lune. Cela permet, puisque nous connaissons la longueur absolue de la fluctuation et la distance à laquelle elle se trouve, de calculer langle en degré dans lespace euclidien. Le résultat obtenu démontre que lunivers est plat et quil ne sétend ni ne se rétracte.

Les particules qui nous manquent

Ces résultats sont aussi un indicateur des particules dont nous navons pas encore démontré expérimentalement lexistence. La première dentre elles est le boson de Higgs, dont lexistence a été postulée pour justifier que les particules ont une masse. La masse est linteraction des particules avec un champ qui est partout dans lespace, et qui distingue les particules (les bosons W et Z acquièrent des masses alors que le photon nen acquiert pas). Lorsque des collisions se produisent, des fluctuations de masse se produisent, et cest cette oscillation qui correspond à une nouvelle particule, le boson de Higgs. Le monde scientifique est à sa recherche car il est nécessaire pour accorder la théorie avec ce qui est observé. Il donne une autre vision du vide qui peut expliquer de nouveaux phénomènes dans la Cosmologie. En 2002, on a cru avoir vu le boson de Higgs, mais lexpérience na pas été reproductible. Il faut donc attendre larrivée du LHC pour éclaircir la question. Le fait quil nait pas encore été découvert jusquà maintenant ne signifie pas quil nexiste pas, mais peut être simplement que nous navons pas les moyens physiques de le produire.
La deuxième particule manquante est liée au concept de supersymétrie liant les particules de spin différent, nécessaire à lunification des différentes forces. Cependant, la supersymétrie ne lie pas des particules que nous connaissons déjà, mais les particules déjà connues à de nouvelles particules de masse très élevée que nous ne voyons pas encore dans nos accélérateurs, qui ont reçu des noms très poétiques (photinos, Higgsinos, zinos,&). La plus légère de ces particules est un excellent candidat pour constituer la matière obscure.

La matière obscure

Lobservation de lunivers révèle que la matière que lon ne voit pas a une place beaucoup plus importante que la matière que lon voit. W est divisible en unités, ce qui nous donne la composition de la matière de lunivers. Le plus surprenant est que la matière ordinaire que nous connaissons ne représente que 5% du total de lénergie de lunivers ! Le reste se partage entre 25% de matière et 70% dénergie du vide. Nous ne sommes donc non seulement pas au centre de lunivers, mais en plus, nous ne sommes pas fait de la matière la plus courante. La question se pose de savoir quelle est la nature de cette matière, et de cette énergie. Les observations astronomiques, si elles nous renseignent sur la distribution de la Matière Obscure dans lunivers, ne nous donnent pas lidentité physique de ses composants.

Le grand collisionneur du CERN (LHC)

Les particules de la supersymétrie sont des candidats idéaux pour être les constituants de la matière obscure froide. La seule manière de lidentifier est de la reproduire en laboratoire. Nous allons donc chercher dans le monde microscopique lexplication de phénomènes à léchelle de lunivers. Pour produire ces particules supersymétriques, si elles existent, le Large Hadron Collider est en construction au CERN. Il entrera en fonction en 2007, et sera constitué par un tunnel de 27 kilomètres, qui comprendra dénormes aimants capables daccélérer les protons et de les garder en orbite. Dans les collisions du LHC seront produites des quantités de particules extraordinaires, et il faudra chercher dans cette soupe la signature du boson de Higgs, ce qui devrait être possible avec la puissance de calcul adéquate ; Il se produira en effet 40 millions de collisions par seconde au centre de chacun des quatre détecteurs, ce qui représentera cent à mille méga octets par seconde à stocker sur un disque magnétique. Si ces données étaient stockées sur des DVD, le total produit en une année serait de 15 millions de disques, soit une pile de 20km de hauteur ! Cette technologie est en train dêtre mise en place.

La gravité quantique

Comment accorder la théorie de la gravité avec la mécanique quantique ? Cette harmonisation demande un changement conceptuel très important dans la façon de voir les particules élémentaires : cest la théorie des cordes. On imagine que les particules sont chacune des vibrations différentes sur une sorte de corde microscopique, la supercorde. Cette théorie a été développée par un certain nombre de personnes (Veneziano, Schwartz, Ramond, et beaucoup dautres). Cette théorie nest pas cohérente dans un espace à quatre dimensions ! La cohérence mathématique du modèle entraîne lexistence dune dizaine de dimensions supplémentaires recourbées sur elles-mêmes. Comment est-il possible que nous vivions dans un espace dont nous nappréhendons pas toutes les dimensions ? Cette question a été abordée depuis longtemps : nous savons depuis Einstein (1905) que nous vivons dans un espace à quatre dimensions (la quatrième dimension étant le temps). Théodore Kaluza en 1919 avait aussi montré quune théorie unifiée de la gravité et de lélectromagnétisme pouvait être réalisée si lespace admettait une cinquième dimension. Klein (1925) a aussi considéré les particules pouvant habiter dans la cinquième dimension. Cette cinquième dimension a donc pris le nom de Kaluza-Klein. Lidée est quune dimension supplémentaire recourbée sur elle-même ne laisse pas rentrer les ondes et les particules présentant respectivement des longueurs donde et des faibles énergies. Une onde peut en effet saccorder avec une dimension seulement si cette dernière est un multiple de la première. Une onde présentant une longueur donde plus grande que le rayon de la dimension ne pourra pas y entrer. Selon la mécanique quantique, qui associe une onde à chaque particule, la longueur de nos atomes est beaucoup trop importante pour que lon puisse pénétrer dans ces dimensions supplémentaires si elles existent.
Les phénomènes se déroulent à un niveau beaucoup plus microscopique, ce quillustre la phrase de Richard Feynman « Un chat ne peut pas disparaître à Pasadena et réapparaître en Sicile, ce serait un exemple de conservation globale du nombre de chats, ce nest pas la façon dont les chats sont conservés ». Cest effectivement impossible à un objet macroscopique comme un chat, mais ce serait possible pour une particule. Le démontrer expérimentalement
reviendrait à démontrer lexistence de dimensions supplémentaires. Nous savons maintenant quil doit y avoir dautres dimensions dans lespace, mais quelle est leur dimension ? Existe-t-il des particules ayant une longueur donde leur permettant de rentrer dans ces dimensions supplémentaires, et donc de disparaître et de réapparaître ? Ce sujet a connu un développement fulgurant ces dernières années. Les théories des supercordes développées montrent en effet que les particules que nous connaissons (quarks, leptons et bosons de jauge) sont confinées sur une membrane localisée à la surface de la dimension supplémentaire. Nous nentrons ainsi pas dans la cinquième dimension, non pas à cause de nos longueurs donde, mais parce que nous sommes liés à une surface à quatre dimensions. Dans cette théorie, les gravitons ne sont pas soumis au même phénomène et peuvent se propager partout, ce qui leur donne des propriétés extraordinaires. Ainsi, lorsquil se produit une collision positron/graviton, sept gravitons peuvent être produits et entrer dans la cinquième dimension. La probabilité dobtenir ce phénomène si la dimension saccorde à lénergie de cette particule est assez grande. On a cherché dans les données expérimentales si lon pouvait voir la signature dune disparition dénergie, qui résulterait dune interaction positron/graviton produisant des photons, et des gravitons disparaissant. Une déviation est alors attendue, qui nest pas observée expérimentalement. On peut objecter que lénergie est trop petite, et le LHC devrait permettre de résoudre ce problème.

Un regard vers le futur

Dans le domaine de la physique des particules, le LHC est naturellement attendu avec impatience. Quels sont les projets suivants ? Beaucoup de discussions ont été engagées sur la construction dun collisionneur linéaire électron/positron, qui permettrait de voir le boson de Higgs. Dans le futur proche, deux devraient être construits (projet DESY en Allemagne et le Next Linear Collider aux USA). Dans un avenir plus lointain, la formation dun collisionneur possédant plusieurs fois lénergie du LHC, soit linéaire électron/positron, ou le Very Large Hadron Collider de Fermilab qui devrait avoir une circonférence de plus de deux cents kilomètres. Mais la physique des particules ne se fait pas seulement autour des accélérateurs et des collisionneurs, mais aussi dans les laboratoires sous marins et souterrains. Les théories prévoyant lunification des forces entre elles et de la matière prédisent une instabilité du proton que lon na pas encore observé expérimentalement.
Dans le domaine de la cosmologie, le défi est maintenant de voir au delà du fond cosmique : c'est-à-dire de voir ce qui sest passé entre le Big Bang et la formation des atomes, 300 000 ans après. Les photons ne peuvent nous donner aucune information. Des télescopes à neutrinos sont donc en construction ou déjà construits (Amanda au Pole Sud pour étudier si des neutrinos traversent la Terre, Antarès Nemo dans la Méditerranée qui est en projet). Ces laboratoires vont remplacer les laboratoires souterrains, et il est imaginable davoir ainsi des laboratoires qui vont surveiller 1km3 de matière pour voir si quelques protons se désintègrent, ou si des neutrinos traversent cette matière. Il existe aussi des détecteurs dondes gravitationnelles (LIGO aux USA, avec des bras de cinq millions de kilomètres de long ou VIRGO, collaboration franco-italienne à Pise, qui permettent détudier sil y a une déformation de la figure de diffraction). Le projet du futur est de placer un tel détecteur en orbite autour du soleil. Il existe déjà un laboratoire souterrain, le Superkamiokande, contenant un énorme bassin équipé de photo-multiplicateurs.
La réconciliation de la théorie de la gravitation avec la théorie de la mécanique quantique nous a déjà réservé de grandes surprises (les théories des cordes) et pose encore des problèmes. Le premier défi est de démontrer lexistence des supersymétries et des dimensions supplémentaires. Le phénomène de Higgs nous donne une vision du vide totalement différente de celle observée dans la mécanique quantique. Si lon compare lénergie du vide mesurée à celle prédite par ces théories, en supposant que la matière obscure est bien composée des particules de supersymétrie, on obtient un résultat soixante fois plus petit ! Il y a donc certainement beaucoup de choses que nous ne comprenons pas encore, et beaucoup de choses à découvrir. Les phénomènes que je viens dévoquer, les interactions entre physique des particules et cosmologie, proviennent de modèles assez récents mais qui ont déjà donné beaucoup de résultats. Ce domaine particulier a reçu un nom : il sagit de la physique des astro-particules. Loutil essentiel à venir est le LHC pour éclaircir le Higgs et la matière obscure. Nous attendons encore beaucoup de surprises de la réconciliation de la mécanique quantique avec la théorie de la relativité générale, dont le test crucial sera la compréhension de lénergie obscure.

 

 VIDEO        CANAL  U         LIEN

 
 
 
initiation musicale toulon  

LE L H C

 

Le LHC en quête de la supersymétrie

Après deux ans de travaux, le Grand collisionneur de hadrons va redémarrer au printemps 2015, et découvrir le mystère de la matière noire ?

HIGGS. La première période d'exploitation du LHC, de 2010 à 2013 a été couronnée de succès. Les collisions de particules hautement énergétiques qui s'y sont déroulées ont permis de dénicher le boson de Higgs, particule élémentaire qui constitue la clé de voute du modèle standard, ce qui a amené à l’attribution du prix Nobel de physique 2013 aux théoriciens François Englert et Peter Higgs. D'autres expériences ont également conduit à la découverte de deux nouvelles particules formées de quarks. À la fin du mois de mars 2015, après une période de deux ans de travaux de mise à niveau, le LHC va à nouveau fonctionner et générer des collisions deux fois plus énergétiques qu'auparavant. De nouvelles découvertes sont attendues.
 
Le plus excitant, c'est que nous ne savons vraiment pas ce que nous allons trouver". Rolf Landua, Cern.
Tapi au cœur du Jura, à la frontière franco-suisse, le gigantesque anneau de 27 kilomètres de circonférence à 100 mètres sous terre sera capable de générer des collisions de protons à une énergie jamais atteinte : 13.000 milliards d’électron volt (13 Tev) !  "Avec cette énergie inédite, le LHC va ouvrir de nouveaux horizons pour la physique et de futures découvertes", a déclaré le directeur général du CERN, Rolf Heuer. "J’attends avec impatience de voir ce que la nature nous réserve". Au cours de ses trois premières années d’exploitation, le LHC a fonctionné à une énergie de collision de 7 à 8 TeV, et ses faisceaux ont permis de réaliser des collisions dans quatre grandes expériences : ATLAS, CMS, ALICE et LHCb.


Au cours des 16 derniers mois, tout un programme de maintenance et d’amélioration a été mené sur le LHC, comme sur le reste du complexe d’accélérateurs du CERN, dont certains éléments sont en place depuis 1959. Quelque 10.000 interconnexions d’aimants supraconducteurs ont été consolidées, afin de préparer l'accélérateur à une exploitation à son énergie nominale. Pour refroidir ces aimants, 120 tonnes d'hélium liquide ont été injectées à la fin du mois de décembre dans le système cryogénique. Dans deux mois, la température des canaux  atteindra -271.3°c (1.9 K) ! Ce qui fait du LHC l’endroit le plus froid… de l’Univers. Il faut bien ça, puisque le rayonnement fossile à une température de 2,7 K. Pour être certain que les particules circulent sans obstacle, il est également nécessaire de réaliser un "hypervide" : dans les entrailles du LHC la pression n’excède pas un dix-millième de milliardième d’atmosphère ! Ce qui est dix fois inférieur à la pression régnant sur la Lune.
 
À la recherche de la mystérieuse matière noire

MATIÈRE NOIRE. En permettant des collisions à des énergies jamais atteintes auparavant dans un accélérateur de particules, le LHC va donner aux scientifiques l'opportunité de vérifier des théories. Ils vont chercher des preuves d'une "nouvelle physique" et sonder la "supersymétrie", un concept théorique baptisé "Susy", qui cherche entre autres à expliquer la matière noire, une matière invisible qui compterait pour environ 26,8% du contenu total de l’Univers. Théorie additionnelle, "Susy" fait le postulat que chaque particule du "Modèle standard" a une particule partenaire, supersymétrique. Cela pourrait expliquer la matière noire invisible, que l'on détecte par ses effets gravitationnels. "La chose la plus importante que nous voudrions trouver est un nouveau type de particule qui pourrait aider à expliquer ce qu'est la mystérieuse matière noire", indique Rolf Landua. Mais les chances d'identifier une telle particule sont faible. "Susy est très belle", dit la physicienne Rebeca Suarez, qui travaille pour l'un des détecteurs installé sur l'anneau du LHC. "Mais pour être honnête, les espoirs de trouver des particules supersymétriques sont très bas en ce moment...", dit-elle. "Toutefois certains avaient aussi perdu l'espoir de trouver le boson de Higgs et on a fini par le repérer !"

 

DOCUMENT     sciencesetavenir.fr     LIEN

 
 
 
initiation musicale toulon  

TRAQUE AU VIRUS DANS LE CODE BINAIRE

 

Jean-Michel Prima - 24/06/2014
Traque au virus dans le code binaire

Quelques lignes d'instructions dissimulées dans un logiciel : il n'en faut pas plus pour corrompre la sécurité d'un système. Au centre Inria Rennes-Bretagne Atlantique, une équipe de recherche étudie comment des méthodes formelles pourraient permettre une analyse du code binaire afin d'en améliorer la lisibilité et ainsi mieux repérer les programmes malveillants qui s'y cacheraient. Ces travaux sont menés avec DGA Maîtrise de l’information, l’établissement rennais de la Direction générale de l’armement (DGA).
Ils détruisent des disques durs. S'infiltrent. Espionnent. Dérobent des numéros de cartes bleues. Subtilisent des mots de passe. Ou modifient subrepticement la vitesse de rotation de centrifugeuses industrielles. Dans un monde hyper-connecté, les vers, virus, chevaux de Troie et autres malware constituent une menace en rien virtuelle.

 Dirigée par Thomas Jensen, au centre Inria de Rennes, Celtique est une équipe-projet spécialisée dans la sécurité du logiciel. Depuis plusieurs années, ces scientifiques collaborent avec DGA Maîtrise de l’information. “Ce partenariat s'inscrit dans le contexte plus large d'un accord cadre entre Inria et la Direction générale de l'armement. Différentes équipes interviennent sur des sujets  comme la cryptologie par exemple. Nous, nos travaux portent sur l'analyse du code binaire. Il s'agit du code de très bas niveau qui s'exécute sur les machines. ”
Du code atomisé
C'est souvent dans ces suites de 0 et de 1 que les virus vont se loger, en se faisant le plus discret possible. “Par nature, le binaire est difficilement lisible. Il se compose de petites instructions peu structurées. Chacune n'effectue qu'une action infime. La notion de boucle par exemple demande à être reconstruite. Difficile donc de repérer quelques lignes d'instructions malveillantes au milieu d'un code aussi atomisé. ”

 Pour les chercheurs, le défi consiste à prendre ce code abscons, à l'analyser au moyen de méthodes formelles afin d'en proposer une représentation de plus haut niveau. Avec à la clé l'espoir de parvenir à automatiser cette analyse. “Mais nous n'en sommes pas là. Au préalable, il faudra lever beaucoup de verrous. C'est encore une recherche en amont. Nous avons identifié là un problème qui intéresse à la fois Inria et DGA Maîtrise de l’information. Nous mettons ensemble nos moyens pour faire avancer nos connaissances sur le sujet. ”
Un séminaire méthodes formelles et sécurité
Cette collaboration se concrétise aussi par un séminaire deux fois par mois dans les locaux d'Inria. Son fil conducteur : méthodes formelles et sécurité. “Ces réunions sont soutenues par DGA Maîtrise de l’information qui nous donne ainsi l'opportunité d'inviter de grandes pointures scientifiques pour des exposés sur nos thèmes d'intérêt. On peut le voir comme une action de veille technologique. ” 

DGA Maîtrise de l’information cofinance également plusieurs thèses qui se déroulent au centre Inria de Rennes. Elle détache par ailleurs un de ses propres scientifiques qui rejoint l'équipe Celtique un jour par semaine au titre de collaborateur extérieur. “Nos recherches peuvent intéresser tout ceux qui se préoccupent de sécurité du logiciel, explique Colas Le Guernic. Par exemple l'utilisateur d'un programme qui voudrait vérifier directement certaines propriétés en faisant lui-même l'analyse du code binaire. Ou bien encore un concepteur qui s'apprêterait à intégrer un composant externe et désirerait s'assurer qu'il peut le faire sans risque. ”
Obfuscation
Un autre aspect de ces travaux porte sur les techniques d'obfuscation de code. Autrement dit les mille et une façons de rendre la lecture d'un programme véritablement ésotérique. “Ces méthodes sont utilisées par les créateurs de virus, mais elles servent aussi à protéger les logiciels licites contre les malveillances. Les éditeurs de jeux vidéo, par exemple, y recourent pour empêcher les pirates de produire des contrefaçons. Dans d'autres domaines, comme les télécommunications, les constructeurs s'en servent aussi pour protéger des secrets industriels sur des technologies propriétaires. ”  Dans ce cas de figure, il faut parvenir à conserver le comportement du logiciel tout en le rendant le plus inintelligible possible.

Une partie de ces travaux se déroulent aussi dans le cadre d'un projet de recherche sur la sécurité binaire financé par l'ANR depuis début 2013. Ses objectifs sont à la fois d'outiller l'industrie de la sécurité, d'améliorer les capacités de cyberdéfense et de fournir des instruments pour la protection des infrastructures numériques.

 

DOCUMENT          inria.fr         LIEN

 
 
 
initiation musicale toulon  

PHYSIQUE QUANTIQUE

 

Paris, 2 avril 2015


Lier le destin de deux atomes par interférence quantique


Pour la première fois, des physiciens du CNRS et de l'Université Paris-Sud au Laboratoire Charles Fabry (CNRS/Institut d'Optique Graduate School) ont réalisé des interférences entre deux atomes distincts : envoyés de part et d'autre d'un « miroir semi-réfléchissant », les deux atomes en ressortent toujours ensemble. Ce type d'expérience, réalisé avec des photons il y a une trentaine d'années, était demeuré jusqu'à présent impossible avec de la matière, du fait de l'extrême difficulté à créer et manipuler des paires d'atomes indiscernables1. Ce travail est publié dans la revue Nature le 2 avril 2015.
La notion de particules indiscernables1, évoquée dès 1924 par Bose et Einstein, est au cœur des manifestations les plus déroutantes de la mécanique quantique. L'une de ces manifestations emblématiques, observée expérimentalement il y a presque 30 ans par Hong, Ou et Mandel, met en jeu des photons et un miroir semi-réfléchissant (envoyé sur une face ou l'autre de ce miroir, un photon a une chance sur deux de passer au travers et une chance sur deux d'être réfléchi). Si l'on envoie simultanément deux photons identiques sur l'une et l'autre des faces du miroir, on constate que ceux-ci peuvent en ressortir d'un côté ou de l'autre, mais toujours ensemble. Autrement dit, il apparaît impossible aux deux photons de repartir chacun de leur côté.

Pour la première fois, des physiciens du Laboratoire Charles Fabry viennent de mettre en évidence ce phénomène avec des particules de matière au lieu de particules de lumière, en l'occurrence des atomes d'hélium 4. En combinant des paires d'atomes sur l'équivalent, pour la matière, d'un miroir semi-réfléchissant2, les chercheurs ont observé que lorsque deux atomes identiques arrivent en même temps, ils repartent toujours ensemble, comme le font les photons. Ce résultat est une signature indubitable d'interférences quantiques destructives : le processus où les deux atomes sont simultanément réfléchis et celui où ils sont simultanément transmis s'annulent l'un l'autre.

La grande difficulté que ces chercheurs ont réussi à surmonter a été de créer des paires d'atomes indiscernables et de les manipuler. Pour cela, ils ont tout d'abord réalisé un condensat de Bose Einstein3 contenant près de 100 000 atomes d'hélium 4. Ils sont parvenus à contrôler les collisions entre particules afin de produire des paires d'atomes indiscernables, sortant de ce gaz très froid au rythme d'une toutes les 30 secondes en moyenne. Les chercheurs ont ensuite manipulé les atomes à l'aide de faisceaux lasers, pour réaliser l'équivalent du montage optique de l'expérience que Hong, Ou et Mandel avaient réalisée avec des photons. Pour caractériser l'effet d'interférence, les chercheurs ont décalé l'instant d'arrivée des deux atomes de part et d'autre de leur miroir. Après des dizaines d'heures d'enregistrement, ils ont pu vérifier que lorsque les deux arrivées sont séparées de plus d'une centaine de microsecondes, chaque atome choisit sa voie de sortie indépendamment de l'autre tandis que lorsque les arrivées sont plus rapprochées, les atomes ont tendance à sortir du même côté. L'effet est maximum lorsque les atomes arrivent simultanément.

Par-delà la confirmation d'une prédiction surprenante de la mécanique quantique, l'expérience illustre les immenses progrès réalisés ces dernières années dans le contrôle des sources atomiques à l'échelle quantique. Grâce à la manipulation très fine des paires d'atomes, ces travaux démontrent leur potentiel d'application dans le champ de l'information quantique, qui consiste à exploiter les spécificités de la physique quantique pour un traitement plus efficace et une communication plus sécurisée de l'information.

 

DOCUMENT         CNRS         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google