ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

 

LA PHYSIQUE QUANTIQUE (SERGE HAROCHE)

"La théorie quantique, centrale à notre compréhension de la nature, introduit en physique microscopique les notions essentielles de superpositions d'états et d'intrication quantique, qui nous apparaissent comme "" étranges "" et contre-intuitives. Les interférences quantiques et la non-localité - conséquences directes du principe de superposition et de l'intrication - ne sont en effet pas observables sur les objets macroscopiques de notre expérience quotidienne. Le couplage inévitable de ces objets avec leur environnement détruit très vite les relations de phase entre les états quantiques. C'est le phénomène de la décohérence qui explique pourquoi autour de nous l'étrangeté quantique est généralement voilée. Pendant longtemps, superpositions, intrication et décohérence sont restés des concepts analysés à l'aide d'" expériences de pensée " virtuelles, dont celle du chat de Schrödinger à la fois mort et vivant est la plus connue. À la fin du XXe siècle, les progrès de la technologie ont rendu réalisables des versions de laboratoire simples de ces expériences. On peut maintenant piéger et manipuler des atomes et des photons un par un et construire des systèmes de particules suspendus entre deux états quantiques distincts qui apparaissent ainsi comme des modèles réduits de chats de Schrödinger. Au delà de la curiosité scientifique et du défi que constitue l'observation de l'étrangeté quantique pour ainsi dire in vivo, ces expériences éclairent la frontière entre les mondes classique et quantique et ouvrent des perspectives fascinantes d'applications. "


Texte de la 213ème conférence de l’Université de tous les savoirs donnée le 31 juillet 2000.
Une exploration au cœur du monde quantique par Serge Haroche
Cent ans de physique quantique
L’an 2000 marque le centenaire de la physique quantique. C’est en 1900 que Planck, pour comprendre les propriétés du rayonnement des corps chauffés, émit la fameuse hypothèse que les échanges d’énergie entre la matière et la lumière devaient se faire par quanta discrets, et non de façon continue. Einstein reprit cette notion de quanta cinq ans plus tard en montrant que la lumière elle-même était constituée de grains discrets, appelés par la suite photons, et en interprétant à l’aide de cette idée révolutionnaire l’effet photoélectrique, l’émission d’électrons par les métaux éclairés. Dans les vingt ans suivants, la théorie quantique, cherchant à comprendre le comportement de la nature à l’échelle atomique, se développa à partir d’hypothèses hardies et d’intuitions géniales, notamment grâce aux travaux de Niels Bohr. En 1925 et 1926, Heisenberg, Schrödinger et Dirac arrivèrent indépendamment à la formulation complète de la théorie, qui constitue sans nul doute une des plus grandes conceptions de l’esprit humain.
La théorie quantique sert en effet de cadre essentiel à notre compréhension de la Nature, de l’infiniment petit à l’infiniment grand. La physique des particules dites élémentaires, celle des atomes et des molécules, toute la chimie sont basées sur les lois quantiques. Les ensembles d’atomes que constituent les solides obéissent également à ces lois, qui seules peuvent expliquer, par exemple, la conductivité électrique, le magnétisme ou la supraconductivité de certains métaux aux basses températures. Même la vie, dans la mesure où elle dépend de processus physico-chimiques au niveau de la molécule d’ADN, ne pourrait être comprise en dehors des lois quantiques. Enfin, la cosmologie, la science qui s’attache à l’étude de l’évolution de l’univers, donne une grande importance aux phénomènes quantiques qui se sont produits au moment du big-bang initial.

Et pourtant, malgré ses succès éclatants, la physique quantique est souvent perçue comme étrange. Elle introduit en effet dans la description du monde des notions bizarres qui défient notre intuition classique. Il s’agit du principe de superposition des états qui implique qu’un système physique peut être comme suspendu entre différentes réalités, ou encore du concept d’intrication quantique qui introduit une notion troublante de non-localité en physique. Le caractère étrange de ces concepts provient en grande part de ce que nous n’en observons jamais les effets sur les objets macroscopiques qui nous entourent et que donc notre esprit n’est pas préparé à les comprendre. Cette étrangeté troublait les fondateurs de la théorie, et son interprétation a fait l’objet entre eux de discussions très animées. Ces débats se sont en particulier déroulés au cours des fameux Congrès Solvay, à l’époque de l’élaboration de la théorie. Les participants à ces congrès prirent l’habitude d’imaginer des expériences virtuelles dans lesquelles ils isolaient et manipulaient en pensée des particules obéissant aux lois quantiques pour essayer de mettre en évidence des contradictions internes de la théorie. Tous ces débats se conclurent par la victoire de la théorie quantique, à laquelle ni Einstein ni Schrödinger qui jouaient volontiers le rôle d’avocats du diable ne purent trouver de faille. L’intérêt de la majorité des physiciens se détourna alors de ces discussions sur des expériences infaisables, et se consacra à l’exploitation de la théorie pour comprendre la nature, avec le succès évoqué plus haut.

Depuis quelques années cependant, les progrès de la technologie ont permis de réaliser des versions simples des expériences de pensée des fondateurs de la théorie. On peut maintenant piéger des photons, des atomes ou des molécules un à un, les manipuler pour ainsi
dire in vivo à l’aide de faisceaux lasers et ainsi construire des objets étranges, relativement complexes, obéissant à la logique quantique. On peut alors aborder à nouveau, mais de façon concrète, l’étude des fondements de la théorie. On peut également commencer à envisager des applications fascinantes. C’est à ces expériences de pensée devenues réelles qu’est consacré cet exposé, brève exploration au cœur du monde quantique.
Superpositions, interférences quantiques et complémentarité
Commençons par une introduction au principe de superposition. La théorie quantique nous dit que, d’une certaine manière, toute particule microscopique possède un don d’ubiquité. Alors que classiquement elle doit à tout instant être en un point bien précis, quantiquement, elle peut se trouver comme « suspendue » dans une superposition des états correspondant à toutes les positions classiques possibles. À chacune de ces positions est associé un nombre appelé fonction d’onde de la particule au point considéré. Cette fonction a été introduite par de Broglie et c’est Schrödinger qui a établi l’équation qui décrit son évolution, jetant ainsi les bases des lois de la dynamique quantique. La fonction d’onde est en général un nombre complexe. Alors qu’un nombre réel peut être symbolisé par un segment sur une droite, un complexe est représenté par un vecteur dans un plan et possède donc une amplitude (la longueur du vecteur) et une phase (sa direction). C’est le physicien Max Born qui donna l’interprétation physique de la fonction d’onde. Le carré de son amplitude représente la probabilité de trouver la particule au point correspondant lorsqu’une mesure est effectuée. Ainsi, d’après la théorie, l’ambiguïté quantique, la superposition, ne subsiste que tant que l’on ne cherche pas à savoir où est la particule. Si on cherche à déterminer sa position, on force la nature à abandonner son étrangeté quantique, la particule apparaît bien en un point et en un seul, mais cette apparition ne peut être que prévue statistiquement et non déterminée de façon absolue comme en physique classique. C’est ce qui fit dire à Einstein que selon la physique quantique « Dieu joue aux dés », ce qu’il se refusait personnellement à admettre.

La physique atomique permet d’illustrer un aspect élémentaire du principe de superposition. Les chimistes représentent l’état d’un électron dans un atome – par exemple le plus simple d’entre eux, l’hydrogène – par un volume de l’espace qu’on appelle son orbitale (Figure 1a). Ce volume est, pour l’état fondamental de l’hydrogène, une petite sphère centrée sur le noyau de l’atome d’environ un Angström (soit 10-10 m) de diamètre. Il décrit la région de l’espace dans laquelle l’électron est délocalisé. Il se trouve en fait dans une superposition de toutes les positions possibles à l’intérieur de cette sphère. Lorsque l’on porte l’électron de l’atome dans un niveau électronique excité en lui fournissant de l’énergie lumineuse, la forme de l’orbitale change, elle s’étire en général pour occuper des régions plus éloignées du noyau comme le montre la figure 1b. Les états très excités de l’atome s’appellent des états de Rydberg. Dans certains de ces états, l’électron occupe une orbitale très étendue, en forme de tore, dont le rayon peut atteindre un millier d’Angströms (figure1c). Ces états excités géants ont des propriétés très intéressantes que nous retrouverons plus loin.

Abordons maintenant une conséquence essentielle du principe de superposition, l’existence d’interférences quantiques. Considérons la fameuse expérience des fentes de Young réalisée au début du XIXe siècle avec de la lumière, c’est-à-dire des photons, et au XXe siècle avec des électrons, et plus récemment avec des atomes et des molécules : des particules traversent une paroi percée de deux fentes avant d’atteindre un écran. Les particules sont détectées en des points discrets sur l’écran, comme le montre la figure 2a. Après avoir enregistré l’arrivée d’un grand nombre de particules, on constate que les points d’impact se regroupent suivant un réseau de franges « brillantes », séparées par des franges « noires » où les particules n’arrivent jamais. L’expérience se comprend bien en termes de fonction d’onde
des particules. Cette fonction possède en effet deux composantes, correspondant au passage de la particule par chacune des deux fentes. La fonction d’onde totale est la somme des deux composantes, au sens de l’addition des nombres complexes, ou encore des vecteurs qui les représentent. En certains points de l’écran, les ondes sont en phase, leurs vecteurs de même direction, et la probabilité de trouver la particule est importante. En d’autres points, les ondes sont en opposition de phase, leurs vecteurs opposés, et la particule a une probabilité nulle d’arriver. La figure d’interférence s’évanouit si on ferme une des deux fentes, puisque alors une des composantes de la fonction d’onde disparaît.
Cette interprétation ondulatoire est étrange si l’on note que l’expérience peut être faite dans des conditions de flux très faible, où il ne se trouve à chaque instant qu’une particule dans l’appareil. On obtient alors les mêmes franges, après un temps de moyen-âge très long. On peut alors se demander comment une particule, seule dans l’interféromètre, peut « savoir » si les deux trous sont ouverts, auquel cas elle doit éviter les franges noires, ou si un trou est bouché, auquel cas elle peut arriver n’importe où ! On a là un exemple typique de logique non-classique : un phénomène (arrivée de la particule en un point) est moins probable lorsque deux possibilités sont offertes à la particule que si une seule ne l’est ! Un physicien classique posera immédiatement des questions simples : par quel trou passe réellement la particule ? Est ce une onde (auquel cas on comprend les interférences mais pas l’arrivée discrète sur l’écran) ou une particule (auquel cas on comprend les impacts discrets mais plus les interférences). La mécanique quantique répond qu’en vertu du principe de superposition, la particule passe par les deux trous à la fois, aussi longtemps qu’on ne la force pas à choisir ! Notons enfin que de telles expériences, relativement faciles à réaliser avec des particules microscopiques, deviennent de plus en plus difficiles avec des particules de taille importante. C’est encore possible avec des molécules, mais pas avec des boules de billard ou un quelconque objet macroscopique !
Les interférences quantiques jouent un rôle capital en physique microscopique et l’on peut s’en servir pour des applications importantes. Considérons par exemple un atome possédant deux niveaux d’énergie, un niveau fondamental g d’énergie Eg, et un niveau excité e, d’énergie Ee. On sait qu’en absorbant de la lumière dont la fréquence ν satisfait la relation Ee – Eg = hν (où h est la constante de Planck) l’atome peut être porté du niveau g au niveau e en absorbant un photon. Si on excite l’atome par une impulsion lumineuse et si on ajuste la durée de cette impulsion, on peut s’arranger pour que l’atome se trouve excité « à mi-
chemin » entre e et g, dans une superposition de ces deux états. Appliquons maintenant à l’atome initialement dans l’état g deux impulsions identiques, séparées dans le temps, à deux instants t1 et t2. Chacune des impulsions superpose les deux états e et g. Mesurons enfin l’énergie de l’atome et, en recommençant l’expérience un grand nombre de fois, déterminons la probabilité de le trouver finalement dans l’état e. La fonction d’onde associée à l’atome va, comme dans le cas de l’expérience de Young, présenter deux termes. L’un correspond à l’excitation de l’atome de g à e à l’instant t1, l’autre à l’instant t2. À ces termes correspondent des amplitudes complexes qui interfèrent. Leur phase relative peut être variée en balayant la fréquence ν autour de la fréquence de résonance atomique. On observe alors que la probabilité de trouver l’atome dans l’état e oscille en fonction de ν. On obtient un signal d’interférence dit « de Ramsey », du nom du physicien qui a mis au point cette méthode interférométrique. Alors que dans l’expérience de Young l’interférence provient du fait que l’on ne sait pas par quelle fente la particule est passée, ici elle résulte de l’ambiguïté sur l’instant de l’excitation de l’atome. C’est en détectant de telles franges sur l’atome de Césium que l’on fait fonctionner l’horloge atomique qui définit actuellement la seconde.
Revenons un instant sur la question de savoir par quel chemin la particule est passée. L’interférence ne s’observe que si on n’a aucun moyen de connaître ce chemin. Si on cherche à le déterminer, il faut introduire un nouvel élément dans l’appareillage expérimental, par
exemple ajouter dans l’expérience des fentes d’Young une source lumineuse, un laser, qui éclaire les fentes (figure 2b). Lorsque la particule passe, elle diffuse de la lumière au voisinage de la fente correspondante et l’éclair lumineux peut être détecté pour déterminer le trajet de la particule. On constate bien alors que la particule passe aléatoirement par un trou ou par l’autre, mais aussi que les franges disparaissent : les points d’impact sont maintenant distribués de façon uniforme. En d’autres termes, la particule, en diffusant la lumière qui révèle son chemin a été perturbée de façon telle que les relations de phase existant entre les deux composantes de la fonction d’onde associée sont brouillées, entraînant la disparition des franges. Ce résultat exprime ce que Bohr a appelé le principe de complémentarité. L’existence des franges et l’information sur le chemin suivi sont deux aspect exclusifs l’un de l’autre et complémentaires de la réalité physique. Ils nécessitent l’utilisation d’appareils différents. On est sensible tantôt à l’aspect ondulatoire de la particule, si on utilise un appareil rendant les chemins indiscernables, tantôt à l’aspect corpusculaire, si on utilise un appareil permettant de distinguer les chemins.

Intrication quantique, chat de Schrödinger et décohérence
Venons-en maintenant à une autre conséquence essentielle du principe de superposition, observable dans des systèmes constitués d’au moins deux particules qui interagissent entre elles, puis se séparent. Pour fixer les idées, considérons la collision de deux atomes identiques. Chacun de ces atomes possède deux niveaux d’énergie e et g. Supposons qu’avant la collision, l’atome 1 est excité (état e) et l’atome 2 est dans son état fondamental (état g). Au cours de la collision deux événements différents peuvent survenir. Ou bien les atomes conservent leurs énergies initiales, ou bien ils les échangent. Classiquement, les atomes devraient « choisir » l’une de ces deux possibilités. La règle quantique est différente. Ils peuvent suivre les deux voies à la fois. Le système se trouve après la collision dans une superposition de l’état où l’atome 1 est dans e et 2 dans g et de l’état où 1 est dans g et 2 dans e. À chacun de ces états est associée une amplitude complexe. Les modules élevés au carré de ces amplitudes représentent les probabilités de trouver l’une ou l’autre de ces deux situations au cours d’une mesure effectuée sur les deux atomes. Notons que si le résultat de la mesure sur chaque atome est aléatoire, les corrélations entre les résultats des mesures sont certaines. Si l’atome1 est trouvé dans e, l’atome 2 est dans g et inversement. C’est cette corrélation parfaite, observable quel que soit le type de mesure effectué sur les atomes, que l’on appelle intrication (« entanglement » en anglais). Cette intrication subsiste même si les deux atomes se sont éloignés l’un de l’autre et se trouvent séparés après la collision par une distance arbitrairement grande. Elle décrit une non-localité fondamentale de la physique quantique. Une mesure de l’atome 1 peut avoir un effet immédiat à grande distance sur le résultat de la mesure de l’atome 2 ! Il y a donc entre les deux particules un lien quantique immatériel et instantané. C’est Einstein, avec ses collaborateurs Podolski et Rosen, qui a discuté le premier en 1935 cet aspect troublant de la théorie quantique. On l’appelle depuis le problème EPR. Pour Einstein, il s’agissait là d’un défaut grave de la théorie puisqu’elle prévoyait des effets qui lui paraissaient manifestement absurdes. Depuis, le problème a été repris par d’autres physiciens, notablement John Bell dans les années 60, et des expériences effectuées sur des photons intriqués ont montré que la nature se comportait bien comme la théorie quantique le prescrit. L’une des expériences les plus probantes a été effectuée dans les années 1980 par Alain Aspect et ses collègues à Orsay. Notons que la non-localité vérifiée par ces expériences ne contredit pas le principe de causalité. On ne peut se servir des corrélations EPR pour transmettre de l’information instantanément entre deux points.
Si l’intrication nous apparaît comme bizarre, c’est pour une bonne part parce que, comme les interférences quantiques, elle ne s’observe jamais sur des objets macroscopiques.

Ceci nous conduit à la métaphore fameuse du chat de Schrödinger. Réfléchissant sur le problème EPR, Schrödinger alla en effet plus loin. Qu’est ce qui empêcherait, se demanda-t- il, d’amplifier un phénomène d’intrication microscopique pour y impliquer un système macroscopique? Considérons un atome excité qui émet un photon en se désexcitant. La mécanique quantique nous apprend qu’avant que le photon n’ait été émis de façon certaine, le système se trouve dans une superposition d’un état où l’atome est encore excité et d’un état où il s’est déjà désexcité. Chacun de ces termes est affecté de son amplitude complexe dans l’expression de l’état global du système. Mais, remarque Schrödinger, un seul photon peut déclencher un événement macroscopique. Imaginons en effet notre atome enfermé dans une boîte avec un chat. Supposons que le photon émis par l’atome déclenche un dispositif qui tue le chat. Si l’atome est dans une superposition d’un état où il a émis un photon et d’un état où il ne l’a pas encore émis, quel est à cet instant l’état du chat ? Si l’on admet que le chat peut être décrit par un état quantique bien défini ( et l’on touche là, comme nous le montrons plus loin, à un aspect crucial du problème), on conclut immanquablement à l’existence d’une intrication du système « atome + chat » qui devrait se trouver dans une superposition du chat vivant associé à l’atome excité et du chat mort associé à l’atome désexcité. Une telle situation laissant le malheureux chat suspendu entre la vie et la mort, représentée sur la figure 2c, était jugée burlesque par Schrödinger. Ce problème a fait couler beaucoup d’encre. Certains ont dit que c’est au moment où on cherche à observer si le chat est vivant ou mort qu’un processus mental chez l’observateur « force » la nature à décider. D’autres se sont demandé s’il fallait tenir compte du processus mental du chat lui-même et la discussion a vite versé dans la métaphysique.
Si on veut éviter un tel débat, l’approche pragmatique de Bohr est utile. Pour savoir si la superposition d’états existe, il faut imaginer un dispositif d’observation spécifique. La superposition « chat vivant- chat mort » ne peut être prouvée que si l’on sait réaliser une expérience susceptible de révéler l’interférence des amplitudes complexes associées aux parties « vivante » et « morte » du chat. Schrödinger n’a pas poussé la discussion jusque-là, mais on peut par exemple songer à utiliser comme sonde de l’état du chat une souris
« quantique» à qui l’on demanderait de traverser la boîte. La probabilité que la souris s’échappe devrait alors être le carré de la somme de deux amplitudes, une correspondant au chat vivant, l’autre au chat mort. Verra-t-on dans la probabilité finale un terme
d’interférence ? C’est peu probable et fortement contraire à notre intuition.

La question qui se pose est alors : qu’est-il arrivé aux interférences, pourquoi ont-elles disparu ? La réponse fait intervenir la notion fondamentale de décohérence. La situation que nous avons schématisée à l’extrême a négligé un élément essentiel. Notre chat ne peut être isolé en présence d’un seul atome « décidant » de son sort. Le chat – comme en général tout système macroscopique - est en effet baigné par un environnement constitué de très nombreuses molécules, de photons thermiques, et son couplage avec cet environnement ne peut être négligé. Pour mieux comprendre ce qui se passe, revenons à l’expérience d’Young. Si l’on cherche à déterminer le chemin par lequel la particule est passée, on doit par exemple lui faire diffuser un photon (figure 2b). On intrique alors ce photon avec la particule et on obtient une espèce de paire EPR dont un élément est la particule et l’autre le photon. Si on mesure le photon dans un état, on sait que la particule est passée par un trou. L’autre état a alors disparu. Il n’y a plus d’interférence. On comprend ainsi mieux la complémentarité comme un effet d’intrication de la particule avec l’environnement (ici le photon) qui interagit avec elle. La situation de notre chat est similaire. Notons tout d’abord que le point de départ de notre raisonnement, l’existence d’un état quantique bien déterminé pour le chat à l’instant initial de l’expérience, doit être remis en question. Dès cet instant, le chat est déjà intriqué avec son environnement et ne peut donc pas être décrit par un état quantique qui lui est propre. En admettant même que l’on puisse le découpler du reste du monde à cet instant
initial, il serait impossible d’éviter son interaction avec l’environnement pendant qu’il interagit avec l’atome unique imaginé par Schrödinger. Dès qu’il serait placé dans un état de superposition, il interagirait aussi avec un bain de molécules et de photons qui se trouveraient rapidement dans des états quantiques différents suivant que le chat est vivant ou mort. Très vite, une information sur l’état du chat fuirait dans l’environnement, détruisant les interférences quantiques, de la même façon que le photon diffusé par la particule dans l’expérience de Young fait disparaître les franges. L’environnement agit comme un « espion » levant l’ambiguïté quantique.
Notons enfin que la décohérence se produit de plus en plus vite lorsque la taille des systèmes augmente. Ceci est dû au fait que plus le système est gros, plus il est couplé à un grand nombre de degrés de libertés de l’environnement. Il n’est pas nécessaire de considérer des systèmes aussi macroscopiques qu’un chat pour que la décohérence domine. C’est déjà le cas pour les systèmes microscopiques au sens de la biologie que sont les macromolécules, les virus ou les bactéries. Le fait que l’on aît raisonné sur des êtres vivants n’a non plus rien d’essentiel ici. La décohérence est tout aussi efficace sur un objet inerte constitué d’un grand nombre de particules (agrégat d’atomes, grain de poussière...). L’image du chat n’est qu’une métaphore extrême imaginée par Schrödinger pour frapper les esprits.

Des atomes et des photons dans une boîte
Passons à la description de quelques expériences récentes sur l’intrication quantique, véritables réalisations des expériences de pensée. Il existe essentiellement trois systèmes sur lesquels des manipulations relativement complexes d’intrication ont été réalisées. Les sources de photons intriqués se sont considérablement améliorées depuis les expériences d’Aspect. On réalise à présent des paires de photons intriqués en décomposant dans un cristal non-linéaire un photon ultraviolet en deux photons visibles ou infrarouge. De belles expériences sur ces paires de photons ont été récemment réalisées, à Innsbruck, à Genève et aux États-Unis. Dans certains cas, il est préférable de disposer de particules massives, qui restent un long moment dans l’appareil pour être manipulées, au lieu de photons qui s’échappent du système à la vitesse de la lumière. On peut alors utiliser des ions piégés dans un champ électromagnétique. Il s’agit d’atomes auxquels on a arraché un électron et qui possèdent ainsi une charge sensible aux forces électriques exercées sur elle par un jeu d’électrodes métalliques convenablement agencées. On peut ainsi piéger quelques ions observables par la lumière de fluorescence qu’ils émettent lorsqu’ils sont éclairés par un laser. D’autres lasers peuvent servir à manipuler les ions. De belles expériences d’intrication ont été ainsi faites à Boulder dans le Colorado.

Le troisième type d’expérience, réalisé à l’École Normale Supérieure à Paris, est intermédiaire entre les deux précédents. On y intrique à la fois des photons et des atomes. Les photons ne se propagent pas, mais sont piégés dans une cavité électromagnétique traversée par les atomes. La cavité est formée de miroirs métalliques en niobium supraconducteur à très basse température placés l’un en face de l’autre. Des photons micro-onde peuvent se réfléchir des centaines de millions de fois sur ces miroirs et rester ainsi piégés pendant un temps de l’ordre de la milliseconde. Des atomes, préparés dans un état de Rydberg très excité, traversent un à un la cavité, interagissent avec les photons et sont ensuite ionisés et détectés. La grande taille de ces atomes (figure 1c) les rend extrêmement sensibles au couplage avec le rayonnement de la cavité, une condition essentielle à l’observation des phénomènes d’intrication quantique.
Nous donnerons ici simplement un aperçu général sur quelques expériences récentes d’intrication atome-cavité. Pour simplifier, admettons que nos atomes possèdent essentiellement deux niveaux de Rydberg appelés comme précédemment e et g. La séparation des miroirs est, dans un premier temps, réglée pour que les photons de la cavité soient
résonnants avec la transition entre ces deux niveaux. Cela veut dire que si l’atome entre dans la cavité dans le niveau e, il peut, en conservant l’énergie, y émettre un photon en passant dans le niveau g et que s’il y entre dans g, il peut absorber un photon présent pour passer dans l’état e. Envoyons un atome dans e à travers la cavité initialement vide et réglons le temps de traversée de la cavité par l’atome pour que la probabilité d’émission d’un photon soit de
50 %. L’état final obtenu est une superposition d’un atome dans e avec une cavité vide et d’un atome dans g avec une cavité contenant un photon, ce qui constitue une intrication atome- photon. Cette intrication survit à la sortie de l’atome de la cavité.
Compliquons maintenant la situation en envoyant dans la cavité deux atomes, l’un dans e, l’autre dans g. Le premier atome a sa vitesse réglée pour émettre avec 50 % de probabilité un photon et le second interagit le temps qu’il faut pour absorber à coup sûr le photon s’il y en a un. Il s’agit donc d’un transfert d’énergie entre les deux atomes induit par la cavité. Si on se demande, après la traversée des deux atomes, si l’excitation a été transférée de l’un à l’autre, la théorie quantique nous donne une réponse ambiguë : oui et non à la fois. Le résultat est une paire d’atomes intriqués. Le schéma – illustré sur la figure 3 - se généralise avec un plus grand nombre de particules. On peut réaliser des situations où deux atomes et un photon, ou encore trois atomes, sont intriqués...
Une version de laboratoire du chat de Schrödinger
Envisageons maintenant une situation où la cavité est désaccordée par rapport à la fréquence de la transition atomique. La non-conservation de l’énergie interdit alors l’émission ou l’absorption de photons par l’atome. Cela ne veut pas dire cependant que les deux systèmes n’interagissent pas. La simple présence de l’atome dans la cavité modifie légèrement la fréquence du champ qu’elle contient. Cet effet dépend de l’état d’ énergie de l’atome. La fréquence du champ est augmentée ou diminuée, suivant que l’atome se trouve dans un niveau ou l’autre. Que se passe-t-il alors si l’atome est dans une superposition des deux états ? Les lois quantiques disent que l’on doit avoir en même temps une fréquence diminuée et augmentée. Cette réponse ambiguë conduit à la possibilité de créer un nouveau type d’intrication.
Commençons par injecter entre les miroirs un champ contenant quelques photons à l’aide d’une source micro-onde couplée à la cavité par un guide d’onde, puis coupons cette source. Nous piégeons ainsi quelques photons dans la cavité pendant un temps d’une fraction de milliseconde. Le champ électrique de l’onde qui leur est associée est une fonction périodique du temps. On peut représenter cette fonction par un nombre complexe dont le module et la phase correspondent à ceux du champ. Ce nombre complexe est associé à un vecteur (on retrouve la représentation des nombres complexes évoquée plus haut, introduite en optique par Fresnel). L’extrémité du vecteur se trouve dans un petit cercle d’incertitude qui reflète l’existence pour de tels champs contenant quelques photons des fluctuations quantiques d’amplitude et de phase. Envoyons à présent dans la cavité notre atome dans une superposition des états e et g (Figure 4a). Sa présence a pour résultat de changer de façon transitoire la période des oscillations du champ et donc de le déphaser, c’est-à-dire de déplacer les instants où il passe par ses maxima et minima (Figure 4b). De façon équivalente, le vecteur représentatif tourne dans le plan de l’espace des phases. Mais du fait que l’atome est dans une superposition de deux états produisant des effets de signes opposés, on a deux états de phases différentes, intriqués aux deux états atomiques, une situation qui rappelle celle du chat de Schrödinger (Figure 4c). On voit également que le champ est une espèce d’aiguille de mesure qui « pointe » dans deux directions différentes du plan de Fresnel suivant que l’atome est dans e ou g, jouant ainsi le rôle d’un appareil de mesure qui « observe » l’atome.

Cette remarque nous conduit à décrire une expérience de démonstration simple du principe de complémentarité. Nous avons vu qu’ en soumettant l’ atome à deux impulsions lumineuses mélangeant les états e et g, aux instants t1 et t2 (en appliquant à l’atome deux impulsions dans les « zones de Ramsey » indiquées par des flèches sur la Figure 5a), on obtient, pour la probabilité finale de trouver l’atome dans g, un signal de franges d’interférence. Ces franges ne s’observent que si rien dans le dispositif ne nous permet de savoir dans quel état se trouve l’atome entre les deux impulsions. Soumettons alors l’atome entre t1 et t2 à un petit champ non résonnant stocké dans une cavité. La phase de ce champ tourne d’un angle dépendant de l’état de l’atome. Le champ « espionne » l’atome et les franges vont donc s’effacer. C’est bien ce qu’on observe (figure 5b). Si la rotation de phase du champ est faible, on ne peut en déduire avec certitude l’état atomique et les franges subsistent avec un contraste réduit. Elles disparaissent par contre totalement dans le cas d’une rotation de phase importante, rendant certaine l’information sur le chemin suivi par l’atome. On modifie simplement la rotation de phase du champ en changeant le désaccord de fréquence entre l’atome et la cavité.
La décohérence quantique saisie sur le vif
L’expérience que nous venons de décrire s’intéresse à la superposition des états de l’atome, influencée par la présence du champ. Que peut-on dire de la superposition des états du champ lui-même ? Combien de temps cette superposition d’états survit-elle ? L’environnement du champ est constitué par l’espace qui entoure la cavité, qui peut se remplir de photons diffusés par les défauts de surface des miroirs. En fait, c’est ce processus de diffusion qui limite dans notre expérience la durée de vie du champ à un temps Tcav d’une fraction de milliseconde. Si la cavité contient en moyenne n photons, un petit champ contenant environ un photon s’échappe donc dans l’environnement en un temps très court, Tcav divisé par n. Ce champ microscopique emporte une information sur la phase du champ restant dans la cavité. Ainsi, au bout d’un temps Tcav/n, la cohérence quantique entre les deux composantes du champ dans la cavité a disparu. Ceci explique pourquoi des champs macroscopiques, pour lesquels n est très grand (de l’ordre d’un million ou plus), se comportent classiquement, la décohérence y étant quasi-instantanée. Dans notre expérience cependant, n est de l’ordre de 3 à 10. Le temps de décohérence est alors assez long pour permettre l’observation transitoire d’interférences quantiques associées aux deux composantes de notre « chat de Schrödinger ». Pour cette observation, nous envoyons dans la cavité, après le premier atome qui prépare le « chat », un second atome jouant le rôle de la « souris quantique » évoquée plus haut. Cet atome recombine les composantes du champ séparées par le premier atome de telle sorte qu’il apparaît, dans un signal de corrélation entre les résultats des détections des deux atomes, un terme sensible à l’interférence associée aux deux composantes du chat créé par le premier atome. Ce signal d’interférence (voir Figure 6) décroît lorsque le délai entre les deux atomes augmente. Ce phénomène est d’autant plus rapide que les deux composantes du « chat » sont plus séparées, ce qui illustre un des aspects essentiels de la décohérence, qui agit d’autant plus vite que le système est plus
« macroscopique ». Cette expérience constitue une exploration de la frontière entre les mondes quantique (dans lequel les effets d’interférences sont manifestes) et quantique (dans lequel ces effets sont voilés).
Vers une utilisation pratique de la logique quantique ?
En dehors de leur intérêt fondamental, quelles peuvent être les retombées pratiques de ces expériences et de celles qui sont effectuées sur des ions piégés ou des photons intriqués ?
La logique qui y est à l’œuvre peut être décrite dans le cadre d’une branche en plein développement de l’informatique, qui s’intéresse à la façon dont on peut transmettre et manipuler de l’information en exploitant les lois quantiques. On peut en effet considérer les systèmes à deux états que nous avons considérés (atome à deux niveaux, cavité avec 0 ou 1 photon, champ présentant deux phases possibles) comme des « porteurs » d’information, des « bits » à l’aide desquels on peut coder deux valeurs, 0 ou 1. Nos expériences peuvent être vues comme des opérations sur ces bits, qui les couplent suivant une dynamique conditionnelle. On peut par exemple considérer que le champ (0 ou 1 photon) est un bit
« contrôle » et que l’atome est un bit « cible ». On peut réaliser l’expérience en cavité de sorte que si le bit contrôle est dans l’état 0, le bit cible ne change pas, et que par contre il change d’état si le bit contrôle est dans l’état 1. On obtient alors une porte conditionnelle analogue aux portes utilisées dans les ordinateurs classiques. La nouveauté de cette porte par rapport à celles des ordinateurs usuels est que les bits peuvent être mis dans des superpositions d’états. On manipule ainsi non pas seulement les valeurs 0 ou 1, mais aussi des superpositions de ces valeurs. On parle alors de bits quantiques ou « qubits ». Si on prépare le qubit contrôle dans une superposition de 0 et de 1, le fonctionnement de la porte conditionnelle génère en sortie deux bits intriqués. Cette intrication élémentaire peut être amplifiée en se servant de la sortie d’une porte comme entrée d’une porte en cascade et ainsi de suite. On peut construire de la sorte des combinaisons complexes d’opérations. L’intrication ainsi réalisée permettrait en principe d’obtenir des situations équivalentes à la superposition cohérente d’un grand nombre d’ordinateurs classiques, travaillant en parallèle et interférant entre eux. Pour certains types de calculs (comme la factorisation des grands nombres), on devrait gagner énormément en vitesse d’exécution par rapport à ce que permettent les algorithmes de calcul classiques.
Cette constatation explique en grande part l’engouement actuel pour ce type de recherche. Il faut cependant faire ici une réserve importante. La décohérence est un problème très sérieux pour ce genre de système. Ce que l’on cherche à construire ainsi n’est autre qu’un super chat de Schrödinger dont nous venons de voir la sensibilité extraordinaire au couplage avec l’environnement. Dès qu’un quantum s’échappe de l’ « ordinateur », la cohérence quantique est perdue. Certains espèrent résoudre la difficulté en ajoutant des dispositifs correcteurs d’erreurs quantiques. Il s’agit de processus complexes, dont la mise en œuvre efficace est loin d’être évidente. L’ avenir de l’ordinateur quantique reste – et c’est un euphémisme – bien incertain. D’autres applications de la logique quantique, moins sensibles à la décohérence, sont plus prometteuses. Le partage entre deux observateurs de paires de particules intriquées ouvre la voie à une cryptographie quantique permettant l’échange d’informations secrètes, suivant une procédure inviolable. Des expériences très encourageantes ont été réalisées en ce domaine. La téléportation quantique permet de reproduire à distance, en se servant des propriétés de l’intrication, l’état d’une particule quantique. Cet effet pourrait lui aussi être utilisé dans des dispositifs de traitement quantique de l’information.
Conclusion : la « gloire et la honte du quantum »
Au terme de cette brève exploration de la physique quantique, concluons sur un mot du physicien Archibald Wheeler, l’un des derniers survivants de la génération des fondateurs de la théorie. Réfléchissant sur ce siècle des quanta, il a parlé sous une forme lapidaire de « la gloire et de la honte du quantum ». La gloire c’est bien sûr l’immense succès de cette théorie pour nous faire comprendre la nature. La honte, c’est qu’au fond, on ne « comprend » pas la théorie. En essayant d’utiliser un langage issu de notre monde classique, on arrive à des problèmes d’interprétation troublants. En fait, beaucoup de physiciens ne se posent pas ces problèmes. La nature est ce qu’elle est, quantique sans doute, et ils l’admettent sans états
d’âme, obéissant à l’injonction de Bohr à Einstein : « arrête de dire à Dieu ce qu’il doit
faire » ! Pour d’autres, il manque encore une formulation de la théorie qui réconcilierait notre intuition avec le monde tel qu’il est. La nouveauté de cette fin de siècle est que ce problème, longtemps réservé aux théoriciens et aux « imagineurs » d’expériences de pensée, s’ouvre maintenant aux expériences réelles.

Réaliser ces expériences de pensée est un défi amusant et excitant. C’est un plaisir rare de pouvoir suivre in vivo la danse des atomes et des photons qui obéissent de façon si parfaite aux injonctions de la théorie quantique. Il faut cependant constater que ces expériences deviennent de plus en plus difficiles lorsqu’on augmente la taille du système. Maintenir ne serait-ce qu’un modèle réduit de chat de Schrödinger suspendu dans une superposition cohérente d’états est vraiment difficile. Même si l’ordinateur quantique n’est pas vraiment en vue, ce domaine de recherche nous réserve cependant encore bien des surprises. Il y aura sans doute des applications de toute cette physique, et, comme c’est souvent le cas, ce ne seront vraisemblablement pas celles que l’on prévoit.
RÉFÉRENCES :
Sur l’intrication quantique et la décohérence :
W. ZUREK, « Decoherence and the transition from quantum to classical », Physics Today, Vol 44, No 10, p36 (1991).
Sur les expériences d’atomes en cavité :
P.R. BERMAN (éditeur) : « Cavity Quantum Electrodynamics », Academic Press, Boston (1994)
S. HAROCHE, J.M. RAIMOND et M. BRUNE, « Le chat de Schrödinger se prête à l’expérience », La Recherche, 301, p50, Septembre 1997.
Sur l’information quantique :
D. BOUWMEESTER, A. EKERT et A. ZEILINGER (éditeurs) « The physics of quantum information », Springer Verlag, Berlin, Heidelberg (2000).
Légendes des figures :
Figure 1. Représentation des orbitales de l’état fondamental (a), du premier état excité (b) et d’un état de Rydberg très excité (c) de l’électron de l’atome d’hydrogène. La figure (c) n’est pas à l’échelle (une orbitale de Rydberg peut avoir un diamètre mille fois plus grand que celui d’un état fondamental).
Figure 2. Interférences quantiques : (a) Expérience d’Young : chaque particule traverse l’interféromètre suivant deux chemins indiscernables et les points d’impact sur l’écran reproduisent une figure de franges. (b) Si on cherche à déterminer le chemin suivi, l’interférence disparaît (complémentarité). (c) quand on essaye de superposer deux états distincts d’un système macroscopique (superposition symbolisée par le signe + d’un « chat vivant » et d’un « chat mor t » dans une boîte), l’environnement (molécules dans la boîte) s’intrique avec le système, supprimant très rapidement les effets d’interférence (décohérence).
Figure 3. Expérience préparant une paire d’atomes intriqués : deux atomes, le premier dans l’état e, le second dans g sont envoyés dans une cavité initialement v ide, formée de deux miroirs se faisant face. Si les temps d’interaction atome-champ sont convenablement réglés, les deux atomes émergent dans une superposition d’états.
Figure 4 : Principe de la préparation d’un état « chat de Schrödinger » du champ dans la cavité : (a) un atome dans une superposition de deux états traverse la cavité. (b) il donne au champ deux phases à la fois. (c) Chaque composante de phase est représentée par un vecteur pointant dans une direction donnée.
Figure 5 : Expérience de complémentarité : (a) Principe : l’atome suit deux
« chemins » entre les zones de Ramsey et la phase du champ dans la cavité fournit une information levant l’ambiguité. (b) Signal : La probabilité de détecter l’atome dans le niveau g est enregistrée en fonction de la fréquence appliquée dans les zones de Ramsey, pour trois valeurs du déphasage du champ. Les franges sont d’autant moins visibles que les deux composantes du champ dans la cavité sont plus séparées.

Figure 6. Expérience de décohérence : (a) Principe : l’atome 1 prépare la superposition d’états de phases différentes du champ dans la cavité et l’atome 2 la sonde après un délai variable. (b) Signaux de corrélation à deux atomes en fonction du délai entre eux, obtenus en moyennant les résultats d’un grand nombre de réalisations. Le nombre moyen de photons est 3,3. L’expérience est effectuée pour deux séparations différentes des composantes du champ (cercles et triangles expérimentaux). Les courbes sont théoriques.

 

  VIDEO       CANAL  U         LIEN   

 

 

 
 
 
initiation musicale toulon  

La microscopie à force atomique distingue les atomes par la couleur

  initiation musicale

 

 

 

 

 

 

La microscopie à force atomique distingue les atomes par la couleur

27 octobre 2017    RÉSULTAT SCIENTIFIQUE GÉNIE ÉLECTRIQUE ET ÉLECTRONIQUE

Jusqu'ici le microscope à force atomique (AFM) permettait surtout de visualiser la topographie d'une surface à l'échelle de l'atome. Grâce à une méthode développée par des chercheurs français et japonais du laboratoire LIMMS, à Tokyo, l'AFM peut maintenant distinguer les différentes espèces chimiques présentes en leur attribuant une couleur. Ces travaux sont publiés dans la revue Applied Physics Letters.

Voir le relief de la surface d'un matériau à l'échelle des atomes, c'est bien. Mais visualiser et identifier les espèces chimiques en présence, c'est encore mieux. C'est ce que permet la méthode développée par des chercheurs du laboratoire LIMMS (Laboratory for integrated micro mechatronics systems), une unité mixte internationale du CNRS et de l'université de Tokyo, à l'aide d'un microscope à force atomique (AFM). Jusqu'ici, en effet, la fine pointe d'un microscope AFM ne permettait de visualiser que la topographie de la surface étudiée. Distinguer les espèces d'atomes présents en surface était possible, mais au prix de mesures délicates qui pouvaient durer des dizaines d'heures... L'équipe franco-japonaise du LIMMS a trouvé le moyen de le faire en un seul balayage de l'AFM, et en quelques minutes.

Le principe : pendant que la pointe de l'AFM balaye l'échantillon, trois paramètres physiques indépendants sont mesurés, qui donnent une information sur l'espèce chimique en surface. Pour visualiser ces résultats, les chercheurs utilisent ces trois signaux comme canaux RVB (Rouge Vert Bleu), et les trois couleurs primaires sont combinées pour former une image distinguant les différents atomes.

Pour effectuer ces mesures, il faut commencer par mettre en vibration la pointe du microscope, en excitant, à l'aide d'un laser, la minuscule « poutre » (cantilever) qui porte la pointe. Ensuite, quand celle-ci s'approche de l'échantillon, les forces locales agissent sur elle, et modifient sa fréquence de vibration. En mesurant cette fréquence, et en modulant la distance entre la pointe et l'échantillon, il est possible, par des calculs, d'obtenir alors trois paramètres physiques caractéristiques de l'espèce chimique locale : l'énergie de la liaison entre la pointe et l'échantillon, la longueur de l'interaction (la distance à partir de laquelle la pointe « sent » les forces locales), et la distance d'équilibre de l'interaction.

La démonstration, sur un échantillon de silicium amorphe, a montré que l'on pouvait distinguer différents états d'énergie d'atomes de silicium en surface. Mais la méthode est applicable à d'autres matériaux, par exemple pour étudier la contamination de catalyseurs solides, ou des procédés de fonctionnalisation de surfaces.

 Références :
Color atomic force microscopy: A method to acquire three independent potential parameters to generate a color image
P. E. Allain, D. Damiron, Y. Miyazaki, K. Kaminishi, F. V. Pop, D. Kobayashi, N. Sasaki, and H. Kawakatsu
Applied Physics Letters, Volume 111, Issue 12  2017
doi: http://dx.doi.org/10.1063/1.4991790
Contact
Hideki Kawakatsu
Chercheur
kawakatu@iis.u-tokyo.ac.jp
Pierre Allain

pierre.allain@univ-paris-diderot.fr
Communication INSIS

insis.communication@cnrs.fr

 

     DOCUMENT         CNRS         LIEN 

 
 
 
initiation musicale toulon  

LE TEMPS ET SA FLÈCHE

  initiation musicale

 

 

 

 

 

 

Le temps et sa flèche

Conférence du 6 juillet 2000 par Etienne Klein. Chacun comprend de quoi nous voulons parler lorsque nous prononçons le mot temps, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l'est pas, qui se perd dans les brumes dès qu'on tente de la saisir. Pourtant les sciences, en particulier la physique, interrogent sans relâche la nature et les propriétés du temps. Quel statut faut-il lui donner ? S'écoule-t-il de façon régulière ? Est-il réversible ? Comment est-il relié à l'espace ? Peut-on concilier temps physique et temps psychologique ? Nous verrons comment chacune des révolutions qui ont agité la physique a remis en cause notre représentation du temps et des liens qu'entretient ce dernier avec l'espace et la matière.

Texte de la 188e conférence de l’Université de tous les savoirs donnée le 6 juillet 2000.


Le temps, son cours et sa flèche
par Etienne KLEIN


Un peu de poésie pour commencer

C'est à un physicien britannique, Arthur Eddington, que le temps doit d'être équipé (depuis 1929) d'un emblème, la flèche, que la mythologie attribuait jusque-là à Éros, le dieu de l'amour, représenté comme un enfant fessu et ailé qui blesse les cœurs de ses flèches aiguisées. La flèche du temps ne symbolise plus le désir amoureux, hélas, mais le sentiment tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour les physiciens, elle se traduit par l'irréversibilité de certains phénomènes physiques. Elle se distingue du cours même du temps, avec lequel elle est pourtant souvent confondue.
Avant d'entrer dans le vif du sujet, je voudrais vous proposer quelques phrases d'écrivains ou de poètes, qui chacune à sa façon, évoquent soit le cours du temps, soit sa flèche, soit un mélange des deux.
Commençons par Sacha Guitry : « Madame est en retard. C’est donc qu’elle va venir. » C'est le cours du temps qui est ici évoqué, d'une façon non dramatique mais cruellement misogyne. Continuons avec Georges Perros, l'auteur des Papiers Collés : « L’horloge sonne. C’est le temps qui tâte son pouls. » Voilà sans doute la façon la plus neutre d'évoquer le fait que le temps passe et de dire qu'il a un cours bien défini. Poursuivons avec Robert Desnos : « La feuille qui tombe et la roue qui tourne te diront que rien n’est perpétuel sur terre. » Cette phrase juxtapose l'idée de temporalité à celle de finitude. Tristan Tzara, un autre poète surréaliste, enfonce le clou d'une façon qui fait froid dans le dos : « Je me souviens d’une horloge coupant des têtes pour indiquer les heures. » C'est que le temps a à voir avec l'irréversibilité et avec la mort. Loin de pouvoir tuer le temps, c’est lui qui nous dévore. L'Antiquité associait d'ailleurs la planète Saturne au cruel titan Kronos qui dévorait ses enfants au fur et à mesure que son épouse Rhéa les mettait au monde. Mais comme il n'est pas question aujourd'hui de sombrer dans la délectation morose en associant trop directement temps et mort, nous terminerons ce petit florilège par ces mots de Jorge Luis Borges (dans Aleph), qui rappellent que la valeur de la vie, la vie comme valeur, s'enracine justement dans la connaissance de son essentielle précarité : « La mort rend les hommes précieux et pathétiques. Ils émeuvent par leur condition de fantômes ; chaque acte qu'ils accomplissent peut être le dernier ; aucun visage qui ne soit à l'instant de se dissiper comme un visage de songe. Tout chez les mortels a la valeur de l'irrécupérable et de l'aléatoire. »

Qu'est-ce que temps ?
Nos réflexions sur le temps sont presque toujours confuses, sans doute parce que nous ne savons pas trop de quel type d'objet il s’agit. Le temps est-il une chose ? Est-ce une idée ? Est-ce une apparence ? N'est-ce qu'un mot ? Existe-t-il en dehors de l’ « âme », selon le terme de saint Augustin ? Est-il un produit de la « conscience », selon le terme de Husserl ? Il est difficile de répondre à ces questions, mais très souvent on croit que les scientifiques, et notamment les physiciens, seront un jour capables de nous révéler la nature du temps, ou du moins d'en proposer une définition qui serait plus exacte que les autres. Il s'agit sans doute d'un malentendu, car il est toujours difficile de définir les mots importants. Peut-être est-ce même impossible puisque, si ces mots sont vraiment fondamentaux, on ne peut pas les rapporter à autre chose qu'eux-mêmes. Définir, c’est avant tout ramener une conception donnée à une autre plus fondamentale. Mais qu’y a-t-il de plus fondamental que ce qui est déjà fondamental ? Rien, et c’est sans doute pourquoi le philosophe Martin Heidegger avait raison de remarquer que les scientifiques posent finalement très peu de questions comme « Qu’est-ce que le temps ? », « Qu’est-ce que l’espace? », « Qu’est-ce que la matière? », alors que c’est souvent la réponse à ces questions que l’on attend d’eux.
On oublie trop souvent que la puissance de la physique vient de ce qu'elle a su limiter ses ambitions. Elle ne s'intéresse pas à toutes les questions qui se posent dans nos têtes, loin s'en faut. Elle prend soin de ne sélectionner que celles qui relèvent de ses compétences et de sa méthode. Par exemple, elle n'essaie pas de résoudre la question de la nature du temps, ou du moins, si elle le fait, c'est seulement à la marge de ses théories. Elle cherche plutôt la meilleure façon de représenter le temps, ce qui est une tout autre affaire.
Attardons-nous deux minutes sur l'épineuse question de la définition du temps. Chacun comprend de quoi on veut parler lorsque le mot temps est prononcé, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l’est pas. Bien sûr, on peut tenter de définir le temps et les philosophes n'ont pas manqué de le faire : le temps est ce qui passe quand rien ne se passe, il est ce qui fait que tout se fait ou se défait, il est l’ordre des choses qui se succèdent, il est le nombre du mouvement selon l'avant et l'après, il est le devenir en train de devenir. Mais toutes ces expressions contiennent déjà l'idée du temps (par exemple, l’idée de « passage » présuppose l’idée d’une temporalité, c’est-à-dire de quelque chose qui s’écoule). Elles ne sont donc que des métaphores du temps, impuissantes à rendre compte de sa véritable nature. Cela n'est pas très grave, car il n'est pas nécessaire de définir le temps pour en proposer une représentation. De fait, les physiciens sont parvenus à en faire un concept opératoire sans être capables de le définir précisément.

La physique et le temps
Y flairant une source de paradoxes, les philosophes n’ont cessé d’interroger la réalité du temps, et ce depuis l’Antiquité grecque. Souvenons-nous par exemple de la solution avancée par Parménide et les Éléates, qui proposaient de confondre la matière et l'espace, excluant par là même le vide et se trouvaient contraints de penser le mouvement comme une simple translation, c'est-à-dire comme une succession de positions fixes. Du coup, le temps leur demeurait inexplicable, et c'est pourquoi ils s'attachaient à le démontrer impossible et à tout décrire à partir de l'immobilité. Souvenons-nous également de Héraclite et des atomistes, qui prirent un autre parti : ils proposaient de confondre la matière avec le mouvement et affirmaient la réalité du vide. Selon eux, tout est mobile, tellement mobile même qu'on ne peut pas imaginer de point fixe pour évaluer les changements d'état ni expliquer quoi que ce soit.
L'influence de Parménide a été très forte en physique. En effet, la physique a longtemps cherché à éliminer le temps. Le temps est associé au variable, à l’instable, à l'éphémère, tandis que la physique, elle, est soi-disant à la recherche de rapports qui soient soustraits au changement. Lors même qu’elle s’applique à des processus qui ont une histoire ou une évolution, c’est pour y discerner soit des substances et des formes, soit des lois et des règles indépendantes du temps. Mais dans sa pratique, elle se heurte évidemment au temps, d'une façon telle que la question de savoir si le monde doit être vu plutôt comme un système ou plutôt comme une histoire continue de se poser. La physique a-t-elle vocation à décrire l'immuable ou bien doit-elle être la législation des métamorphoses ?

Le temps existe-t-il ?
Aristote a posé la question de l'existence du temps d'une façon qui a été abondamment discutée : puisque le passé n'est plus, puisque que l'avenir n'est pas encore, puisque le présent lui-même a déjà fini d'être dès qu’il a commencé d’exister, comment pourrait-il y avoir un « être » du temps ? Le temps a beau contenir la totalité de ce qui est, nous ne parvenons pas à le penser autrement que comme une limite toujours disparaissante entre deux néants, le passé d'un côté, l’avenir de l'autre. Mais un être qui n’est qu’en cessant d’être, est-ce encore un être ?
Si l’on peut ainsi s’interroger sur l’existence même du temps, il est en revanche très difficile de dire le monde sans faire appel à lui, et tout aussi difficile de nier les marques indélébiles qu’il imprime sur les choses et sur nos propres corps. Le temps se présente à nous d'une façon ambiguë : d'une part, il est ce qui fait que les choses persistent à être (on pourrait donc dire, plus plaisamment, qu'il est le moyen le plus commode qu'a trouvé la nature pour que tout ne se passe pas d'un seul coup) ; d'autre part, il est ce qui les fait changer. Le présent, qui est finalement la seule chose qui nous soit présente, a en effet ceci de paradoxal qu'étant à la fois toujours présent et jamais le même, de sorte que l'on doit admettre qu'il imbrique la permanence et le changement.
Une difficulté soulevée par la question du temps consiste en ce que nous ne pouvons pas nous mettre en retrait par rapport à lui. D’habitude, lorsque nous voulons étudier un objet, nous commençons par l’observer sous divers angles, mais lorsqu’il s’agit du temps, la mise à distance n’est plus possible puisqu’il nous affecte sans cesse. Nous sommes dans le temps et nous ne pouvons pas en sortir. C’est d’ailleurs une caractéristique que le temps partage avec l’espace puisque nous ne pouvons pas non plus nous extraire de l’espace. Mais il y a une différence essentielle entre le temps et l’espace : nous pouvons nous déplacer à l’intérieur de l’espace, aller et venir dans n’importe quelle direction, alors que nous ne pouvons pas changer notre place dans le temps. L’espace est donc le lieu de notre liberté, le temps la marque de notre emprisonnement.
Je cesserai là mes petites digressions philosophiques, par manque de temps d'abord, mais aussi parce que les historiens des sciences s'accordent à dire que la physique moderne a commencé avec Galilée, qui justement prit garde à ne pas se perdre en vaines discussions à propos de la nature ou de la réalité du temps. Il ne s'intéressa qu'au statut qu'il convenait de lui donner dans le champ de la physique. Cela l'amena à considérer le temps comme une grandeur quantifiable susceptible d'ordonner des expériences et de les relier mathématiquement. C'est dans cet esprit qu'il étudia la chute des corps. Il réalisa que si le temps, plutôt que l'espace parcouru, était choisi comme le paramètre fondamental, alors la chute des corps obéissait à une loi simple : la vitesse acquise est simplement proportionnelle à la durée de la chute. Cette découverte signa la naissance de la dynamique moderne, qui allait donner au temps un statut inédit. Jusqu'alors, l'idée que l'on s'était faite du temps était restée centrée sur des préoccupations humaines. Le temps servait essentiellement aux hommes de moyen d'orientation dans l'univers social et de mode de régulation de leur coexistence, mais il n'intervenait pas de façon explicite et quantitative dans l'étude des phénomènes naturels.

Temps physique et temps psychologique
Puisqu'elle est limitée dans ses ambitions, la physique ne prétend pas répondre à toutes les questions qui concernent le temps. Par exemple, elle échoue à rendre compte de la relation entre le temps physique et le temps psychologique, entre le temps des horloges et celui de la conscience. Ces deux temps ont certainement des liens, mais certaines de leurs propriétés sont distinctes, voire antagonistes. Déjà, leurs structures diffèrent. Le temps physique est toujours représenté comme un mince filament qui s'écoule identiquement à lui-même. Mais le temps subjectif, lui, se déploie en ligne brisée, entremêle des rythmes différents, des discontinuités, de sorte qu'il ressemble plutôt à un cordage tressé. Notre conscience éprouve en effet plusieurs temporalités enchevêtrées, tant par leur nature (le temps de nos sensations, celui de nos idées, de nos humeurs,…) que par leurs échelles, tout comme une corde est faite de multiples brins, eux-mêmes composés de fines et courtes fibres.

Temps physique et temps psychologique se distinguent aussi par le fait que le premier, toujours ponctuellement concentré dans le présent, sépare l’infini du passé de l’infini du futur tandis que le second mélange au sein du présent un peu du passé récent et un peu de l’avenir proche. Dans le temps physique, des instants successifs n’existent jamais ensemble, par définition. Le temps psychologique, lui, élabore une sorte de coexistence au sein du présent du passé immédiat et du futur imminent[1]. Il unit donc ce que le temps physique ne cesse de séparer, il retient ce qu’il emporte, inclut ce qu’il exclut, maintient ce qu’il supprime. Ainsi, lorsqu’on entend une mélodie, la note précédente est « retenue » avec la note présente et la projection de la note future pour former un ensemble harmonieux. Passé immédiat et futur imminent coexistent donc dans le présent. Sans cette alliance au sein de la conscience, chaque note serait isolée et il n’y aurait pas de mélodie à proprement parler.
Temps physique et temps psychologique se distinguent également par leur fluidité. Le premier s'écoule uniformément (du moins dans la conception classique) tandis que le deuxième a une fluidité si variable que la notion de durée éprouvée n'a qu'une consistance très relative : il n'y a pas deux personnes qui, dans un temps donné, compteraient un nombre égal d'instants. Notre estimation des durées varie avec l’âge, et surtout avec l'intensité et la signification pour nous des événements qui se produisent[2] Rien de tel pour le temps physique, et c'est bien pourquoi nous portons des montres.
Enfin, les temps physique et psychologique n'accordent pas des statuts semblables aux notions de passé et d'avenir. C'est la question de la flèche du temps, sur laquelle nous reviendrons par la suite. Ce que je veux dire dans un premier temps, c'est que l'irréductibilité des temps physique et psychologique semble insurmontable, du moins pour le moment. On se doute bien que leurs liens se situent à la couture de la matière et de la vie, mais les tentatives pour dériver le temps du « monde » du temps de « l'âme » ou l'inverse n’ont pas vraiment abouti. Le temps mathématisé du physicien ne semble pas épuiser le sens du temps vécu, pas plus que le temps vécu ne donne l'intuition de toutes les facettes du temps physique.
À force de schématisation, la physique a peut-être laissé échapper quelques-unes des propriétés fondamentales du temps. Le temps monotone des physiciens, constitué de tic-tac répétitifs et esseulés, n'est peut-être qu'une idéalisation très appauvrie du temps de la vie.

L'écoulement du temps pourrait-il être discontinu ?
Tout au long de son histoire, la physique a considéré que l'espace est un continuum, c'est-à-dire qu'il est possible d'envisager des portions de longueurs aussi petites que l'on veut, sans jamais atteindre de limite. Le point, qui correspondrait à un nombre infini de divisions, reste toutefois hors d'atteinte, mais on peut en principe s'en rapprocher continûment. Le fait qu'il soit ainsi possible de considérer des longueurs infimes, et même nulles, fait surgir d'énormes difficultés, par exemple lorsque l'on s'intéresse au champ électrique produit par une charge électrique, disons un électron, à la distance r de celui-ci. Ce champ, variant comme 1/ r2, devient infini lorsque la distance r s'annule. De telles divergences ou singularités conduisent à des difficultés mathématiques que les physiciens tentent d'éviter de différentes façons : soit en assignant un domaine de validité limité aux expressions divergentes (on supposera pour l'exemple cité ci-dessus que, si la distance r devient trop petite, l'expression en 1/ r2 doit être remplacée par une autre, non divergente) ; soit en utilisant des procédés mathématiques qui abolissent « artificiellement » ces divergences et autorisent le calcul. On peut citer par exemple la théorie des distributions, être mathématiques ressemblant à des fonctions discontinues qui prendraient une valeur nulle en tous les points de l'espace, sauf en un seul. On peut également évoquer la procédure dite de renormalisation. Celle-ci consiste à éliminer toutes les quantités infinies qui apparaissent dans les calculs en retranchant à celles-ci un petit nombre de quantités elles-mêmes infinies, de sorte d'obtenir un résultat fini.
Une dernière piste, plus audacieuse, consiste à imaginer que l'espace lui-même pourrait être discret, c'est-à-dire structuré selon un réseau, dont la maille, finie et non nulle, représenterait une distance minimale au-dessous de laquelle il serait impossible de descendre. Toute divergence serait ainsi évitée. Mais là aussi, de terribles problèmes se posent. D'abord, quelle serait la taille de la maille et d'où proviendrait-elle ? Ensuite, un tel réseau introduirait des directions privilégiées qui détruirait l'isotropie de l'espace, c'est-à-dire son invariance par rotation. Or cette invariance joue, avec d'autres symétries du même type, un rôle fondamental dans toute la physique en imposant des lois de conservation très contraignantes.

Des travaux mathématiques récents, notamment effectués par Alain Connes dans les années 1980, pourraient toutefois changer la donne. Ils concernent ce qu'on appelle la géométrie non commutative. Celle-ci permet de considérer des structures spatiales qui présentent un caractère discontinu mais qui ne brisent pas les symétries fondamentales. Cette nouvelle géométrie est obtenue en remplaçant les coordonnées spatiales usuelles, qui sont des nombres ordinaires, par des opérateurs algébriques. L'appellation de la théorie provient de ce que ces opérateurs ne commutent pas entre eux (l'ordre de leur application n'est pas indifférent), mais vérifient au contraire certaines relations de commutation qui définissent les propriétés de l'espace à petite échelle. Les propriétés habituelles de l'espace étant restituées aux échelles de la physique habituelle, ce n'est qu'au-dessous d'une certaine échelle que les effets de cette géométrie apparaissent. Cette échelle, qui pourrait être celle dite de Planck (10-35 m), représenterait une limite à la divisibilité de l'espace.
Mais revenons-en au temps. Les physiciens le supposent constitué d'instants qui se succèdent dans une structure continue. Ces instants jouent pour le temps le même rôle que le point pour l'espace. Ils sont tout aussi inaccessibles à la perception. En effet, nous ne sentons pas les instants qui passent. Pour nous, ainsi que nous l'avons déjà dit, le présent est une sorte de fluide continu qui mélange un peu du passé immédiat et du futur imminent, sans qu'aucune de nos sensations ne vienne indiquer l'alchimie par laquelle une succession d'instants parvient à s’épaissir en durée. L'idée d'un temps discontinu, c'est-à-dire d'une atomicité de la durée, est parfois évoquée, mais aucune théorie n'est jamais venue l'éclairer, du moins à ma connaissance. Il faut dire qu'elle pose d'énormes difficultés conceptuelles : comment le temps pourrait-il être constitué d'instants séparés par des durées privées de temps ? L'impossibilité d'observer les instants ne va en tous cas pas contre l'idée d'un temps continu, de la même façon que l'absence d'objet véritablement ponctuel ne va contre la possibilité d'un espace continu.

La causalité et l’interdiction des voyages dans le temps
Le mouvement des aiguilles de nos montres incite à assimiler le temps à un flux composé d'instants infiniment proches parcourus les uns après les autres, c'est-à-dire à une variable à une seule dimension. Cette représentation du temps accorde au temps une topologie beaucoup plus pauvre que celle de l’espace, qui lui a trois dimensions. Elle n'offre en fait que deux variantes, la ligne ou le cercle, selon que la courbe du temps est ouverte ou fermée. Il n’y a donc a priori que deux types de temps possibles, le temps linéaire et le temps cyclique. Le cours du temps se manifeste sur ces courbes par le fait qu'elles sont orientées, c'est-à-dire parcourues dans un sens bien défini, du passé vers le futur.

Si les physiciens ont choisi d'adopter un temps linéaire plutôt que cyclique, c'est en vertu du principe de causalité selon lequel la cause d'un phénomène est nécessairement antérieure au phénomène lui-même. Ce principe de causalité interdit en outre les voyages dans le temps, car ceux-ci permettraient en principe de rétroagir dans le passé pour modifier une séquence d’événements ayant déjà eu lieu. Une telle possibilité conduirait à affronter de pénibles situations : un jeune homme pourrait rejoindre dans le passé sa grand-mère alors que celle-ci est encore jeune, lui faire un brin de cour au volant d'une belle voiture de sport, rater un virage et expédier la jeune femme ad patres, l'empêchant ainsi de mettre au monde le premier maillon de la descendance dont le susdit jeune homme fait pourtant partie… Un tel paradoxe, possible avec un temps cyclique puisque ce qu’on appelle la cause pourrait tout aussi bien être l’effet et vice versa, ne l'est pas avec un temps linéaire, celui-ci ordonnant les événements selon un enchaînement chronologique irrémédiable. On en peut pas à la fois aller vers le passé et vers l'avenir. De même qu'un fleuve coule toujours dans le même sens, de l'amont vers l'aval, le temps a un cours bien défini, s'écoulant du passé vers l'avenir, sans jamais rebrousser chemin ni faire de boucle, de sorte qu'un instant donné ne peut jamais se reproduire…
Le principe de causalité se décline de différentes façons selon les théories physiques. Il ne renvoie pas toujours explicitement à l'idée de cause, se contentant parfois d'imposer une chronologie obligatoire entre certains types d'événements. Mentionnons rapidement, à titre d'illustrations, la façon dont il est pris en compte en relativité (restreinte ou générale) et en physique quantique.
En relativité restreinte
Le principe de causalité est garanti par l'impossibilité de transmettre de l'énergie ou de l'information à une vitesse supérieure à celle de la lumière. Cette impossibilité interdit les voyages dans le temps et les renversements de chronologie.

En relativité générale
La causalité est violée s’il existe une boucle temporelle, c’est-à-dire une ligne d’univers refermée sur elle-même. La théorie prévoit que de telles boucles pourraient apparaître derrière l’horizon de trous noirs en rotation très rapide, mais rien ne garantit qu'elles existent.

En physique quantique non relativiste
La causalité est inscrite dans l’équation de Schrödinger qui fait jouer au Hamiltonien le rôle de générateur infinitésimal des translations dans le temps. Il s’agit d’une causalité sans cause explicite.
En théorie quantique des champs
Les contraintes de la causalité s’expriment au moyen des règles de commutation des opérateurs de champs. Un opérateur de création Ф*(x) d’une particule au point x et l’opérateur d’annihilation de cette même particule Ф(y) au point y doivent commuter pour une séparation du genre espace et ne pas commuter pour une séparation du genre temps. Ces règles empêchent une particule de se propager sur une ligne du genre espace (la particule se propagerait plus vite que la lumière) et imposent, pour une propagation sur une ligne du genre temps, que la création d’une particule précède son annihilation. Ces contraintes ne peuvent être satisfaites que si la décomposition en ondes planes des opérateurs de champs contient des fréquences négatives, correspondant à des antiparticules. L’antimatière est donc la trace « matérielle » du fait que le temps passe en sens unique.
D'une façon générale, le principe de causalité s'exprime par le biais de ce que l'on appelle l'invariance CPT, sur laquelle nous allons nous attarder.
L'invariance CPT
Certaines symétries géométriques nous sont familières. D’autres, plus abstraites, sont couramment invoquées par les physiciens. C'est le cas de la « parité », de la « conjugaison de charge », et du « renversement du temps ».
La parité est une opération, notée P, qui consiste à regarder l'image d'une expérience donnée dans un miroir. Prenons l’exemple d'une expérience réelle mettant en jeu une collision entre particules. Appliquer l'opération P à une telle situation consiste à réaliser par la pensée l'expérience telle qu'elle serait vue dans un miroir. La nature des particules mises en jeu reste la même. En revanche, leurs positions sont modifiées puisque droite et gauche sont inversées dans l'opération.
La question se pose évidemment de savoir si, une fois cette opération réalisée, la nouvelle expérience peut ou non se réaliser dans la nature ou en laboratoire. Si la réponse est oui, on dira que l'expérience respecte la symétrie P. Dans le cas contraire, on dira qu'elle la viole.
À toute particule est par ailleurs associée une antiparticule, de même masse qu'elle et dont toutes les charges, notamment la charge électrique, sont opposées à celle de la particule correspondante. La conjugaison de charge est précisément l'opération qui consiste à transformer (sur le papier) une particule en son antiparticule, et vice versa. Par exemple, elle transforme l'électron en positron et le positron en électron, le proton en antiproton et l'antiproton en proton. Cette opération est notée C, pour « charge », en raison de l'inversion des charges entre particule et antiparticule.
Partons à nouveau d'une expérience réelle mettant en jeu une collision entre particules. Enregistrons soigneusement les vitesses et les positions de chacune des particules qui interviennent tout au long de l'expérience. Appliquons maintenant l'opération C : à chaque fois que l'on rencontre une particule, on la remplace par son antiparticule et on lui impose de suivre exactement la même trajectoire que celle qu'avait la particule dans la situation initiale. Si par exemple on regarde une collision entre un proton et un neutron, l'opération C nous décrira la « même » collision, sauf qu'elle se produira entre un antiproton et un antineutron. Si, une fois cette opération accomplie, la nouvelle expérience peut se réaliser, on dira que l'expérience respecte la symétrie C. Dans le cas contraire, on dira qu'elle la viole.
Enfin, l'opération « renversement du temps », notée T, correspond à un renversement du mouvement plutôt qu'à une inversion du temps proprement dit. Elle consiste à dérouler un phénomène dans le sens inverse de celui dans lequel il s'est produit, autrement dit à passer le film à l'envers. Selon les lois classiques, si à un instant donné t0, pris comme origine des temps ( t0 = 0), les vitesses de chaque astre du système solaire (Soleil, planètes et leurs satellites) étaient renversées, leur trajectoire ne serait pas modifiée, mais la position de chaque astre sur sa trajectoire à l'instant ultérieur t serait celle qu'il occupait à l'instant -t.
La parité, la conjugaison de charge et le renversement du temps jouent un rôle fondamental dans les équations que manient les physiciens des particules, par le biais de l'invariance CPT : comme son sigle l'indique, l'opération CPT est le produit des trois opérations C, P et T. Cette opération ne modifiant aucune des lois connues de la physique, on parle d'invariance CPT.
En langage imagé, l'invariance CPT se traduit en disant que les lois physiques qui gouvernent notre monde sont identiques à celles d'un monde d'antimatière observé dans un miroir et où le temps s'écoulerait à l'envers. Fondamentalement liée au principe de causalité, qui ordonne les événements selon un enchaînement irrémédiable, elle a notamment comme conséquence une sorte de symétrie entre la matière et l'antimatière. En particulier, elle prévoit que la masse et la durée de vie des particules sont rigoureusement égales à celles de leurs antiparticules.
L’interaction faible et les kaons neutres
Pendant longtemps, les physiciens, s'appuyant sur le sens commun, crurent que toutes les lois de la physique respectaient la symétrie P. N'est-il pas évident, lorsque nous voyons un arrangement d'objets dans un miroir, que nous pourrions réaliser cet arrangement dans la réalité aussi ? Pourtant, il fut démontré en 1957, à la surprise générale, que l'interaction nucléaire faible, responsable notamment de la radioactivité  par laquelle un neutron se désintègre en un proton et un électron, ne respecte pas la symétrie P. Autrement dit, l'image dans un miroir d'un phénomène régi par l'interaction faible correspond à un phénomène qui n'existe pas dans la nature et qu'on ne peut pas non plus produire en laboratoire. Cette violation de la parité, apanage de l'interaction faible, permet de définir de façon absolue la droite et la gauche.
On démontra dans le même temps que l’interaction faible violait également l’invariance par conjugaison de charge, d’une façon telle que la symétrie globale PC était, elle, préservée. Cette invariance par CP, combinée à l’invariance CPT, impliquait l‘invariance par T. Ce résultat rassurant ne tint que quelques années. En 1964, une expérience révéla que l’invariance par PC est elle aussi brisée, même si ce n’est que très légèrement, lors de la désintégration (par l’interaction faible) de particules étranges qu’on appelle les kaons neutres. Ces particules sont les seules pour lesquelles une telle dissymétrie ait jamais été observée. Mais alors, CPT étant toujours conservée, si PC ne l’est pas en l’occurrence, c’est que T ne l’est pas non plus, mais cette violation n’avait pas été mise en évidence directement.
Une expérience du CERN, baptisée CPLEAR, a apporté en 1998 une pierre décisive à ce débat. Elle a permis de mettre en évidence, de façon directe, une violation de la symétrie temporelle au sein d’un système microscopique particulier, celui formé par un kaon neutre et son antiparticule. Il est établi depuis longtemps qu’un kaon neutre se transforme au cours du temps en sa propre antiparticule, qui à son tour se retransforme en kaon neutre. Ce que l’expérience CPLEAR vient de mettre en évidence, c’est que la vitesse à laquelle un kaon neutre se transforme en son antiparticule n’est pas exactement la même que celle du processus inverse, contrairement à ce que la symétrie T prévoit. C’est la première fois qu’est mesurée directement une différence entre un processus microscopique et le processus inverse. L’origine profonde de cette légère brisure de la symétrie temporelle passé-futur demeure mystérieuse.

La question de la flèche du temps
Pour nous, passé et futur ne sont pas équivalents. Par exemple, nous nous souvenons en partie du passé, mais pas du tout de l’avenir. Cette asymétrie entre passé et futur est la manifestation du cours même du temps. Depuis Newton, les physiciens se demandent si cette distinction existe également au niveau des phénomènes physiques. Font-ils eux aussi la distinction entre le passé et l'avenir ?
Pensons à une table de billard sur laquelle nous faisons entrer deux boules en collision. Après le choc, les deux boules repartent dans des directions opposées. Si les frottements sont négligeables, leurs vitesses resteront constantes. Imaginons que nous ayons filmé la collision et que nous projetions le film à l’envers. Cela équivaut à échanger les rôles respectifs du passé et de l’avenir, c’est-à-dire à inverser le cours du temps. Ce que l’on voit alors à l’écran, c’est une autre collision de deux boules, correspondant à la collision qui s’est réellement produite mais avec toutes les vitesses inversées.
Le point important est qu'un spectateur qui ne verrait que la projection du film inversé serait tout à fait incapable de dire si ce qu’il voit correspond à ce qui s’est réellement passé ou si le film a effectivement été retourné. La raison de cette ambiguïté est que la deuxième collision est régie par les mêmes lois dynamiques que la première. Elle est donc tout aussi « physique », au sens où elle est tout aussi réalisable que la collision originale. Autrement dit, une telle collision est « réversible ». Sa dynamique ne dépendant pas de l’orientation du cours du temps, elle ne fait aucune distinction entre le passé et l’avenir. Cela signifie, non pas qu'elle autorise les voyages dans le temps, mais que pour elle le cours du temps est arbitraire.

Selon la physique d’aujourd’hui, tous les phénomènes ayant lieu au niveau microscopique sont comme ces collisions de boules de billard, c'est-à-dire réversibles. Or à notre échelle, nous n'observons que des phénomènes irréversibles, à commencer par le fait que nous vieillissons : si nous filmons une scène de la vie courante et projetons le film à l’envers, nous voyons dès les premières images qu’il y a eu inversion (le plongeur est expulsé de la piscine et se retrouve bien sec sur son plongeoir). A l'échelle macroscopique, le temps ne fait donc pas que passer : il invente, il crée, il use, il détruit, sans jamais pouvoir refaire ce qu'il a défait.
Comment expliquer l’émergence de cette irréversibilité observée à l’échelle macroscopique à partir de lois physiques qui l’ignorent à l’échelle microscopique ? Ce problème, dit de « la flèche du temps » a été ardemment discuté depuis deux siècles. La plus ancienne explication s'appuie sur l'irréversibilité associée au second principe de la thermodynamique, selon lequel l'entropie d'un système isolé ne peut qu'augmenter au cours du temps : de même que de l'eau tiède ne redevient jamais une juxtaposition d'eau chaude et d'eau froide, un système macroscopique qui évolue ne peut revenir à sa configuration initiale. Plus récemment, des physiciens ont suggéré que la flèche du temps proviendrait plutôt de l'expansion même de l'univers, qui orienterait tous les processus physiques selon un cours irréversible. D'autres pistes faisant référence à la physique quantique ou à la physique des particules ont également été proposées. Toutefois, aucune de ces explications ne peut être présentée comme universelle et définitive. Il semble donc qu'il n'y ait pas d'unité théorique autour du concept de temps, comme si deux façons de penser ne cessent de s'affronter, celle qui se fonde sur l'histoire et le temps, et celle qui se fonde sur l'invariance et l'absence de temps. Elles correspondent peut-être à deux composantes contradictoires mais inséparables de notre effort pour comprendre le monde : nous ne pouvons pas penser le monde sans le temps et nous ne savons pas le raconter sans imaginer qu’il monnaie quelque invariance.

[1] Les spécialistes des neurosciences expliquent que la conscience fonctionne par séquences de trois secondes, pendant lesquelles un ensemble de données restent présentes simultanément à l’esprit.
[2] « Plus le temps est vide et plus il nous pèse », remarquait Vladimir Jankélévitch. Ce constat suffit à différencier le temps des objets ordinaires de la mécanique.

 

  VIDEO       CANAL  U         LIEN   

 

 
 
 
initiation musicale toulon  

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?

  initiation musicale

 

 

 

 

 

 

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?


Nouveaux smartphones, casques de réalité virtuelle… aujourd’hui, tout le monde connaît de près ou de loin la réalité virtuelle. Elle permet de s’immerger, grâce à un ensemble de technologies, dans une reproduction numérique du monde réel ou dans un monde imaginaire. La réalité virtuelle est présente dans des domaines très variés allant du cinéma à la recherche, en passant par les jeux vidéo et l’industrie. Quelles sont les technologies associées à la réalité virtuelle ? Quels sont ses enjeux dans l’industrie et la recherche ? L’essentiel sur… la réalité virtuelle.

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?

La réalité virtuelle s’appuie sur un ensemble de technologies qui immergent une personne dans une reproduction numérique du monde réel ou dans un monde imaginaire. Plus le nombre de sens mobilisés est important – la vue, l’ouïe et le toucher – et plus l’immersion est efficace.

Grâce à différents outils comme des lunettes stéréoscopiques (le même type de lunettes que pour regarder des films en 3D) ou un casque immersif, l’utilisateur peut se déplacer dans un environnement plus ou moins sophistiqué, en 3D. Il peut vivre également une expérience interactive en manipulant virtuellement des objets, jusqu’à en ressentir le poids et la texture. L’expérience peut être enrichie par des manettes, gants, volants ou autres interfaces haptiques, pour des interactions plus complexes. Toutes ces interactions avec l’environnement virtuel ont lieu en temps réel.

Au-delà des scènes visibles en images de synthèse, l’immersion peut intégrer un avatar, qui évolue dans la scène au gré des intentions de son utilisateur. Toutes ces performances sont rendues possibles grâce à d’importants développements logiciels et algorithmiques qui permettent de restituer fidèlement l’environnement et de simuler finement les interactions entre les différents objets de la scène virtuelle au millimètre et à quelques millisecondes près.


RÉALITÉ VIRTUELLE, 
AUGMENTÉE ET MIXTE, KÉSAKO ?

La réalité virtuelle est l’ensemble des technologies qui permettent une immersion dans une reproduction numérique du monde réel ou dans un monde imaginaire.
La réalité augmentée permet d’incruster, superposer à la scène réelle d’un flux vidéo capté par une caméra, des images virtuelles fixes ou animées en temps réel. Il existe déjà de telles applications dans le tourisme : monuments et restaurants sont ainsi montrés sous leur apparence d’il y a 500 ans ou décrits sur l’écran des smartphones en temps réel.
Un cran supplémentaire sera franchi avec la réalité mixte : il sera possible d’interagir avec un objet virtuel (personnages, objets, machines…) incrusté dans la captation vidéo de la scène réelle. Par exemple, on pourra étudier et valider l’utilisation d’un robot grâce à son avatar virtuel au stade de la conception, tout en le pilotant dans un environnement industriel réel.
 
L'HISTOIRE DE LA RÉALITÉ VIRTUELLE EN QUELQUES DATES CLÉS
La réalité virtuelle apparaît dans les années 50, d’abord dans le domaine du cinéma. Depuis, les progrès dans le domaine du numérique – logiciel, graphisme, algorithme, optimisation des capacités de calcul - ont permis de développer les technologies de réalité virtuelle dans de nombreux secteurs de l’économie. Aujourd’hui, la mise sur le marché de casques de réalité virtuelle (ou casques VR) permet aux industriels et au grand public des expériences immersives beaucoup plus accessibles.


Années 50-60

L’ancêtre de la réalité virtuelle est le Sensorama. Cette machine, imaginée en 1956, puis créée en 1962 par Morton Leonard Heilig, cinéaste, philosophe et documentariste permettait à son utilisateur de regarder un film en s’immergeant dans un univers 3D, comme s’il y était. La particularité de cette machine était qu’elle pouvait stimuler différents sens comme la vue, le toucher, l’ouïe et l’odorat. Cette machine est restée au stade de prototype car sa production aurait coûté trop cher.


En 1963, Ivan Sutherland, ingénieur en informatique, écrit un programme informatique nommé Sketchpad. Ce logiciel est considéré comme l’ancêtre des logiciels de conception assistée par ordinateur (CAO), aujourd’hui utilisés par tous ceux qui font de la 3D. Pour cette invention, Ivan Sutherland reçoit en 1988 le prix Turing, qui récompense une personne ayant contribué à la communauté informatique avec une importance technique majeure et durable.

De 1965 à 1968, Ivan Sutherland, et son étudiant Bob Sproull, développent un nouveau moyen de visualiser des images de synthèse : l’Ultimate Display, ou Épée de Damoclès. L’Épée de Damoclès était un casque avec détecteur de mouvement intégré. Il porte ce nom en raison du bras mécanique nécessaire pour traquer les mouvements de la tête.


Années 80-90
En 1984, le CEA et l’IRISA créent le premier système de réalité virtuelle à retour d’efforts dans le cadre du grand programme national de recherche en automatique, ARA. Il s’agissait d’utiliser en temps réel des modèles 3D de l’environnement d’un robot téléopéré. Une première dans le domaine de la recherche.

Parallèlement, Jaron Lanier, chercheur en informatique, et Thomas Zimmerman, l’inventeur du gant sensitif, fondent VPL Research en 1985, une société pionnière dans le domaine de réalité virtuelle. Ensemble, ils inventent plusieurs moyens d’explorer la réalité virtuelle dont le « Dataglove » en 1987, ou « gant de données ». Ce gant comporte des capteurs et permet à un utilisateur de saisir un objet virtuel et de le manipuler, en numérisant en temps réel les mouvements de la main. La société va également développer les premiers casques de réalité virtuelle de la NASA, le casque VIEW. Ce dernier permettait d’immerger les astronautes dans diverses situations spatiales et de les entraîner. Ce casque était accompagné d'une combinaison qui permettait un suivi complet des mouvements du corps.

L’expression « réalité virtuelle » fut proposée et utilisée pour la première fois en 1989, par Jaron Lanier, fondateur de la société VPL Research.


En 1995, le CEA propose au monde industriel le premier système de simulation de poste de travail robotisé à retour d’efforts en bénéficiant des avancées dans le domaine des calculateurs qui ont permis de représenter des environnements complexes en 3D et surtout en temps réel.

Ces avancées majeures ont permis de donner naissance à une véritable école française de réalité virtuelle industrielle qui, à partir du début des années 2000, a commencé à pénétrer les bureaux d’étude de tous les grands groupes industriels dans les secteurs de l’aéronautique et de l’automobile.

Aujourd'hui
Les progrès réalisés dans le domaine informatique améliorent toujours plus le réalisme et les interactions en temps réel de la réalité virtuelle. Parmi les innovations de rupture, la démocratisation des casques VR permet de réaliser des expériences immersives à moindre coût. En effet, il y a encore quelques années, le cave ou la salle immersive était l’unique moyen de réaliser de telles expériences. Mais ce moyen reste onéreux et lourd à mettre en œuvre. La réalité virtuelle est dans une phase de « révolution » et nombre de promesses sont encore à explorer.

LES OBJECTIFS DE LA RÉALITÉ VIRTUELLE
Pour répondre aux besoins et aux envies des industriels et du grand public, les moyens se déploient sans cesse pour rendre la réalité virtuelle encore plus performante et permettre davantage d’interactions.
En améliorant les technologies de réalité virtuelle, les chercheurs poursuivent plusieurs objectifs :



*         Voir et manipuler des objets imaginaires : les chercheurs et les utilisateurs peuvent laisser libre cours à leur créativité, et ainsi trouver des réponses à des questionnements qui étaient impossibles à résoudre sans réalité virtuelle.



*         Vérifier et valider les concepts, les process, les produits avant la réalisation d’un prototype. Tester une maquette numérique avant de passer à une maquette réelle permet d’économiser du temps et de l’argent.



*         Former à de nombreux métiers nécessite d’acquérir le « geste parfait » et les interfaces haptiques (bras articulés, manettes, gants, certains casques VR) participent à cet entraînement, par exemple pour des opérations de peinture, de pilotage d’avion, de chirurgie… voire d’apprentissage en auto-école.  La réalité virtuelle peut également aider à soigner les phobies : l’immersion à l’aide des casques de réalité virtuelle permet à des personnes atteintes de phobies, comme la peur de l’avion ou la peur des araignées, de dépasser leur peur. Ils sont aussi de précieux outils pour apprendre à réagir aux situations de crise et à divers aléas.



*         Étudier et diagnostiquer les postes de travail, établir leur cotation ergonomique, c’est-à-dire évaluer les postures des membres, du cou, et du tronc selon une grille d’observation. Les chercheurs peuvent, grâce à la réalité virtuelle, évaluer la pénibilité des tâches, repérer les postures pouvant entraîner des troubles musculo-squelettiques, et ainsi les prévenir. La réalité virtuelle permet aussi de déterminer si un geste humain est possible, compte tenu des contraintes de l’environnement où il sera réalisé et de mettre en place une éventuelle assistance cobotique.

*         Simuler le réel pour assurer la sécurité d’une activité.



LES DOMAINES D'APPLICATION DE LA RÉALITÉ VIRTUELLE

L'usine du futur
Le recours croissant au numérique est devenu incontournable pour optimiser l’outil de production, dès sa conception, mais aussi simuler la réalisation de tâches ou superviser le fonctionnement des robots. La réalité virtuelle et la réalité augmentée contribuent ainsi de façon croissante à la formation industrielle et à l’apprentissage de certaines techniques de maintenance.

Parmi les industries intéressées par les technologies de réalité virtuelle, de grands constructeurs automobiles et, pour la partie grand public, des concepteurs de salles d'arcade et de jeux vidéo avec lesquels sont menés des projets collaboratifs de serious game. Certaines sociétés spécialisées dans les outils d'évaluation HSE (Hygiène – Sécurité - Environnement) ont montré comment la cotation ergonomique pouvait contribuer à modifier le design d'un poste de travail.

Démantèlement nucléaire

La réalité virtuelle est utilisée par les acteurs de la filière nucléaire pour notamment intervenir en milieu « hostile ». Dans le cadre de projets de démantèlement nucléaire, les équipes peuvent utiliser des solutions logicielles (salle de réalité virtuelle 3D immersive) et technologiques (équipements téléopérés sur une maquette réelle à l’échelle 1) pour les aider à concevoir, tester et optimiser les scénarios de démantèlement. Concrètement, la salle immersive reconstitue en trois dimensions les chantiers de démantèlement à réaliser grâce à un robot, ainsi qu’une reproduction « image » du robot lui-même.
Un poste complet de téléopération (bras haptique à retour d’effort, baies de contrôle-commande...) similaire à ceux utilisés sur le terrain, permet aux téléopérateurs de se former ainsi que de tester les capacités du robot. Au-delà de la formation des opérateurs, la simulation et la modélisation sont très utiles pour préparer les interventions et définir les dispositifs de radioprotection nécessaires.

Recherche fondamentale
La réalité virtuelle intéresse aussi la recherche fondamentale. Par exemple, dans le domaine de la santé ou de l'archéologie, l'utilisation de la réalité virtuelle procure de nouvelles capacités de visualisation et d'interaction pour modéliser de nouvelles molécules ou se mettre 'à hauteur' de nos ancêtres dans leur environnement reconstitué.

Loisirs
Les casques de réalité virtuelle sont de plus en plus utilisés pour les loisirs : jeux vidéo, audiovisuel pour permettre aux usagers une immersion toujours plus proche de la réalité.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google