ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LE TEMPS

 

Texte de la 188e conférence de l’Université de tous les savoirs donnée le 6 juillet 2000.


Le temps, son cours et sa flèche
par Etienne KLEIN


Un peu de poésie pour commencer
C'est à un physicien britannique, Arthur Eddington, que le temps doit d'être équipé (depuis 1929) d'un emblème, la flèche, que la mythologie attribuait jusque-là à Éros, le dieu de l'amour, représenté comme un enfant fessu et ailé qui blesse les cœurs de ses flèches aiguisées. La flèche du temps ne symbolise plus le désir amoureux, hélas, mais le sentiment tragique que nous éprouvons tous d'une fuite inexorable du temps. Pour les physiciens, elle se traduit par l'irréversibilité de certains phénomènes physiques. Elle se distingue du cours même du temps, avec lequel elle est pourtant souvent confondue.
Avant d'entrer dans le vif du sujet, je voudrais vous proposer quelques phrases d'écrivains ou de poètes, qui chacune à sa façon, évoquent soit le cours du temps, soit sa flèche, soit un mélange des deux.
Commençons par Sacha Guitry : « Madame est en retard. C’est donc qu’elle va venir. » C'est le cours du temps qui est ici évoqué, d'une façon non dramatique mais cruellement misogyne. Continuons avec Georges Perros, l'auteur des Papiers Collés : « L’horloge sonne. C’est le temps qui tâte son pouls. » Voilà sans doute la façon la plus neutre d'évoquer le fait que le temps passe et de dire qu'il a un cours bien défini. Poursuivons avec Robert Desnos : « La feuille qui tombe et la roue qui tourne te diront que rien n’est perpétuel sur terre. » Cette phrase juxtapose l'idée de temporalité à celle de finitude. Tristan Tzara, un autre poète surréaliste, enfonce le clou d'une façon qui fait froid dans le dos : « Je me souviens d’une horloge coupant des têtes pour indiquer les heures. » C'est que le temps a à voir avec l'irréversibilité et avec la mort. Loin de pouvoir tuer le temps, c’est lui qui nous dévore. L'Antiquité associait d'ailleurs la planète Saturne au cruel titan Kronos qui dévorait ses enfants au fur et à mesure que son épouse Rhéa les mettait au monde. Mais comme il n'est pas question aujourd'hui de sombrer dans la délectation morose en associant trop directement temps et mort, nous terminerons ce petit florilège par ces mots de Jorge Luis Borges (dans Aleph), qui rappellent que la valeur de la vie, la vie comme valeur, s'enracine justement dans la connaissance de son essentielle précarité : « La mort rend les hommes précieux et pathétiques. Ils émeuvent par leur condition de fantômes ; chaque acte qu'ils accomplissent peut être le dernier ; aucun visage qui ne soit à l'instant de se dissiper comme un visage de songe. Tout chez les mortels a la valeur de l'irrécupérable et de l'aléatoire. »
Qu'est-ce que temps ?
Nos réflexions sur le temps sont presque toujours confuses, sans doute parce que nous ne savons pas trop de quel type d'objet il s’agit. Le temps est-il une chose ? Est-ce une idée ? Est-ce une apparence ? N'est-ce qu'un mot ? Existe-t-il en dehors de l’ « âme », selon le terme de saint Augustin ? Est-il un produit de la « conscience », selon le terme de Husserl ? Il est difficile de répondre à ces questions, mais très souvent on croit que les scientifiques, et notamment les physiciens, seront un jour capables de nous révéler la nature du temps, ou du moins d'en proposer une définition qui serait plus exacte que les autres. Il s'agit sans doute d'un malentendu, car il est toujours difficile de définir les mots importants. Peut-être est-ce même impossible puisque, si ces mots sont vraiment fondamentaux, on ne peut pas les rapporter à autre chose qu'eux-mêmes. Définir, c’est avant tout ramener une conception donnée à une autre plus fondamentale. Mais qu’y a-t-il de plus fondamental que ce qui est déjà fondamental ? Rien, et c’est sans doute pourquoi le philosophe Martin Heidegger avait raison de remarquer que les scientifiques posent finalement très peu de questions comme « Qu’est-ce que le temps ? », « Qu’est-ce que l’espace? », « Qu’est-ce que la matière? », alors que c’est souvent la réponse à ces questions que l’on attend d’eux.
On oublie trop souvent que la puissance de la physique vient de ce qu'elle a su limiter ses ambitions. Elle ne s'intéresse pas à toutes les questions qui se posent dans nos têtes, loin s'en faut. Elle prend soin de ne sélectionner que celles qui relèvent de ses compétences et de sa méthode. Par exemple, elle n'essaie pas de résoudre la question de la nature du temps, ou du moins, si elle le fait, c'est seulement à la marge de ses théories. Elle cherche plutôt la meilleure façon de représenter le temps, ce qui est une tout autre affaire.
Attardons-nous deux minutes sur l'épineuse question de la définition du temps. Chacun comprend de quoi on veut parler lorsque le mot temps est prononcé, mais personne ne sait vraiment quelle réalité se cache derrière lui. Si le mot est clair, la chose ne l’est pas. Bien sûr, on peut tenter de définir le temps et les philosophes n'ont pas manqué de le faire : le temps est ce qui passe quand rien ne se passe, il est ce qui fait que tout se fait ou se défait, il est l’ordre des choses qui se succèdent, il est le nombre du mouvement selon l'avant et l'après, il est le devenir en train de devenir. Mais toutes ces expressions contiennent déjà l'idée du temps (par exemple, l’idée de « passage » présuppose l’idée d’une temporalité, c’est-à-dire de quelque chose qui s’écoule). Elles ne sont donc que des métaphores du temps, impuissantes à rendre compte de sa véritable nature. Cela n'est pas très grave, car il n'est pas nécessaire de définir le temps pour en proposer une représentation. De fait, les physiciens sont parvenus à en faire un concept opératoire sans être capables de le définir précisément.
La physique et le temps
Y flairant une source de paradoxes, les philosophes n’ont cessé d’interroger la réalité du temps, et ce depuis l’Antiquité grecque. Souvenons-nous par exemple de la solution avancée par Parménide et les Éléates, qui proposaient de confondre la matière et l'espace, excluant par là même le vide et se trouvaient contraints de penser le mouvement comme une simple translation, c'est-à-dire comme une succession de positions fixes. Du coup, le temps leur demeurait inexplicable, et c'est pourquoi ils s'attachaient à le démontrer impossible et à tout décrire à partir de l'immobilité. Souvenons-nous également de Héraclite et des atomistes, qui prirent un autre parti : ils proposaient de confondre la matière avec le mouvement et affirmaient la réalité du vide. Selon eux, tout est mobile, tellement mobile même qu'on ne peut pas imaginer de point fixe pour évaluer les changements d'état ni expliquer quoi que ce soit.
L'influence de Parménide a été très forte en physique. En effet, la physique a longtemps cherché à éliminer le temps. Le temps est associé au variable, à l’instable, à l'éphémère, tandis que la physique, elle, est soi-disant à la recherche de rapports qui soient soustraits au changement. Lors même qu’elle s’applique à des processus qui ont une histoire ou une évolution, c’est pour y discerner soit des substances et des formes, soit des lois et des règles indépendantes du temps. Mais dans sa pratique, elle se heurte évidemment au temps, d'une façon telle que la question de savoir si le monde doit être vu plutôt comme un système ou plutôt comme une histoire continue de se poser. La physique a-t-elle vocation à décrire l'immuable ou bien doit-elle être la législation des métamorphoses ?
Le temps existe-t-il ?
Aristote a posé la question de l'existence du temps d'une façon qui a été abondamment discutée : puisque le passé n'est plus, puisque que l'avenir n'est pas encore, puisque le présent lui-même a déjà fini d'être dès qu’il a commencé d’exister, comment pourrait-il y avoir un « être » du temps ? Le temps a beau contenir la totalité de ce qui est, nous ne parvenons pas à le penser autrement que comme une limite toujours disparaissante entre deux néants, le passé d'un côté, l’avenir de l'autre. Mais un être qui n’est qu’en cessant d’être, est-ce encore un être ?
Si l’on peut ainsi s’interroger sur l’existence même du temps, il est en revanche très difficile de dire le monde sans faire appel à lui, et tout aussi difficile de nier les marques indélébiles qu’il imprime sur les choses et sur nos propres corps. Le temps se présente à nous d'une façon ambiguë : d'une part, il est ce qui fait que les choses persistent à être (on pourrait donc dire, plus plaisamment, qu'il est le moyen le plus commode qu'a trouvé la nature pour que tout ne se passe pas d'un seul coup) ; d'autre part, il est ce qui les fait changer. Le présent, qui est finalement la seule chose qui nous soit présente, a en effet ceci de paradoxal qu'étant à la fois toujours présent et jamais le même, de sorte que l'on doit admettre qu'il imbrique la permanence et le changement.
Une difficulté soulevée par la question du temps consiste en ce que nous ne pouvons pas nous mettre en retrait par rapport à lui. D’habitude, lorsque nous voulons étudier un objet, nous commençons par l’observer sous divers angles, mais lorsqu’il s’agit du temps, la mise à distance n’est plus possible puisqu’il nous affecte sans cesse. Nous sommes dans le temps et nous ne pouvons pas en sortir. C’est d’ailleurs une caractéristique que le temps partage avec l’espace puisque nous ne pouvons pas non plus nous extraire de l’espace. Mais il y a une différence essentielle entre le temps et l’espace : nous pouvons nous déplacer à l’intérieur de l’espace, aller et venir dans n’importe quelle direction, alors que nous ne pouvons pas changer notre place dans le temps. L’espace est donc le lieu de notre liberté, le temps la marque de notre emprisonnement.
Je cesserai là mes petites digressions philosophiques, par manque de temps d'abord, mais aussi parce que les historiens des sciences s'accordent à dire que la physique moderne a commencé avec Galilée, qui justement prit garde à ne pas se perdre en vaines discussions à propos de la nature ou de la réalité du temps. Il ne s'intéressa qu'au statut qu'il convenait de lui donner dans le champ de la physique. Cela l'amena à considérer le temps comme une grandeur quantifiable susceptible d'ordonner des expériences et de les relier mathématiquement. C'est dans cet esprit qu'il étudia la chute des corps. Il réalisa que si le temps, plutôt que l'espace parcouru, était choisi comme le paramètre fondamental, alors la chute des corps obéissait à une loi simple : la vitesse acquise est simplement proportionnelle à la durée de la chute. Cette découverte signa la naissance de la dynamique moderne, qui allait donner au temps un statut inédit. Jusqu'alors, l'idée que l'on s'était faite du temps était restée centrée sur des préoccupations humaines. Le temps servait essentiellement aux hommes de moyen d'orientation dans l'univers social et de mode de régulation de leur coexistence, mais il n'intervenait pas de façon explicite et quantitative dans l'étude des phénomènes naturels.
Temps physique et temps psychologique
Puisqu'elle est limitée dans ses ambitions, la physique ne prétend pas répondre à toutes les questions qui concernent le temps. Par exemple, elle échoue à rendre compte de la relation entre le temps physique et le temps psychologique, entre le temps des horloges et celui de la conscience. Ces deux temps ont certainement des liens, mais certaines de leurs propriétés sont distinctes, voire antagonistes. Déjà, leurs structures diffèrent. Le temps physique est toujours représenté comme un mince filament qui s'écoule identiquement à lui-même. Mais le temps subjectif, lui, se déploie en ligne brisée, entremêle des rythmes différents, des discontinuités, de sorte qu'il ressemble plutôt à un cordage tressé. Notre conscience éprouve en effet plusieurs temporalités enchevêtrées, tant par leur nature (le temps de nos sensations, celui de nos idées, de nos humeurs,…) que par leurs échelles, tout comme une corde est faite de multiples brins, eux-mêmes composés de fines et courtes fibres.
Temps physique et temps psychologique se distinguent aussi par le fait que le premier, toujours ponctuellement concentré dans le présent, sépare l’infini du passé de l’infini du futur tandis que le second mélange au sein du présent un peu du passé récent et un peu de l’avenir proche. Dans le temps physique, des instants successifs n’existent jamais ensemble, par définition. Le temps psychologique, lui, élabore une sorte de coexistence au sein du présent du passé immédiat et du futur imminent[1]. Il unit donc ce que le temps physique ne cesse de séparer, il retient ce qu’il emporte, inclut ce qu’il exclut, maintient ce qu’il supprime. Ainsi, lorsqu’on entend une mélodie, la note précédente est « retenue » avec la note présente et la projection de la note future pour former un ensemble harmonieux. Passé immédiat et futur imminent coexistent donc dans le présent. Sans cette alliance au sein de la conscience, chaque note serait isolée et il n’y aurait pas de mélodie à proprement parler.
Temps physique et temps psychologique se distinguent également par leur fluidité. Le premier s'écoule uniformément (du moins dans la conception classique) tandis que le deuxième a une fluidité si variable que la notion de durée éprouvée n'a qu'une consistance très relative : il n'y a pas deux personnes qui, dans un temps donné, compteraient un nombre égal d'instants. Notre estimation des durées varie avec l’âge, et surtout avec l'intensité et la signification pour nous des événements qui se produisent[2] Rien de tel pour le temps physique, et c'est bien pourquoi nous portons des montres.
Enfin, les temps physique et psychologique n'accordent pas des statuts semblables aux notions de passé et d'avenir. C'est la question de la flèche du temps, sur laquelle nous reviendrons par la suite. Ce que je veux dire dans un premier temps, c'est que l'irréductibilité des temps physique et psychologique semble insurmontable, du moins pour le moment. On se doute bien que leurs liens se situent à la couture de la matière et de la vie, mais les tentatives pour dériver le temps du « monde » du temps de « l'âme » ou l'inverse n’ont pas vraiment abouti. Le temps mathématisé du physicien ne semble pas épuiser le sens du temps vécu, pas plus que le temps vécu ne donne l'intuition de toutes les facettes du temps physique.
À force de schématisation, la physique a peut-être laissé échapper quelques-unes des propriétés fondamentales du temps. Le temps monotone des physiciens, constitué de tic-tac répétitifs et esseulés, n'est peut-être qu'une idéalisation très appauvrie du temps de la vie.
L'écoulement du temps pourrait-il être discontinu ?
Tout au long de son histoire, la physique a considéré que l'espace est un continuum, c'est-à-dire qu'il est possible d'envisager des portions de longueurs aussi petites que l'on veut, sans jamais atteindre de limite. Le point, qui correspondrait à un nombre infini de divisions, reste toutefois hors d'atteinte, mais on peut en principe s'en rapprocher continûment. Le fait qu'il soit ainsi possible de considérer des longueurs infimes, et même nulles, fait surgir d'énormes difficultés, par exemple lorsque l'on s'intéresse au champ électrique produit par une charge électrique, disons un électron, à la distance r de celui-ci. Ce champ, variant comme 1/ r2, devient infini lorsque la distance r s'annule. De telles divergences ou singularités conduisent à des difficultés mathématiques que les physiciens tentent d'éviter de différentes façons : soit en assignant un domaine de validité limité aux expressions divergentes (on supposera pour l'exemple cité ci-dessus que, si la distance r devient trop petite, l'expression en 1/ r2 doit être remplacée par une autre, non divergente) ; soit en utilisant des procédés mathématiques qui abolissent « artificiellement » ces divergences et autorisent le calcul. On peut citer par exemple la théorie des distributions, être mathématiques ressemblant à des fonctions discontinues qui prendraient une valeur nulle en tous les points de l'espace, sauf en un seul. On peut également évoquer la procédure dite de renormalisation. Celle-ci consiste à éliminer toutes les quantités infinies qui apparaissent dans les calculs en retranchant à celles-ci un petit nombre de quantités elles-mêmes infinies, de sorte d'obtenir un résultat fini.
Une dernière piste, plus audacieuse, consiste à imaginer que l'espace lui-même pourrait être discret, c'est-à-dire structuré selon un réseau, dont la maille, finie et non nulle, représenterait une distance minimale au-dessous de laquelle il serait impossible de descendre. Toute divergence serait ainsi évitée. Mais là aussi, de terribles problèmes se posent. D'abord, quelle serait la taille de la maille et d'où proviendrait-elle ? Ensuite, un tel réseau introduirait des directions privilégiées qui détruirait l'isotropie de l'espace, c'est-à-dire son invariance par rotation. Or cette invariance joue, avec d'autres symétries du même type, un rôle fondamental dans toute la physique en imposant des lois de conservation très contraignantes.
Des travaux mathématiques récents, notamment effectués par Alain Connes dans les années 1980, pourraient toutefois changer la donne. Ils concernent ce qu'on appelle la géométrie non commutative. Celle-ci permet de considérer des structures spatiales qui présentent un caractère discontinu mais qui ne brisent pas les symétries fondamentales. Cette nouvelle géométrie est obtenue en remplaçant les coordonnées spatiales usuelles, qui sont des nombres ordinaires, par des opérateurs algébriques. L'appellation de la théorie provient de ce que ces opérateurs ne commutent pas entre eux (l'ordre de leur application n'est pas indifférent), mais vérifient au contraire certaines relations de commutation qui définissent les propriétés de l'espace à petite échelle. Les propriétés habituelles de l'espace étant restituées aux échelles de la physique habituelle, ce n'est qu'au-dessous d'une certaine échelle que les effets de cette géométrie apparaissent. Cette échelle, qui pourrait être celle dite de Planck (10-35 m), représenterait une limite à la divisibilité de l'espace.
Mais revenons-en au temps. Les physiciens le supposent constitué d'instants qui se succèdent dans une structure continue. Ces instants jouent pour le temps le même rôle que le point pour l'espace. Ils sont tout aussi inaccessibles à la perception. En effet, nous ne sentons pas les instants qui passent. Pour nous, ainsi que nous l'avons déjà dit, le présent est une sorte de fluide continu qui mélange un peu du passé immédiat et du futur imminent, sans qu'aucune de nos sensations ne vienne indiquer l'alchimie par laquelle une succession d'instants parvient à s’épaissir en durée. L'idée d'un temps discontinu, c'est-à-dire d'une atomicité de la durée, est parfois évoquée, mais aucune théorie n'est jamais venue l'éclairer, du moins à ma connaissance. Il faut dire qu'elle pose d'énormes difficultés conceptuelles : comment le temps pourrait-il être constitué d'instants séparés par des durées privées de temps ? L'impossibilité d'observer les instants ne va en tous cas pas contre l'idée d'un temps continu, de la même façon que l'absence d'objet véritablement ponctuel ne va contre la possibilité d'un espace continu.
La causalité et l’interdiction des voyages dans le temps
Le mouvement des aiguilles de nos montres incite à assimiler le temps à un flux composé d'instants infiniment proches parcourus les uns après les autres, c'est-à-dire à une variable à une seule dimension. Cette représentation du temps accorde au temps une topologie beaucoup plus pauvre que celle de l’espace, qui lui a trois dimensions. Elle n'offre en fait que deux variantes, la ligne ou le cercle, selon que la courbe du temps est ouverte ou fermée. Il n’y a donc a priori que deux types de temps possibles, le temps linéaire et le temps cyclique. Le cours du temps se manifeste sur ces courbes par le fait qu'elles sont orientées, c'est-à-dire parcourues dans un sens bien défini, du passé vers le futur.
Si les physiciens ont choisi d'adopter un temps linéaire plutôt que cyclique, c'est en vertu du principe de causalité selon lequel la cause d'un phénomène est nécessairement antérieure au phénomène lui-même. Ce principe de causalité interdit en outre les voyages dans le temps, car ceux-ci permettraient en principe de rétroagir dans le passé pour modifier une séquence d’événements ayant déjà eu lieu. Une telle possibilité conduirait à affronter de pénibles situations : un jeune homme pourrait rejoindre dans le passé sa grand-mère alors que celle-ci est encore jeune, lui faire un brin de cour au volant d'une belle voiture de sport, rater un virage et expédier la jeune femme ad patres, l'empêchant ainsi de mettre au monde le premier maillon de la descendance dont le susdit jeune homme fait pourtant partie… Un tel paradoxe, possible avec un temps cyclique puisque ce qu’on appelle la cause pourrait tout aussi bien être l’effet et vice versa, ne l'est pas avec un temps linéaire, celui-ci ordonnant les événements selon un enchaînement chronologique irrémédiable. On en peut pas à la fois aller vers le passé et vers l'avenir. De même qu'un fleuve coule toujours dans le même sens, de l'amont vers l'aval, le temps a un cours bien défini, s'écoulant du passé vers l'avenir, sans jamais rebrousser chemin ni faire de boucle, de sorte qu'un instant donné ne peut jamais se reproduire…
Le principe de causalité se décline de différentes façons selon les théories physiques. Il ne renvoie pas toujours explicitement à l'idée de cause, se contentant parfois d'imposer une chronologie obligatoire entre certains types d'événements. Mentionnons rapidement, à titre d'illustrations, la façon dont il est pris en compte en relativité (restreinte ou générale) et en physique quantique.
En relativité restreinte
Le principe de causalité est garanti par l'impossibilité de transmettre de l'énergie ou de l'information à une vitesse supérieure à celle de la lumière. Cette impossibilité interdit les voyages dans le temps et les renversements de chronologie.
En relativité générale
La causalité est violée s’il existe une boucle temporelle, c’est-à-dire une ligne d’univers refermée sur elle-même. La théorie prévoit que de telles boucles pourraient apparaître derrière l’horizon de trous noirs en rotation très rapide, mais rien ne garantit qu'elles existent.
En physique quantique non relativiste
La causalité est inscrite dans l’équation de Schrödinger qui fait jouer au Hamiltonien le rôle de générateur infinitésimal des translations dans le temps. Il s’agit d’une causalité sans cause explicite.
En théorie quantique des champs
Les contraintes de la causalité s’expriment au moyen des règles de commutation des opérateurs de champs. Un opérateur de création Ф*(x) d’une particule au point x et l’opérateur d’annihilation de cette même particule Ф(y) au point y doivent commuter pour une séparation du genre espace et ne pas commuter pour une séparation du genre temps. Ces règles empêchent une particule de se propager sur une ligne du genre espace (la particule se propagerait plus vite que la lumière) et imposent, pour une propagation sur une ligne du genre temps, que la création d’une particule précède son annihilation. Ces contraintes ne peuvent être satisfaites que si la décomposition en ondes planes des opérateurs de champs contient des fréquences négatives, correspondant à des antiparticules. L’antimatière est donc la trace « matérielle » du fait que le temps passe en sens unique.
D'une façon générale, le principe de causalité s'exprime par le biais de ce que l'on appelle l'invariance CPT, sur laquelle nous allons nous attarder.
L'invariance CPT
Certaines symétries géométriques nous sont familières. D’autres, plus abstraites, sont couramment invoquées par les physiciens. C'est le cas de la « parité », de la « conjugaison de charge », et du « renversement du temps ».
La parité est une opération, notée P, qui consiste à regarder l'image d'une expérience donnée dans un miroir. Prenons l’exemple d'une expérience réelle mettant en jeu une collision entre particules. Appliquer l'opération P à une telle situation consiste à réaliser par la pensée l'expérience telle qu'elle serait vue dans un miroir. La nature des particules mises en jeu reste la même. En revanche, leurs positions sont modifiées puisque droite et gauche sont inversées dans l'opération.
La question se pose évidemment de savoir si, une fois cette opération réalisée, la nouvelle expérience peut ou non se réaliser dans la nature ou en laboratoire. Si la réponse est oui, on dira que l'expérience respecte la symétrie P. Dans le cas contraire, on dira qu'elle la viole.
À toute particule est par ailleurs associée une antiparticule, de même masse qu'elle et dont toutes les charges, notamment la charge électrique, sont opposées à celle de la particule correspondante. La conjugaison de charge est précisément l'opération qui consiste à transformer (sur le papier) une particule en son antiparticule, et vice versa. Par exemple, elle transforme l'électron en positron et le positron en électron, le proton en antiproton et l'antiproton en proton. Cette opération est notée C, pour « charge », en raison de l'inversion des charges entre particule et antiparticule.
Partons à nouveau d'une expérience réelle mettant en jeu une collision entre particules. Enregistrons soigneusement les vitesses et les positions de chacune des particules qui interviennent tout au long de l'expérience. Appliquons maintenant l'opération C : à chaque fois que l'on rencontre une particule, on la remplace par son antiparticule et on lui impose de suivre exactement la même trajectoire que celle qu'avait la particule dans la situation initiale. Si par exemple on regarde une collision entre un proton et un neutron, l'opération C nous décrira la « même » collision, sauf qu'elle se produira entre un antiproton et un antineutron. Si, une fois cette opération accomplie, la nouvelle expérience peut se réaliser, on dira que l'expérience respecte la symétrie C. Dans le cas contraire, on dira qu'elle la viole.
Enfin, l'opération « renversement du temps », notée T, correspond à un renversement du mouvement plutôt qu'à une inversion du temps proprement dit. Elle consiste à dérouler un phénomène dans le sens inverse de celui dans lequel il s'est produit, autrement dit à passer le film à l'envers. Selon les lois classiques, si à un instant donné t0, pris comme origine des temps ( t0 = 0), les vitesses de chaque astre du système solaire (Soleil, planètes et leurs satellites) étaient renversées, leur trajectoire ne serait pas modifiée, mais la position de chaque astre sur sa trajectoire à l'instant ultérieur t serait celle qu'il occupait à l'instant -t.
La parité, la conjugaison de charge et le renversement du temps jouent un rôle fondamental dans les équations que manient les physiciens des particules, par le biais de l'invariance CPT : comme son sigle l'indique, l'opération CPT est le produit des trois opérations C, P et T. Cette opération ne modifiant aucune des lois connues de la physique, on parle d'invariance CPT.
En langage imagé, l'invariance CPT se traduit en disant que les lois physiques qui gouvernent notre monde sont identiques à celles d'un monde d'antimatière observé dans un miroir et où le temps s'écoulerait à l'envers. Fondamentalement liée au principe de causalité, qui ordonne les événements selon un enchaînement irrémédiable, elle a notamment comme conséquence une sorte de symétrie entre la matière et l'antimatière. En particulier, elle prévoit que la masse et la durée de vie des particules sont rigoureusement égales à celles de leurs antiparticules.
L’interaction faible et les kaons neutres
Pendant longtemps, les physiciens, s'appuyant sur le sens commun, crurent que toutes les lois de la physique respectaient la symétrie P. N'est-il pas évident, lorsque nous voyons un arrangement d'objets dans un miroir, que nous pourrions réaliser cet arrangement dans la réalité aussi ? Pourtant, il fut démontré en 1957, à la surprise générale, que l'interaction nucléaire faible, responsable notamment de la radioactivité  par laquelle un neutron se désintègre en un proton et un électron, ne respecte pas la symétrie P. Autrement dit, l'image dans un miroir d'un phénomène régi par l'interaction faible correspond à un phénomène qui n'existe pas dans la nature et qu'on ne peut pas non plus produire en laboratoire. Cette violation de la parité, apanage de l'interaction faible, permet de définir de façon absolue la droite et la gauche.
On démontra dans le même temps que l’interaction faible violait également l’invariance par conjugaison de charge, d’une façon telle que la symétrie globale PC était, elle, préservée. Cette invariance par CP, combinée à l’invariance CPT, impliquait l‘invariance par T. Ce résultat rassurant ne tint que quelques années. En 1964, une expérience révéla que l’invariance par PC est elle aussi brisée, même si ce n’est que très légèrement, lors de la désintégration (par l’interaction faible) de particules étranges qu’on appelle les kaons neutres. Ces particules sont les seules pour lesquelles une telle dissymétrie ait jamais été observée. Mais alors, CPT étant toujours conservée, si PC ne l’est pas en l’occurrence, c’est que T ne l’est pas non plus, mais cette violation n’avait pas été mise en évidence directement.
Une expérience du CERN, baptisée CPLEAR, a apporté en 1998 une pierre décisive à ce débat. Elle a permis de mettre en évidence, de façon directe, une violation de la symétrie temporelle au sein d’un système microscopique particulier, celui formé par un kaon neutre et son antiparticule. Il est établi depuis longtemps qu’un kaon neutre se transforme au cours du temps en sa propre antiparticule, qui à son tour se retransforme en kaon neutre. Ce que l’expérience CPLEAR vient de mettre en évidence, c’est que la vitesse à laquelle un kaon neutre se transforme en son antiparticule n’est pas exactement la même que celle du processus inverse, contrairement à ce que la symétrie T prévoit. C’est la première fois qu’est mesurée directement une différence entre un processus microscopique et le processus inverse. L’origine profonde de cette légère brisure de la symétrie temporelle passé-futur demeure mystérieuse.
La question de la flèche du temps
Pour nous, passé et futur ne sont pas équivalents. Par exemple, nous nous souvenons en partie du passé, mais pas du tout de l’avenir. Cette asymétrie entre passé et futur est la manifestation du cours même du temps. Depuis Newton, les physiciens se demandent si cette distinction existe également au niveau des phénomènes physiques. Font-ils eux aussi la distinction entre le passé et l'avenir ?
Pensons à une table de billard sur laquelle nous faisons entrer deux boules en collision. Après le choc, les deux boules repartent dans des directions opposées. Si les frottements sont négligeables, leurs vitesses resteront constantes. Imaginons que nous ayons filmé la collision et que nous projetions le film à l’envers. Cela équivaut à échanger les rôles respectifs du passé et de l’avenir, c’est-à-dire à inverser le cours du temps. Ce que l’on voit alors à l’écran, c’est une autre collision de deux boules, correspondant à la collision qui s’est réellement produite mais avec toutes les vitesses inversées.
Le point important est qu'un spectateur qui ne verrait que la projection du film inversé serait tout à fait incapable de dire si ce qu’il voit correspond à ce qui s’est réellement passé ou si le film a effectivement été retourné. La raison de cette ambiguïté est que la deuxième collision est régie par les mêmes lois dynamiques que la première. Elle est donc tout aussi « physique », au sens où elle est tout aussi réalisable que la collision originale. Autrement dit, une telle collision est « réversible ». Sa dynamique ne dépendant pas de l’orientation du cours du temps, elle ne fait aucune distinction entre le passé et l’avenir. Cela signifie, non pas qu'elle autorise les voyages dans le temps, mais que pour elle le cours du temps est arbitraire.
Selon la physique d’aujourd’hui, tous les phénomènes ayant lieu au niveau microscopique sont comme ces collisions de boules de billard, c'est-à-dire réversibles. Or à notre échelle, nous n'observons que des phénomènes irréversibles, à commencer par le fait que nous vieillissons : si nous filmons une scène de la vie courante et projetons le film à l’envers, nous voyons dès les premières images qu’il y a eu inversion (le plongeur est expulsé de la piscine et se retrouve bien sec sur son plongeoir). A l'échelle macroscopique, le temps ne fait donc pas que passer : il invente, il crée, il use, il détruit, sans jamais pouvoir refaire ce qu'il a défait.
Comment expliquer l’émergence de cette irréversibilité observée à l’échelle macroscopique à partir de lois physiques qui l’ignorent à l’échelle microscopique ? Ce problème, dit de « la flèche du temps » a été ardemment discuté depuis deux siècles. La plus ancienne explication s'appuie sur l'irréversibilité associée au second principe de la thermodynamique, selon lequel l'entropie d'un système isolé ne peut qu'augmenter au cours du temps : de même que de l'eau tiède ne redevient jamais une juxtaposition d'eau chaude et d'eau froide, un système macroscopique qui évolue ne peut revenir à sa configuration initiale. Plus récemment, des physiciens ont suggéré que la flèche du temps proviendrait plutôt de l'expansion même de l'univers, qui orienterait tous les processus physiques selon un cours irréversible. D'autres pistes faisant référence à la physique quantique ou à la physique des particules ont également été proposées. Toutefois, aucune de ces explications ne peut être présentée comme universelle et définitive. Il semble donc qu'il n'y ait pas d'unité théorique autour du concept de temps, comme si deux façons de penser ne cessent de s'affronter, celle qui se fonde sur l'histoire et le temps, et celle qui se fonde sur l'invariance et l'absence de temps. Elles correspondent peut-être à deux composantes contradictoires mais inséparables de notre effort pour comprendre le monde : nous ne pouvons pas penser le monde sans le temps et nous ne savons pas le raconter sans imaginer qu’il monnaie quelque invariance.
[1] Les spécialistes des neurosciences expliquent que la conscience fonctionne par séquences de trois secondes, pendant lesquelles un ensemble de données restent présentes simultanément à l’esprit.
[2] « Plus le temps est vide et plus il nous pèse », remarquait Vladimir Jankélévitch. Ce constat suffit à différencier le temps des objets ordinaires de la mécanique.


VIDEO           CANAL  U             LIEN


 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
initiation musicale toulon  

GALAXIES SATELLITES

 

Paris, 21 juillet 2014


Des galaxies satellites qui donnent le tournis aux astronomes


Une équipe internationale de chercheurs, dirigée par des astronomes de l'Observatoire astronomique de Strasbourg (CNRS/Université de Strasbourg), vient d'étudier 380 galaxies et de mettre en évidence que leurs petites galaxies satellites se déplacent presque toujours dans des disques en rotation. Ces disques de galaxies satellites ne sont pourtant pas prédits par les modèles actuels de formation des structures dans l'Univers. Cette découverte pourrait donner du fil à retordre aux modélisateurs dans les années à venir. Les résultats de l'étude paraissent le 31 juillet dans la revue Nature.
La présence de nombreuses galaxies naines autour de grandes galaxies, comme notre propre Voie Lactée, est connue depuis longtemps. Depuis quelques années, les orbites de ces galaxies naines autour de la Voie lactée et de notre voisine Andromède posent des problèmes d'interprétation. En effet, elles sont organisées en grandes structures aplaties en rotation1, tandis que nos meilleurs modèles actuels de formation des galaxies, liés au modèle standard de la cosmologie, prédisent qu'elles devraient se déplacer dans toutes les directions. Il semblait donc que la Voie Lactée et sa voisine soient des anomalies statistiques parmi les milliards de galaxies que comptent l'Univers, cela a ainsi été récemment confirmé par une étude internationale2.
 
Mais à présent, l'étude menée à Strasbourg et Sydney, se basant sur le « Sloan Digital Sky Survey », un relevé couvrant un tiers du ciel et permettant d'explorer les propriétés de galaxies lointaines, ont montré que pour 380 galaxies observées et situées entre 30 et 700 millions d'années-lumière et possédant au moins deux satellites visibles, ces petites galaxies satellites semblaient également tourner autour de leurs hôtes! Les chercheurs ont ainsi estimé qu'à peu près la moitié des galaxies satellites de l'Univers local devraient être situées dans des disques en rotation pour être en accord avec leurs observations.
 
Ces résultats mettent à mal les prédictions du modèle standard aux échelles galactiques. En effet, si ce phénomène était lié à l'accrétion de ces galaxies satellites le long de filaments de matière noire dans l'Univers, il faudrait comprendre pourquoi ces structures en rotation sont beaucoup plus fines que les filaments qui les engendreraient, et aussi pourquoi les deux satellites les plus lumineux, qui sont les deux que l'on peut voir, viendraient systématiquement du même filament. Alternativement, cette découverte pourrait impliquer de réviser en profondeur nos modèles actuels. Tout semble aujourd'hui indiquer que le modèle standard permet une représentation fidèle des observations aux plus grandes échelles de l'Univers3, mais que quelque chose de fondamental nous échappe, pour l'instant, aux échelles plus petites.

 

DOCUMENT          CNRS          LIEN

 
 
 
initiation musicale toulon  

SUR LES TRACES DE LA MATIÈRE DANS LE COSMOS

 

DTexte de la 532e conférence de l'Université de tous les savoirs donnée le 19 juin 2004


Sur les traces de la matière dans le cosmos
Reza Ansari


La cosmologie nous fournit une image relativement précise et détaillée de l'origine et de l'histoire de notre univers. Elle est aujourd'hui une discipline scientifique à la croisée de la physique des interactions fondamentales, de l'astronomie et de l'astrophysique. La compréhension de la structure intime de la matière d'une part, et les mécanismes responsables de l'évolution de l'univers primordial d'autre part sont des domaines qui se nourrissent mutuellement.
Nous décrirons en particulier quelques-unes des méthodes utilisées pour rechercher les différentes formes de matière présentes dans l'univers et d'en quantifier l'effet sur son évolution. Un survol du modèle standard cosmologique est présenté dans la première partie de l'article (section 2). Nous nous intéresserons ensuite à notre Galaxie, pour y découvrir la matière noire du halo, ainsi que le trou noir qui se trouverait en son centre. La section 3 est consacrée à la recherche de l'énergie noire grâce aux supernovae lointaines. Enfin, la dernière partie de l'article présente une brève introduction à la physique du fond diffus cosmologique et la détermination de la densité des différentes formes de matière et d'énergie par la mesure des anisotropies du fond diffus cosmologique.
Les fondements du modèle cosmologique
La théorie de la relativité générale et le modèle standard des particules et des interactions en physique des particules constituent les deux socles sur lesquels repose le modèle cosmologique standard, appelé aussi modèle du Big Bang. Ce modèle dont les prédictions sont confirmées par de nombreuses observations, est communément admis par les chercheurs du domaine. Durant les dix ou quinze dernières années, ce modèle et notre compréhension de l'univers ont été affinés grâce à des observations de plus en plus précises.
Particules et interactions
Le modèle standard des particules et de leurs interactions est présenté brièvement ici. Celui-ci est souvent noté SU(2)Ä U(1)Ä SU(3) par référence aux groupes de symétrie de l'interaction électro-faible SU(2)Ä U(1) et de l'interaction forte SU(3).
Dans le cadre du modèle standard, la matière est constituée de particules de spin 1/2, appelées fermions. L'interaction entre ces fermions est portée par des particules de spin entier, qui sont les médiateurs des forces. On distingue deux types de fermions, les quarks et les leptons.
- Les quarks sont les briques de base qui forment la matière hadronique, c'est-à-dire sensible aux interactions fortes. En particulier, les protons et les neutrons qui forment le noyau atomique sont formés de quarks.
- Les leptons regroupent en trois familles des particules dont les propriétés sont proches de celles des électrons et des neutrinos. Dans chaque famille, les leptons sont sensiblement plus légers que les quarks.
L'ensemble des forces est décrit en faisant appel à quatre interactions fondamentales dans le modèle standard :
- L'interaction forte, appelée aussi la chromodynamique quantique (QCD) est responsable de la cohésion du noyau atomique et se trouve à l'origine de l'énergie nucléaire. Seuls les quarks sont sensibles à cette interaction, portée par les gluons.
- L'interaction électromagnétique est responsable de la presque totalité des propriétés physiques et chimiques de la matière. C'est le photon, quanta de lumière et du rayonnement électromagnétique qui est le médiateur de cette interaction.
- La radioactivité beta ne peut s'interpréter qu'en faisant appel à une nouvelle force, la force faible, moins intense que la force électromagnétique. Les forces faible et électromagnétique sont décrites par une théorie unifiée dans le cadre du modèle standard.
- La gravitation qui agit sur toutes les formes de matière. Nous ne disposons pas encore d'une théorie quantique de la gravitation. Il faut donc faire appel à la théorie de la relativité générale pour compléter la description des interactions.
Enfin, il faut noter qu'afin de palier certaines insuffisances du modèle standard SU(2)Ä U(1)Ä SU(3), d'autres modèles théoriques ont été élaborés. Les théories dites supersymétriques prédisent l'existence de nouvelles particules dont certaines pourraient former la matière noire à l'échelle de l'univers. Le mot WIMPs (Weakly Interacting Massive Particles) désigne de manière générique ces particules.
Parmi les différentes formes de matière et d'énergie, il y a celles qui sont présentes de manière certaine dans l'univers, et celles pour lesquelles nous avons des indications théoriques ou observationnelles. Dans la première catégorie se trouve la matière ordinaire, appelée parfois la matière baryonique. Cette dénomination provient de la classification des neutrons et des protons, constituants du noyau atomique qui sont des baryons parmi les hadrons. La matière ordinaire se présente sous différentes formes dans l'univers, depuis des formes diffuses comme des gaz atomiques ou moléculaires et des plasmas, jusqu'aux objets célestes que sont les étoiles et les planètes en passant par des agrégats et la poussière. Les photons constituent une autre composante essentielle de l'univers. De même, les neutrinos, qui sont des particules extrêmement discrètes, jouent un rôle important dans l'évolution de l'univers et des étoiles.
Quantifier la contribution relative de ces différentes formes de matière et d'énergie est essentiel pour une bonne compréhension de l'histoire de l'univers. Mais comme nous allons le montrer dans la suite de cet article, d'autres formes de matière et d'énergie semblent influencer l'évolution de l'univers. Clarifier la nature de celles-ci constitue le défi majeur de la cosmologie des prochaines années.
La relativité générale
Les forces gravitationnelles sont beaucoup moins intenses que les forces électromagnétiques ou les forces nucléaires ; Elles sont toujours attractives et dominent l'évolution des structures à grande échelle. C'est en effet la gravitation qui est responsable du mouvement des planètes, du système solaire dans la Galaxie et des galaxies au sein des amas. Naturellement, c'est encore la gravitation qui domine la dynamique de l'univers dans son ensemble.
La relativité générale est une théorie qui décrit l'interaction gravitationnelle comme une déformation de l'espace-temps à travers les équations d'Einstein. Celles-ci relient en particulier la courbure de l'espace-temps à la densité de matière et d'énergie. Ces équations admettent des solutions avec un espace-temps en expansion ou en contraction pour une distribution homogène et isotrope de matière. Einstein considérait initialement que ces solutions n'étaient pas physiquement acceptables et c'est en cherchant une solution statique pour la structure de l'espace-temps qu'il introduisit le terme connu sous le nom de constante cosmologique (L) dans les équations de la relativité générale.
Pour construire le modèle cosmologique, il faut en outre faire appel au principe cosmologique qui suppose que l'univers est homogène et isotrope à grande échelle pour construire le modèle du Big Bang. La métrique de Friedmann-Robertson-Walker (FRW) décrit alors la structure de l'espace-temps à grande échelle en fonction du paramètre d'échelle R( t) qui fixe l'échelle physique des distances, notamment des distances entre galaxies, à un instant donné. La dynamique de l'univers est alors fixée par les équations d'Einstein, associées à l'équation de Friedmann qui relie le taux d'expansion à la densité totale de l'énergie, sous quelque forme que ce soit. a( t)= R( t)/ R(0) est un terme sans dimension, appelé facteur d'échelle et correspond au rapport du facteur d'échelle à un instant t à sa valeur actuelle.
L'observation de l'expansion de l'univers, l'accord entre les prédictions de la nucléosynthèse primordiale et l'abondance mesurée des éléments légers et les mesures du fond diffus cosmologique sont les trois piliers observationnels du Big Bang[1].
L'expansion de l'univers
Dans un univers en expansion, les galaxies sont soumises à la dynamique gravitationnelle globale de l'univers et s'éloignent les unes des autres. La densité de la matière décroît au fur et à mesure que l'expansion progresse et, à l'inverse, si on remonte dans le temps, cette densité croît jusqu'à dépasser les valeurs caractérisant la matière nucléaire. C'est G. Lemaître, astrophysicien et mathématicien belge, qui avait remarqué le premier cette possibilité et avait envisagé, dès 1927, le commencement de l'univers à partir de ce qu'il avait appelé l'atome primitif. Mais ce n'est que lorsque l'astronome américain Edwin Powell Hubble publia l'observation de la récession des galaxies en 1929 que ce modèle, dénommé le Big Bang par la suite, sera accepté par les scientifiques. Nous verrons dans la suite (section Erreur ! Source du renvoi introuvable.) comment la mesure de l'évolution du taux d'expansion permet de contraindre la densité totale de matière et d'énergie dans l'univers
L'origine des éléments chimiques
La centaine d'éléments chimiques connus, depuis l'atome d'hydrogène, le plus léger, jusqu'aux atomes lourds, comme celui de l'uranium, sont tous des assemblages de neutrons, de protons et d'électrons. Le noyau atomique et l'énergie nucléaire ont commencé à livrer leurs secrets à partir des années 1920. La compréhension des mécanismes nucléaires a permis, entre autres, de résoudre l'énigme de la source d'énergie du soleil et des étoiles en général. En 1939, Hans Albrecht Bethe, physicien américain d'origine allemande, propose un cycle de réactions nucléaires conduisant à la formation d'hélium par fusion de protons comme source d'énergie des étoiles. On sait aujourd'hui que presque tous les noyaux sont formés dans la fournaise nucléaire au coeur des étoiles, ou lors de l'explosion de supernovae. La nucléosynthèse stellaire rencontre néanmoins quelques difficultés lorsqu'elle est confrontée aux mesures d'abondances nucléaires : l'abondance de l'hélium, qui représente près du quart de la masse de matière ordinaire dans l'univers est largement supérieure à la production cumulée de l'hélium dans les étoiles. En revanche, le modèle du Big Bang apporte une solution à ce problème. En effet, dans le cadre de ce modèle, la densité et la température de l'univers croissent lorsque l'on remonte le temps. Dans l'univers âgé de quelques minutes, les conditions sont réunies pour que le cycle de réactions de formation des noyaux légers - le deutérium, l'hélium et le lithium - puisse avoir lieu : c'est la nucléosynthèse primordiale. Le bon accord entre les abondances mesurées des éléments légers et les prédictions de la nucléosynthèse primordiale constitue le deuxième pilier du modèle standard cosmologique.
Une étrange lumière
L'univers jeune était donc formé d'un plasma extrêmement chaud et dense où les photons étaient en équilibre thermique avec les constituants fondamentaux de la matière : Les électrons, les quarks, les neutrinos... La température et la densité diminuent avec le temps, soumises à l'expansion de l'espace-temps. Petit à petit, les quarks peuvent s'assembler pour former les protons et les neutrons. Quelques secondes après, les protons et les neutrons forment à leur tour les noyaux légers, l'hélium en particulier. La nucléosynthèse primordiale correspond à la fin d'une première période d'évolution intense de l'univers.
Mais l'expansion continue et l'univers se refroidit donc de plus en plus : la température n'est plus que de 3000 K lorsque l'univers atteint quelques 300000 ans. Les photons ne sont plus assez énergétiques pour dissocier les atomes neutres qui se forment. L'univers devient alors transparent et les photons peuvent se propager librement.
Ces photons nous parviennent au terme d'un voyage de près de quatorze milliards d'années subissant au passage l'effet de l'expansion de l'univers. Émis essentiellement dans le domaine infrarouge proche ( ), nous les détectons aujourd'hui sous forme de rayonnement micro-ondes ( ).
Ce rayonnement, appelé le fond de rayonnement cosmologique, a été observé pour la première fois en 1964 par Arno Penzias et Robert Wilson. Chercheurs auprès de Bell Labs (Lucent Technologies aujourd'hui), ils tentaient de mesurer les émissions radio de la voie lactée grâce à une antenne géante de télécommunications. Ils identifient alors la présence d'un niveau de bruit plus élevé que prévu qui s'avérera provenir d'un rayonnement extra galactique.
Ce rayonnement de fond cosmologique, dont l'existence avait été suggéré dès 1948 par G. Gamow, R. Alpher et R. Herman, constitue le troisième pilier du modèle de Big bang. Les propriétés de ce rayonnement seront discutées dans la section Erreur ! Source du renvoi introuvable..
La matière noire dans notre Galaxie
Notre Galaxie, la Voie Lactée est une immense structure autogravitante formée d'étoiles, de gaz et de poussières. Elle comporte quelques dizaines de milliards d'étoiles, de nombreux nuages de gaz composés essentiellement d'hydrogène et d'hélium, et des grains de poussières contenant des éléments plus lourds (oxygène, carbone ...). Toutes ces composantes correspondent à différentes formes de matière ordinaire ou baryonique.
Si on était capable d'observer notre Galaxie de l'extérieur, on la verrait semblable à la nébuleuse M83, dont la photographie prise par le grand télescope VLT de l'ESO est présentée sur la figure Erreur ! Source du renvoi introuvable.. Les étoiles, le gaz et la poussière sont concentrés dans un disque peu épais, moins d'un millier d'années-lumière (AL), mais s'étendant sur près de 200000 AL. Les bras, structures riches en étoiles brillantes, semblent s'enrouler autour d'un noyau central, amas très dense d'étoiles.
figure 1
Galaxie spirale Messier 83, située à une distance d'environ 15 millions d'AL. Image prise par le télescope VLT de European Southern Observatory - Ó ESO
Le Soleil est une étoile ordinaire située à 25000 AL du centre de la Galaxie. Le système solaire, à l'instar des autres étoiles et nuages de gaz et de poussières, tourne autour du centre Galactique, l'ensemble constituant un système en équilibre gravitationnel.
Le halo Galactique
Lorsqu'on mesure les vitesses de rotation des étoiles, du gaz et des poussières en fonction de la distance au centre (courbe de rotation) pour notre Galaxie, et pour de nombreuses autres galaxies similaires, on observe un comportement étrange. En effet, comme on peut le voir sur la figure Erreur ! Source du renvoi introuvable., la matière lumineuse est concentrée vers le centre, et l'on s'attend à voir décroître les vitesses de rotation lorsqu'on s'éloigne suffisamment du centre (). Or la courbe de rotation comporte un plateau où la vitesse reste constante. Ce phénomène est interprété comme étant dû à la présence d'un halo de matière sombre qui n'émet, ni n'absorbe la lumière, mais qui interagit gravitationnellement. La masse du halo atteindrait une dizaine de fois la masse de la matière visible (étoiles, gaz, poussière) dans notre galaxie. Le halo sombre pourrait être formé d'une nouvelle forme exotique de matière, celle qu'on regroupe sous la dénomination WIMPs par exemple. Plusieurs équipes tentent de mettre en évidence cette forme de matière à l'aide de détecteurs cryogéniques, comme celui d'EDELWEISS [2] installé dans le laboratoire souterrain de Modane.
figure 2
Mesure de la courbe de rotation et du profil de luminosité en fonction de la distance au centre pour la galaxie spirale NGC3198
Mais ce halo sombre pourrait être constitué de matière ordinaire, mais sous une forme presque invisible. Plusieurs hypothèses ont été envisagées, comme celle de nuages de gaz moléculaires froids avec une structure fractale, ou celle d'objets compacts n'émettant pas de rayonnement électromagnétique. Les cadavres stellaires, les trous noirs et les naines brunes qui sont des étoiles avortées sont des candidats possibles pour de tels objets compacts. Ils sont regroupés sous le nom MACHO [3].
L'effet de microlentille gravitationnelle
Dans un article publié en 1986, B. Paczynski suggérait que de tels objets pouvaient être détectés à l'aide de l'effet de microlentille gravitationnelle. En effet, comme le prévoit la relativité générale, la lumière d'astres se trouvant en arrière plan serait défléchie par le champ gravitationnel de ces objets compacts. Il y a alors formation d'images multiples, comme cela est observé pour des effets de lentille gravitationnelle provoqués par des galaxies ou des amas de galaxies.
Dans le cas d'objets compacts de faible masse situés dans le halo, ayant moins d'une masse solaire, il n'est pas possible de résoudre les différentes images. Mais le mouvement de l'objet compact provoque une augmentation transitoire de la luminosité apparente de l'étoile en arrière-plan lorsque la ligne de visée est suffisamment proche de l'objet déflecteur : c'est l'effet de microlentille gravitationnelle. Bien que très peu probable, le phénomène serait détectable si les objets compacts étaient suffisamment nombreux pour constituer une fraction importante du halo. Il y a moins d'une chance sur un million pour qu'une étoile du fond soit affectée par cet effet.
Afin de rechercher les objets compacts du halo, l'équipe EROS [4] a mis sur pied un ambitieux programme d'observations de plusieurs dizaines de millions d'étoiles de la Galaxie et des nuages de Magellan durant la décennie 1990. Ce projet a été un grand succès : l'effet de microlentille a été observé et est devenu aujourd'hui un nouvel outil d'investigation en astrophysique. D'autres équipes dans le monde ont effectué des observations analogues.
En revanche, le nombre d'événements observés montre que seule une petite fraction du halo, au plus 10 % à 15 % de sa masse, serait formée d'objets compacts de faible masse. La figure Erreur ! Source du renvoi introuvable. résume les résultats de la collaboration EROS concernant la contribution de MACHOs à la masse totale du halo tactique, en fonction de la masse des objets déflecteurs [2].
figure 3
Résultat de l'équipe EROS basée sur l'analyse des observations vers les nuages de Magellan (LMC et SMC). Contribution maximale des objets compacts, exprimée sous forme de fraction de la masse totale d'un halo de masses solaires, en fonction de la masse typique des objets déflecteurs [2].
Un trou noir au Centre de la Galaxie ?
La mesure du mouvement apparent des étoiles très près du Centre Galactique a permis de mettre en évidence des vitesses de rotation très élevées, jusqu'à 1500 Km/s [3]. Les observations dans le plan Galactique et vers le centre Galactique en particulier sont rendues difficiles par l'absorption de la lumière par l'importante quantité de poussières présentes le long de la ligne de visée. L'utilisation des émissions dans le domaine des ondes radio et des rayons X permet néanmoins de voir à travers ce voile de poussières.
Les observations radio en interférométrie à très longue base (VLBI) montre que c'est un objet compact qui est présent au centre Galactique. L'observation des vitesses de rotation élevées associée à la compacité de la distribution de masse représente une indication forte en faveur de l'existence d'un trou noir de grande masse au centre de la Voie Lactée. Celui-ci aurait une masse d'environ 2,6 millions de fois la masse du soleil. Dans le langage de la relativité générale, un trou noir est une singularité de la structure de l'espace-temps provoquée par un objet massif très dense. En simplifiant, on peut considérer qu'un trou noir est un profond puits de potentiel gravitationnel, pour lequel la vitesse de libération dépasserait celle de la lumière à des distances suffisamment proches. Cette limite de distance définit le domaine que l'on appelle l'horizon du trou noir ().
D'autres observations en radio et en rayons X apportent des preuves complémentaires de l'existence de ce trou noir. En effet, il se forme des disques d'accrétion autour des trous noirs massifs. La matière du disque, proche du trou noir s'échauffe jusqu'à des températures très élevées () par friction lors de sa chute dans le trou noir. On peut observer alors des émissions dans le domaine des rayons X et, parfois, des jets relativistes de matière.
Les supernovae lointaines et le mystère de l'énergie noire
Les phares de l'univers
Les supernovae de type Ia (SNIa) sont de véritables feux d'artifice cosmiques, provoqués par l'explosion d'une naine blanche composée essentiellement de carbone et d'oxygène. L'explosion se produit lorsque l'équilibre gravitationnel est rompu suite à l'accrétion de matière par la naine blanche. Lorsque la masse de l'objet s'approche de la limite de Chandrasekhar, la pression du gaz dégénéré d'électrons n'est plus suffisante pour compenser l'attraction gravitationnelle. Cette rupture d'équilibre provoque une augmentation de la température et de la densité, déclenchant l'allumage des réactions de fusion thermonucléaire. Lorsqu'elles atteignent leur luminosité maximale, les supernovae deviennent aussi lumineuses qu'une galaxie entière, brillant comme une dizaine de milliards d'étoiles pendant quelques jours. La figure 4 provient des observations effectuées en 1994 par le télescope spatial Hubble (HST) de l'explosion d'une supernova dans une galaxie lointaine. La supernova, visible en bas à gauche, a une luminosité comparable à sa galaxie hôte.
figure 4
Image de la supernovae 1994D et de sa galaxie hôte, observée par le télescope spatial Hubble en 1994. Ó HST/STScI
Du fait de leur extrême brillance, les SNIa sont visibles jusqu'à des distances cosmologiques, c'est-à-dire plusieurs milliards d'années-lumière. En outre, leur luminosité intrinsèque au maximum est suffisamment uniforme pour qu'on puisse les considérer comme des chandelles standard. Cette uniformité s'explique par la masse de combustible nucléaire disponible, correspondant à la limite de Chandrasekhar à 1,4 .
Les SNIa peuvent donc être utilisées pour mesurer la distance en fonction du décalage vers le rouge z, jusqu'à des valeurs de z dépassant l'unité. La mesure de distance, appelée distance de luminosité , est obtenue en comparant la luminosité apparente de la supernova à sa luminosité intrinsèque. Les propriétés géométriques de l'univers peuvent être déterminées en analysant la courbe .
Les paramètres cosmologiques
Une dizaine de paramètres environ sont nécessaires pour caractériser notre univers dans le cadre du modèle standard cosmologique. L'évolution de l'univers dépend de la valeur de ces paramètres qui ne peuvent être obtenus qu'à partir des observations.
Parmi ceux-ci, la "constante" de Hubble et les paramètres de densité (Ω m, ΩΛ) tiennent une place à part. Ils déterminent en effet la géométrie de l'univers et la loi d'évolution du facteur d'échelle a( t) avec le temps cosmologique.
- La "constante" de Hubble est à la valeur actuelle du taux d'expansion .
- Le décalage vers le rouge z( t) appelé redshift en anglais correspond à la variation relative du facteur d'échelle, entre aujourd'hui et un moment t dans le passé : . z est souvent mesuré à l'aide du décalage en longueur d'onde de raies atomiques ou moléculaires ( z=Dl/l).
- Pour une valeur particulière de la densité totale de matière et d'énergie, appelée la densité critique , la géométrie de l'univers est euclidienne. Les paramètres de densité sont en général exprimés en unité de densité critique et sont notés .
- est la densité moyenne de matière aujourd'hui, qu'elle soit formée de matière ordinaire ou de particules exotiques massives.
- Si la constante cosmologique L était non-nulle, elle se manifesterait sous forme d'une force répulsive à grande échelle dans les équations d'évolution de l'univers. représente la densité d'énergie équivalente à celle de la constante cosmologique, rapportée à la densité critique. Dans le cadre de la mécanique quantique, l'état du vide peut avoir une énergie non nulle. L'énergie du vide aurait alors un comportement gravitationnel similaire à la constante cosmologique.
La figure 5 montre la variation de la distance de luminosité en fonction du décalage vers le rouge pour différentes valeurs de densité totale de matière et de densité associée à la constante cosmologique .
figure 5
Distance de luminosité en fonction du décalage vers le rouge pour trois jeux de paramètres de densité : ( = 1, = 0), ( = 0.3, = 0), ( = 0.3, = 0.7)
Plusieurs programmes de recherche et de mesure de supernovae lointaines ont été mis sur pied dans les dernières années, comme le relevé SNLS [5] auprès du télescope franco-canadien CFHT au Maunea Kea, à Hawaï, pour déterminer la variation de la distance de luminosité avec le décalage vers le rouge.
Les résultats récents publiés par différents groupes dans ce domaine, dont le SCP (Supenovae Cosmology Project) et le High Z Supernovae Team ont créé la surprise dans le milieu des cosmologistes en fournissant les premières indications en faveur d'une valeur non nulle pour la constante cosmologique.
La figure Erreur ! Source du renvoi introuvable. résume les contraintes obtenues à partir de l'observation des SNIa lointaines dans le plan (Ωm, ΩΛ) [4].
figure 6
Contraintes dans le plan (Ωm, ΩΛ) obtenues à partir des observations des supernovae lointaines [4].
Les anisotropies du fond diffus cosmologique
Nous avons vu dans la section Erreur ! Source du renvoi introuvable. que le fond diffus micro-ondes est un rayonnement thermique, vestige du passé chaud de l'univers, émis à un moment de l'histoire de l'univers caractérisé par un décalage vers le rouge z~1100. Ce rayonnement est remarquablement isotrope et présente le spectre d'un corps noir à une température de 2,725K, au moins lorsqu'on l'étudie en dehors des sources brillantes du ciel et de la Galaxie en particulier. Ces caractéristiques sont à la base de l'interprétation attribuant une origine cosmologique à ce rayonnement.
Or, l'univers bien qu'homogène et isotrope dans son ensemble, est de plus en plus structuré lorsqu'on l'observe à des échelles de plus en plus fines. De nombreuses galaxies, semblables à la Voie Lactée, formées d'étoiles et de nuages de gaz existent dans l'univers. Ces galaxies sont regroupées en structures de très grande taille, appelées amas, eux-mêmes rassemblés en superamas. Ces structures se seraient formées suite à l'effondrement gravitationnel d'infimes inhomogénéités de densité de matière, présentes dès les premiers instants de l'expansion. Dans le cadre du modèle cosmologique standard, l'origine de ces inhomogénéités de densité est attribuée aux fluctuations quantiques d'un champ qui serait responsable d'une première phase d'expansion accélérée de l'univers, appelée période d'inflation.
On s'attend à retrouver la trace de ces fluctuations de densité dans le rayonnement du fond cosmologique, sous forme d'anisotropies de température, c'est-à-dire de petites variations d'intensité du rayonnement en fonction de la direction d'observation. Après 25 années de tentatives infructueuses, c'est finalement en 1992 que l'instrument DMR (Differential Microwave Radiometers), embarqué à bord du satellite COBE, a pu mesurer ces anisotropies, correspondant à des variations de quelques dizaines de microkelvins () en fonction de la direction d'observation.
Le satellite WMAP (Wilkinson Microwave Anisotropy Probe), lancé par la NASA en juillet 2001, a fourni au début 2003 une cartographie complète du fond micro-ondes et une mesure précise du spectre des anisotropies jusqu'à des échelles angulaires de 15' d'arc.
La figure Erreur ! Source du renvoi introuvable. montre l'évolution de notre connaissance du ciel micro-ondes depuis sa découverte par Penzias et Wilson, et l'apport des satellites COBE [6] et WMAP [7].
figure 7
Evolution de la connaissance du ciel micro-ondes, depuis sa découverte en 1965, jusqu'aux mesures de WMAP en 2003, en passant par celles du satellite COBE en 1992
Les anisotropies du fond diffus sont une mine d'informations pour l'étude des modèles cosmologiques. Des variations de température sont visibles à toutes les échelles angulaires sur la carte de température du fond diffus (figure Erreur ! Source du renvoi introuvable.). Le spectre angulaire de ces anisotropies ( C( l)) permet de caractériser statistiquement l'amplitude des variations de température en fonction de l'échelle angulaire. Ce spectre présente une succession de pics et de creux, à des échelles angulaires inférieures au degré, caractéristique des oscillations acoustiques du plasma formé par les protons, les électrons et les photons avant la formation des atomes neutres et du découplage des photons.
L'analyse fine de ce spectre permet entre autres une détermination précise de la presque totalité des paramètres cosmologiques. La figure 8 représente le spectre des anisotropies de température mesuré par WMAP [5]. Fin 2002, quelques mois avant WMAP, la collaboration Archeops [8] , qui utilisait un instrument bolométrique embarqué à bord d'un ballon stratosphérique, publiait ses résultats obtenus à partir d'une large couverture du ciel, fournissant ainsi les premières mesures homogènes dans le domaine des échelles angulaires intermédiaires, de un à dix degrés. Le spectre des fluctuations mesuré par Archeops est représenté sur la figure 9 [6].
figure 8
Spectre de puissance mesuré par WMAP [5]
figure 9
Spectre de puissance mesuré par Archeops [6]
L'interprétation des observations décrites ici, celles du fond diffus et des supernovae lointaines, complétées par les mesures du paramètre de Hubble et d'autres observations cosmologiques provenant des grands relevés de galaxies par exemple, confirme de manière spectaculaire le modèle du Big Bang. Elles indiquent en outre que la densité totale de matière et d'énergie dans l'univers est proche de la densité critique, correspondant à un univers plat, de géométrie euclidienne.
La matière ordinaire (baryonique) ne représenterait que 4 % environ de la densité totale d'énergie, plus des deux tiers de la densité (~ 70 %) étant sous une forme mystérieuse d'énergie qui se comporte comme une constante cosmologique. Celle-ci agit comme une force gravitationnelle répulsive et serait à l'origine de l'accélération de l'expansion. Le quart restant (~ 25 %) serait composé d'une forme encore inconnue de matière, appelée matière noire froide. Les neutrinos et les photons, bien que très nombreux, ne représentent plus aujourd'hui qu'une toute petite fraction de la densité moyenne totale de l'Univers.
Malgré les grandes avancées dans la compréhension de l'Univers, de nombreuses questions sont encore sans réponse. Parmi celles-ci, élucider la nature de la matière sombre, notamment celle qui entoure notre Galaxie, déterminer les propriétés de l'énergie noire et en comprendre l'origine constituent certainement les grands défis de la cosmologie dans les années à venir.

 

VIDEO           CANAL  U              LIEN

 

(si la  video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
initiation musicale toulon  

LA MASSE DU NEUTRINO

 

Paris, 19 juin 2014


NEMO resserre l'étau sur la masse du neutrino

Bilan très positif pour l'expérience NEMO (Neutrino Ettore Majorana Observatory), dont l'objectif était de mieux comprendre la nature des neutrinos, et de mesurer leur masse. Ce détecteur installé dans le Laboratoire souterrain de Modane (CNRS/CEA), au milieu du tunnel de Fréjus, est le fruit d'une vaste collaboration internationale impliquant 7 laboratoires rattachés au CNRS1. Il a fonctionné entre 2003 et 2011. L'observation, pour 7 isotopes différents, d'un événement radioactif extrêmement rare, la double désintégration bêta dite « permise », a fourni des données permettant une meilleure connaissance de la structure du noyau atomique. Par ailleurs, les études sur la recherche de la double désintégration bêta dite « interdite », ont permis d'établir un intervalle (0,3- 0,9 eV), au-dessous duquel doit se situer la masse du neutrino. Ces mesures, qui viennent d'être publiées dans la revue Physical Review D, permettront d'améliorer les connaissances sur la physique du neutrino et les modèles cosmologiques. La technologie choisie pour NEMO ouvre la voie au détecteur SuperNEMO qui sera 100 fois plus sensible et permettra peut-être de détecter la double désintégration béta dite « interdite », ce qui inaugurerait une nouvelle ère pour la physique.
Le but du détecteur NEMO était d'observer un phénomène radioactif extrêmement rare, la double désintégration béta, qui ne se produit que pour quelques isotopes dont la durée de vie est jusqu'à 100 milliards de fois plus longue que l'âge de l'Univers. La double désintégration bêta « permise » consiste en la transmutation simultanée de deux neutrons en deux protons, avec émission de deux électrons et de deux neutrinos. Au cours de ses 8 années d'activité, NEMO a observé un million de ces événements pour 7 isotopes différents, permettant une meilleure connaissance de la structure du noyau nucléaire.

Certaines théories prévoient l'existence d'une double désintégration sans émission de neutrinos. Cette désintégration est dite « interdite » car elle viole le modèle standard sur lequel se base toute la physique des particules. Si celle-ci existe effectivement, cela signifierait que le neutrino est une particule dite de Majorana : une particule qui est à la fois sa propre antiparticule. D'après les cosmologistes, ceci pourrait expliquer pourquoi, aux premiers temps de l'Univers, la matière a été créée et pourquoi elle a pris le pas sur l'antimatière. NEMO n'a pas pu observer de double désintégration sans émission de neutrinos. En revanche, les données recueillies ont permis d'établir que la masse du neutrino doit être inférieure à une valeur comprise entre 0,3 et 0,9 eV, selon le modèle nucléaire considéré. Elles ont en outre permis de mettre les meilleures limites mondiales sur certains modes de désintégration double bêta sans émission de neutrinos, notamment celui mettant en jeu des particules supersymétriques.

Le défi principal de l'expérience NEMO était de détecter un signal extrêmement rare, la double désintégration bêta, normalement masqué par le rayonnement parasite et la radioactivité naturelle. Pour se protéger de ce bruit de fond, le détecteur NEMO-3 a dû être installé sous près de 2 000 m de roche, dans le tunnel de Fréjus, et construit avec des matériaux de très bas niveau de radioactivité. Au total, la radioactivité de la partie interne du détecteur NEMO est 10 millions de fois plus faible que la radioactivité naturelle.

Autre caractéristique qui a fait de NEMO un instrument unique : sa capacité à identifier les particules émises lors d'une double désintégration bêta, tout en mesurant leur énergie à l'aide de calorimètres. La qualité des données obtenues avec ces choix technologiques, ouvrent la voie à SuperNEMO, un détecteur qui sera 100 fois plus sensible et qui pourra peut-être observer la double désintégration bêta sans émission de neutrinos. Les scientifiques espèrent, avec ce futur instrument dont l'entrée en fonction est prévue pour 2018, inaugurer une nouvelle physique, au-delà du Modèle Standard.


DOCUMENT              CNRS              LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google