ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

ASTROPARTICULES

 

astroparticule


Domaine de recherche situé à l'interface de l'astrophysique, de la cosmologie et de la physique des particules.
De nombreux chercheurs se rangent aujourd’hui sous la bannière de l’astroparticule. La physique des particules étudie à petite échelle la structure de la matière et les lois fondamentales qui gouvernent les interactions. L’astrophysique étudie la structure de l’Univers à grande échelle et son évolution depuis l’explosion initiale (big bang). Quant à la cosmologie, elle confronte les théories de l’infiniment petit à cet Univers primordial. Toute avancée en physique des particules améliore la compréhension de l’Univers ; toute découverte dans l’Univers agit sur les théories de l’infiniment petit.
À la croisée de ces deux infinis, l’astroparticule explore les sites cosmiques par le truchement de nouveaux messagers – rayons γ, particules accélérées, neutrinos, ondes gravitationnelles – aptes à sonder des milieux hors de portée de l’astronomie traditionnelle. En observant ainsi les sources de ces messagers, l’astroparticule obtient des informations originales sur les propriétés des particules élémentaires. L’astroparticule est aussi le moyen d’étudier les expériences que la nature mène dans des milieux cosmiques où règnent des conditions physiques extrêmes – température, densité, champ électrique, champ magnétique, champ de gravitation – hors de portée des laboratoires terrestres.
Historique
Le terme d’astroparticule n’est apparu qu’à la fin du xxe s. Des liens étroits avaient pourtant déjà été tissés entre astrophysique et physique des particules. Les premières activités attestées en la matière ont débuté au début du xxe s. avec la découverte des rayons cosmiques qui percutent la haute atmosphère terrestre. Dès le début des années 1930, l’étude des sous-produits de ce bombardement s’est avérée comme le moyen le plus fructueux pour percer les premiers secrets du monde subatomique. Ce n’est qu’au début des années 1950 que les grands accélérateurs se sont imposés comme une source plus efficace de particules énergétiques pour la physique.
C’est précisément quand les physiciens des particules se sont détournés des rayons cosmiques que les astrophysiciens se sont intéressés à ces corpuscules très énergétiques en tant que messager des sites où elles acquièrent leur fabuleuse énergie. À la même époque, les premières expériences spatiales permettaient enfin d’étudier les rayons cosmiques in situ (avant leur entrée dans l’atmosphère) et de scruter le ciel au moyen des rayons γ. Dès les années 1970, l’astronomie des rayons γ ouvrait la voie à des pratiques résolument multimessagers. La dernière décennie du xxe s. voyait alors émerger une floraison de nouveaux moyens d’observation. Sont ainsi en opération aujourd’hui, conjointement avec une flottille d’observatoires spatiaux actifs dans les bandes spectrales des rayons γ, des détecteurs de rayons γ de très haute énergie (THE), de rayons cosmiques d’ultra-haute énergie (UHE), de neutrinos cosmiques et d’ondes gravitationnelles. Pour la première fois, la lumière n’est plus le seul vecteur d’information sur le cosmos.
Des télescopes à nul autre pareils
La spécificité des moyens d’observation propres à l’astroparticule tient à la nature même des messagers mis à contribution. C’est ainsi qu’avec une longueur d’onde très inférieure aux distances entre les atomes, les rayons γ ne se prêtent pas aux combinaisons de miroirs et de lentilles à la base de l’astronomie traditionnelle. Les instruments adaptés à la collecte des rayons γ cosmiques sont donc plutôt inspirés de ceux propres à la physique des particules. Difficulté supplémentaire : l’atmosphère terrestre bloque les rayonnements de haute énergie ; les instruments doivent être embarqués à bord de véhicules spatiaux. Ces derniers, exposés à un flux intense de particules cosmiques, sont le siège d’un bruit instrumental qui limite sévèrement la sensibilité des observations. L’astronomie des rayons γ implique donc de très longs temps de pose, d’où son essor tardif. L’exploration approfondie du ciel se poursuit encore en 2008 avec l’observatoire européen Integral et le satellite américain Fermi
Si les rayons γ sont bloqués à leur approche de la Terre, c’est qu’ils interagissent avec les atomes de la haute atmosphère. S’agissant des rayons γ THE, ces interactions engendrent un faisceau de particules dont la propagation dans l’air produit un pinceau de rayonnement visible de nature Tcherenkov que l’on peut enregistrer au sol au moyen de grands miroirs paraboliques. Cette technique, à l’œuvre depuis la fin des années 1980, a permis d’ouvrir le domaine prometteur d’une astronomie impossible à mener dans l’espace en raison de la rareté des rayons γ THE. L’appareil le plus performant en la matière est aujourd’hui le télescope Hess, un ensemble de quatre miroirs de très grande surface installé en Namibie.
Après des décennies consacrées aux études in situ du gros des rayons cosmiques à bord d’engins spatiaux, le xxie s. voit un regain d’intérêt pour les rayons cosmiques UHE. À l’instar du gros des rayons cosmiques, il s’agit sans doute de protons et noyaux, les plus énergétiques étant accélérés à plus de cent exaélectronvolts (1020 eV), l’énergie cinétique qu’emporte une balle de tennis lancée à grande vitesse. Le flux des rayons cosmiques UHE est des plus faibles : une particule par kilomètre carré et par siècle. Pour les détecter, il faut s’en remettre à l’étude de la gerbe de particules secondaires que produit un rayon cosmique UHE quand il entre en collision avec les hautes couches de l’atmosphère. Les gerbes que forment les primaires les plus énergétiques sont assez fournies pour que bien des secondaires atteignent le sol. La taille de la gerbe croissant avec l’énergie de la particule primaire, la pluie de particules intéresse des zones de plus en plus vastes (10 km2 et plus).
Pour étudier les rayons cosmiques UHE, il faut donc déployer des moyens de détection sur de très grandes surfaces. C’est le défi qu’a relevé l’observatoire Pierre Auger, ainsi nommé en l’honneur du découvreur des grandes gerbes cosmiques à la fin des années 1930. Fruit d’une collaboration d’une vingtaine de pays et mobilisant des centaines d’ingénieurs et de physiciens, il s’étend sur un vaste territoire (3 000 km2) des pampas argentines. Prévu pour fonctionner de nombreuses années, l’observatoire Pierre Auger devrait détecter assez de rayons cosmiques UHE pour en déterminer avec précision la nature, l’énergie et la direction d’arrivée. Les rayons cosmiques UHE sont si énergétiques que leurs trajectoires sont fort peu déviées par les champs magnétiques intergalactiques. En mesurant leurs directions d’arrivée, l’observatoire Pierre Auger devrait permettre de remonter à leurs sources d’origine.
Si des sites extrêmes de l’Univers parviennent à accélérer des protons UHE, ces derniers sont en mesure d’interagir à la source même en produisant toutes sortes de particules, dont des neutrinos THE. Ne connaissant que la force faible, les neutrinos traversent sans coup férir les milieux matériels. Ils s’échappent ainsi sans entrave des sites où ils ont été produits. Particules stables, les neutrinos peuvent parcourir les distances les plus considérables. Dépourvus de charge électrique (donc insensibles aux champs magnétiques), les neutrinos ne dévient pas de leur direction d’origine. Tout concourt donc à en faire des messagers de choix pour l’astroparticule. Mais leur propriété la plus attrayante – interagir très peu avec la matière, grâce à laquelle ils peuvent sonder les sites cosmiques les plus denses – rend leur détection très difficile..
Il existe toutefois une toute petite probabilité qu’un neutrino THE ayant traversé toute la Terre interagisse juste avant de ressortir de l’autre côté en produisant un muon (une particule chargée à faible durée de vie). Si l’interaction se déroule tout au fond de la mer, le muon se propage dans l’eau, où il génère un cône de lumière Tcherenkov. En disposant au fond de la mer un ensemble de photodétecteurs aptes à percevoir le cône de lumière, on peut estimer l’énergie et la direction d’origine du muon, et partant, celles du neutrino qui l’a produit. C’est sur ce principe que fonctionne Antares, un ensemble de détection de très grande surface (0,1 km2) déployé par grand fond (2 500 m) dans la Méditerranée au large de Toulon.
L’astroparticule s’intéresse aussi à des neutrinos de plus basse énergie, ceux produits au cœur du Soleil lors des réactions de fusion thermonucléaire. Ils sont détectés par des appareils installés sous terre pour atténuer le bruit de fond induit par le rayonnement cosmique. La technique de détection des neutrinos s’apparente parfois à celle utilisée par Antares, comme dans Super Kamiokande, un détecteur qui met en œuvre un réservoir de 50 000 tonnes d’eau tapissé de 11 000 photodétecteurs, installé à grande profondeur (1 000 m) dans un puits de mine au Japon.
Les ondes gravitationnelles, ces déformations périodiques du tissu même de l’espace-temps, sont l’une des prédictions de la théorie de la relativité. À ce jour, leur existence n’a pas encore été directement attestée. Elles sont produites par exemple quand deux astres denses et compacts (étoiles à neutrons ou trous noirs) tournent rapidement l’un autour de l’autre. Bien qu’elles soient très faibles, ces ondes se propagent sans entrave dans le tissu de l’espace-temps. Elles sont donc en mesure de fournir des informations sur des sites cosmiques d’où aucun autre messager ne pourrait émerger.
Tout objet exposé à un train d’ondes gravitationnelles (une barre de métal par exemple), devient alternativement plus long/plus mince, plus court/plus épais. Mais ces variations sont si infimes qu’elles sont indécelables en pratique. Pour les détecter, il faut mener des mesures ultra-précises sur des intervalles de distance beaucoup plus longs, ce que permet l’interférométrie laser. Deux expériences mettant en œuvre cette technique sont aujourd’hui en service pour traquer les ondes gravitationnelles : l’une, Virgo, est installée en Italie ; l’autre, Ligo, opère aux États-Unis sur deux sites, l’un dans l’État de Washington, l’autre en Louisiane.
Les découvertes de l'astroparticule
Dans la première moitié du xxes., l'observation des rayons cosmiques a conduit à la mise en évidence de nouvelles particules, comme les positons et les mésons. Les observations des rayons γ cosmiques menées depuis les années 1970, en détectant des bouffées de rayons γ aussi soudaines qu’intenses, ont permis de démontrer que les sources de ces sursauts gamma sont les explosions cosmiques les plus violentes de l’Univers. Les observations des rayons γ THE ont attesté que les vestiges des explosions d’étoiles sont des sites propres à l’accélération des particules. Très récemment, les premières données que l’observatoire Pierre Auger a collectées avant même d’avoir été totalement déployé ont montré que les rayons cosmiques UHE proviennent des portions de l’Univers local les plus denses en galaxies. Les mesures de neutrinos solaires menées dans les sites souterrains ont mis en évidence un déficit apparent dans la production de neutrinos au cœur du Soleil. Ce sont également des détecteurs souterrains (comme Super Kamiokande) qui ont apporté la preuve qu’un tel déficit provenait du fait que les neutrinos sont des particules dotées d’une masse, certes infime, mais qui leur permet d’osciller d’un type à un autre.
Les moyens consacrés à la détection des neutrinos cosmiques THE et des ondes gravitationnelles n’ont pas encore mis en évidence des sites aptes à produire ces deux messagers si activement recherchés. De l’avis général, les sources des sursauts gamma sont les sites cosmiques les plus prometteurs pour produire en abondance des rayons cosmiques UHE, des neutrinos THE et des ondes gravitationnelles. Les explosions cosmiques les plus violentes de l’univers seraient-elles les bonnes à tout faire de l’astroparticule ? Les preuves formelles manquent encore, en dépit des efforts que déploient les physiciens qui explorent ces nouveaux axes de recherche. Mais ces nouvelles astronomies n’en sont qu’à leur début. Les observations seront longues et difficiles, les appareils sont parfois sous-dimensionnés. L’élan est pourtant irréversible. Les successeurs des premiers prototypes sont déjà en chantier et les premières détections devraient intervenir dès la prochaine décennie.

 

  DOCUMENT   larousse.fr    LIEN

 

 
 
 
initiation musicale toulon  

RECRÉER L'UNIVERS

 

Recréer L'UNIVERS
Emeric Falize, Michel Koenig dans mensuel 506
daté décembre 2015 -


En dépit des progrès considérables des télescopes, certains objets astrophysiques restent inaccessibles. Pour pouvoir aller plus loin dans l'exploration du cosmos, les physiciens reproduisent certains phénomènes en laboratoire.
Les moyens d'observation astronomique se sont considérablement développés au cours de la dernière décennie, apportant souvent une vision nouvelle de notre Univers, que cela soit sur sa formation, son évolution ou ses transformations internes. Toutefois, il demeure de grandes questions sur des objets astrophysiques auxquelles les instruments de mesure spatiaux ne peuvent pas totalement répondre. Les physiciens ont trouvé un moyen de satisfaire leur curiosité scientifique : l'astrophysique de laboratoire. Cette discipline a émergé ces vingt dernières années grâce au développement des installations laser de haute énergie (1). Le principe est de recréer en laboratoire les conditions existant à l'échelle de l'Univers, de reproduire des objets complexes tels que l'intérieur des planètes ou la structure des étoiles, ou encore de simuler certains processus physiques violents comme les phénomènes d'éjection, d'accrétion ou d'explosion de supernovae (*).

Afin de concevoir correctement les expériences nous permettant d'explorer un phénomène astrophysique particulier, il nous faut choisir entre trois types d'expériences : identiques, ressemblantes ou similaires à une situation précise. Une expérience identique reproduit les conditions exactes, par exemple de densité ou de température, qui règnent dans certains objets. Cela concerne notamment les propriétés de l'intérieur des planètes, que celles-ci soient géantes, telluriques ou extrasolaires, mais également les opacités (coefficients d'absorption de la lumière) qui opèrent à l'intérieur des étoiles. Une expérience ressemblante consiste à reproduire une partie seulement des processus impliqués, comme lorsque l'on cherche à comprendre la génération du champ magnétique primordial (lire p. 40). Enfin, on parle d'expérience similaire lorsqu'on réalise une sorte de modèle réduit, à l'échelle du laboratoire, d'un phénomène astrophysique. Il s'agit de passer de l'année-lumière au millimètre, du million d'années au milliardième de seconde. C'est ce que nous faisons lorsque nous voulons étudier des systèmes d'étoiles doubles particuliers, les polars.

COMPRENDRE LES SUPERNOVAE
Parmi tous les environnements extrêmes, il en existe un qui présente des propriétés de similarité spectaculaires et que nous envisageons de reproduire sous forme de maquette fidèle en laboratoire (2). Il s'agit des phénomènes d'accrétion, autrement dit de capture de matière par un astre sous l'effet de la gravitation. Ces phénomènes se rencontrent dans les systèmes binaires, ensembles de deux étoiles tournant autour d'un centre de gravité commun. Il en existe de nombreuses sortes. Le système binaire qui nous intéresse, appelé polar, est constitué d'une étoile de type naine blanche (*) et d'une étoile compagnon. Le rayon de la naine blanche est du même ordre de grandeur que celui de la Terre, en revanche, sa masse est équivalente à celle du Soleil. L'étoile compagnon est de même taille, mais plus légère et située à une distance comparable à la distance Terre-Lune. Par gravité, la naine blanche « aspire » la matière de sa voisine. De tels systèmes sont appelés des variables cataclysmiques. Elles sont les embryons potentiels des supernovae thermonucléaires. Mieux comprendre les phénomènes d'accrétion, c'est donc mieux comprendre les supernovae, ces « chandelles » qui nous permettent de mesurer la distance de galaxies lointaines, et leurs répercussions cosmologiques.

Dans le cas des polars, la naine blanche possède également un champ magnétique très intense de l'ordre de 1 000 teslas, soit 20 millions de fois supérieur au champ magnétique de la Terre. Ce champ magnétique est tellement fort qu'il perturbe la dynamique de la matière qui tombe dans le potentiel gravitationnel de la naine blanche. Par conséquent, la matière ne forme pas un disque d'accrétion comme on le rencontre dans les systèmes binaires non magnétiques : piégée par les lignes de champs, elle est au contraire ramenée au niveau des pôles magnétiques de la naine blanche sous la forme d'une « colonne d'accrétion » (Fig. 1).

Pour illustrer les conditions extrêmes qui règnent dans ce système binaire, imaginons-nous quelques instants à la surface de la naine blanche à proximité du pôle magnétique de l'objet. La matière de l'étoile compagnon forme un flot de plasma (*) qui tombe en chute libre à 5 000 kilomètres par seconde, une vitesse 400 fois plus importante qu'une chute libre sur Terre. La matière accrétée percute alors violemment la surface de la naine blanche. Cette dernière étant très compacte, elle absorbe une partie de l'énergie. Mais une grande partie « rebondit » sous la forme d'une onde de choc, semblable au bang des avions supersoniques, qui remonte la colonne d'accrétion en chauffant la matière sur son passage à une température d'environ 600 millions de degrés. La matière émet alors du rayonnement par l'intermédiaire de deux processus. D'une part, les électrons du plasma sont freinés à la suite de leurs collisions avec les ions et perdent leur énergie sous forme de rayonnement, dit de « freinage ». D'autre part, sous l'effet du champ magnétique, la trajectoire des électrons est déviée, ce qui entraîne également un rayonnement cyclotron. Une grande partie de ces rayonnements sont émis dans le domaine des X durs (*).

Les pertes d'énergie dues au rayonnement ralentissent la remontée de l'onde de choc dans la colonne d'accrétion. Le front de l'onde de choc se stabilise à une hauteur comprise entre 100 et 1 000 kilomètres au-dessus de la surface de la naine blanche, créant une zone de discontinuité. De part et d'autre de cette frontière, la densité, la température et la pression varient de façon drastique.

LASERS DE HAUTE ÉNERGIE
Il est capital de connaître la structure en densité et en température de cette zone émissive. À partir des rayons X observés, on peut en effet remonter à la masse de la naine blanche. Malheureusement, d'un modèle physique à un autre, la détermination de cette masse peut varier d'un facteur deux ! De plus, la zone de hautes énergies, comprise entre le front de choc et la surface de la naine blanche, développe différentes instabilités radiatives qui modifient l'évolution du choc. Certains de ces processus permettent de rendre compte des observations, mais de nombreuses questions restent ouvertes, en particulier sur l'évolution des courbes de lumière des polars.

La région cylindrique de la colonne d'accrétion ne mesure qu'une centaine de kilomètres de rayon pour un millier de kilomètres de hauteur environ. Ces dimensions ne peuvent être observées par les télescopes. Par conséquent, toute nouvelle approche contribuant à l'étude de la physique des chocs d'accrétion est fondamentale pour mieux contraindre les modèles astrophysiques.

D'où l'idée de reproduire ces phénomènes astrophysiques violents avec des lasers de haute énergie. Depuis 2008, un programme de recherche, le projet POLAR, initié par des équipes françaises du CEA et du CNRS puis progressivement devenu international, s'est développé pour pouvoir étudier la physique de ces chocs d'accrétion. Pour la première fois, le schéma de cible laser proposé (Fig. 1) a permis d'en étudier la physique et en particulier de suivre l'évolution du choc d'accrétion grâce aux instruments de mesure disposés sur cette installation (3). Cette première mondiale a été effectuée sur le laser LULI2000, grand instrument du CNRS, qui accueille la communauté internationale pour des expériences dans le domaine des plasmas chauds, à un niveau d'énergie laser de l'ordre du kilojoule (2).

LOIS D'ÉCHELLE
Avant d'effectuer l'expérience, la première étape est de s'assurer théoriquement qu'il est possible de recréer en laboratoire un phénomène similaire au phénomène astrophysique observé dans l'Univers. Pour pouvoir définir la maquette de ce dernier, on exploite l'existence de relations théoriques - ou lois d'échelle - qui relient deux systèmes physiques possédant des dimensions d'espace, de temps et des densités différentes.

Certains phénomènes physiques présentent en effet une symétrie, appelée invariance d'échelle, qui permet de les décrire indépendamment du système d'unités utilisé, à condition que des nombres dits « sans dimension » soient conservés. Ainsi, pour que les systèmes décrits ici, au niveau du polar pour l'un, en laboratoire pour l'autre, soient équivalents, il faut conserver quatre nombres sans dimension : le nombre de Mach (lire p. 39), le nombre de Strouhal qui assure la conservation de la géométrie du système, l'indice adiabatique qui fixe l'équation d'état du milieu, et le rapport de la densité d'énergie rayonnée et l'énergie cinétique du plasma.

La deuxième étape est la mise en pratique. L'expérience consiste à irradier une cible solide, généralement en plastique, avec un faisceau laser de haute énergie. L'énergie est telle que la cible se vaporise sous la forme d'un plasma. Dans l'expérience de 2011, le fort champ magnétique de la naine blanche était simulé par un tube de taille millimétrique qui guidait mécaniquement le plasma jusqu'à la surface de la naine blanche, en l'occurrence un morceau de tantale très compact, 1 000 fois plus dense que le plasma généré par laser.Pour reproduire le phénomène, il faut que la cible laser soit 109 fois plus petite (de l'ordre du millimètre) que la colonne d'accrétion réelle, que la pression soit 104 fois plus grande (1 million de fois la pression à la surface de la Terre) et que le phénomène évolue 1010 fois plus vite en laboratoire (de l'ordre de la nanoseconde) que dans l'espace. D'après les calculs théoriques, si on accélère un plasma à une vitesse de 300 kilomètres par seconde qui s'écrase sur un obstacle, l'équilibre entre émission radiative et énergie thermique est exactement dans les proportions du système astrophysique.

Mettre suffisamment de matière en mouvement pour étudier le phénomène d'accrétion et faire en sorte que toute la matière atteigne cette limite fatidique des 300 km/s ne se fait pas sur n'importe quel laser. Seules les installations qui délivrent une puissance supérieure au mégajoule le permettent. Ici, les performances croissantes des lasers de puissance permettront d'envisager de reproduire tout un spectre de phénomènes astrophysiques, dont les polars, où matière et rayonnement interagissent fortement.

MICROSCOPES DE L'UNIVERS
Nous avons réalisé d'importantes simulations numériques multidimensionnelles sur le supercalculateur TERA100 du CEA, situé à Bruyères-le-Châtel, dans l'Essonne, qui peut effectuer plus d'un million de milliards d'opérations par seconde. Ainsi, nous avons pu confirmer que le régime recherché sera atteignable avec les installations Laser Mégajoule (LMJ), mise en fonctionnement récemment, et National Ignition Facility (NIF), laquelle atteint déjà 1,8 mégajoule. Les expériences ont jusque-là été menées avec des lasers de puissance de l'ordre du kilojoule, avec le laser LULI2000 à l'École polytechnique de Palaiseau et le laser Orion de l'Atomic Weapon Establishment, au Royaume-Uni. Ils ont permis d'atteindre des vitesses d'écoulement respectives de 100 et 200 km/s. Tous les phénomènes n'ont donc pas été encore reproduits, mais pour la première fois, on a réussi avec ces expériences à suivre l'évolution d'un choc d'accrétion. Des capteurs ont mesuré les évolutions des paramètres de densité, de température et de pression provoqués par la remontée de l'onde de choc après la collision du plasma sur la surface d'un disque de tantale simulant l'atmosphère de la naine blanche. Plus récemment, sur le laser LULI2000, nous avons utilisé un champ magnétique extérieur de forte intensité (10 teslas) afin de guider le plasma sans utiliser de tube, les lignes de champ empêchant le flot de se détendre latéralement. Avec cette nouvelle approche, nous pourrons à l'avenir étudier plus finement le choc retour grâce à l'absence des parois du tube.

La dernière étape reste à venir. L'augmentation de la puissance laser d'un facteur 1 000 avec le LMJ permettra d'accélérer le flot de plasma incident et ainsi d'emmagasiner plus d'énergie cinétique et d'atteindre des régimes similaires au régime astrophysique. En couplant le laser Petal aux différents diagnostics déjà installés sur le Laser Mégajoule, nous réaliserons une radiographie de cette zone d'impact afin de confirmer ou d'infirmer les effets de l'émission du rayonnement sur la structure, la dynamique de la zone de hautes énergies. En devenant des microscopes des phénomènes de l'Univers, les lasers de puissance ouvrent indubitablement une nouvelle ère d'exploration aux astrophysiciens.
(*) Une supernova est une étoile en fin de vie qui explose, entraînant une multitude de phénomènes astrophysiques, dont une hausse phénoménale de sa luminosité.

(*) Une naine blanche est un astre issu de l'évolution d'une étoile de masse modérée (inférieure à 8 masses solaires). Sa taille est très petite comparée à une étoile classique, mais sa densité est très élevée (de l'ordre d'une tonne par centimètre cube).

(*) Un plasma est un milieu constitué de charges libres (ions, électrons).

(*) Les rayons X durs sont les rayons X de plus haute énergie. Leur longueur d'onde est comprise entre 0,01 et 1 nanomètre.

N.B. : Les deux auteurs dédient cet article à la mémoire de Jean-Pierre Chièze, qui fut l'un des pionniers français de l'astrophysique de laboratoire.
REPÈRES
- Certains phénomènes physiques violents et complexes de l'Univers ne sont pas observables directement.

- Grâce à des lois d'échelle, on peut produire des maquettes de ces processus à l'échelle du laboratoire.

- Les lasers de puissance permettent ainsi de recréer les phénomènes d'accrétion qui ont lieu dans des systèmes d'étoiles doubles particuliers, les polars.
UN NOMBRE SANS DIMENSION
Le nombre de Mach est un exemple classique de nombre sans dimension. On l'utilise souvent pour caractériser la vitesse des avions. Il compare la vitesse de l'avion à celle du son dans l'air. Quand ce nombre dépasse 1, l'avion franchit le mur du son. Dans le cas des polars, le nombre de Mach est le rapport entre la vitesse de l'écoulement du plasma et celle du son dans le milieu. En adaptant les deux termes de ce rapport, on peut conserver sa valeur lorsqu'on transpose la situation astrophysique à celle du laboratoire.
PETAL
PETAL EST UN LASER DE HAUTE INTENSITÉ (1 kilojoule) qui délivre des impulsions courtes (de 0,5 à 5 picosecondes). Inauguré en septembre 2015, il est situé près de Bordeaux, au sein de l'installation Laser Mégajoule.

 

   DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

Hipparcos retouche l'âge de l'univers

 

Hipparcos retouche l'âge de l'univers
Michel Froeschlé dans mensuel 299
daté juin 1997 -


Eclats et distances de plus de cent mille étoiles ont été mesurés avec une précision sans précédent par le satellite européen Hipparcos . Cet arpentage du voisinage solaire a conduit les astronomes à réviser leurs indicateurs de distance. Ce qui pourrait bien réconcilier l'âge de l'Univers déterminé par les cosmologistes avec celui des étoiles les plus vieilles.
Le 8 août 1989, la fusée Ariane 4 mettait sur orbite le satellite astrométrique Hipparcos dont les observations se sont poursuivies jusqu'en 1994, et le 8 août 1996, les chercheurs qui avaient proposé des programmes d'étude ont reçu les résultats définitifs de la mission. Ainsi, moins de deux années après la réception des dernières données, le catalogue Hipparcos, véritable carte en trois dimensions du ciel, était entre les mains des astronomes.

Ce catalogue d'un peu plus de 100 000 étoiles leur a déjà permis de réviser quelques notions clefs d'astrophysique. Les premières analyses ont montré que les distances des étoiles mesurées depuis le sol étaient systématiquement sous-estimées de 10 % à 15 % ; le voisinage solaire s'est donc avéré beaucoup plus vide qu'on ne le pensait. Une révision majeure s'est déjà imposée, celle de l'âge des étoiles les plus vieilles de l'Univers, qui passe d'environ 15 à 11 milliards d'années. Et ce n'est qu'un début...

Pourtant l'aventure commença sous les plus mauvais auspices, en raison d'un lancement plutôt mouvementé du satellite : le moteur d'apogée de la fusée Ariane 4 avait refusé de fonctionner. Le satellite ne put quitter son orbite de transfert pour rejoindre son orbite géostationnaire. La presse française titrait le lendemain du lancement : « Les malheurs de l'arpenteur, Hipparcos condamné à la mort lente, l'agonie d'une star » . Ce fut la consternation, l'échec. Les ingénieurs de l'ESA European Space Agency réussirent cependant à soustraire le satellite au freinage qu'occasionne l'atmosphère à chaque passage près de la Terre. Les propulseurs, qui devaient maintenir en poste le satellite sur son orbite géostationnaire, furent utilisés pour porter l'altitude du périgée de 210 km à 500 km, donnant ainsi une durée de vie suffisante au satellite.

Mais cette nouvelle orbite n'alla pas sans présenter quelques inconvénients imprévus. D'abord une interruption des observations d'une durée de deux à quatre heures à chaque révolution, lors du passage du satellite dans les ceintures de radiations ceintures de Van Allen : les récepteurs de photons étaient momentanément aveuglés par les charges électriques accélérées dans ces zones internes de la magnétosphère terrestre, et leur rendement s'en trouvait diminué. Cependant la difficulté majeure résidait dans le fait que l'attitude du satellite, à la sortie de son passage le plus proche de la Terre, n'était plus connue avec une précision suffisante pour guider l'instrument dans ses observations malgré l'aide des gyroscopes. Il fallut donc adapter aux nouvelles conditions d'observation une grande partie des logiciels de bord, mais aussi des logiciels de réduction des données. Il fallut également multiplier les stations réceptrices car, avec la nouvelle orbite, le satellite n'était pas toujours visible de la station de l'ESA initialement prévue à Odenwald en Allemagne. Dès le début du mois de décembre 1989, le satellite est devenu opérationnel et 65 % du temps était scientifiquement utilisable au cours d'une révolution autour de la Terre.

Alors qu'il était prévu pour une durée de vie de deux ans et demi, Hipparcos a fourni pendant plus de trois années un flot continu de très bonnes mesures. En fait, le satellite est mort de vieillesse. Les premiers éléments qui ont donné des signes de fatigue ont été les gyroscopes. Ils ont, les uns après les autres, et après quelques hoquets, cessé d'indiquer correctement l'orientation du satellite dans l'espace. C'est le 24 juin 1993 que le coeur du satellite cessa de battre : l'ordinateur de bord s'arrêta définitivement, malgré des tentatives de relance. L'ESA décida d'arrêter l'opération quatre ans et une semaine après le lancement du satellite. Au mois de janvier 1994, les dernières données parvenaient aux deux groupes chargés du traitement voir l'encadré « Le traitement des données ».

L'idée d'un satellite astrométrique avait été lancée dès 1966 par Pierre Lacroûte, alors directeur de l'observatoire de Strasbourg, et se concrétisa au début des années 1980 dans le projet Hipparcos . Ce nom, acronyme de High Precision Parallax Collecting Satellite, est aussi un hommage à l'astronome grec Hipparque, auteur au IIe siècle avant notre ère du premier catalogue d'étoiles connu. Hipparcos suscita rapidement un intérêt très vif. On dénombra au total plus de 400 projets d'études qui ont été déposés soit en 1982 lors de la définition du programme d'observation, soit en 1992 lors d'un second appel d'offres lancé par l'ESA pour l'utilisation des résultats de la mission.

Le but de la mission Hipparcos était d'arpenter notre Galaxie, de donner en trois dimensions une carte très précise du ciel pour 120 000 étoilesI. Pour chaque étoile, trois grandeurs fondamentales sont déterminées : sa position, son déplacement apparent sur la sphère céleste parallaxe, et son déplacement réel dans l'espace, projeté sur la sphère céleste mouvement propre. La parallaxe d'une étoile résulte du déplacement de la Terre sur son orbite : l'étoile décrit sur la sphère céleste une ellipse dont la dimension dépend de la distance de l'étoile. Plus l'étoile est proche, plus sa parallaxe sera grande. Des mesures angulaires de sa position, on peut ainsi déduire sa distance. Mais cette méthode ne marche que pour des étoiles situées à moins de deux cents années-lumière*. Au-delà, l'ellipse est trop petite pour pouvoir être résolue par des observations menées depuis le sol. En revanche, depuis l'espace, l'atmosphère ne réduisant plus la précision des mesures angulaires, Hipparcos peut mesurer des parallaxes d'étoiles qui se trouvent dans un volume cent fois plus grand.

Au total, le catalogue Hipparcos contient les coordonnées astrométriques de 117 955 étoiles et des magnitudes pour 118 204 étoiles. Il sera disponible sous forme de six CD-Rom en juillet 1997, et diffusé par l'ESA au prix de cent dollars. Une version destinée au grand public, « Celestia 2000 », est également prévue. Avant Hipparcos, le seul catalogue précis disponible était le catalogue FK5 qui contient 1 535 étoiles dont les directions sont connues avec une précision presque cinquante fois moins bonne que celle obtenue par Hipparcos . Les précisions sur les positions et les mouvements propres varient selon la position de l'objet sur la voûte céleste, comme l'illustrent les figures ci-dessous. Ces disparités s'expliquent par les effets de la loi de balayage du ciel par le satellite qui, malgré l'optimisation, n'assure pas un temps d'observation uniforme sur toute la sphère céleste. Les précisions varient également selon l'éclat de l'étoile : plus cet éclat est faible, moins bonne sera la précision. La position est en moyenne connue avec une précision meilleure qu'un millième de seconde de degré 0,7 mas. Cette valeur correspond à l'angle sous lequel on voit un petit pois placé à mille kilomètres ! Pour les précisions sur les mouvements propres, de l'ordre du millième de seconde de degré par an, on a des variations selon la position de la source sur le ciel voisines de celles obtenues sur les positions. Quant à la parallaxe, elle est déterminée en moyenne à 0,9 millième de seconde de degré près.

Au catalogue principal de la mission s'ajoute un catalogue d'un million d'étoiles fourni par la mission complémentaire Tycho. Cette expérience utilise le flot continu des mesures faites par le repéreur d'étoiles, un détecteur auxiliaire qui permet de reconstituer pour la mission principale l'attitude du satellite. Les précisions sont dégradées d'un facteur dix environ par rapport au catalogue Hipparcos . De par la conception même de la procédure d'observation du satellite voir l'encadré page suivante, les coordonnées célestes déduites des observations Hipparcos sont rapportées à un système arbitraire sphère Hipparcos . Ce système a une rotation globale par rapport au référentiel inertiel* matérialisé par les radiosources extragalactiques. Or, pour faire des recherches en dynamique galactique, c'est-à-dire étudier les mouvements des étoiles de notre Galaxie, il est nécessaire d'effectuer le rattachement de la sphère Hipparcos au système extragalactique. Ce système appelé ICRS International Celestial Reference System est matérialisé par six cent six quasars et autres radiosources.

Il fallait donc tourner la sphère Hipparcos pour faire coïncider ses axes avec ceux de l'ICRS. Ce mouvement a été déterminé avec un soin extrême, en comparant notamment les directions de sources observées par Hipparcos avec celles obtenues depuis le sol par les instruments astrométriques les plus performants. Le rattachement a été effectué à 0,6 millième de seconde de degré de précision pour fixer la position des axes et à 0,25 millième de seconde de degré par an pour la rotation1. Face à ces résultats d'une exceptionnelle qualité, les moyens de vérification externe sont très peu nombreux. Or il était important de montrer que ces résultats ne sont pas entachés d'erreurs systématiques. Les parallaxes Hipparcos ont donc été comparées aux parallaxes obtenues depuis le sol. Les tests ont également porté sur des étoiles lointaines qui ne présentent pas de parallaxe sensible pour Hipparcos. Ces études montrent que l'on ne doit pas craindre d'effets systématiques supérieurs à 0,1 millième de seconde de degré.

Ce résultat permet un comptage plus sûr des étoiles proches. Près de 40 % de ces étoiles, données à moins de 25 parsecs* dans les meilleurs catalogues actuellement disponibles, se sont avérées beaucoup plus éloignées. Les distances ont été globalement revues à la hausse de 10 % à 15 %. Cette révision est essentielle pour un type particulier d'étoiles variables nommées céphéides*, qui servent aux astronomes d'indicateur de distance pour mesurer l'Univers. Car la révision de la distance de ces étalons primaires entraîne en cascade la révision des distances d'objets plus éloignés comme les amas d'étoiles ou les galaxies. Ce résultat fondamental a été confirmé par plusieurs équipes d'astronomes de l'université du Cap, de l'observatoire de Lyon et de l'observatoire de Genève. C'est ainsi qu'une nouvelle calibration des céphéides de notre Galaxie déduite des mesures Hipparcos2 a conduit Michael Feast, de l'université du Cap, à une nouvelle valeur pour la distance de la galaxie la plus proche de la nôtre, le grand nuage de Magellan. Cette galaxie naine serait située à 179 000 années-lumière alors qu'on l'estimait jusqu'à présent distante de 163 000 années-lumière.

La conséquence de ce réajustement est une nouvelle estimation de l'âge des plus vieilles étoiles de l'Univers, qui sont rassemblées dans des amas d'étoiles dits globulaires. En effet, l'âge de ces amas se déduit de la luminosité absolue des étoiles qu'il contient. Cette luminosité absolue se déduit elle-même de la distance et de l'éclat apparent des étoiles. Avec la nouvelle distance des amas globulaires du nuage de Magellan obtenue par Hipparcos, l'âge des étoiles les plus vieilles a diminué d'environ 4 milliards d'années : l'âge de l'Univers est désormais estimé entre 10 et 13 milliards d'années. Ces valeurs se rapprochent de celles déduites du taux d'expansion de l'Univers par les cosmologistes, qui situent son âge entre 9 et 12 milliards d'années. La querelle sur l'âge de l'UniversII semble donc bien sur le point de prendre fin.

Il ne s'agit là que d'un domaine de recherche parmi les dizaines qui vont bénéficier des données Hipparcos. Citons par exemple l'étude des étoiles doubles : plus de 12 000 ont été résolues, dont 3 000 pour la première fois. Tout aussi riche fut la moisson d'étoiles variables identifiées par Hipparcos. L'éclat apparent de chaque étoile du programme a été mesuré environ cent dix fois soit au total environ treize millions de mesures. La plupart des étoiles ont eu un éclat constant pendant la durée de la mission. Leur magnitude est connue avec une précision de l'ordre du millième. Mais près de 12 000 ont été détectées variables, dont une bonne fraction d'inédites.

Sur ces sujets et sur bien d'autres les équipes Hipparcos passent désormais le relais à la communauté astronomique entière pour qu'elle jette un regard neuf sur les propriétés les plus fondamentales des étoiles et de notre Galaxie
1 J. Kovalevsky et al., Astron. Astrophys. , sous presse.

2 M.W. Feast, R.M. Catchpole, Mon. Roy. Astro. Soc. , 286 , L1, 1997.
NOTES
*UN RÉFÉRENTIEL INERTIEL

est un référentiel dans lequel un corps libre et au repos à un instant donné reste indéfiniment au repos. Les lois fondamentales de la mécanique newtonienne y sont vérifiées.

*UN PARSEC

vaut 3,0857 x 1016 mètres, soit 3,26 ANNÉES-LUMIÈRE.

*LES CÉPHÉIDES

sont des étoiles de luminosité variable. Il existe une relation remarquable entre leur luminosité absolue et leur période. Il suffit donc de mesurer la période d'une céphéide et son éclat pour déterminer sa distance.
LE TRAITEMENT DES DONNÉES
Le satellite Hipparcos est équipé d'un télescope de trente centimètres de diamètre, qui observe simultanément les étoiles de deux champs du ciel séparés de 58 degrés. C'est un satellite à balayage dont la mission a été entièrement planifiée avant le lancement. Au plan focal de l'instrument, les images des étoiles traversent une grille d'analyse qui module leur lumière. L'analyse de ce signal permet de mesurer avec précision les distances angulaires séparant les étoiles de chacun des deux champs. La loi de balayage est conçue pour que le satellite explore l'ensemble de la sphère céleste et traque les quelque 120 000 étoiles sélectionnées pour assurer une bonne cohérence des mesures grâce à l'uniformité de leur répartition sur la voûte céleste.

Il n'était pas possible d'espérer traiter globalement les données que le satellite transmettait au sol et donc d'attendre la fin de la mission pour commencer la réduction. Ce flot de données, à raison de 24 000 bits à la seconde, rassemble plus de 35 milliards de nombres. De cette masse de données, nous devions extraire un catalogue d'étoiles qui compte environ un million de nombres, soit un facteur de compression de 35 000. Aussi, pour parvenir à ce résultat fallait-il mettre en place un protocole de traitement très élaboré et très strict. Les données étaient traitées au fur et à mesure de leur arrivée au sol, par tranches d'une durée de 5 à 8 heures de télémétrie. Ensuite, ces résultats partiels étaient regroupés pour un dernier ajustement qui conduisait aux coordonnées des étoiles. Pour cette ultime étape, il a fallu résoudre un ensemble de près de 4 millions d'équations pour 600 000 inconnues. Devant la complexité et l'importance de ces calculs l'ESA a confié à deux groupes indépendants de laboratoires le soin de traiter et de produire, pour 1997, le catalogue et ses résultats annexes. Les consortiums internationaux NDAC Northern Data Reduction Consortium et FAST Fundamental Astrometry by Space Tecnics regroupent respectivement des équipes du Royaume-Uni, de Suède et du Danemark, et des équipes de France, d'Allemagne, d'Italie et des Pays-Bas. La direction du consortium FAST a été assurée par l'équipe Hipparcos du département CERGA de l'observatoire de la Côte d'Azur.
SAVOIR
J. Kovalevsky, Modern Astrometry , Springer A&A Library, 1995.

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

L’origine des lunes martiennes élucidée ?

 

 

 

 

 

 

L’origine des lunes martiennes élucidée ?

04.07.2016, par Fui Lee Luk
Vue d’artiste de l’impact géant entre Mars et une protoplanète qui aurait donné naissance aux lunes Phobos et Deimos.
 Université Paris Diderot / Labex UnivEarthS
Partager
On ne comprenait pas jusqu’ici comment Mars avait acquis ses deux satellites Phobos et Deimos. Le mystère a peut-être été résolu...
Hormis la nôtre, nulle autre planète que Mars n’a été l’objet d’autant d’attention. Alors que sondes et rovers explorent sans discontinuer sa surface depuis vingt ans à la recherche de traces – passées et présentes – d’eau ou de vie, une équipe internationale de chercheurs1 vient peut-être de trouver la réponse à une autre grande énigme martienne : comment la planète Rouge s’est-elle retrouvée affublée de ses deux petites lunes Phobos et Deimos ?

Deux origines possibles

Les astronomes ont longtemps balancé entre deux hypothèses. La première suggère que les lunes sont en fait des astéroïdes semblables à ceux que l’on retrouve dans la ceinture principale située entre Mars et Jupiter, mais on ne comprenait pas comment ces corps avaient été capturés par Mars. L’autre hypothèse suppose que ces satellites se sont formés à partir des débris issus d’une collision entre Mars et une protoplanète ; mais une grande incertitude demeurait quant au mécanisme expliquant une telle formation.

Une des difficultés
était d’expliquer
pourquoi un
impact géant sur
Mars avait généré
deux lunes
si différentes
de la nôtre.


« Une des difficultés majeures était d’expliquer pourquoi un impact géant sur Mars avait généré deux lunes si différentes de la nôtre, qui est constituée d’une masse unique alors qu’elle serait elle aussi née d’un impact », explique le planétologue Sébastien Charnoz, de l’Institut de physique du globe de Paris (IPGP)2, qui a participé à l’étude publiée aujourd’hui dans Nature Geoscience.

Pour résoudre cette énigme, les chercheurs3 ont combiné leur expertise en astrophysique, en planétologie, en mathématiques et en informatique pour élaborer des modèles hydrodynamiques complexes qui leur ont permis de simuler numériquement le déroulement de l’impact et ses suites.

Leurs résultats, qui semblent étayer l’hypothèse d’une collision gigantesque, permettent également pour la première fois d’expliquer comment les deux lunes ont pu émerger des débris générés par cet impact.

Quand Mars avait un anneau

Selon les simulations, Mars a subi il y a entre 4 et 4,5 milliards d’années un choc frontal avec un corps trois fois plus petit que lui. Les débris éjectés se sont alors d’abord retrouvés en orbite autour de la planète Rouge, formant un anneau similaire à ceux de Saturne. Dans cet anneau, une lune de mille fois la masse de Phobos s’est progressivement formée par accrétion des débris, comme cela s’est passé lors de la formation de notre propre Lune.


Formation des lunes martiennes Phobos et Deimos
À propos Partager
À ce stade, cette nouvelle étude a permis d’identifier le facteur crucial différenciant la formation de notre Lune et celle de Phobos : les vitesses de rotation différentes de leurs planètes, se traduisant par des effets gravitationnels bien différents. Sébastien Charnoz précise ainsi que, au moment de leurs impacts respectifs, « la Terre tournait sur son axe en moins de 4 heures, tandis que Mars tournait bien plus lentement, observant une période de 24 heures ».

Cette différence de vitesse a fait que la Terre a gardé une seule grande Lune tandis que les débris de l’impact martien se sont rassemblés en une douzaine de petits satellites accompagnant une lune plus massive. Finalement, la gravité de Mars combinée à sa rotation lente ont conduit la plupart de ces satellites, y compris le plus gros d’entre eux, à retomber sur Mars. Seuls les plus éloignés, Phobos et Deimos, sont restés en orbite. La rotation rapide de la Terre a au contraire conduit à un éloignement progressif de l’orbite lunaire.

À l’avenir, l’équipe compte analyser la dynamique à long terme de Phobos et Deimos. Le planétologue Ryuki Hyodo, membre associé de l’équipe et actuellement détaché de l’université de Kobe pour collaborer avec l’IPGP note que « des simulations haute résolution de l’impact sont encore nécessaires pour mieux comprendre la structure du disque d’accrétion ».

Bientôt une mission vers Phobos

Même si des preuves matérielles sont encore nécessaires pour confirmer le scénario proposé par l’équipe, des découvertes récentes semblent l’étayer. C’est notamment le cas d’autres travaux français portant sur les propriétés physiques et orbitales des lunes martiennes, qui indiquent elles aussi une formation découlant d’un impact4.

Image figurant les six phases de formation des lunes Deimos et Phobos autour de Mars.
 A. TRINH/ Observatoire Royal de Belgique
Partager
D’autres recherches sont prévues ailleurs, en particulier au Japon, où la Jaxa (Japan Aerospace Exploration Agency) a annoncé une mission martienne qui débutera en 2022 pour un retour prévu en 2026. « L’objectif est d’ausculter au plus près Phobos et Deimos par des mesures effectuées tant à distance que sur place et de ramener des échantillons sur Terre », informe Ryuki Hyodo. L’actuelle collaboration franco-belgo-nippone jouera un rôle important dans cette prochaine mission : c’est à elle que la Jaxa va confier l’analyse des échantillons afin de déterminer si Phobos est bien, comme l’indiquent les simulations, composée d’un mélange de manteau martien et de débris d’une protoplanète disparue.

En tout état de cause, les avancées réalisées sont une étape cruciale dans la résolution de l’énigme des lunes martiennes. « Plus généralement, nos découvertes permettent de mieux comprendre comment des impacts géants donnent naissance à des satellites et peuvent aboutir à la formation de systèmes satellitaires différents », conclut Sébastien Charnoz. Ce dernier estime ainsi que la méthode déployée ici pourrait être appliquée à Uranus, Neptune et, pourquoi pas ?, à des systèmes de satellites en orbite autour d’exoplanètes.

Notes
1. « Accretion of Phobos and Deimos in an extended debris disc stirred by transient moons », P. Rosenblatt et al., Nature Geoscience, 2016, DOI : 10.1038/NGEO2742.
2. Institut de physique du globe de Paris (CNRS/Université Paris Diderot).
3. Université Paris Diderot/Observatoire royal de Belgique/Université de Rennes 1/CNRS/Earth Life Science Institute (Tokyo Institute of Technology), avec un soutien supplémentaire de l’IPGP, du Labex UnivEarthS et de l’université de Kobe.
4. « Reconciling the orbital and physical properties of the martian moons », T. Ronnet et al., Astrophysical Journal, forthcoming.

 

 DOCUMENT    cnrs  le  journal     LIEN

Inscrivez  le  titre  complet  dans  la  rubrique  " cnrs  le  journal "

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] Précédente - Suivante
 
 
 
Google