ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

LES SURSAUTS GAMMA

 


L'énigme des sursauts gamma enfin résolue


autre - dans mensuel n°308 daté avril 1998 à la page 48 (3640 mots) | Gratuit
L'événement n'a rien de rare : plus de trois mille gigantesques explosions de rayons gamma ont été enregistrées ces trente dernières années par toute une flotille d'engins spatiaux. Mais jusqu'à l'année dernière, il manquait aux scientifiques l'indice clef permettant de démasquer ces sources éphémères : étaient-elles situées dans notre Galaxie ou venaient-elles des confins de l'Univers ? Grâce à de formidables courses-poursuites impliquant les plus grands télescopes au sol et dans l'espace, des contreparties visibles situées à des distances phénoménales ont enfin pu être identifiées. A la question du « où » succède désormais celle du « comment ».

Si l'oeil humain pouvait percevoir les rayons gamma*, nous aurions droit à un feu d'artifice quotidien. Deux fois par jour au moins, et souvent même trois fois, une gigantesque explosion « embrase » le ciel et domine toutes les autres sources de rayons gamma. La plupart de ces explosions ne durent environ qu'une demi-minute mais l'éclat de certaines d'entre elles, beaucoup plus rares, persiste pendant plus de 10 minutes. Chacune de ces bouffées, baptisées sursauts gamma, libère en quelques secondes plus d'énergie que ne libérera notre Soleil en dix milliards d'années !

Les sursauts gamma furent découverts par hasard. Dans les années 1960, le gouvernement des Etats-Unis lança VELA, une famille de satellites destinés à détecter dans le domaine gamma d'éventuelles explosions nucléaires dans l'atmosphère terrestre explosions qui avaient été bannies lors du traité de 1963 sur la cessation des expériences atomiques dans l'atmosphère. Quelle ne fut pas la surprise des scientifiques de Los Alamos, les concepteurs de VELA, lorsqu'ils enregistrèrent les premières explosions gamma en juillet 1967 : leur rayonnement ne provenait ni de la Terre ni du Soleil mais arrivait manifestement de l'espace ! Cette décou- verte ne fut rendue publique que six ans plus tard1. Une fois la nouveauté du phénomène reconnue, les scientifiques commencèrent à envoyer dans l'espace l'appareillage nécessaire à la détection de ces sursauts gamma. La sophistication et la sensibilité des instruments s'amé- liorèrent graduellement au cours des années 1970 et 1980 pour culminer dans les années 1990 avec le lancement par la NASA du satellite CGRO Compton Gamma-Ray Observatory , le 5 avril 1991 photo ci-dessus.

Une des expériences menées à bord de ce satellite, l'expérience BATSE Burst and Transient Source Experiment devint l'oreille du scientifique dans le domaine gamma : elle « entendait » chaque explosion, qu'elle soit bruyante ou discrète, et permit l'enregistrement d'une collection unique de plus de 2 000 sursauts fig. 1. Mais la résolution spatiale* du CGR O était insuffisante pour repérer précisément la direction de l'explosion et permettre aux télescopes au sol de rechercher une éventuelle contrepartie dans un autre domaine de longueurs d'onde.

Depuis la découverte des sursauts gamma, les interrogations des scientifiques se résumaient aux trois grandes questions : Où ? Quoi ? Et comment ? La première question se formulait ainsi : les sursauts gamma ont-ils lieu dans notre propre Galaxie ou sont-ils d'origine extragalactique ? Le débat était suivi de près par les théoriciens, dans la mesure où la quantité d'énergie mise en jeu dans chacun des deux cas est radicalement différente et impose des contraintes fortes sur le type de mécanisme envisageable pour expliquer un sursaut. Il s'avéra en fait que la question la plus simple, et donc celle à laquelle on s'attaqua en priorité, était la seconde : quelles sont les caractéristiques temporelles, spectrales et spatiales des sursauts gamma ?

Il ne fut pas très difficile de comparer les courbes de lumière des sursauts, c'est-à-dire le nombre de photons reçus en fonction du temps fig. 2. Le but était de discerner des ressemblances dans la forme de ces courbes, qui auraient per-mis une séparation éventuelle en sous-classes. La classification permet parfois en astronomie de mettre le doigt sur des différences physiques, comme ce fut le cas, par exemple, pour les supernovae. Cela se révéla malheureusement impossible pour les sursauts gamma : la diversité même des profils aurait nécessité la création d'une classe pour chaque sursaut ! On ne pouvait utiliser les courbes de lumière que pour mesurer la durée d'un sursaut puis étudier la distribution de ces durées. On s'aperçut que ces dernières couvraient une gamme très étendue - de la milliseconde au millier de secondes - et qu'elles se divisaient en deux groupes correspondant à des sursauts courts et à des sursauts longs, la ligne de démarcation étant autour de 2 secondes2. Les sursauts courts durent en moyenne 0,5 seconde tandis que les durées de vie des sursauts longs oscillent autour de 35 secondes.

Une autre information importante réside dans le profil de distribution de l'énergie des photons reçus3. Les énergies les plus hautes enregistrées étaient comprises entre quelques dizaines et un millier de kiloélectronvolts, avec un maximum autour de 200 keV. Cela suggère que la quantité d'énergie libérée par les sursauts est limitée à l'intérieur d'une gamme étroite et que leurs sources possèdent les mêmes caractéristiques. L'idée des « chandelles standard » était née : tous les sursauts atteignant la même luminosité intrinsèque maximum, les différences entre leur éclat apparent résultent de leur éloignement variable par rapport à l'observateur. Imaginons que les sursauts soient répartis dans tout l'Univers. Le nombre de sursauts détectés doit alors augmenter avec la distance d'observation puisque le volume d'espace balayé est plus grand. Or, plus un sursaut est éloigné, plus faible sera son éclat apparent. La distribution des éclats devait donc refléter une telle dépendance. Et en effet, on observait une augmentation du nombre de sursauts avec la distance, tout du moins jusqu'à une certaine limite. Car les sursauts les plus faibles créèrent la surprise : leur nombre diminuait avec la distance, autrement dit, on en trouvait moins que prévu, compte tenu de l'augmentation de volume balayé. L'explication est évidente si les sources de ces sursauts se trouvent dans notre propre Galaxie. En effet, la plupart des familles d'objets astronomiques connues étant observées à l'intérieur du disque galactique*, on s'attend en général à ce que l'observation d'une émission quelconque à l'aide d'un instrument suffisamment sensible révèle un déclin rapide de la densité des sources au-delà du disque galactique. Les positions des sursauts gamma devraient donc, en toute logique, se superposer au plan galactique. Il n'en est rien. La distribution des sources de sursauts sur la voûte céleste est isotrope : on n'observe ni direction d'arrivée privilégiée des photons, ni agglomération autour d'un quelconque objet céleste connu. Les partisans de l'hypothèse galactique n'eurent qu'un recours : l'invention d'un immense halo galactique contenant les sources des sursauts. Ce halo expliquait certes l'isotropie des sources et la rareté des sursauts faibles, mais un tel modèle devint de plus en plus difficile à défendre à mesure que les observations de nouveaux sursauts s'accumulaient. D'autant que l'hypothèse extragalactique ou cosmologique expliquait tout aussi bien, et d'une manière jugée plus naturelle, l'isotropie et la rareté des sursauts faibles. L'isotropie est une propriété attendue puisque l'inhomogénéité de la distribution de la matière, comme celle résultant des amas de galaxies* par exemple, s'estompe sur des échelles de l'ordre du milliard d'années-lumière. Quant à la rareté des sursauts faibles plus éloignés, elle peut être attribuée à l'expansion de l'Univers décrite dans le cadre de la théorie de la relativité générale. Une conséquence de cette expansion, la dilatation du temps qui se traduirait par un ralentissement apparent des horloges situées très loin dans l'Univers, expliquerait alors une fréquence apparente plus faible pour l'arrivée de ces sursauts.

De plus, si les sursauts étaient à de très grandes distances distances cosmologiques, on devrait pouvoir discerner dans leurs propriétés mêmes deux effets découlant de l'expansion de l'Univers. Le premier de ces effets est la dilatation du temps4 mentionnée précédemment ; le second est le décalage vers le rouge5*. Par conséquent, un sursaut d'une durée intrinsèque donnée apparaîtrait plus long et composé de photons de moindre énergie s'il venait de plus loin qu'un sursaut analogue proche. Pour tenter de détecter ces effets, on classa les sursauts en événements faibles ou intenses puis on compara leur durée et leur spectre. On trouva que les sursauts faibles étaient en moyenne plus longs que les intenses. De plus, le maximum spectral des sursauts faibles survenait à des énergies plus faibles que celles observées sur les spectres des sursauts intenses.

Ces résultats corroboraient l'idée selon laquelle les sources des sursauts étaient situées à des distances cosmologiques - très probablement plusieurs gigaparsecs* - ce qui situait la plus éloignée d'entre elles aux limites de l'Univers visible. Tous les indices étaient donc rassemblés mais la preuve la plus directe et la plus convaincante en faveur de cette hypothèse, à savoir une contrepartie lumineuse qui associerait les sources gamma à une population d'objets éloignés tels que des galaxies lointaines, n'avait pas encore été découverte, faute de « bons yeux » dans le domaine gamma,... jusqu'au début de l'année 1997.

En avril 1996, BeppoSAX , un satellite italo-hollandais, fut lancé du centre spatial J.F. Kennedy, à cap Canaveral. Parmi les instruments installés à bord se trouvait un appareil de surveillance des sursauts gamma, deux caméras à grand champ sensibles aux rayons X et quatre télescopes à champ étroit, fonctionnant également dans le domaine X. La séquence des opérations est la suivante : lorsqu'un sursaut gamma apparaît dans le champ de vision de l'une des deux caméras grand champ du satellite, sa détection est confirmée par le détecteur de sursauts gamma. Les données vidéo issues de la caméra grand champ sont analysées dès leur arrivée au sol lors du passage du satellite, à peu près toutes les heures et demie et, finalement, de très petites boîtes d'erreurs d'un rayon voisin de 3 minutes de degré sont calculées pour la position de la source du sursaut gamma. Ces positions sont communiquées à une vaste communauté scientifique pour permettre le prolongement immédiat des observations au sol et en orbite. Pendant ce temps, BeppoSAX est repointé afin que ses détecteurs à champ étroit positionnés à 90 degrés par rapport à la caméra grand champ recherchent l'émission X résiduelle en provenance du sursaut et améliorent ainsi la localisation jusqu'à une précision supérieure à une minute d'arc.

On essaya pour la première fois de mettre en pratique une telle séquence au centre des opérations du satellite à Rome, le samedi 11 janvier 1997. Les scientifiques consacrèrent immédiatement de longues heures à l'analyse des données obtenues. La boîte d'erreurs initiale dont ils disposaient était quelque peu étendue, d'un rayon d'environ 10 minutes de degré, mais les détecteurs à champ étroit furent repointés et couvrirent ce secteur pendant près de 21 heures. Trois sour- ces X et une source radio variable furent détectées à l'intérieur de cette boîte. Une boîte d'erreurs affinée obtenue avec la caméra grand champ vint bientôt réduire l'incertitude sur la position de la source à une région ayant un rayon de 3 minutes de degré, clairement inscrite à l'intérieur du cercle initial de 10 minutes de degré. Malheureusement, la nouvelle position excluait toute source X et radio comme contrepartie possible du sursaut gamma. Le site du sursaut était « vide », il ne contenait aucune source dans les domaines visible, X et radio, dans les limites de sensibilité des détecteurs utilisés.

Le second essai fut plus fructueux. Le 28 février 1997 l'alerte fut déclenchée, la présence d'un sursaut fut confirmée et une nouvelle chasse fut lancée. Les détecteurs à champ étroit indiquèrent une source X à l'intérieur de la zone délimitée par la caméra grand champ, ceci huit heures seulement après le début de l'alerte6. Cette source se révéla variable. Lorsqu'on l'observa de nouveau trois jours plus tard, son éclat avait diminué d'un facteur 20 par rapport à la première observation fig. 3. Au cours des semaines qui suivirent, des télescopes fonctionnant dans le domaine X à bord du satellite allemand R OSAT et du satellite japonais AS CA , furent pointés en direction de cette région du ciel. La source X fut alors confirmée, ainsi que son déclin. C'était là un résultat sans précédent : le lien entre le sursaut et la source X évanescente était inévitable. La suite des événements allait permettre une observation encore plus exceptionnelle. Parallèlement à ces observations depuis l'espace, le puissant télescope William Herschel de La Palma une des îles Canaries avait été pointé dans la direction du sursaut, environ 21 heures après le déclenchement de l'alerte7. Huit jours plus tard, la boîte d'erreurs était à nouveau scrutée : l'éclat de l'une des sources du champ avait très nettement diminué. Et cette source visible évanescente était située précisément à l'intérieur d'une boîte d'erreurs beaucoup plus petite 0,75 minute de degré construite à partir de la superposition des boîtes d'erreurs de la caméra à grand champ, des détecteurs à champ étroit et d'une boîte obtenue par triangulation d'après les observations de plusieurs satellites.

L'événement décisif survint lorsque l'imageur du satellite R OSAT cerna la source X à l'intérieur d'un cercle de 10 secondes de degré de rayon, pratiquement centré sur la source évanescente visible. La probabilité pour que la coïncidence du sursaut, de la source X et de la source visible soit fortuite était extrêmement faible. La contrepartie d'un sursaut gamma était détectée pour la première fois, un peu moins de trente ans après la découverte du phénomène. Une question s'imposa alors : à quelle sorte d'objet astronomique la contrepartie visible est-elle associée ?

Les astronomes durent faire appel à des télescopes plus sensibles pour y répondre. A l'aide du puissant télescope NTT New Technology Telescope au Chili et du télescope Keck à Hawaii, on obtint des images qui révélèrent une lueur étendue, floue et très faible, occupant la position de la source visible évanescente. Cela indiquait-il que la source se situait à l'intérieur d'une galaxie ? L'ultime recours, le télescope spatial Hubble , fut mis à contribution aux mois de mars et avril 1997. Il permit de résoudre le « flou » en un objet ressemblant à une étoile située sur la bordure d'une source étendue voir photo ci-contre. Le « flou » était-il donc oui ou non une galaxie ? L'objet ponctuel était-il associé au « flou » ou ne faisait-il que s'y superposer, étant situé en avant plan sur la même ligne de visée ? Dans ce dernier cas, l'alignement ne serait que provisoire, en raison du mouvement de l'objet ponctuel. Seules des observations supplémentaires et espacées dans le temps, visant à détecter d'éventuelles variations de brillance du « flou » et de la position de la source ponctuelle, pouvaient apporter des éléments de réponse à ces questions.

Le 4 septembre 1997, on observa à nouveau la région du sursaut à l'aide du télescope Hubble8. On y trouva la source ponctuelle à la même position, ce qui excluait l'hypothèse d'un alignement hasardeux avec l'objet flou, et son éclat était beaucoup plus faible. La source étendue n'avait pas changé ; un fait qui l'associait à coup sûr à une galaxie éloignée. Plusieurs conclusions pouvaient alors être tirées, en combinant les observations dans les domaines X et visible. Pour les deux gammes de longueurs d'onde, l'émission déclinait de façon similaire. L'apparition du rayonnement X semblait succéder immédiatement à l'évanouissement du sursaut gamma. Les deux phénomènes étaient donc intimement liés.

L'événement suivant, le 2 avril 1997, n'offrit qu'un éclat résiduel en rayons X. Le sursaut du 8 mai 1997 fut beaucoup plus intéressant. Une contrepartie visible fut observée à l'intérieur de la boîte d'erreurs du sursaut, cette fois avec le télescope de diamètre modeste 90 centimètres de Kitt Peak. La source fut observée ultérieurement à l'aide de télescopes plus puissants. Un spectre fut obtenu avec le télescope Keck et les nombreuses raies d'absorption qu'on y trouva permirent de déterminer le décalage vers le rouge et donc la distance à laquelle se situait l'objet9. Le décalage correspondait à z = 0,835, c'est-à-dire à une distance d'environ 4 gigaparsecs. Lors de l'observation de la source avec le télescope Hubble, aucune nébulosité associée à la contrepartie visible du sursaut ne put être détectée10. De nombreuses galaxies furent décelées dans les environs. Ceci suggérait que la contrepartie pouvait être liée dynamiquement avec un halo galactique invisible. La contrepartie pouvait aussi provenir d'une galaxie naine d'éclat très faible, provisoirement éclipsée par la lumière du sursaut. Cette hypothèse pourra être confirmée par des observations supplémentaires de Hubble, lorsque la lumière de la source évanescente aura suffisamment diminué pour permettre la détection de la galaxie mère.

Le sursaut du 8 mai est aussi, jusqu'à ce jour, le seul événement pour lequel on a pu identifier une contrepartie radio. Les données radio recueillies à l'aide du VLA Very Large Array à Socorro, au Nouveau-Mexique, révèlent des fluctuations rapides de la source au cours des deux premières semaines, qui s'estompèrent par la suite11.

Entre mai 1997 et janvier 1998, on a pu suivre six nouveaux sursauts à partir d'observatoires au sol et en orbite. Dorénavant conscients de la sensibilité et de la rapidité nécessaires à la capture d'un de ces objets éphémères, les chercheurs ont conçu de nouvelles méthodes permettant d'augmenter les chances de détection des contreparties. Une procédure sophistiquée, qui a conduit à ce jour à l'observation d'un éclat résiduel en rayons X, consiste à utiliser simultanément deux satellites de la NASA : le CGR O et le Rossi X-Ray Timing Explorer RX TE les cercles d'erreurs correspondant aux sursauts détectés par CGR O/BATSE sont passés au crible à l'aide d'un instrument du RX TE . Un autre instrument du RX TE enregistra par aillleurs trois sursauts dans son champ de vision, l'un d'entre eux étant associé à une source évanescente de rayons X. La troisième contrepartie visible d'un sursaut gamma fut obtenue pour le sursaut du 14 décembre 1997 enregistré par BeppoSAX, mais elle disparut avant que l'on puisse obtenir son spectre avec le télescope Keck voir photo du bas page 50 .

Parallèlement à l'accumulation de toutes ces observations, un modèle théorique expliquant le mécanisme des sursauts gamma revint progressivement sur le devant de la scène. Il s'agit du modèle de « la boule de feu en expansion », avec toutes ses variantes12 fig. 4.

Dans ce modèle, tout commence avec l'apport soudain d'une grande quantité d'énergie qui peut provenir par exemple de la coalescence de deux étoiles à neutrons*, d'une étoile à neutrons et d'un trou noir*, ou de l'effondrement du noyau d'une étoile super massive en rotation rapide - une « hypernova ». Quel que soit le moteur central, une boule de feu est produite. Le temps nécessaire à la radiation pour s'échapper du plasma* - initialement dense et chaud - est fonction du taux d'expansion de ce dernier. Jus-qu'à présent, les données relatives aux domaines X et visible indiquent que le plasma se refroidit à une vitesse inversement proportionnelle au temps écoulé depuis le sursaut gamma, précisément ce que la théorie de la boule de feu prédit. De plus, le maximum d'énergie émis devrait se décaler des hautes vers les basses énergies au cours du refroidissement de la boule de feu. Les données radio obtenues le 8 mai vont dans ce sens : l'émission fut d'abord détectée à 8,5 gigahertz puis à 1,4 gigahertz. Les données radio permirent aussi d'estimer pour la première fois la taille de la source. L'atténuation des fluctuations du signal radio pouvait s'interpréter de la manière suivante : lorsque la taille angulaire de la source est faible, il se produit un phénomène de scintillation dû à la traversée du milieu interstellaire gaz et poussières de la Galaxie. Quand la taille angulaire augmente, ce phénomène s'estompe pour la même raison, l'image d'une planète scintille beaucoup moins que celle d'une étoile. Les premières estimations montrèrent qu'après environ vingt jours, la taille de la source ne pouvait dépasser 3 secondes de degré. A une distance de 4 gigaparsecs, cela correspond à une taille 200 fois plus grande que celle de notre Système solaire. Une telle évolution de la taille de la source est en accord parfait avec le modèle de la boule de feu.

Qu'avons-nous appris ? Sur un total de dix événements, on a découvert six contreparties dans le domaine des rayons X, trois dans le domaine visible et une dans le domaine radio. Les données visibles indiquent que si les sites des sursauts gamma sont associés à des galaxies, ils ne sont pas au centre de ces dernières. Ce résultat s'harmonise bien avec le modèle mettant en jeu la coalescence d'étoiles à neutrons, puisque ce phénomène intervient plutôt dans les bras spiraux des galaxies ou dans les halos. La coalescence n'intervient que peu de temps en général moins de 100 millions d'années après la formation du système binaire. La fréquence des coalescences devrait donc suivre de près la fréquence de formation des étoiles. Est-ce ce que l'on observe ? Des mesures récentes du taux de formation stellaire ont révélé un pic à un décalage vers le rouge z égal à 2. Or cette distance est bien celle à laquelle la distribution de l'éclat des sursauts gamma commence à diminuer en supposant que les événements les plus proches, donc les plus brillants, soient situés à z = 0,1. Aujourd'hui, les principales questions auxquelles il reste à répondre sont les suivantes : pourquoi certains événements ne possèdent-ils pas de contrepartie ? Quelle relation existe-t-il entre les signaux dans les différents domaines de longueurs d'onde ? Les sursauts gamma qui sont associés à des contreparties dans les domaines X et visible ont-ils des propriétés particulières ? Bien que nous n'ayons aucune réponse définitive pour chacune de ces questions, des explications simples peuvent être avancées. Par exemple, une absorption massive due à des poussières interstellaires pourraient expliquer dans certains cas l'absence de contrepartie visible. Une autre possibilité serait que la longueur d'onde d'émission dépende de la configuration géométrique du système binaire lors de la coalescence. Suivant l'orientation du système par rapport à l'observateur, un type de rayonnement nous arriverait de manière privilégiée. Jusqu'à maintenant, on n'a pu discerner aucune corrélation entre les propriétés des sursauts gamma telles que l'intensité, le contenu spectral, la durée, etc. et leur association avec les contreparties. Mais il est clair que l'étude de ces contreparties ne fait que commencer, et le lien entre les sources des sursauts gamma et leur population d'origine reste à établir.


 DOCUMENT    larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

CYANOBACTÉRIES ...

 

ASTRES
[BLOG] Post 4 : Bactéries vertes sur planète rouge
astres - 21/09/2015 (1544 mots)
« J’ai déjà mentionné qu’une partie de mes travaux visait à mettre au point un système permettant de produire des ressources sur Mars à partir des matériaux présents sur place. Comme vous pouvez vous en douter, les plantes jouent un rôle dans ce projet. Mais le rôle principal est tenu par les cyanobactéries [...]. »

J’ai déjà mentionné qu’une partie de mes travaux visait à mettre au point un système permettant de produire des ressources sur Mars à partir des matériaux présents sur place.
 
Comme vous pouvez vous en douter, les plantes jouent un rôle dans ce projet. Mais le rôle principal est tenu par les cyanobactéries. Ces micro-organismes sont des bactéries vertes qui, comme les plantes, font de la photosynthèse. Bien que peu connues du public, en tout cas dans ce contexte, elles pourraient devenir des éléments clés d’un avant-poste sur Mars.
 
Je vais essayer d’expliquer leur potentiel d’une façon accessible au large public.  Si mes écrits sont trop difficiles à comprendre (un écueil classique lorsque l’on vulgarise sa propre recherche), n’hésitez pas à me le faire savoir ! Si au contraire ce que j’écris est trop basique et que vous voulez plus de détails techniques, je vous invite à lire la publication dont cet article est tiré.


Déposer des hommes sur Mars dans les prochaines décennies est maintenant un objectif réaliste. Mais si planter un drapeau et laisser une empreinte pourrait être fait avec pas grand-chose de plus que nos capacités technologiques actuelles, l’investissement est discutable. En revanche, si une intense activité scientifique est possible, les dépenses sont largement justifiées. Dans ce cas, une équipe devra passer un temps considérable sur place. Multiplier des missions à court terme n’est en effet pas une option viable : étant donnés le temps, les coûts et les difficultés associés au trajet, des bases permettant des séjours de longue durée seront probablement nécessaires. Mais si l’idée d’une présence humaine permanente est attirante, procurer les denrées nécessaires à la survie des pionniers reste un défi : les coûts de lancement ne permettent pas le ravitaillement continu d’une colonie au-delà de la Lune. Envoyer toutes les ressources nécessaires à partir de la Terre est financièrement irréaliste. La colonisation de Mars est-elle donc trop onéreuse pour être réalisable ? Peut-être pas… si l’on peut n’envoyer qu’une quantité minimale de consommables et produire le reste à partir de matériaux trouvés sur place.

Les systèmes biologiques, et les micro-organismes en particulier, seront extrêmement utiles. L’être humain utilise leurs produits depuis le début de son histoire : oxygène produit par des micro-algues, aliments et boissons tels que micro-organismes comestibles et produits fermentés comme le vin et le fromage, médicaments, divers produits chimiques, biomatériaux, biocarburants, etc. Nous dépendons également d’eux pour divers procédés, par exemple le recyclage de déchets et l’extraction de certains métaux.  Les micro-organismes peuvent par ailleurs se démultiplier très rapidement à partir de quantités infimes ; en envoyer quelques milligrammes suffirait donc pour en lancer des cultures sur Mars, dans des systèmes de culture clos. Mais comment les alimenter ? S’il faut envoyer des milieux nutritifs depuis la Terre le problème de la masse est déplacé, pas résolu.

Heureusement, tous les éléments de base nécessaires à la vie ont été détectés sur Mars. Les nutriments métaux sont présents dans les roches. Il y a du carbone (sous forme de dioxyde de carbone et, en quantités a priori bien moindres, de méthane) de l’azote dans l’atmosphère, et des atomes de carbone supplémentaires sont présents dans la glace carbonique des calottes glaciaires et sous la surface du régolithe (le sol poudreux visible sur les images de paysages Martiens) du fait d’échanges avec l’atmosphère. De grandes quantités d’eau ont été détectées sous forme de glace dans la calotte polaire nord, sous la glace carbonique de la calotte glaciaire sud et proche de la surface à des latitudes plus tempérées, sous forme d’hydratation des minéraux, et sous forme de vapeur dans l’atmosphère. Ce sera par ailleurs un produit secondaire du métabolisme et de l’activité industrielle humains. L’énergie solaire est également présente, avec une intensité moyenne de 43% celle de la Terre.

Le problème ? Une large part de ces éléments est sous une forme que la plupart des organismes ne peuvent utiliser. En particulier, beaucoup (qualifiés d’hétérotrophes et incluant les animaux tels que les hommes, ainsi que la majorité des micro-organismes) ont besoin de composés organiques comme sources de carbone et d’énergie, et la disponibilité de ceux-ci sur Mars est mal connue mais très probablement basse. De l’azote fixé, par exemple des nitrates, de l’ammoniac ou des acides aminés (mais pas l’azote atmosphérique qui est sous forme de diazote, N2) et du dioxygène (O2) sont également nécessaires à la plupart des organismes. Et, finalement, les éléments métaux enfermés dans les roches sont généralement inaccessibles. Le problème n’est donc pas un manque d’éléments basiques nécessaires à la vie, mais la capacité des organismes à les utiliser sous la forme qu’ils prennent à la surface de Mars.

 
Mais tous les organismes n’ont pas besoin de composés organiques : ce n’est pas le cas des cyanobactéries, par exemple. Elles peuvent, comme les plantes, faire de la photosynthèse : utiliser du dioxyde de carbone, de l’eau et de la lumière pour produire leurs propres composés organiques. Dans un désert nutritif comme Mars, cela leur donnerait un fort avantage sur les organismes hétérotrophes. Certaines espèces peuvent fixer le diazote qui, comme le dioxyde de carbone, est présent dans l’atmosphère de Mars. De plus, certaines ont la capacité d’extraire et d’utiliser les métaux présents dans des analogues de roches martiennes. La plupart – voire tous – les nutriments qui leur sont nécessaires pourraient donc être fournis directement à partir de ressources présentes sur Mars.

Et puisque les cyanobactéries produisent des composés organiques, fixent l’azote et extraient des nutriments métaux des roches, pourquoi ne pas s’en servir pour nourrir des organismes hétérotrophes ?

 Les cyanobactéries pourraient par ailleurs être utilisées directement pour diverses applications comme la production de nourriture, de carburants et d’oxygène.

Qu’en est-il des plantes ? Bien que le basalte soit la roche dominante dans le régolithe martien, et qu’une fois érodé il contribue à la formation de sols extrêmement productifs sur Terre, le sol martien devra probablement subir un traitement physicochimique et/ou biologique avant de pouvoir être utilisé comme milieu de croissance pour des plantes. Les raisons pour cela incluent sa basse capacité à retenir l’eau (à cause de l’absence de carbone organique), et le fait que ses nutriments soient peu accessibles aux racines. En plus du carbone et de nutriments métaux, le sol devra être enrichi avec d’autres éléments. De l’azote utilisable, notamment : la plupart des plantes sont incapables de fixer l’azote atmosphérique (même si certaines, principalement des légumineuses, portent des bactéries symbiotiques qui le fixent pour eux).

Les plantes sont par ailleurs bien moins efficaces que les cyanobactéries en ce qui concerne l’utilisation de surface, de dioxyde de carbone et de minéraux. Elles sont plus sensibles aux conditions environnementales, nécessitent plus de main d’œuvre, se prêtent moins à l’ingénierie génétique, prennent plus de temps à redéployer en cas de perte, nécessitent une logistique plus complexe et contiennent des parties non comestibles et difficiles à recycler. Les rôles principaux des plantes dans un avant-poste humain seraient la production de nourriture et d’oxygène, qui peuvent être assurés par les cyanobactéries. Cela dit, bien que certaines cyanobactéries comestibles aient d’excellentes propriétés nutritives (déjà entendu parler de la spiruline ?), elles ne peuvent actuellement pas être utilisées comme nourriture de base à cause de leur goût que peu qualifieraient d’agréable, de leur manque de vitamine C et peut-être de certain lipides essentiels, et de leur bas ratio glucides/protéines. Ces problèmes pourraient être résolus par l’ingénierie génétique, mais les plantes ont d’autres avantages : elles permettraient la production d’aliments réconfortants et leur culture pourrait avoir un impact positif sur le moral des colons. Des cultures à petite échelles, alimentées par des nutriments produits par des cyanobactéries et par les déchets organiques produits par l’équipage, peuvent être envisagées.

En résumé : grâce à la photosynthèse, à l’érosion de roches et à la fixation d’azote, les cyanobactéries pourraient être cultivées sur Mars et utilisées pour transformer la matière inorganique locale en composés disponible à d’autres microorganismes et aux plantes. Des nutriments supplémentaires proviendraient du recyclage de déchets de l’équipage. Finalement, si d’autres micronutriments (par exemples, certains cofacteurs) se révèlent impossibles à extraire sur place, les transporter depuis la Terre n’ajouterait qu’une masse négligeable à la charge du vaisseau, puisqu’ils ne sont nécessaires qu’en quantités infimes.

Les pionniers pourraient donc transporter de très légers tubes contenant des cyanobactéries et, une fois atterris sur Mars, les cultiver à partir de matériaux trouvés sur place. Ces bactéries photosynthétiques seraient ensuite utilisables pour cultiver d’autres micro-organismes et des plantes, recréant ainsi un écosystème simple et capable de produire les denrées nécessaires à la colonie à partir de ressources locales. C’est l’objet principal de mes recherches.

 Cyprien Verseux

 

DOCUMENT      larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

LES SURSAUTS GAMMA

 

L’origine des sursauts gamma

Les observations du sursaut gamma GRB 970228 et d’autres qui suivirent permirent d’éliminer les théories qui faisaient appel au nuage d’Oort ou à des astres de la Galaxie. La nature cosmologique des sursauts ne fait plus de doute grâce à l’observation de leur décalage vers le rouge.

Notre compréhension des sursauts gamma a fait un bond en avant avec le satellite américain Swift lancé en novembre 2004 et toujours en opération. Ce satellite emporte avec lui trois instruments : BAT, un capteur de rayons gamma capable de surveiller simultanément un sixième du ciel, XRT, un détecteur de rayons X, et UVOT, un télescope d’observation dans l’ultraviolet et le domaine visible.

La particularité de ce satellite est d’être capable de se réorienter très rapidement (swiftly en anglais, d’où le nom). Aussitôt après la détection d’un sursaut gamma par BAT, le satellite peut se tourner vers la source en question de façon précise en quelques dizaines de secondes à peine. Ceci permet aux deux autres instruments, dont le champ de vision est beaucoup plus restreint, de contribuer à l’étude du sursaut et de sa rémanence. En même temps, toutes les données recueillies par Swift sont retransmises rapidement vers le sol où un suivi rapide par les télescopes terrestres peut être organisé.

Grâce à un détecteur de rayons gamma cinq fois plus sensible que celui de Compton, Swift a detecté plus de 500 sursauts gamma. La combinaison de trois instruments travaillant dans des longueurs d’ondes différentes a produit des informations précises sur la localisation des sursauts, leurs caractéristiques spectrales et l’évolution dans le temps de l’émission initiale et de la rémanence.

Grâce à toutes ces observations les astrophysiciens ont maintenant une bonne compréhension de l’origine des sursauts gamma. En fait, il y a même deux origines, l’une pour les sursauts gamma courts, c’est-à-dire d’une durée de moins de deux secondes, l’autre pour les sursauts gamma longs.

Les étoiles à neutrons

La source des sursauts gamma courts serait des couples d’étoiles à neutrons en orbite l’une autour de l’autre. La théorie de la relativité générale montre que dans une telle situation, les deux étoiles perdent rapidement de l’énergie sous forme d’ondes gravitationnelles. Avec le temps, la baisse d’énergie du couple conduit à une diminution inexorable de la distance qui les sépare. Le ballet se conclut lorsque les deux corps entrent en collision pour fusionner ou donner naissance à un trou noir. Ce phénomène produit une énergie phénoménale qui pourrait expliquer les sursauts gamma courts.

Rémanence en lumière visible du sursaut GRB 990123 observée par le télescope spatial en 1999, deux semaines après l’émission de rayons gamma. On aperçoit la galaxie lointaine d’où provient le sursaut et sa forme étrange suggère la possibilité d’une collision passée avec une autre galaxie. Crédit : A. Fruchter/STScI/NASA

Les hypernovae

Pour les sursauts gamma longs, l’explication fait appel au concept d’hypernova, une version extrême de la supernova. Une hypernova se produirait lors de la disparition des étoiles les plus massives, d’au moins quarante fois la masse du Soleil.

Rappelons que les étoiles massives finissent leur existence par un effondrement gravitationnel qui conduit à la formation d’une étoile à neutron ou d’un trou noir. L’apparition de ce résidu central donne naissance à des ondes de chocs qui font exploser le reste de l’étoile et éjectent violemment ses couches externes. Pour expliquer les sursauts gammas, les astrophysiciens ont émis l’hypothèse qu’au sein des étoiles les plus massives, la force gravitationnelle est si intense que les couches externes de gaz ne sont par repoussées vers l’extérieur, mais capturées par le résidu central.

Ce processus amplifierait la quantité d’énergie gravitationnelle transformée en rayonnement et en chaleur lors de l’effondrement final et augmenterait considérablement l’énergie éjectée par les jets de plasma le long des pôles. Cette quantité d’énergie disponible plus importante et le fait que rayonnement soit émis dans un faisceau très fin pourraient donc expliquer comment cet événement est capable de libérer une énergie apparente beaucoup plus importante qu’une supernova classique.

 

DOCUMENT          astronomes.com      LIEN

 
 
 
initiation musicale toulon  

MATIÈRE NOIRE

 

Un signal inexpliqué en provenance d’amas de galaxies lointains pourrait constituer la toute première détection de matière noire, une composante mystérieuse de l’Univers recherchée depuis plus de quatre-vingts ans.


Les astronomes ont-ils mis la main sur les premières particules de matière noire, cette substance invisible qui représente plus de 80 % de la masse de l’Univers et dont la nature nous échappe depuis plus de quatre-vingts ans ? C’est ce que laisse espérer la détection, en février dernier, d’un mystérieux signal, sous la forme de rayons X, en provenance d’amas de galaxies lointains. Après avoir éliminé toutes les explications possibles les unes après les autres pour rendre compte de cette observation, plusieurs groupes de chercheurs parviennent à la même conclusion : le signal ne peut être dû qu’à la présence de matière noire dans ces amas.

Une masse très attractive mais insaisissable

Aujourd’hui, peu de scientifiques doutent encore de l’existence de cette composante énigmatique devenue un ingrédient essentiel pour expliquer l’évolution de l’Univers. Indécelable par les télescopes parce qu’elle n’émet aucune lumière, la matière noire peut toutefois être détectée par les effets gravitationnels qu’elle produit sur la matière visible. Dans les amas de galaxies, par exemple, des structures géantes regroupant plusieurs milliers de galaxies comme la Voie lactée, c’est la présence de matière noire qui permet d’expliquer les vitesses anormalement élevées de ces dernières autour du centre de l’amas. À de telles vitesses, elles auraient dû en effet échapper à l’attraction de leurs congénères. À moins que l’amas n’abrite de la masse supplémentaire qui exerce une attraction suffisante pour maintenir les galaxies regroupées, autrement dit de la matière noire. Mais pour être totalement convaincus de son existence, les scientifiques recherchent désormais des traces plus directes de cette matière fantôme. Dans des détecteurs souterrains ou à bord d’expériences embarquées dans des satellites d’abord, ils tentent ainsi d’attraper les particules dont elle serait constituée. Dans les accélérateurs de particules ensuite, ils essayent de fabriquer et de détecter de telles particules.

Distribution de matière noire dans un amas de galaxies Amas galactique géant CL0025+1654 situé à 4,5 milliards d’années-lumière : les galaxies visibles sont en jaune, la matière noire (invisible) est représentée en bleu.

Un signal inexpliqué venu de Persée

C’est dans cet objectif que deux équipes d’astronomes, l’une menée par Esra Bulbul, du Harvard-Smithsonian Center for Astrophysics aux États-Unis, et l’autre dirigée par Alexey Boyarsky, de l’université de Leiden aux Pays-Bas, ont pointé les observatoires spatiaux XMM-Newton et Chandra sur plus de 70 amas de galaxies lointains, notamment celui de Persée, situé à 240 millions d’années-lumière de la Terre. Ce type de structures abriterait, pense-t-on, la plus forte densité de matière noire dans l’Univers. Ce qui en fait des cibles privilégiées pour les astronomes. Dans leurs données, les deux groupes découvrent alors avec excitation, et ce indépendamment l’un de l’autre, la présence d’un « pic » de rayons X à une énergie d’environ 3,5 kilo-électronvolts (3,5 keV) qu’ils ne peuvent associer à aucun phénomène astrophysique connu.

Ce nouveau signal
ne correspond
à aucun élément chimique connu.


Dans ces structures, l’espace entre les galaxies n’est pas vide, mais il est rempli de gaz chauffé à plusieurs millions de degrés émis par les explosions d’étoiles au sein des galaxies. Sous l’effet de la chaleur, ce gaz génère des rayons X qui permettent alors de remonter, en fonction de l’énergie de ces rayonnements, aux différents éléments chimiques qui composent le nuage de gaz. On a pu ainsi identifier la présence d’oxygène, de fer, de calcium, de soufre et de bien d’autres éléments encore.

L’hypothèse du neutrino stérile

Mais ce nouveau signal ne correspond à aucun élément chimique connu. « Si bien qu’aujourd’hui l’explication la plus convaincante est celle de la détection de particules de matière noire », juge Yann Mambrini, du Laboratoire de physique théorique d’Orsay1, coauteur d’un article qui met en avant cette hypothèse audacieuse2. Mais à quoi ressemblent ces particules ? Deux scénarios sont avancés. Dans le premier modèle, privilégié par les deux groupes à l’origine de la découverte3, le signal observé correspondrait à la désintégration d’un neutrino dit stérile, une particule hypothétique dont l’existence a été postulée par les physiciens au début des années 2000. Ce quatrième neutrino, qui viendrait s’ajouter aux trois autres déjà connus, présente la caractéristique de n’interagir avec aucune autre particule, sauf par gravitation. Exactement ce qu’on attend de la matière noire. D’après ses partisans, ces neutrinos stériles se désintégreraient en émettant un neutrino « normal » et un photon doté d’une énergie de 3,5 keV. Et ce sont ces photons que XMM-Newton et Chandra auraient capturés.

Un nouveau boson de Higgs ?

Dans le second scénario, avancé par Yann Mambrini et ses collègues, le signal serait cette fois le résultat de l’annihilation de particules de matière noire d’une autre nature. « À la suite de leurs collisions, celles-ci produiraient une sorte de boson de Higgs mais beaucoup plus léger que celui qui a été découvert au LHC le 4 juillet 2012, explique le physicien. À son tour, ce boson, déjà prédit par certains modèles, se désintégrerait pour donner deux photons, de 3,5 keV chacun. »

Ces candidates

à la matière noire
sont des particules
cent fois plus
légères qu’un électron.


Dans un cas comme dans l’autre, ces candidates à la matière noire sont des particules légères, cent fois plus légères qu’un électron par exemple. Une propriété qui tranche avec celle des « particules élémentaires massives interagissant faiblement », les WIMP, d’autres particules candidates, plusieurs millions de fois plus lourdes, sur lesquelles les recherches se focalisent actuellement. « Ces particules légères offrent une alternative extrêmement intéressante », confie Gianfranco Bertone, à la tête du groupe Astroparticules de l’université d’Amsterdam aux Pays-Bas, actuellement en détachement du CNRS.

Le détecteur de matière noire Edelweiss-III Dispositif de détection directe des particules WIMP utilisé dans l’expérience Edelweiss.

La matière noire moins froide que prévu ?

Qui plus est, ces particules poids plume offrent un avantage de taille sur leurs rivales : elles permettent d’expliquer le faible nombre de galaxies satellites autour de la Voie lactée. Dans les scénarios cosmologiques, la matière noire s’est regroupée dans certaines zones, puis c’est la matière ordinaire qui s’est ensuite accumulée autour de ces puits gravitationnels pour former les galaxies principales et celles en orbite autour de ces dernières. « Comme ils sont massifs, les WIMP se déplacent lentement et s’accumulent donc facilement, explique Yann Mambrini. Résultat : ils auraient dû donner naissance à de très nombreuses galaxies autour de la Voie lactée. Or on en observe beaucoup moins. À l’inverse, les particules légères de matière noire, en mouvement rapide, auraient mis plus de temps à concentrer la matière si bien qu’elles auraient engendré autant de galaxies satellites que ce que montrent effectivement les observations. »

Une découverte à confirmer

Malgré tout, face à cette nouvelle potentiellement très importante, la prudence reste de mise. « Même si le signal observé s’avère statistiquement significatif, on n’est pas à l’abri d’une erreur, avance Gianfranco Bertone. D’abord parce que ces observations poussent Chandra et XMM-Newton dans leurs derniers retranchements en termes de précision. Et puis, il est toujours possible que ces rayons X proviennent d’un processus ordinaire encore mal compris. » Le verdict devrait maintenant venir de nouvelles mesures sur notre propre galaxie. On attend beaucoup notamment du télescope spatial à rayons X japonais Astro-H, qui sera lancé l’année prochaine. Celui-ci scrutera le centre de la Voie lactée avec une précision inégalée et, si ce mystérieux signal existe vraiment, il ne pourra alors pas le rater…

 

 DOCUMENT           CNRS        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 ] Précédente - Suivante
 
 
 
Google