ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Les lois de la naissance des étoiles remises en question

  initiation musicale

 

 

 

 

 

 

Les lois de la naissance des étoiles remises en question

lundi 30 avril 2018

Une équipe internationale menée par des chercheurs du CNRS, de l'Université Grenoble Alpes et du CEA vient bouleverser l'idée que l'on se faisait de la formation des étoiles. La précision des observations offertes par le Grand réseau d'antennes millimétrique/submillimétrique de l'Atacama (ALMA) a permis de mesurer la quantité de cœurs massifs progéniteurs d'étoiles au sein d'une région lointaine très active de notre galaxie, et ainsi de montrer que leur proportion y est plus élevée que celle attendue. Publiés dans Nature Astronomy , ces résultats pourraient remettre en cause l'idée largement partagée selon laquelle la distribution en masse d'une population de cœurs progéniteurs d'étoiles serait identique à celle de sa descendance.
Dans l'espace, derrière le voile des nébuleuses, des nuages de gaz s'agglomèrent et s'effondrent sur eux-mêmes pour former les structures mères des étoiles : les cœurs progéniteurs. Ils évoluent en groupes, accumulent de la matière et se fragmentent jusqu'à ce que naisse un amas de jeunes étoiles de masses diverses dont la distribution a été décrite par Edwin Salpeter sous la forme d'une loi astrophysique en 1955.

Les astronomes avaient observé que la proportion entre les objets massifs et non massifs était la même dans les groupes de cœurs progéniteurs et ceux d'étoiles nouvellement formées. Cela laissait donc penser que la distribution en masse des étoiles à leur naissance, appelée IMF1, découlait simplement de la distribution en masse des cœurs qui leur donnent naissance, dite CMF2. Mais cette conclusion est le fruit de l'étude des nuages moléculaires les plus proches de notre système solaire, peu denses donc peu représentatifs de la diversité des nuages de notre galaxie. La relation entre CMF et IMF est-elle universelle ? Qu'observe-t-on en s'intéressant à des nuages plus denses, plus lointains ?

Ce sont les questions que se sont posées les chercheurs de l'Institut de planétologie et d'astrophysique de Grenoble (CNRS/Université Grenoble Alpes) et du laboratoire Astrophysique, instrumentation, modélisation (CNRS/CEA/Université Paris Diderot)3 lorsqu'ils se sont penchés sur l'amas de cœurs progéniteurs W43-MM1 dont la structure est beaucoup plus typique des nuages moléculaires de notre galaxie que ceux observés auparavant. Grâce à la sensibilité et à la résolution spatiale uniques du réseau d'antennes ALMA installé au Chili, les chercheurs ont établi une distribution des cœurs statistiquement robuste sur une gamme de masse inégalée, allant des étoiles de type solaire aux étoiles 100 fois plus massives. Surprise : cette distribution ne suit pas la loi de 1955 !

En effet, dans le nuage W43-MM1 les cœurs massifs se sont révélés surabondants et les cœurs peu massifs sous-représentés. Ces résultats remettent en question la relation entre CMF et IMF, voire même l'universalité supposée de l'IMF. Il est possible que la répartition en masse des jeunes étoiles ne soit pas la même en tout point de notre galaxie, contrairement à ce que l'on admet encore. Si tel est le cas, la communauté scientifique devra revoir ses calculs portant sur la formation des étoiles et à terme toutes les estimations dépendant du nombre d'étoiles massives : enrichissement chimique du milieu interstellaire, nombre de trous noirs et de supernovæ…

Les équipes vont poursuivre ces travaux avec ALMA au sein d'un consortium regroupant une quarantaine de chercheurs. Leur objectif : étudier 15 régions similaires à W43-MM1 pour comparer leur CMF et évaluer si les caractéristiques de ce nuage sont généralisables.


L'amas d'étoiles en formation W43-MM1, tel qu'observé avec le plus grand interféromètre millimétrique au monde, ALMA. Les très nombreux sites de formation d'étoiles, appelés cœurs et identifiés ici par des ellipses, témoignent de la forte activité de formation d'étoiles de cette région.


Télécharger le communiqué de presse :


Notes :
1 Pour “Initial Mass Function”
2 Pour “Core Mass Function”
3 Ont également collaboré des chercheurs de l'Observatoire aquitain des sciences de l'univers (CNRS/Université Bordeaux), du Laboratoire d'études du rayonnement et de la matière en astrophysique et atmosphères (CNRS/Observatoire de Paris/Sorbonne Université) et de l'Institut de radioastronomie millimétrique
Références :
The unexpectedly large proportion of high-mass star-forming cores in a Galactic mini-starburst. F. Motte, T. Nony, F. Louvet, K. A. Marsh, S. Bontemps, A. P. Whitworth, A. Men'shchikov, Q. Nguyen Luong, T. Csengeri, A. J. Maury, A. Gusdorf, E. Chapillon, V. K̈önyves, P.Schilke, A. Duarte-Cabral, P. Didelon and M. Gaudel. Nature Astronomy, le 30 avril 2018.
DOI 10.1038/s41550-018-0452-x
Contacts :
Chercheuse CNRS l Frédérique Motte l T 04 56 52 08 96 l frederique.motte@univ-grenoble-alpes.fr
Chercheur UGA l Thomas Nony l T 04 76 63 58 39 l thomas.nony@univ-grenoble-alpes.fr

Presse CNRS l François Maginiot l T 01 44 96 43 09 l francois.maginiot@cnrs.fr

 

 DOCUMENT       cnrs     LIEN

 
 
 
initiation musicale toulon  

Secouer le vide pour créer de la lumière

  initiation musicale

 

 

 

 

 

 

Secouer le vide pour créer de la lumière

Astrid Lambrecht dans mensuel 295
daté février 1997 -

Des calculs théoriques montrent que la mise en vibration, dans le vide, d'une cavité formée de deux miroirs permet de produire un rayonnement. Un effet quantique qui remet en question un principe de la relativité générale d'Einstein.

L'absence de toute matière ou de toute particule dans une certaine région de l'espace ne signifie pas que rien ne s'y passe. Témoin, cet effet curieux que prédit en 1948 le chercheur hollandais Hendrik Casimir : deux miroirs parallèles et placés dans le vide s'attirent faiblement1. Très faiblement : pour des miroirs de 1 cm2, espacés de 0,5 micromètre, la force d'attraction correspond au poids d'une masse de 0,2 milligramme. Il n'empêche que l'effet Casimir a été vérifié dès 1958 par un autre physicien hollandais, Marcus Sparnaay, qui a pu mettre en évidence à la fois l'existence de la force d'attraction et sa dépendance vis-à-vis de l'écart entre les plaques.

D'où provient l'effet Casimir ? La réponse fait intervenir le mariage entre les lois de l'électromagnétisme et celles de la physique quantique. Quand on calcule, par les lois quantiques, l'énergie minimale du champ électromagnétique, on s'aperçoit qu'elle n'est pas nulle. Le résultat peut être interprété par l'existence de fluctuations spontanées du champ. En d'autres termes : bien qu'en moyenne la valeur du champ électromagnétique soit nulle dans cet état d'énergie minimale qu'est le « vide », elle fluctue continuellement et aléatoirement autour de zéro, en positif comme en négatif. Ces fluctuations baignent tout l'espace et donnent lieu à une certaine énergie appelée « énergie de point zéro ». Il se trouve que sa valeur est infinie, ce qui a bien sûr soulevé une difficulté ; mais les physiciens la surmontent en faisant remarquer que l'énergie de point zéro, même infinie, n'est pas observable : seules les différences d'énergie le sont.
Dans le cas des deux miroirs envisagé par Casimir, ces objets modifient, par leur présence même, les fluctuations spontanées du champ électromagnétique. En effet, la valeur du champ électrique doit être nulle au niveau d'une surface parfaitement conductrice de l'électricité ce qu'est un miroir parfait. Les fluctuations du champ qui règnent à l'intérieur de la cavité doivent ainsi obéir à certaines « conditions aux limites ». La situation est analogue à celle d'une corde attachée par ses deux extrémités à des points fixes : l'amplitude de ses vibrations doit être nulle aux points d'attache, ce qui restreint les modes de vibration possibles. De ce fait, les fluctuations, qui sévissent spontanément à toutes les longueurs d'onde ou fréquences, sont amplifiées ou diminuées suivant que leur longueur d'onde s'accorde ou non avec la longueur de la cavité. Ces contraintes sur les fluctuations du champ à l'intérieur de la cavité formée par les deux miroirs ont pour résultat de modifier l'énergie du vide. La différence d'énergie, qui est calculable, est à l'origine de la force d'attraction présente dans l'effet Casimir.

Le vide n'avait cependant pas fini de surprendre. Dans les années 1970, plusieurs chercheurs ont commencé à s'intéresser aux conséquences des fluctuations affectant le vide sur des objets en mouvement. Les calculs montrent que, pour un miroir unique se déplaçant à vitesse uniforme, le mouvement ne perturbe aucunement le vide. Un résultat tout à fait conforme à une idée bien établie en rapport avec la théorie de la relativité d'Einstein : le vide est un état invariant, il demeure inchangé que l'observateur soit immobile ou qu'il soit animé d'une vitesse constante.
Les choses se sont singulièrement compliquées avec la prise en compte de mouvements accélérés. Par exemple, en 1968, le célèbre Andrej Sakharov suggère que la gravitation pourrait être un effet des fluctuations du vide2. Dans la même veine, les Russes Yaakov Zel'dovich et Lev Pitaevskii montrent en 1971 que le vide est modifié par la présence d'une courbure de l'espace-temps c'est-à-dire d'un champ de gravitation, selon la relativité générale3. L'astrophysicien britannique Stephen Hawking aboutit ensuite à la conclusion qu'un trou noir émet du rayonnement, en diffusant les fluctuations du vide4.
En recherchant un modèle pour décrire le rayonnement d'un trou noir, le physicien canadien William Unruh prédit en 1976 que les fluctuations du vide, vues par un observateur en mouvement uniformément accéléré, apparaissent comme des fluctuations thermiques5. Autrement dit, pour un tel observateur, le vide équivaut à l'intérieur d'un four chauffé à une température absolue différente de 0. En revanche, à la même époque, l'Australien Paul Davies et l'Anglais Stephen Fulling calculent le rayonnement dû à un miroir en mouvement dans le vide et concluent qu'il n'y a pas de rayonnement si l'accélération est uniforme constante en intensité et en direction6.
Les résultats de Davies et Fulling ne semblent pas compatibles avec ceux d'Unruh ; cette contradiction suscite, aujourd'hui encore, des controverses parmi les physiciens. Quoi qu'il en soit, ce qui nous intéresse ici est le cas d'une accélération non constante du miroir, une situation réalisée par exemple par une vibration. Les prédictions sont au moins aussi surprenantes que celles qui avaient annoncé l'effet Casimir. Les calculs de Davies et Fulling montrent que des photons sont émis dans le vide. La question naturelle à ce stade est : d'où vient l'énergie rayonnée ? Il n'y a pas de mystère, et le principe de conservation de l'énergie n'est pas en cause. Puisque le vide ne peut pas fournir d'énergie, celle-ci doit provenir du mouvement mécanique. Le miroir, responsable du rayonnement, perd de l'énergie et se voit donc freiné. On peut ainsi dire que le vide s'oppose aux mouvements des objets à accélération non uniforme.
Le rayonnement dû au mouvement du miroir est néanmoins très faible et il faudrait pouvoir provoquer des changements d'accélération incroyablement violents pour créer des photons en nombre détectable. L'observation de cette émission ne semble pas réaliste. Or le phénomène soulève des questions délicates et importantes concernant la notion de mouvement relatif et absolu. Il semble impliquer que le vide « s'aperçoit » d'un mouvement non-uniformément accéléré, tandis qu'un mouvement à accélération uniforme passe inaperçu. Le vide définit ainsi des référentiels préférés, privilégiant certains mouvements par rapport à d'autres. Cela apparaît contraire à l'enseignement de la relativité d'Einstein, pour laquelle « tout mouvement est relatif ».

La détection de ce rayonnement induit par un mouvement non-uniformément accéléré est donc un objectif très intéressant, car elle renseignerait directement sur la relation entre le vide quantique et la théorie de la relativité générale. Comment rendre les chiffres expérimentaux plus réalistes ? On peut imaginer non pas un miroir unique, mais une cavité constituée de deux miroirs et oscillant dans le vide. L'intérêt provient des effets de résonance optique : si les ondes qui font des allers et retours entre les miroirs ont une longueur d'onde compatible avec la longueur de la cavité, elles peuvent être amplifiées, tandis que les autres longueurs d'onde seront atténuées.
De nombreux calculs de l'énergie accumulée à l'intérieur d'une cavité en mouvement non-uniformément accéléré ont été effectués dans le passé, notamment par Davies et Fulling. Ces calculs ont porté sur des miroirs parfaitement réfléchissants. La cavité qu'ils forment est alors un système complètement fermé, duquel les photons du rayonnement ne peuvent s'échapper on ne s'intéresse ici qu'aux photons se propageant d'un miroir à l'autre, c'est-à-dire à ceux qui interagissent effectivement avec la cavité. Or de tels miroirs idéaux n'existent pas dans la réalité. Par ailleurs, ils mènent à des difficultés conceptuelles dans la mesure où, en l'absence de toute perte, le nombre de photons accumulés dans la cavité deviendrait infiniment grand au cours du temps.

Détecter le rayonnement induit par l'oscillation d'une cavité : une expérience difficile mais pas utopique
Récemment, Marc-Thierry Jaekel, Serge Reynaud et moi-même avons effectué des calculs pour des miroirs réalistes, dont le pouvoir de transmission est petit mais non nul7. Cela permet en particulier d'évaluer de manière quantitative l'influence de la « finesse »* de la cavité. Par rapport au cas d'un miroir unique oscillant dans le vide, le flux de photons produit par le mouvement des miroirs est amplifié par un facteur de l'ordre de la finesse de la cavité. Et il n'y a pas seulement amplification. Quand la fréquence de l'oscillation des miroirs est un multiple entier de la fréquence de résonance de la cavité, le gros du rayonnement est concentré à certaines fréquences lumineuses, qui sont également des multiples de la fréquence de résonance.
Comment mettre en évidence le rayonnement induit par le mouvement de la cavité ? L'expérience serait diffi-cile mais pas impossible. On pourrait imaginer l'utilisation d'une cavité constituée de miroirs supraconducteurs, de façon à assurer un très haut pouvoir réfléchissant et une finesse de l'ordre de 109. Si l'on arrivait à faire vibrer cette cavité à la fréquence de 1 gigahertz avec une amplitude de 1 nanomètre Ñ des valeurs qui ne sont pas irréalistes Ñ, on obtiendrait un flux d'environ dix photons par seconde transmis à travers les miroirs. Un tel flux, bien que faible, est mesurable. On pourrait également envisager de faire passer, à travers la cavité, des atomes très excités atomes dits de Rydberg. Ces atomes sont extrêmement sensibles aux champs électromagnétiques ; en mesurant leur état d'excitation à la sortie de la cavité, on pourrait déduire le nombre de photons qui se trouvent à l'intérieur.
Des précautions seront indispensables. Ainsi, pour éviter toute perturbation due aux rayonnements engendrés par l'agitation thermique, les expériences devront être réalisées à une température très basse, de l'ordre de quelques dizaines de millikelvins. Les techniques nécessaires sont de nos jours bien maîtrisées. Ainsi, grâce à l'amplification par la résonance optique, la détection du rayonnement induit par le mouvement paraît pour la première fois possible. Reste à réaliser l'expérience...

Pour mieux comprendre sa portée conceptuelle, remarquons que dans une configuration où les deux miroirs oscillent, les vibrations peuvent être en phase, de sorte que la longueur de la cavité reste constante. Or même dans ce cas, on prédit un rayonnement. Cela peut se comprendre : au cours du mouvement des deux miroirs, le champ continue à se propager dans la cavité. La longueur de la cavité vue par le champ change donc périodiquement même si sa longueur géométrique reste constante. Néanmoins, l'émission de photons dans cette situation paraît paradoxale : la cavité se déplace dans le vide, et ce mouvement n'a aucune autre référence que le vide lui-même. Comme avec un seul miroir, le vide semble établir une distinction entre les mouvements non-uniformément accélérés et les mouvements à vitesse ou accélération uniformes.
Or selon la relativité générale d'Einstein, il n'existe aucun référentiel privilégié : les lois de la physique doivent être les mêmes quel que soit le mouvement de l'observateur. Les propriétés quantiques du vide ouvrent apparemment une brèche dans ce principe ; à travers elles, c'est la question fondamentale de la relation entre la physique quantique et la théorie de la relativité générale qui est poséei.
1 H.B.G. Casimir, Proc. K. Ned. Akad. Wet., 51 , 793, 1948.
2 A.D. Sakharov, Soviet Physics- Doklady, 12 , 1040, 1968.
3 Ya. B. Zel'dovich et L.P. Pitaevskii, Comm. Math. Phys., 23 , 185, 1971.
4 S.W. Hawking, Comm. Math. Phys., 43 , 199, 1975.
5 W.G. Unruh, Phys. Rev. D, 14 , 870, 1976.
6 S.A. Fulling et P.C.W. Davies, Proc. R. Soc. Lond., A 348 , 393, 1976.
7 A. Lambrecht, M.-T. Jaekel et S. Reynaud, Phys. Rev. Lett., 77 , 615, 1996.

NOTES
*FINESSE D'UNE CAVITÉ La finesse d'une cavité mesure le nombre moyen d'allers et retours que fait un photon avant de traverser l'un des miroirs. La finesse dépend bien sûr du pouvoir réfléchissant des deux miroirs.

 

DOCUMENT      larecherche        LIEN

 
 
 
initiation musicale toulon  

LES ÉTATS DE LA MATIÈRE

  initiation musicale

 

 

 

 

 

 

LA  MATIÈRE -


PLAN
            *         ÉTAT
            *         PHYSIQUE
            *         Introduction
            *         De la notion au concept
            *         La genèse de la classification périodique
            *         La description quantique
            *         La thermodynamique : « deus ex machina »
            *         Les outils de description
            *         Les différents types de liaisons chimiques
            *         L'organisation spatiale d'un grand nombre d'atomes : ordre et désordre
            *         L'organisation temporelle et les propriétés de transport
            *         Les états structurés à courte distance
            *         Les fluides
            *         Au point critique, la matière hésite
            *         Le gaz parfait, état de référence
            *         Longueurs caractéristiques dans les fluides
            *         Les solides désordonnés à l'échelle atomique
            *         Un état complexe : le plasma
            *         Les états ordonnés à grande distance
            *         Le magnétisme, un modèle pour la matière organisée
            *         L'ordre spatial d'un ensemble d'objets microscopiques en interaction, selon Ernest Ising
             *         L’évolution du modèle d’Ising
             *         L'ordre cristallin
             *         Les cristaux liquides
             *         Une exception : supraconductivité et superfluidité
             *         L'état supraconducteur
             *         La superfluidité
             *         Les défauts
             *         La matière hétérogène
             *         Une infinie variété d'états naturels et artificiels
             *         L'état vivant : structuration spontanée de systèmes ouverts ?

état
(latin status, de stare, se tenir)

Consulter aussi dans le dictionnaire : état
Cet article fait partie du dossier consacré à la matière.
Nature sous laquelle se présente un corps.

PHYSIQUE
Introduction

La matière est le premier concept physique, le plus concret, et apparemment le plus simple. Pourtant, au-delà de cette apparence, les hommes se sont toujours interrogés sur la nature de la matière, et les théories les plus évoluées n'ont fait que renforcer son caractère étrange.
Parmi les descriptions de la matière, la théorie quantique est, dans l'état actuel des connaissances, l'outil le plus rigoureux pour décrire les propriétés physiques et chimiques de la matière. Elle bouleverse cependant les images intuitives à travers lesquelles nous percevons la matière. Il n'est heureusement pas nécessaire de réconcilier l'intuition avec la théorie quantique pour parvenir à décrire les différents états de la matière.
En effet, si le formalisme quantique est indispensable pour rendre compte de la structure interne des atomes, une description très simple des atomes suffit en général pour représenter les états de la matière. Ces derniers sont déterminés par deux types de propriétés : la nature des états de liaison entre les atomes constituant le matériau considéré, et le type et le degré d'organisation spatiale et temporelle des atomes entre eux.

De la notion au concept
Historiquement, les Grecs furent les premiers à tenter une classification de la multitude des objets matériels qui se présentaient à eux. Ils fondèrent cette classification sur les états dans lesquels apparaît la matière (solide, liquide, gazeux) et sur certaines de ses propriétés. Pour Aristote, il existait quatre éléments essentiels : la terre, l'eau, l'air et le feu. Les Grecs se sont interrogés également sur la nature de la matière. Est-elle indéfiniment sécable en parties qui conservent les mêmes propriétés ? Ou bien est-elle constituée de petits grains insécables, littéralement des « atomes » ? DémocriteDémocrite d'Abdère défendra, quatre siècles avant notre ère, l'image d'une matière constituée d'atomes en mouvement : selon lui, la diversité des états et des formes de la matière est simplement due à la multiplicité des combinaisons possibles de position et de mouvement de ces atomes, particules matérielles immuables et indivisibles. Cette image mécaniste du monde – selon laquelle la matière a des propriétés essentiellement géométriques et mécaniques – marquera en profondeur les sciences physiques aux xixe et xxe s.
Aristote avait proposé une autre description de la matière, dans laquelle priment les formes qui lui sont conférées… par la nature, par Dieu, ou par l'homme : une table est, par exemple, de la matière bois, sculptée ; si l'on s'intéresse au bois, il est constitué de matière cellulaire agencée sous forme de fibres agrégées, plus ou moins desséchées, etc. La notion de matière recule ainsi à l'infini, tel un ultime noyau caché à l'intérieur de formes qui s'emboîteraient indéfiniment les unes dans les autres, comme des poupées russes.

La genèse de la classification périodique
L'influence de la conception aristotélicienne de la matière va perdurer pendant deux millénaires. Cependant, les alchimistes essaieront de découvrir la matière fondamentale, celle qui serait à l'origine de tout : ils réalisent ainsi les premiers essais d'analyse et de synthèse, et certaines propriétés chimiques et physiques de différents corps sont découvertes et classées.
Les savants du xviie et du xviiie s. reprennent cet héritage, en introduisant de nouvelles méthodes de travail ; ils entreprennent une étude systématique des propriétés chimiques des différents corps, qui conduit à la notion d'élément chimique.
Antoine Laurent de Lavoisier, par exemple, montre que l'eau est composée de deux éléments, l'hydrogène et l'oxygène, impossibles à obtenir eux-mêmes par une combinaison d'autres éléments : ce sont des éléments de base. Quelques dizaines d'éléments sont ainsi identifiés, dont les propriétés chimiques peuvent être classées par référence à leur affinité pour l'oxygène : éléments oxydables, éléments oxydants.
Dimitri Ivanovitch Mendeleïev propose, en 1869, une classification systématique des éléments qui repose sur une périodicité approximative de l'affinité de certains éléments pour l'oxygène en fonction de leur masse. Le succès de cette classification est immense, car elle prévoit l'existence d'éléments, alors inconnus, de masse déterminée et devant présenter un type précis de propriétés chimiques ; ces éléments sont découverts quelques années plus tard, avec les propriétés prévues par cette classification ! Le tableau de Mendeleïev est ensuite interprété comme le reflet de la structure électronique de chaque élément : passer d'un élément à l'élément suivant signifie ajouter un électron à l'atome.

La description quantique
En 1897, sir Joseph John Thomson découvre l'électron, et Ernest Rutherford démontre en 1907 qu'un atome est constitué d'un noyau qui contient deux types de particules, les neutrons – sans charge électrique – et les protons – porteurs d'une charge opposée à celle de l'électron. Ensuite, les travaux d'Einstein sur l'émission photoélectrique et ceux de Max Planck sur le rayonnement du corps noir mettent en évidence les propriétés quantiques, c'est-à-dire particulaires, de la lumière. C'est une première grande brèche dans la physique classique, qui repose notamment sur l'image ondulatoire de la lumière, description bien assise grâce au formalisme des équations de James Clerk Maxwell.
Les physiciens découvrent que la lumière peut se comporter, suivant la situation expérimentale, soit comme une onde, soit comme un ensemble de particules. En 1927, Clinton J. Davisson et Lester H. Germer démontrent expérimentalement l'existence d'interférences dans un faisceau d'électrons réfléchi par un cristal de nickel : le comportement ondulatoire des électrons est établi sans ambiguïté, la matière – comme la lumière – se révèle tantôt particulaire, tantôt ondulatoire, suivant la situation expérimentale. Depuis, des progrès considérables ont été effectués dans la compréhension de la structure de la matière à l'échelle infra-atomique, par exemple par l'introduction des quarks, particules fondamentales constitutives du proton et du neutron. Cependant, la description des propriétés « courantes » de la matière (mécaniques, optiques, électriques…) repose sur les propriétés du cortège électronique de l'atome, elles-mêmes établies par la théorie quantique au cours du premier quart du xxe s.

La thermodynamique : « deus ex machina »
Parallèlement à ce travail sur les propriétés chimiques des éléments débutent, au cours du xixe s., des études approfondies sur les états de la matière. L'état gazeux est particulièrement bien compris, car il est le plus simple ; il devient le fondement de la science thermodynamique, qui décrit les échanges énergétiques au sein de la matière. Les travaux de Sadi Carnot, puis ceux de Ludwig Boltzmann posent les bases théoriques de la thermodynamique, et permettent ainsi de décrire les changements d'état de la matière. Au xxe s., les contributions des physiciens Lev D. Landau, Ilya Prigogine et Kenneth Wilson affinent considérablement la description des changements d'état de la matière, nommés également transitions de phase. La vision d'Aristote d'une matière informe sculptée par la nature est ainsi relayée par le deuxième principe de la thermodynamique. Selon les physiciens, le premier des mécanismes qui sculptent la matière est la tendance de l'Univers à augmenter son désordre : son entropie.

Les outils de description
La théorie quantique est le premier outil de description de la matière ; très puissant, cet outil exige cependant l'utilisation d'un formalisme pesant. Il permet un calcul rigoureux des états fondamentaux, c'est-à-dire des états au repos de systèmes microscopiques – ne comportant que quelques atomes, voire quelques dizaines d'atomes –, mais au prix d'un travail laborieux sur des ordinateurs puissants. Une telle description est rapidement impraticable si l'on s'intéresse à l'évolution de ces systèmes dans le temps et dans l'espace sous l'effet d'un apport d'énergie lumineuse, électrique, mécanique, magnétique ou chimique. Il est actuellement impensable d'effectuer le calcul rigoureux de l'état de systèmes contenant une quantité d'atomes de l'ordre du nombre d'Avogadro, c'est-à-dire de taille macroscopique, de l'ordre du centimètre cube, à partir de la théorie quantique. Fort heureusement, les résultats décisifs peuvent le plus souvent être caractérisés principalement par quelques types de liaisons interatomiques : il est alors possible d'appliquer une description classique à l'ensemble des atomes, reliés entre eux par des « liaisons » que caractérisent quelques propriétés simples.

Les différents types de liaisons chimiques
Deux atomes qui s’attirent peuvent former une liaison chimique : ils gagnent, à être proches l'un de l'autre, une quantité d'énergie potentielle. On distingue ainsi les liaisons fortes, dont l'énergie associée est de l'ordre de 1 eV ou supérieure. Dans ce cas, la paire d'atomes en interaction fait apparaître des états électroniques complètement nouveaux pour les électrons ; ainsi, dans les liaisons ioniques, un ou plusieurs électrons d'un atome sont cédés à l'autre atome. Ce type de liaison se rencontre, par exemple, dans des sels tels que le chlorure de sodium (NaCl). Un autre type de liaison forte caractéristique est la liaison covalente, dans laquelle des électrons isolés de chacun des atomes s'associent pour former des paires d'électrons fortement liées. Les liaisons covalentes, contrairement aux liaisons ioniques, sont en général anisotropes, c'est-à-dire qu'elles tendent à s'orienter dans des directions particulières de l'espace.

Par opposition, les liaisons d'énergie inférieure ou de l'ordre de 0,1 eV sont nommées liaisons faibles. Les états électroniques des atomes isolés sont peu modifiés par l'interaction. C'est le cas des forces d'attraction dites de Van der Waals, que l'on rencontre dans le processus d'adhérence des molécules en longues chaînes, les polymères, utilisés par exemple pour les rubans adhésifs.

L'organisation spatiale d'un grand nombre d'atomes : ordre et désordre
La taille du nombre d'Avogadro étant considérable, la matière semble continue à notre échelle : le déplacement d'un seul atome n'est pas perceptible. Mais elle peut prendre des formes et des textures très diverses, suivant son état ; elle peut aussi présenter des orientations préférentielles, parallèlement à une direction ou à une surface. Ces états sont généralement caractérisés par une (ou des) longueur(s) associée(s) à des propriétés bien précises.
L'utilisation des méthodes statistiques (emploi de la mécanique statistique, ou physique statistique), lorsqu'une multitude d'atomes sont mis en jeu dans une quantité macroscopique de matière, permet d'obtenir des résultats remarquables.
Cette approche de l'organisation spatiale des atomes rejoint les résultats de la thermodynamique, fondée sur les deux principes suivants : selon le premier, l'énergie de l'Univers peut changer de forme à condition de se conserver globalement ; selon le second, le désordre doit être maximal dans un système physique isolé. La thermodynamique est, en quelque sorte, une économie de l'énergie dans les systèmes physiques. Elle permet en principe de déterminer quels sont les états d'équilibre d'un système en postulant que le désordre de l'Univers entier (considéré comme un système isolé) est maximal : une quantité de matière isolée du reste de l'Univers tend ainsi vers un maximum d'entropie. Si l'on tient compte des échanges d'énergie, d'espace ou de matière avec le reste de l'Univers, la conséquence des principes de la thermodynamique est alors, en général, que le système étudié s'ordonne à basse température, et qu'il adopte un état désordonné à haute température. Ces transitions ordre/désordre apparaissent dans des systèmes physiques très variés.

L'organisation temporelle et les propriétés de transport
Les mouvements des atomes au sein de la matière peuvent être complètement désordonnés au niveau microscopique et ne correspondre à aucun mouvement à notre échelle. C'est le cas des mouvements des atomes ou des molécules dans un gaz ou dans un liquide, c'est aussi le cas des vibrations des atomes dans un solide, qui sont ordonnées à courte distance mais en général désordonnées à l'échelle macroscopique. La facilité, ou la difficulté, à faire circuler un courant électrique ou un flux de matière dépend fortement des caractéristiques de l'état dans lequel se trouve la matière. Le diamant et le graphite sont, par exemple, deux formes cristallines du carbone pur : le diamant est un très bon isolant électrique, tandis que le graphite est conducteur.

Les états structurés à courte distance
La notion d'ordre est le fil directeur de cette exploration des états de la matière. Certains états ne présentent cependant pas d'organisation régulière au-delà de l'échelle microscopique. Ce sont les états gazeux et liquide, que l'on regroupe sous le nom d'état fluide. C'est aussi le cas des solides désordonnés, dits solides amorphes. Enfin, dans l'état de plasma, où la température dépasse le million de degrés, la matière présente un comportement fort complexe.

Les fluides
Une propriété macroscopique simple caractérise l'état fluide : un fluide s'écoule et se déforme sous l'effet de forces très faibles. De façon plus précise, on dit que les fluides ne présentent pas de résistance au cisaillement.
À l'échelle microscopique, les fluides – à l'exception des cristaux liquides – ne sont pas organisés sur de grandes distances. L'agitation des atomes entraîne un brassage permanent de leurs positions. Deux états fluides qui nous sont familiers, le gaz et le liquide, se distinguent par des propriétés différentes : les gaz sont mille fois moins denses que les liquides, et sont compressibles alors que les liquides le sont très peu.
À l'échelle atomique, la différence est également remarquable. Les molécules d'un gaz ont peu d'interactions sur la plus grande partie de leur trajectoire (99,9 %), elles sont isolées dans le vide, et les collisions n'affectent que 0,1 % de celles-ci. Le désordre, c'est-à-dire l'entropie, associé à leur position est important. Les molécules d'un liquide sont, au contraire, en interaction permanente avec leurs voisines, et bénéficient ainsi de l'abaissement de leur énergie potentielle dû à l'attraction mutuelle. L'entropie associée au désordre de leur position est cependant plus faible que dans un gaz ; mais, à la température d'ébullition, les états gazeux et liquide d'un même corps coexistent en équilibre. Dans un gaz, l'énergie cinétique des molécules est élevée, et l'entropie (Sg) est également plus élevée que celle du liquide (Sl), car le désordre des positions y est plus grand. Dans un liquide, l'énergie totale des molécules est plus faible que dans un gaz, et ce en raison de l'énergie d'attraction gagnée et cédée au reste de l'Univers ; cette énergie cédée au reste de l'Univers en augmente l'entropie. L'état gazeux et l'état liquide contribuent donc tous deux à augmenter l'entropie de l'Univers. Dans les conditions de l'ébullition, le produit du gain d'entropie ΔS = Sg – Sl associé au désordre des positions atomiques par la température absolue T est juste équilibré par l'énergie potentielle liée à l'attraction mutuelle de ses molécules au sein du liquide. Ce produit L = T . ΔS est la chaleur latente qu'il faut fournir au liquide pour le vaporiser.

Au point critique, la matière hésite
L'un des résultats de la physique classique est que ΔS doit être supérieur à la constante de Boltzmann (k) pour que l'état gazeux et l'état liquide soient clairement différents. Pour un corps donné, il n'existe plus de frontière nette entre l'état liquide et l'état gazeux au-delà d'une température dite critique, telle que ΔS est de l'ordre de k. L'état du fluide hypercritique, lorsque ΔS est inférieur à k, est toujours homogène quelles que soient la pression et la densité : il n'y a plus ni gaz ni liquide mais un seul fluide qui n'est ni l'un ni l'autre.
Au point critique, c'est-à-dire au voisinage de la température critique et de la pression critique, les propriétés du fluide sont particulièrement intéressantes. En effet, le gain entropique dans le gaz équilibre exactement le gain d'énergie potentielle dans le liquide, comme au point d'ébullition, mais au point critique ces quantités sont également du même ordre que l'énergie caractéristique kT reçue de l'agitation thermique. Il en résulte un comportement d'« hésitation » de la matière entre l'état liquide et l'état gazeux, qui se traduit par l'apparition de régions très étendues de type liquide alternées avec des régions de type gaz. Ces régions, nommées fluctuations critiques, peuvent s'étendre sur plusieurs microns et produisent le phénomène bien visible et spectaculaire d'opalescence critique.
La notion de fluide est toute relative : à une échelle ou à une autre, la matière est toujours susceptible de s'écouler. Ainsi, à l'échelle de la Terre et des temps géologiques, une partie du manteau terrestre (l'asthénosphère), située entre 70 et 100 km de profondeur, se comporte comme un fluide. Ce niveau « plastique » permet à la croûte terrestre et à la partie du manteau située au-dessous (cet ensemble constitue la lithosphère), dont le comportement est plus rigide, de se déplacer par l'intermédiaire de plaques. La dérive des continents, qui renouvelle complètement la géographie continentale tous les 200 millions d'années, n'est ainsi que le fait de courants de convection dans le manteau terrestre.

Le gaz parfait, état de référence
L'état gazeux occupe une place particulière parmi les différents états de la matière en raison des faibles interactions de ses molécules. Les physiciens ont élaboré un modèle simplifié qui sert de référence, le gaz parfait. Ce modèle est très efficace, bien qu'il soit intrinsèquement contradictoire! Il suppose en effet que les atomes du gaz parfait présentent simultanément deux propriétés :
– ils n'interagissent pratiquement pas, au sens où leurs interactions représentent une énergie négligeable par rapport à leur énergie cinétique ;
– ils interagissent fortement, au sens où l'on peut considérer le gaz comme étant au point d'équilibre à chaque instant.
Moyennant cette « pirouette conceptuelle », ce modèle constitue la base de la description thermodynamique de tous les états de la matière où l'énergie associée aux interactions est faible. Dans de nombreuses situations – celles des gaz réels et des solutions diluées –, la matière se comporte presque comme le prévoit le modèle du gaz parfait.

Longueurs caractéristiques dans les fluides
Dans un assemblage désordonné d'atomes de diamètre a, deux distances caractéristiques sont importantes.
Tout d'abord la distance moyenne d entre les atomes. Il est relativement facile de la relier au nombre n de molécules par unité de volume en exprimant que chaque atome occupe en moyenne un volume d3. Une unité de volume est donc remplie par n petits volumes d3, soit n   d3 = 1. La distance moyenne d varie ainsi comme la racine cubique de l'inverse de n.
Une seconde longueur, L, nommée libre parcours moyen, est la distance moyenne que parcourt un atome sans entrer en collision avec un autre atome. On schématise une collision par le fait que la distance entre les centres de deux atomes devient égale ou inférieure à 2a. Une telle collision se produit si, durant le mouvement d'un atome le long d'une direction, le centre d'un autre atome se trouve à l'intérieur du cylindre de rayon 2a axé selon cette direction. Dans un cylindre de longueur L, un seul centre d'atome est présent en moyenne. Le volume du cylindre est donc le volume moyen occupé par un atome : π (2a)2 . L = 1/n. La longueur L est donc inversement proportionnelle au nombre n d'atomes par unité de volume.
Dans un liquide, les atomes sont au contact les uns des autres dans un assemblage mouvant mais compact. Les trois longueurs a, d et L sont du même ordre, c'est-à-dire comprises entre 0,1 et 1 nm.
Dans un gaz à la pression atmosphérique, la masse volumique typique est de 1 kg/m3, soit mille fois moins que celle des liquides. Dans un liquide, le nombre d'atomes par centimètre cube est de l'ordre de 1022, tandis que dans un gaz il est de l'ordre de 10−9. La distance moyenne d entre deux atomes dans le gaz est typiquement de 3 nm, alors que le libre parcours moyen L est cent fois plus grand, soit environ 0,3 μm.

Les solides désordonnés à l'échelle atomique
Lorsqu'un fluide est suffisamment refroidi, il se condense sous forme solide. On connaît une seule exception à cette règle, l'hélium : il reste liquide même à très basse température. Suivant la vitesse de refroidissement, les atomes et molécules du liquide ont ou n'ont pas le temps de s'organiser au moment de la solidification. Si l'on opère très rapidement, le solide peut conserver un état désordonné, dit état amorphe, qui ressemble à un liquide figé. Cependant, certains mélanges d'atomes ne cristallisent pas, même s'ils sont refroidis lentement ; ils forment alors des verres, après être passés par un état pâteux lors du refroidissement. L'étude expérimentale et théorique des solides désordonnés est plus délicate que celle des solides cristallins. Le désordre apparent de ces structures cache en général une organisation plus fine et plus difficile à évaluer, qui entraîne des propriétés subtiles. Dans certaines régions volcaniques, on trouve des verres naturels (l'obsidienne), dont la formation est due à la trempe rapide d'un magma riche en silice arrivant en surface.
Un solide dans l'état amorphe présente des propriétés particulières, souvent bien différentes de celles du solide cristallin correspondant. La tenue mécanique d'un matériau amorphe est en général meilleure que celle des cristaux, et la conductivité électrique est bien différente. Ainsi, les propriétés supraconductrices du molybdène amorphe sont bien meilleures que celles du molybdène cristallin, ce qui signifie que le désordre dans la position des noyaux atomiques favorise, paradoxalement, l'apparition de l'ordre électronique lié à l'état supraconducteur. C'est un effet indirect de la suppression de l'ordre magnétique existant dans le molybdène cristallin, qui disparaît au profit de l'ordre supraconducteur dans le molybdène amorphe : l'état magnétique est plus stable que l'état supraconducteur, mais il est moins robuste face au désordre cristallin.
Une autre différence importante entre les solides cristallisés et les solides amorphes est la faible sensibilité de ces derniers aux impuretés et aux défauts. Le silicium utilisé pour réaliser les circuits électroniques des ordinateurs, par exemple, contient des impuretés volontairement ajoutées au cristal pour ajuster sa conductivité électrique : 1 atome de bore pour 100 millions d'atomes de silicium suffit à régler la conductivité du canal du transistor. En revanche, dans le silicium amorphe, il faut une proportion relativement importante d'impuretés pour modifier sensiblement la conductivité électrique. Cette propriété caractéristique des verres est exploitée lorsque l'on souhaite réaliser des composants électroniques d'une grande robustesse pouvant résister à un rayonnement ionisant.

Un état complexe : le plasma
Un plasma est un gaz d'atomes ou de molécules partiellement ou totalement ionisés. Des plasmas se produisent dans les étincelles ou dans les éclairs d'orage ; ils sont aussi la source de lumière dans les tubes au néon. En général, ils sont composés d'un mélange d'ions positifs et d'électrons, mais il existe aussi des plasmas d'ions négatifs. Les plasmas occupent une place d'exception dans les états de la matière : ils sont éloignés de l'équilibre thermodynamique, gardent longtemps la trace de leur états successifs et présentent des évolutions difficilement prévisibles. Leur comportement irrégulier et instable s'explique par les fortes interactions à longue distance des particules chargées.
Ce sont par ailleurs des états où la température de la matière peut dépasser plusieurs millions de degrés. Lorsque cette température est de l'ordre de 100 millions de degrés, l'état de plasma est sur le chemin de la fusion nucléaire. En effet, l'énergie cinétique des ions est suffisante pour que les noyaux interagissent fortement durant les collisions et induisent des réactions nucléaires, de fission ou de fusion. Si les gaz du plasma sont des atomes légers, il peut résulter de ces réactions que les noyaux produits par la fusion développent une grande énergie cinétique : ceux-ci peuvent alors échauffer le plasma, renforcer les réactions de fusion, et ainsi de suite. La réaction est alors divergente et peut produire une explosion : c'est le principe de la bombe H (à fusion d'hydrogène). Si cette réaction est contrôlée, la fusion nucléaire peut devenir une source d'énergie exploitable à grande échelle. Pour contrôler la production d'énergie, il faut connaître le comportement des plasmas à haute température et à forte densité. L'exploration de cet état de la matière depuis plus d’un demi-siècle a révélé une grande variété d'instabilités dans les plasmas à mesure que leur température augmente.
Il faut signaler l'étude récente des microplasmas constitués de quelques centaines à quelques milliers d'ions confinés par un champ électromagnétique. La température de tels plasmas peut être abaissée au voisinage du zéro absolu. Ces plasmas se comportent comme des solides ou comme des liquides, alors que la distance entre les ions est de plusieurs dizaines de microns, soit 100 000 fois plus que dans les solides ou liquides ordinaires. À la différence des plasmas, les microplasmas n'ont pour l'instant aucune autre application que l'étude de la matière.

Les états ordonnés à grande distance
Un solide est le plus souvent cristallisé, c'est-à-dire que ses atomes sont parfaitement rangés sur de grandes distances. Il n'y a pas de frontière nette entre ordre dit à courte distance et ordre dit à grande distance : l'un s'arrête à quelques distances atomiques, tandis que l'autre peut se propager sur des millions de distances atomiques. Selon la thermodynamique, le désordre tend à augmenter, et il semble étonnant que la matière s'ordonne spontanément dans certains cas. En fait, l'ordre, qui permet de diminuer l'énergie potentielle de la matière, s'installe à basse température, là où les bénéfices thermodynamiques de l'augmentation de l'entropie sont plus faibles. Les innombrables situations physiques où la matière s'ordonne sont définies par la géométrie de l'espace occupé par la matière et par le nombre de degrés de liberté de la quantité physique qui s'ordonne. Il est ainsi possible d'appliquer la même description, dite universelle, à des situations physiques aussi différentes que les aimants, les mélanges liquide-vapeur, les supraconducteurs ou les étoiles à neutrons.

Le magnétisme, un modèle pour la matière organisée
Les aimants, ou matériaux ferromagnétiques, perdent leur aimantation lorsqu'ils sont portés à une température supérieure à la température de Curie. Cette propriété, connue depuis la Renaissance, a été étudiée en détail par Pierre Curie dans sa thèse, en 1895. Dans la première moitié du xxe s., des physiciens comme Paul Langevin, Heike Kamerlingh Onnes, Pierre Weiss, Paul Ehrenfest, Louis Néel, Ernest Ising, Lars Onsager ou encore Lev Landau ont décrit les propriétés magnétiques de la matière afin de les relier à sa structure microscopique. Il s'agissait de décrire la façon dont l'aimantation varie en fonction de la température et du champ magnétique extérieur. L'étude de ces situations a débouché sur une description beaucoup plus générale des états ordonnés de la matière.

L'ordre spatial d'un ensemble d'objets microscopiques en interaction, selon Ernest Ising
Ernest Ising propose, en 1920, un modèle simple pour décrire les mécanismes microscopiques de l'aimantation d'un solide. Selon ce modèle, l'aimantation du solide est la somme vectorielle des aimantations locales dues aux spins des électrons. Les atomes constituant le solide sont situés aux nœuds d'un réseau cristallin de dimension d : sur une ligne d = 1, dans un plan d = 2, dans l'espace d = 3. Sur chacun des sites du réseau cristallin se trouve un spin qui se comporte comme un petit aimant, ou moment magnétique. Le calcul de l'aimantation est effectué dans le cadre de deux hypothèses.
Selon la première, les moments magnétiques sont tous identiques en module et s'orientent dans des directions cristallines privilégiées. Ising suppose que les moments magnétiques sont tous parallèles à une direction et que seul leur signe les différencie d'un site à l'autre, mais on peut aussi étudier les situations où les moments magnétiques ont des composantes dans deux ou trois directions. L'aimantation ou, plus généralement, une grandeur physique nommée paramètre d'ordre, qui permet de mesurer l'ordre, présente un nombre n de composantes (n = 1, 2 ou 3).
Selon la seconde hypothèse par le calcul de l'aimantation, deux moments magnétiques Si et Sj situés sur des sites voisins présentent une énergie d'interaction proportionnelle à leur produit Si . Sj. Il faut ensuite appliquer les principes de la thermodynamique pour calculer l'état d'équilibre d'un tel système en fonction de la température et du champ magnétique. On s'attend à ce que le diagramme de phase magnétique de ce système présente des propriétés universelles dépendant essentiellement des valeurs de d et de n. On peut ainsi associer à chaque système physique une « classe d'universalité » (d, n).

L’évolution du modèle d’Ising
Le modèle d’Ising, bien qu'il corresponde à une très grande simplification de la situation physique réelle, se révèle ardu à résoudre ; des solutions rigoureuses ne sont obtenues que dans des cas très simples. C'est ainsi que Lev Landau établit qu'il ne peut apparaître un ordre à grande distance sur un réseau à une seule dimension (d = 1). Lars Onsager calcule en 1944 l'aimantation du modèle d'Ising dans un plan (d = 2 et n = 1) au moyen d'une méthode mathématique complexe ; mais une approche générale n'est proposée qu'en 1972, par Kenneth Wilson, qui obtient le prix Nobel de physique en 1982 pour son travail sur la méthode dite du « groupe de renormalisation ». Il montre que le comportement de l'ordre est le même dans des systèmes aussi différents que les matériaux magnétiques, les mélanges liquide-gaz ou les cristaux liquides. C'est une confirmation remarquable de la justesse de l'approche proposée par Ising : les objets microscopiques peuvent être décrits de façon rudimentaire, car c'est la géométrie du système qui détermine seule les propriétés essentielles du diagramme de phase.

L'ordre cristallin
La plupart des corps purs adoptent un état cristallin à basse température. Les atomes sont disposés dans le cristal en un motif qui est répété périodiquement ; cette disposition parfaitement régulière détermine des propriétés électroniques, optiques et mécaniques bien précises. En raison de la périodicité des cristaux, il est possible de prévoir ces propriétés grâce aux outils théoriques de la physique des solides, mis en œuvre dès les années 1930. De nombreuses applications en électronique sont issues de ces travaux. Un domaine particulièrement notable est celui des semi-conducteurs : une page de notre civilisation est tournée avec la publication du principe du transistor à pointes par John Bardeen et Walter H. Brattain en 1948, qui reçoivent avec William B. Shockley le prix Nobel de physique en 1956 pour la réalisation, en 1951, du premier transistor à jonctions.
Les molécules peuvent également former des cristaux moléculaires en obéissant à des règles de compacité maximale. Cette possibilité de cristalliser permet de connaître la structure des molécules biologiques : c'est, par exemple, en étudiant aux rayons X des cristaux constitués de molécules d'ADN que James D. Watson et Francis C. Crick réussissent en 1953 à déterminer la structure en double hélice de ces longues chaînes qui portent le code génétique des êtres vivants.

Les cristaux liquides
Les cristaux liquides combinent certaines propriétés des liquides et certaines propriétés des solides cristallins : ce sont des liquides constitués de molécules organiques de forme particulière et qui peuvent adopter une orientation bien précise (les mousses de savon et certaines membranes cellulaires sont des cristaux liquides). L'orientation des molécules n'est pas aussi parfaite que dans un solide cristallin, mais elle suffit pour conférer au liquide des propriétés optiques utilisables pour les affichages.
Il existe une grande variété de familles de cristaux liquides. La famille des nématiques, constitués de molécules allongées en forme de bâtonnets, est généralement utilisée pour les écrans. Le principe d'affichage repose sur la possibilité de commander par une tension électrique le passage de l'état orienté polarisant la lumière à l'état désorganisé de liquide ordinaire non polarisant. Le prix Nobel a été attribué en 1991 au physicien Pierre-Gilles de Gennes pour ses travaux sur les cristaux liquides.

Une exception : supraconductivité et superfluidité
Une magnifique exception dans cette présentation des états ordonnés est constituée par les états superfluides : la supraconductivité et la superfluidité. Il s'agit là d'une des rares manifestations d'un effet quantique à l'échelle macroscopique.

L'état supraconducteur
Les propriétés des supraconducteurs sont spectaculaires : disparition totale de la résistance au passage du courant électrique, accompagnée par une expulsion du flux magnétique, et ce au-dessous d'une température critique qui dépend du matériau. Cette propriété n'est pas exceptionnelle : depuis la découverte en 1911 de la supraconductivité du mercure par Kamerlingh Onnes et Gilles Holst, des centaines de matériaux supraconducteurs ont été synthétisés. Mais elle heurte l'intuition des physiciens, car elle semble contraire au principe d'impossibilité du mouvement perpétuel : un courant installé dans un anneau supraconducteur peut s'y maintenir pendant des milliards d'années. Aucune description du mécanisme microscopique de la supraconductivité ne fut proposée avant qu'en 1956 John Bardeen, Leon N. Cooper et John Robert Schrieffer n'élaborent enfin une théorie de la supraconductivité (nommée théorie BCS), rapidement corroborée et adoptée par la communauté des physiciens.
Selon cette théorie, certains électrons forment des paires, les paires de Cooper, sous l'effet d'une force d'attraction, laquelle correspond dans le formalisme quantique à l'émission et à l'absorption par les électrons de vibrations des ions du réseau cristallin. Les paires d'électrons, contrairement aux électrons isolés, ont la faculté de participer collectivement à une onde quantique qui peut s'étendre sur des distances macroscopiques. Cette onde, qui peut transporter un courant électrique sans qu'il rencontre de résistance, est assez robuste ; elle résiste ainsi à la chaleur, tant que la température reste inférieure à la valeur critique ; elle résiste aussi au champ magnétique et aux défauts cristallins : des matériaux amorphes ou liquides peuvent être supraconducteurs.
La théorie BCS a entraîné de nombreux progrès théoriques et expérimentaux, mais l'état supraconducteur n'était observé qu'à très basse température. Dans les années 1970, le matériau supraconducteur présentant la température critique la plus haute (23 K) était le composé Nb3Ge. L'opinion générale des physiciens était alors que, pour des raisons fondamentales, la température critique de l'état supraconducteur ne pouvait probablement pas dépasser 30 K. En 1986, Georg Bednorz et Alexander Müller atteignent précisément cette température avec le composé LaBaCuO ; un an plus tard est synthétisé YBa2Cu3O7, qui atteint 92 K ; et, en 1988, Tl2Ba2Cu3O10, un matériau de la même famille des cuprates, avec une température critique de 125 K. Actuellement, il semble que la substitution du mercure dans ce composé permettrait d'atteindre 135 K, et que des cuprates supraconducteurs fabriqués couche atomique par couche atomique pourraient atteindre – et peut-être dépasser – une température critique de 250 K.

La superfluidité
L'hélium est le seul fluide qui ne se solidifie pas à basse température. L'hélium liquide présente alors la propriété étonnante de pouvoir s'écouler sans viscosité, donc sans le moindre frottement. La superfluidité, comme la supraconductivité, semble permettre un mouvement perpétuel « interdit » par la physique. Les deux phénomènes physiques sont décrits par le même mécanisme, qui s'applique cette fois aux noyaux d'hélium et non plus aux électrons. Les analogies sont ainsi nombreuses entre supraconducteurs et superfluides.

Les défauts
Les propriétés de la matière ordonnée sont souvent déterminées par les défauts de l'ordre, dont la grande variété interdit une présentation complète de leurs effets. Les trois cas suivants montrent les effets des impuretés dans les semi-conducteurs, des lignes de dislocation dans les solides et des parois dans les matériaux magnétiques. Nous avons déjà mentionné l'effet d'une très faible concentration d'impuretés (un atome étranger pour 100 millions d'atomes) sur la conductivité d'un semi-conducteur. Un atome étranger est un défaut ponctuel, mais on peut observer également des défauts sous forme de lignes ou de parois. Une ligne de dislocation est réalisée par l'interruption brutale d'un plan atomique dans un cristal ; grâce à la présence des dislocations, les cristaux de métal sont étonnamment malléables tant qu'ils n'ont pas été fortement déformés ; au contraire, après des déformations importantes, les dislocations sont enchevêtrées et ne peuvent plus se déplacer : on dit que le matériau est écroui. De même, l'aimantation macroscopique d'un métal comme le fer peut varier très facilement par le mouvement de parois qui séparent des domaines d'aimantations opposées ; une façon d'obtenir des aimants puissants et stables est d'agréger de petits grains magnétiques ne contenant qu'un seul domaine : ces matériaux sont les ferrites, couramment utilisées pour les fermetures de portes.
Cependant, les états de la matière étendue, homogène et en équilibre thermodynamique n'ont pas la diversité des états de la matière hors de ces conditions. La matière sous la forme d'objets de petite taille présente en effet des états différents de ceux de la matière étendue : par exemple, les quasi-cristaux à symétrie pentagonale ou bien les petits grains qui sont constitués d'un seul domaine magnétique. La matière peut aussi se présenter sous la forme de minces films, comme les bulles de savon, ou de fibres aux propriétés physiques très différentes de celles qu'elle possède lorsqu'elle se présente comme un volume.

La matière hétérogène
Une infinie variété d'états naturels et artificiels
Les combinaisons de ces formes (bulle, graine, fibre, lamelle…) dans des mélanges désordonnés ou bien des structures ordonnées conduisent à une infinie variété d'états de la matière hétérogène. L'hétérogénéité peut être liée à l'histoire du matériau (roches poreuses, boues, ciments, matériaux composites…) ou à un état d'équilibre (microémulsions, supraconducteurs contenant des fluxons magnétiques…). La structure géométrique des systèmes hétérogènes est aussi importante que la structure microscopique de l'ordre dans la matière homogène. Les systèmes granulaires présentent des comportements complexes particulièrement utiles à décrire pour prévoir le comportement des sols, éventuellement des avalanches. La matière fibrée, feuilletée, poreuse, les suspensions et les gels dans les liquides… illustrent des états et des comportements qui montrent l'imagination sans mesure de la nature, ou celle des hommes lorsque ces matériaux sont artificiels.

L'état vivant : structuration spontanée de systèmes ouverts ?
La matière se trouve souvent dans un état déterminé par son histoire ou par des conditions thermodynamiques hors de l'équilibre. La dynamique des changements d'état et les mécanismes de la croissance de l'ordre cristallin conduisent à des formations caractéristiques telles que des dendrites, des précipités, des agrégats de forme fractale, etc. Une autre caractéristique des états où la matière n'est pas au point d'équilibre est qu'elle s'organise et se structure spontanément. Dans les systèmes qui consomment de l'énergie (systèmes ouverts), le deuxième principe de la thermodynamique se traduit en effet par une tendance à réduire au minimum la production de désordre (entropie) par unité de temps, comme cela a été démontré de façon générale par Ilya Prigogine. Ce mécanisme est, entre autres, à l'origine de certaines formations nuageuses que l'on peut parfois observer (rouleaux régulièrement disposés parallèlement les uns aux autres). Il résout également le paradoxe – apparent – de la possibilité que présentent les systèmes vivants d'augmenter la complexité de leur organisation au cours du temps. Le paradoxe n'en est en fait pas un : les systèmes vivants ne sont pas contraints d'augmenter leur entropie, car ils ne sont pas isolés (si on isole un système vivant, il est bien connu qu'il finit par se dégrader irréversiblement). Les organismes vivants sont des systèmes ouverts, qui consomment de l'énergie en permanence. S'ils peuvent ainsi se structurer spontanément, d'après les résultats obtenus par Ilya Prigogine, il est difficile de savoir si ce mécanisme suffit à rendre compte de l'apparition de la vie sur notre planète, comme le suggèrent certains.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG

  initiation musicale

 

 

 VIDEO     canal U       LIEN 

 

 

 

CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG


Les Casseurs d'atomes, plus communément appelés Accélérateurs, sont les outils de tous les jours de nombreux physiciens des particules qui sondent la matière infiniment petite. Il y a de ça un peu plus d'un siècle, en 1894, Albert Michelson - qui étudia le comportement de la lumière - n'aurait jamais imaginé se retrouver devant un monde incroyablement plus complexe qu'il l'aurait cru lorsqu'il déclara que tout ce qu'il restait à faire en physique était de déterminer jusqu'à la sixième décimale les valeurs connues en ce temps là. Il ne se doutait pas que la structure entière de la physique serait complètement révolutionnée dans les 20 années qui allaient suivre. Les premiers accélérateurs sont apparus au début du 20e siècle et ce qui fut dévoilé au fil des années a permis de construire un modèle théorique cohérent, le Modèle Standard (MS). Les particules prédites par ce modèle furent presque toutes observées, les prédictions sur leur comportement furent testées, mais effectivement le plus important manquait et manque toujours. Le boson de Higgs, auquel est associé le champs de Higgs qui permet à toutes les particules d'acquérir une masse, reste encore aujourd'hui inobservé. Les expériences du futur nous permettront de vérifier si cette particule existe vraiment, et si d'autres modèles théoriques au-delà du MS sont viables i.e. la Super Symétrie, l'existence de dimensions supplémentaires. Il faut toutefois garder les pieds sur terre, ou peut-être pas, car la physique des particules aux accélérateurs, résumé sur l'échelle universelle du temps depuis le Big Bang jusqu' aujourd'hui, ne correspond qu'à un tout petit pas. Le terrain à défricher reste encore énorme, et les Casseurs d'atomes joueront un rôle clef dans la compréhension de cet Univers de l'infiniment petit. Je tenterai donc, dans cette présentation, de faire un survol historique de la théorie, des accélérateurs, des découvertes et de parler du futur de la physique aux accélérateurs.

Texte de la 529e conférence de l’Université de tous les savoirs donnée le 16 juin 2004
Les casseurs d’atomes Helenka Przysiezniak
Plus communément appelés accélérateurs de particules, les « casseurs d’atomes » permettent de sonder l’infiniment petit avec des particules extrêmement énergétiques. La relation de Broglie
E=h/λ
relie l’énergie E à la longueur d’onde λ d’une particule (reliée à sa taille). Plus l’énergie des
particules incidentes est grande, plus les distances sondées sont petites.
Dans la figure 1, l’ordonnée représente l’échelle de temps en secondes allant de 10-43 seconde après le Big Bang à 1017 secondes (1010 années), l’âge de notre Univers. L’abscisse représente la température : de 0 à 1032 Kelvin (0o Celsius = 273 Kelvin).
Figure 1
Référence: From Quarks to the Cosmos de Lederman et Schramm.
L’Univers aujourd’hui est très froid (~10 Kelvin), alors qu’au moment du Big Bang, sa température est de 1032 Kelvin, et il est infiniment petit (il mesure 10-33cm i.e. beaucoup plus petit qu’un noyau d’atome 10-13 cm) et lourd. La densité d’énergie atteinte dans les accélérateurs de particules aujourd’hui est semblable à celle dans l’Univers environ 10-13 secondes après le Big Bang (T~1016 Kelvin). Comment et pourquoi en sommes nous arrivés à construire de telles machines ?
1
Contexte historique
Au 19ème siècle, James Maxwell (1831-1879) unifie deux interactions fondamentales, l’électricité et le magnétisme, dans sa théorie de l’électromagnétisme. Les deux ne sont que des représentations différentes d’une seule et même interaction. Une conséquence de ses équations est que les ondes doivent de propager à 3x108 (300 000 000) m/s, ce qui est exactement la vitesse de la lumière.
En 1894 Albert Michelson (prix Nobel de physique 1907 pour ses travaux sur la lumière) déclare, en parlant de la physique, qu’il ne reste plus qu’à mesurer tout ce que l’on connaît déjà jusqu’à la sixième décimale. En fait, la structure entière de la physique sera complètement révolutionnée dans les 20 années qui suivent.
Un premier bouleversement survient en 1896, quand Henri Becquerel (Nobel 1903) découvre accidentellement la radioactivité. Il enveloppe de papier noir des plaques photographiques et les placent dans un tiroir avec des sels d’uranium. Quand il les développe, elles sont devenues toutes noires ! Il pense que l’uranium a émis un certain type de radiation. On comprend que cette nouvelle radioactivité est l’émission spontanée de trois types de radiations : les rayons gamma γ (photons), les particules alpha α chargées (noyau d’atome d’hélium), et les particules beta β (électrons).
Ernest Rutherford (1871-1937 ; Nobel 1908) découvre en 1888 que les particules alpha sont des atomes d’hélium sans leur électron. Les particules alpha sont éjectées des matériaux radioactifs à grande vitesse : 10 000 km/s. En 1910, il reconnaît que ces particules peuvent être utilisées pour sonder les atomes.
Dans ce qui devient le prototype de l’expérience de diffusion, Rutherford vise un faisceau de particules alpha sur une plaque très fine d’or (figure 2). Celle-ci est entourée d’écrans recouverts d’une fine couche de sulfate de zinc (ZnS). En traversant cette fine couche, la particule alpha perturbe les molécules de ZnS, et celles-ci émettent des photons de lumière. L’éclat est à peine visible à l’œil nu. L’expérience doit être répétée plusieurs fois pour se convaincre de la validité du résultat qui est saisissant : la plupart des particules α passent à travers l’or en subissant de petites déviations par rapport à leur direction initiale, mais quelques unes rebondissent vers l’arrière. La particule α rapide et massive doit rencontrer quelque chose d’encore plus massif. De simples calculs montrent qu’il doit y avoir un champ électrique énorme à l’intérieur de l’atome d’or. Un champ aussi puissant ne peut exister que si la charge positive est concentrée dans un
volume extrêmement petit. Rutherford évalue que la charge positive occupe moins de 10-14 du volume de l’atome. Il découvre ainsi le noyau atomique !
figure 2
Expérience de diffusion sur l’or de Rutherford. Référence: From Quarks to the Cosmos de Lederman et Schramm.
2
En 1911, quand Niels Bohr (1885-1962 ; Nobel 1922) arrive au laboratoire de Rutherford, l’atome est considéré comme étant constitué d’un cœur minuscule de charge positive exactement égale à la charge négative des électrons gravitant autour. Pourtant, on ne comprend pas comment les constituants de l’atome tiennent ensemble et pourquoi l’atome est un objet stable. L’électron ne peut rester immobile, sinon il plongerait dans le noyau ; pourtant s’il gravite autour du noyau comme la terre autour du soleil, selon les équations de l’électromagnétisme de Maxwell il émettrait de la radiation synchrotron perdant son énergie, et plongerait en spirale dans le noyau. Existe-il d’autres lois dans la nature? Niels Bohr propose une solution révolutionnaire: seules certaines orbites sont permises aux électrons d’un atome et leur énergie est quantifiée. La théorie quantique est née, aussi bouleversante soit-elle !Une autre théorie révolutionnaire est conçue par Albert Einstein (1879-1955 ; Nobel 1921). Selon lui, notre expérience de l’espace et du temps dépend de notre propre état de mouvement, d’où la relativité de toute observation. La seule exception concerne la vitesse de la lumière (=c), qui est constante en toutes circonstances. Einstein reconnaît d’ailleurs la constance de la vitesse de la lumière comme un fondement de sa théorie. Il étend ses idées à la force gravitationnelle, construisant sa fameuse théorie de la relativité générale.
Les découvertes de la radioactivité et du noyau atomique, ainsi que les révolutions théoriques de la mécanique quantique et de la relativité générale, redonnent vie à la physique et notamment à la physique des particules élémentaires.
Les particules élémentaires
Le terme particule élémentaire désigne une particule indivisible, fondamentale et constituante de la matière environnante. En cette fin du 19ème, début du 20ème siècle, on commence à observer de nouveaux phénomènes qui indiquent que nous n’avons pas encore tout compris. Plusieurs découvertes vont permettre par la suite de poser les bases du Modèle Standard des particules élémentaires tel qu’il est connu aujourd’hui.
Les rayons cosmiques
En août 1912, Victor Hess (1883-1963) envoie dans l’atmosphère un ballon rempli d’hydrogène équipé d’un compteur à ionisation. Cet appareil mesure l’intensité de l’ionisation qui résulte quand des particules énergétiques séparent les atomes normalement neutres d’un gaz en électrons libres et un résidu chargé. Les charges sont récupérées et la quantité de charges est une mesure d’intensité de l’ionisation. Hess observe d’abord un certain taux d’ionisation sur terre, puis plus le ballon s’élève, plus le taux augmente. Il effectue l’expérience de jour comme de nuit, et n’observe aucune différence entre les deux mesures. Il a donc la preuve que le soleil n’en est pas la source. Comme le taux d’ionisation augmente au fur et à mesure que le ballon s’élève, il sait aussi que cela ne peut provenir de la radioactivité naturelle de la terre. Hess argumente que les particules viennent de l’espace, mais 15 années s’écoulent avant que leur origine extra-terrestre ne soit acceptée : Hess a découvert les rayons cosmiques.
UnitésPour décrire ces nouveaux rayonnements et particules microscopiques, on utilise des unités adaptées. L‘énergie et la masse sont reliées par la relation E=mc2 où m = m0/[1-(v2/c2)]
1/2. L’unité utilisée pour l’énergie ou la masse d’une particule est l’électron-Volt, qui équivaut à l’énergie acquise par un électron lorsqu’il traverse la brèche entre deux électrodes connectées à une pile d’un Volt. En comparaison, un joule, l’énergie potentielle d’une masse de 1kg élevée à
une hauteur de 1m, équivaut à 6 X 1018 eV, et un kilowatt-heure, ce par quoi notre facture d’électricité est calculée, équivaut à 3,600,000 joules !
Aux accélérateurs, les particules peuvent atteindre des énergies de l’ordre du MeV (1 Méga-
électron-Volt = 106eV), du GeV (= 109eV) et même du TeV (= 1012eV). Toutefois, les particules 3
les plus énergétiques que l’on connaisse sont les rayons cosmiques, dont l’énergie peut atteindre
1020eV, c’est à dire l’énergie d’une balle de tennis au service, ou encore 100 millions de fois l’énergie des particules dans le plus grand des accélérateurs.
La découverte du neutrino
James Chadwick (1891-1974) est l’étudiant le plus productif de Rutherford. Son premier travail significatif concerne l’étude de l’émission des particules β (électrons) par des noyaux radioactifs.
Il veut savoir si les particules β ont toutes la même énergie ou si leur énergie a une certaine distribution. Chadwick utilise un type de compteur Geiger pour mesurer l’énergie et l’impulsion d’électrons émergeant du radium. Il voit que les électrons ont un spectre d’énergie continu, ce qui semble violer la loi de la conservation de l’énergie pour une désintégration en deux particules. Une particule invisible est elle émise? En 1929, l’expérience a déjà été répétée plusieurs fois et les résultats sont très gênants. Niels Bohr suggère que la loi de la conservation de l’énergie ne s’applique peut être pas aux noyaux !Wolfgang Ernst Pauli (1900-1958) est un brillant théoricien suisse qui fait sa réputation à l’âge de 19 ans lorsqu’il écrit une revue de la théorie de la relativité générale. Il est aussi l’auteur, à 25 ans, du fameux principe d’exclusion de Pauli qui explique la structure en orbites des électrons dans l’atome et le tableau périodique. Pauli ne peut accepter l’idée de Bohr de la non-conservation de l’énergie, et il propose en 1930 l’existence d’une nouvelle particule qui s’échappe, ne laissant aucune trace et ne déposant aucune énergie dans les détecteurs. Cette particule doit être neutre, très pénétrante, et de très petite masse. Pauli prédit ainsi le neutrino, comme Enrico Fermi devait la surnommer plus tard. Le neutrino n’est observé directement qu’en 1959. Néanmoins, cette évidence indirecte, déduite à partir des lois de conservation, mène à l’acceptation générale de l’idée du neutrino.
La découverte du neutron
Durant la période de la course effrénée mondiale pour comprendre la radioactivité, plusieurs substances radioactives sont découvertes et utilisées comme des sources de radiation. En 1928 en Allemagne, des particules α issues du polonium sont dirigées sur du béryllium. Une radiation pénétrante sans charge électrique est observée. Cette radiation est aussi observée à Paris. Tout ceci attire l’attention de Rutherford et de Chadwick. Ce dernier utilise un mélange de polonium et de béryllium, puis parvient à mesurer la masse de la nouvelle radiation, à peu près égale à la masse du proton. Il découvre ainsi le neutron.
La force forteCette dernière découverte permet de clarifier la structure du noyau atomique, qu’on conçoit rapidement comme composé de neutrons et de protons. La force qui lie les neutrons et protons entre eux doit être très forte et de très courte portée, sinon la force électrique poussant les charges positives hors du noyau feraient exploser le noyau. Graduellement, suite à plusieurs expériences, on parvient à décrire quantitativement cette nouvelle force qu’on appelle la force forte.
Le positron et l’antimatière
En 1927, un théoricien de Cambridge Paul Dirac tente de marier la relativité restreinte à la mécanique quantique. Il étudie l’électron sujet aux champs électromagnétiques. Avant Dirac, ces deux théories sont considérées comme des révolutions séparées. La mécanique quantique a été appliquée à des électrons circulant lentement dans l’atome. La relativité restreinte s’applique au contraire à des particules circulant à la vitesse de la lumière. Personne n’a encore réussi à rendre les équations du mouvement de l’électron en accord avec la relativité. Les efforts de Dirac mènent à une nouvelle équation gouvernant le comportement de l’électron en présence de champs. Une fois résolue, elle donne quelques prédictions saisissantes : l’électron a un spin (moment angulaire quantifié ; mesure de l’activité de rotation d’un objet) de 1⁄2 . L’autre
4
prédiction est complètement inattendue: une particule de charge positive doit exister, avec la même masse et le même spin que l’électron. Dirac prédit ainsi l’existence de l’antimatière. Il faut attendre 1933 pour que Carl Anderson découvre le positron expérimentalement.
La force faible
Enrico Fermi (1901-1954) est considéré comme un des génies du siècle. Il contribue autant à la physique expérimentale qu’à la physique théorique. Il donne une interprétation du principe d’exclusion de Pauli en termes de la nature statistique des électrons. Les particules de spin 1⁄2 sont surnommées fermions et se comportent selon la statistique de Fermi. Les particules de spin entier (photons de spin 1 ; particules α de spin 0), que l’on surnomme bosons, obéissent à un ensemble de règles complètement différentes : la statistique de Bose Einstein.
En 1931, Pauli suggère que la désintégration β (i.e. n → p+ + β) soit associée à l’émission d’électrons et de neutrinos (i.e. n → p+ + β → p+ + e- + ν). En mécanique quantique, les champs des forces classiques sont remplacés par des particules qui transportent l’influence des champs d’un point à l’autre, dans l’espace et le temps. Dans le cas du champ électromagnétique, le transmetteur est le photon, le quantum d’énergie de la lumière (Einstein). La force entre deux particules chargées survient à cause de l’échange de photons. En 1933, Fermi adopte cette idée pour la désintégration β. Il est le premier à formuler clairement l’existence d’une nouvelle force fondamentale. Certains appellent la nouvelle interaction de Fermi la force faible.
En 1933, Fermi décrit correctement les distributions en énergie des électrons émergeant des désintégrations β, mais prédit aussi les temps de vie et autres caractéristiques de noyaux radioactifs. L’interaction de Fermi est la composante clef du Modèle Standard des particules des années 1980.
Lemuonμetlepion π
En 1935, Hideki Yukawa prédit l’existence d’une particule ayant 200 fois la masse de l’électron qui expliquerait à la fois la force forte entre les protons et neutrons et la force faible induisant les désintégrations radioactives. Il pense que cette nouvelle particule serait le transmetteur de la force forte. Quand en 1937, Carl Anderson découvre le muon en détectant des rayons cosmiques, beaucoup pensent que c’est la particule prédite par Yukawa. Bruno Rossi en mesure le temps de
vie, 2 X 10-6s, ce qui est trop long pour être une particule de Yukawa forte, dont le temps de vie
doit être de l’ordre de 10-8s. De plus, une particule forte interagit fortement avec la matière qu’elle traverse, alors que le muon ne laisse presque aucune trace.
Le mystère de la particule de Yukawa est résolu avec la découverte du pion en 1947. Il a toutes les bonnes propriétés. Il est découvert accidentellement en détectant des rayons cosmiques avec des émulsions photographiques. Cecil Powell et Giuseppe Occhialini. apportent au pic du Midi dans les Pyrénées de toutes nouvelles émulsions fabriquées par Illford à leur demande. Le taux des rayons cosmiques est dix fois plus élevé à 3000m qu’au niveau de la mer. Les plaques révèlent un foisonnement d’activité jamais vue auparavant. Une particule d’une masse
intermédiaire de 140 MeV et d’un temps de vie fort de 10-8s est observée. Elle se désintègre en un muon et un neutrino. On l’appelle le pion.
En bref
Les découvertes et théories issues de cette période changent radicalement le paysage de la physique des particules élémentaires. Les interactions fondamentales se résument à quatre forces : gravitationnelle, électromagnétique, nucléaire faible et nucléaire forte. Le transmetteur de la force électromagnétique est le photon γ alors que celui de la force forte est relié d’une certaine manière au pion π. Quant aux deux autres forces (faible et gravitationnelle), aucun candidat transmetteur n’a encore été identifié. Les leptons sont définis comme des particules qui
5
ne subissent pas la force forte : on connaît l’électron e-, son anti-particule le positron e+, le muon μ± et le neutrino ν. Les fermions ont un spin demi-entier, et les bosons ont un spin entier. Finalement, à chaque particule est associée son anti-particule.
Pour sonder en profondeur les propriétés de la matière, on comprend qu’il faut utiliser des particules plus énergétiques et abondantes que celles produites dans la nature. Les accélérateurs de particules vont grandement contribuer à compléter le tableau des particules élémentaires tel que nous le connaissons aujourd’hui.
Les accélérateurs de particules
En 1919 Rutherford démontre que le noyau de nitrogène se désintègre si on le bombarde de particules α. Ceci marque le début d’un tout nouveau champ, la physique nucléaire, et d’un niveau d’observation plus profond. L’habileté des particules de grande vitesse à provoquer des désintégrations nucléaires mène à des tentatives de produire des particules encore plus énergétiques que celles émergeant naturellement de substances radioactives. Un appareil pouvant générer un faisceau intense de particules très énergétiques permettrait de sonder les propriétés de la matière.
Pour accélérer une particule chargée, un simple champ électrique suffit. L’accélération a lieu quand la particule en mouvement traverse une brèche où une tension électrique est appliquée : la particule est tirée vers l’avant par une charge de signe opposé, et poussée par derrière par une charge de même signe. Chaque fois qu’elle traverse la brèche, elle est accélérée par l’élan électrique qu’elle reçoit. En partant de ce principe très simple, les tout petits accélérateurs de particules des années 1920 (d’une dizaine de cm de diamètre ; figure 3), se muent en machines gigantesques dans les années 1980 (de plusieurs km de diamètre ; figure 4), des millions de fois l’énergie des particules α de Rutherford.
figure3
Chambre accélératrice de 28cm de diamètre du cyclotron construit en 1937 au Laboratoire Lawrence Berkeley. Référence: From Quarks to the Cosmos de Lederman et Schramm.
6
figure 4
Large Electron Positron Collider (LEP) de 27km de circonférence au CERN (France-Suisse) construit de 1983 à 1989. Référence : CERN.
Un accélérateur de particules est caractérisé par l’énergie E des particules circulant à des vitesses frôlant celle de la lumière, par l’intensité I, le nombre de particules passant en un point donné par seconde, et par la luminosité L, le nombre de particules passant en un point donné par seconde et par unité de surface.Il existe aujourd’hui deux conceptions différentes d’accélérateurs: ceux à cible fixe et ceux dits collisionneurs. Dans le premier cas, les particules sont accélérées et entrent en collision avec une cible fixe. Quelques particules vont frapper les atomes de la cible et vont, s’ils sont assez énergétiques, libérer un jet de neutrons, protons, et autres particules, toutes pouvant être identifiées correctement par des détecteurs placés adéquatement. En compilant les résultats de milliers voire de millions de telles collisions, on acquiert des connaissances sur la structure du noyau.
Dans le cas des collisionneurs, deux paquets de particules circulent en sens opposé. Chaque paquet est accéléré au maximum des possibilités de la machine, puis on les fait entrer en collision frontale. Le gain en énergie par rapport à une collision sur cible fixe est important. En effet, l’énergie dans le centre de masse Ecm, (en quelque sorte l’énergie utile) pour un proton de 1000 GeV qui entre en collision avec une cible fixe est de 42 GeV, alors que l’énergie dans le centre de masse pour deux faisceaux de protons de 1000 GeV qui entrent en collision l’un avec l’autre est de 2000 GeV !
Le tube cathodique et la découverte de l’électron
Le tout premier appareil ayant accéléré des particules est le tube cathodique. Le principe est le suivant : une tension est appliquée à un gaz raréfié en scellant des fils, appelés électrodes, aux deux bouts d’un tube en verre. L’électrode connectée à la source négative d’électricité est la cathode et le terminal positif est l’anode. Des décharges électriques luminescentes spectaculaires sont observées. Elles émanent de la cathode et foudroient le verre autour de l’anode, illuminant le verre. Les rayons des cathodes sont en fait des faisceaux d’électrons accélérés, découverts par J.J.Thomson (1856-1940) en 1896.
Accélérateur électrostatique
En 1932, John D.Cockroft et Ernest T.S.Watson réussissent pour la première fois à accélérer des protons jusqu’à 770 KeV (770⋅103eV) d’énergie, dans une machine électrostatique (champ électrique accélérateur) faisant usage d’une tension fixe et stable. La machine électrostatique la plus réussie est développée par Robert Van de Graaff en 1931 et atteint 1.5 MeV d’énergie.
Le cyclotronLa percée technologique donnant naissance aux accélérateurs modernes vient grâce à Ernest O.Lawrence (1901-1958) de Berkeley en Californie, aux environs de 1930. Il reçoit d’ailleurs le prix Nobel en 1957 pour la mise en application de ce tout nouveau principe d’accélération. En 1929, il tombe sur l’article d’un Norvégien autodidacte Rolf Wideroe. Celui- ci imagine à 21 ans un accélérateur atteignant 100 MeV d’énergie. L’idée est d’utiliser plus qu’une brèche accélératrice, ou d’utiliser la même brèche plusieurs fois.
Lawrence ajoute au concept de Wideroe l’idée de confiner le mouvement des particules accélérées avec un champ magnétique. Dans un champ vertical, une particule chargée en
7
mouvement horizontal trace un cercle et le temps du circuit est indépendant de la vitesse de la particule. Plus la vitesse augmente, plus le rayon de sa trajectoire circulaire augmente, et le parcours plus long compense exactement la vitesse plus élevée. Ainsi, une tension électrique oscillante (champ alternatif), de radio-fréquence (RF ; haute fréquence) exactement égale à la fréquence de rotation de la particule, donne l’élan dans la brèche. La tension radio fréquence est simplement une tension qui alterne entre tension positive et négative de manière synchrone avec le parcours circulaire de la particule. Chaque passage de la particule dans la brèche donne un nouvel élan à la particule. La particule gagne en énergie, et le rayon augmente, mais la période de l’orbite est constante.
Le premier modèle de Lawrence construit avec son étudiant Stanley Livingston a un aimant dont les pièces circulaires mesurent quelques cm de diamètre. Des protons y sont accélérés jusqu’à 80 KeV. Son deuxième modèle atteint 1.2 MeV et les particules produisent des désintégrations nucléaires. La tension de radio-fréquence n’est que de 1000 Volts, mais les protons effectuent plus de 1000 tours en effectuant des spirales de plus en plus grandes. Il appelle ses machines des cyclotrons (figure 5).
Figure 5
Schéma de cyclotron. Référence: From Quarks to the Cosmos de Lederman et Schramm
Focalisation
Lawrence a beaucoup de chance. Une condition connue sous le nom de focalisation (focusing) est nécessaire pour empêcher les particules de se disperser loin des orbites circulaires propres. Toute petite déviation d’un tir parfait augmente graduellement au cours des centaines de milliers de tours, donnant un faisceau de particules complètement dispersés dans le cyclotron. Mais, et voici la chance de Lawrence, la convergence nécessaire est naturellement donnée par le fait que le champ magnétique est plus faible vers l’extérieur de l’orbite, proche du bord de l’aimant. Une analyse mathématique par un autre jeune étudiant, R.R.Wilson, montre que cet affaiblissement du champ magnétique, plus tard connu sous le nom de gradient du champ magnétique, fournit une force qui rétablit les particules déviées sur l’orbite idéale.
Synchrocyclotron
8
Hans Bethe (1906-) se rend compte, en ce qui concerne le cyclotron de Lawrence, que quand la masse des particules accélérées augmente, tel que décrit dans la théorie de la relativité, la période de l’orbite change et la particule n’est plus synchronisée avec la radio-fréquence dans la brèche accélératrice. Ceci pose une limite supérieure sur l’énergie à laquelle les particules peuvent être accélérées dans un cyclotron. L’obstacle soulevé par Bethe donne lieu à une nouvelle invention, le synchrocyclotron, dans lequel la radio-fréquence varie pour tenir compte de l’augmentation de la masse. Après la deuxième guerre mondiale, des synchrocyclotrons de diverses énergies sont construits, et opèrent dans le domaine de quelques centaines de MeV, le plus puissant a 600 MeV. Il faut construire des aimants de plus en plus grands, de 60 à 500 cm de diamètre, en fer et pesant plusieurs milliers de tonnes. Ces aimants deviennent de plus en plus difficile à construire, et pour atteindre des énergies plus élevées, il faut imaginer une approche différente.
Synchrotron
La solution vient avec le synchrotron. Le rayon de l’orbite est maintenu constant, et le champ magnétique est augmenté en synchronisant avec le gain en impulsion. La radio-fréquence est variée aussi puisque les orbites sont complétées de plus en plus rapidement. Puisque l’orbite est fixe, un champ magnétique est requis seulement autour de l’orbite, nécessitant un volume d’aimant beaucoup plus petit. Les synchrotrons à protons et à électrons construits dans les années 1950 atteignent le GeV (109eV) et ainsi débute l’ère moderne des grands accélérateurs !
Focalisation forte
Dans les accélérateurs circulaires, les particules tournent des dizaines de millier de fois durant le cycle d’accélération. La stabilité des orbites est un facteur crucial. Toute petite déviation de la trajectoire, par exemple due à une collision avec un atome de gaz résiduel, augmenterait en taille avec chaque tour effectué et mènerait éventuellement à la perte de la particule, à moins que des forces convergentes soient utilisées. En 1952, une découverte sur la convergence magnétique est faite au laboratoire de BNL (Brookhaven National Laboratory). Stanley Livingston, Ernest Courant, Hartland Snyder et d’autres découvrent que si le champ magnétique est ajusté pour alternativement focaliser et dé-focaliser le faisceau (principe du gradient alternatif ; se dit alternating gradient en anglais), la stabilité des orbites augmente. L’effet net est une focalisation qu’ils surnommeront la focalisation forte. Les variations autour de l’orbite circulaire idéale sont ainsi minimisées, réduisant aussi l’ouverture requise des aimants, leur taille et leur coût. La focalisation et la dé-focalisation peut être induite en façonnant des aimants dipôles, ou grâce à une nouvelle invention de BNL, les aimants quadrupoles : deux pôles nord et deux pôles sud sont arrangés de manière à générer des forces perpendiculaires à la trajectoire, poussant les particules vers ou loin du centre de l’axe de mouvement. Un PS (Proton Synchrotron) de 25 GeV est construit au CERN en 1959, puis BNL construit le leur de 30 GeV en 1960 (AGS : Alternating Gradient Synchrotron ; figure 6).
Les deux plus grands synchrotrons à protons construits sont le SPS (Super PS) de 450 GeV du CERN et le PS de 1000 GeV de Fermilab, de 6.9km et 6.3km de circonférence respectivement, datant du milieu des années 1970.
9
figure 6
Schéma de l’AGS, le synchrotron à protons à Brookhaven National Laboratory. Référence: BNL.
Accélérateur linéaire
Les accélérateurs linéaires utilisent le même principe d’accélération que les synchrotrons, c’est à dire un champ électrique alternatif de haute fréquence (RF). Celui-ci est établi dans l’axe d’un long tube rectiligne. Des sources puissantes de haute fréquence n’apparaissent qu’après la Seconde Guerre mondiale. Dès le lendemain de la guerre, un accélérateur à protons de 32 MeV entre en service aux États Unis. L’accélérateur à protons de Los Alamos au Nouveau Mexique atteint 800 MeV d’énergie. Le plus grand accélérateur linéaire à électrons est construit à l’Université de Stanford en Californie, mesure 3km de long et atteint 30 GeV d’énergie!
Collisionneurs
Dans les années 1960, des anneaux de stockage sont conçus. Des paquets de particules (électrons et positrons ; protons et anti-protons) circulent autour d’un anneau magnétique en directions opposées. Les paquets se rencontrent à des endroits précis. Aux points de rencontre, deux particules entrent occasionnellement en collision, et une variété de particules sont créées: photons, pions, kaons, protons, anti-protons, etc... On appelle aussi ces anneaux de stockage des collisionneurs. La collision frontale entre deux paquets de particules permet d’atteindre des énergies dans le centre de masse plus élevées que si un seul faisceau entre en collision avec une cible fixe. Au fur et à mesure que la technique mûrit, la densité des paquets et les taux de collisions augmentent.
En bref
L’évolution des accélérateurs est spectaculaire. Tout commence avec Rutherford qui sonde l’atome d’or avec des particules α de 5 MeV (5⋅106eV). Cent années plus tard, des électrons d’énergie 10000 fois supérieure sont produits. Évidemment, les découvertes en physique des particules ponctuent, voire même motivent le développement des accélérateurs, et permettent de mettre en place le Modèle Standard des particules élémentaires.
La construction du Modèle Standard
Le tableau périodique des éléments est une liste ordonnée des atomes et ses mystérieuses régularités ne sont comprises que lorsque l’électron est découvert et la théorie quantique construite. Dans les années 80, l’organisation correspondante des particules de base est appelée le Modèle Standard des particules élémentaires.
Découverte du neutrino muonique
La première découverte majeure au synchrotron à protons de BNL, l’AGS, arrive avec l’expérience aux deux neutrinos, menée en 1961 par trois physiciens (prix Nobel 1988) Jack Steinberger, Leon Lederman et Melvin Schwartz. Ils cherchent à étudier la force faible, la seule qui affecte les neutrinos. Mais les neutrinos interagissent très peu avec la matière : un neutrino passant dans 100 millions de km d’acier a une chance sur deux d’être arrêté ou défléchi. À l’Université de Columbia (ville de New York), Schwartz suggère de créer des faisceaux de neutrinos énergétiques. Des protons de 15 GeV sont précipités sur une cible de béryllium, produisant ainsi des protons, neutrons, et pions. Ces derniers se désintègrent presque tout le temps en muon et neutrino. Toutes ces particules fuient vers l’avant dans la même direction que
10
le faisceau de protons incidents. Pour filtrer tout sauf les neutrinos, ils mettent un obstacle : une barrière d’acier d’une dizaine de mètres d’épaisseur. L’acier arrête presque toutes les particules, permettant aux neutrinos seulement de passer. Le résultat est le premier faisceau de neutrinos énergétiques ! Même si la probabilité d’interaction des neutrinos est extrêmement faible, il y en a tellement qu’ils arrivent à observer, en 8 mois de prises de données, 56 interactions dans leur détecteur de 10 tonnes.
Le neutrino de Pauli, né avec un électron, peut produire des électrons. La désintégration d’un pion en un muon et un neutrino signifie que ce neutrino peut produire des muons dans une collision. Mais ces deux neutrinos sont ils identiques? S’ils l’avaient été, l’expérience aurait produit autant d’électrons que de muons. Cependant, seuls des muons sont observés. Ainsi, le groupe de Columbia découvre un nouveau type de neutrino, ce qui aura des conséquences profondes sur la structure du Modèle Standard.
Avant l’expérience aux deux neutrinos, le seul neutrino connu est celui produit par les désintégrations β- →e- ν. Les neutrinos produits par l’expérience de Columbia sont qualifiés de muoniques. On suggère, de manière pas tout à fait sérieuse, qu’ils diffèrent de saveur : l’un est de saveur électronique, l’autre de saveur muonique. Ce concept de saveur devient finalement crucial pour l’élaboration du Modèle Standard. Dans cette généralisation, nous verrons qu’il existe 6 saveurs de quarks (i.e. composants des protons, neutrons, pions), et de manière équivalente, 6 saveurs de leptons (particules qui n’interagissent pas fortement). À chaque membre expérimentalement distinct d’une classe de particules (quarks ou leptons) est assigné une saveur. L’idée simple de saveur est reconnue dans le cas des deux saveurs de neutrinos, où la distinction est subtile.
Gell-Mann et la classification des nouvelles particules
Au début des années 1960, une centaine de nouvelles particules ont été découvertes dans les accélérateurs. La plupart sont des produits de la force forte, et on les surnomme des hadrons, du mot grec pour « fort ». En 1962, un faisceau de kaons chargés négativement (nouvelles particules de type fortes découvertes) est produit par l’AGS. Le but de l’expérience est de tester une hypothèse de Murray Gell-Mann (1929-), de CalTech (California Institute of Technology). Gell-Mann parvient à organiser tous les hadrons connus par groupe de 8 (octets) ou de 10 (décuplets) particules. Il surnomme son modèle L’Octuple Sentier en se référant au terme bouddhiste. Dans le cadre d’un de ces décuplets, neuf particules ont été découvertes et ordonnées. La symétrie de la théorie exige l’existence d’une 10ème particule, qu’on surnomme Ω- (oméga moins). Le but de l’expérience est de découvrir cette particule. En décembre 1963, l’expérience prend ses premières données, elles sont défrichées, et le comble, l’Ω- est découvert ! Cette organisation des nouvelles particules nous rappelle celle du tableau périodique. Celui-ci n’acquiert tout son sens que lorsqu’on comprend la sous-structure de l’atome : un noyau composé de protons et de neutrons entouré d’électrons. Existe-t-il donc une physique sous- jacente à cette nouvelle classification? Gell-Mann et George Zwieg (de CalTech) proposent de manière indépendante une structure fondamentale et sous-jacente : un triplet de particules qui composeraient tous les hadrons. Bien que ce triplet explique les octets et décuplets, il a des conséquences plutôt farfelues : les particules du triplet ont des charges fractionnelles de celle de l’électron, et transportent 1/3 des propriétés du neutron ou du proton. Gell-Mann surnomme ces nouvelles particules des quarks, ce qui signifie absurdité en argot allemand.
Il existerait trois saveurs de quarks : up (u), down (d), strange (s) de charges +2/3, -1/3 et –1/3 respectivement. Les baryons (i.e. neutron, proton) sont constitués de trois quarks (i.e. neutron : udd, proton : uud, Ω-=sss). Les mésons, qui ont d’abord été proposés comme des particules d’échange pour tenir les nucléons ensemble, sont constitués d’un quark et d’un anti-quark (i.e. pions π- = anti-u d, π+ = u anti-d, π0 = (u anti-u + d anti-d)/√2, kaons K- = anti-u s, K+ = u anti- s).
11
Il est important de noter que l’hypothèse de l’existence des quarks est motivée par l’existence des baryons et mésons qui s’arrangent parfaitement selon l’octuple sentier. Le fait que les trois saveurs de quarks reproduisent bien tous les baryons et mésons connus est un point très favorable à leur hypothèse, mais il manque l’évidence expérimentale.
La vérification expérimentale des quarks, une longue histoire
On imagine alors des expériences pour sonder le proton, en quelque sorte des versions modernes de l’expérience de Rutherford. En 1953, lors d’expériences de diffusion d’électrons d’environ 100 MeV sur des protons (atomes d’hydrogène), Robert Hofstadter (Nobel 1961) comprend que la charge est distribuée uniformément à l’intérieur du proton.
En 1961, l’accélérateur linéaire de Stanford (SLAC) est construit. Il mesure 3km de long, et accélère des électrons jusqu’à 20 GeV. Dans les années 1960 et 1970, on y reprend des expériences de diffusion d’électrons sur des protons, et les résultats sont époustouflants et apparemment contradictoires avec les résultats de Hofstadter. On ne comprend plus rien ! Kendall et Friedman (Nobel avec Taylor en 1990) mènent une des expériences (1968). Deux théoriciens jouent un rôle déterminant dans l’interprétation des résultats : James Bjorken (de SLAC) et Richard Feynman (de CalTech ; Nobel 1965). Ils suggèrent que le proton est composé d’objets ponctuels qui diffusent les électrons. Feynman appelle ces objets des partons (partie du proton). Pourquoi pas des quarks? Feynman est convaincu que quelque chose d’autre accompagne les quarks dans le proton.
Quarks et gluons
L’intuition de Feynman lui donne raison. De nouvelles expériences au milieu des années 1970 confirment les résultats observés à SLAC et confirment l’idée de l’existence d’autres constituants que l’on nomme les gluons, dont le rôle est de transmettre la force forte. Au bout de quelques années, il devient clair que les partons de Feynman sont effectivement les quarks et gluons.
Les quarks ont une nature ponctuelle et sont apparemment indivisibles. Un nombre infini de quarks peuvent entrer dans un volume limité, tel un trou noir. Cette nature ponctuelle est en fait essentielle pour expliquer les densités incroyablement élevées au début de l’Univers.
De plus, les quarks semblent confinés dans les protons et neutrons. La notion de confinement est inventée par des théoriciens après que les expérimentateurs aient échoué de nombreuses fois à observer des quarks de charge 1/3. Les quarks sont donc confinés en permanence dans les hadrons et il n’est pas plus possible d’isoler un quark que de séparer les pôles nord et sud d’un aimant. Le confinement nous apprend quelque chose de fondamental sur la force entre les quarks.
Charge de couleur
En 1971 à l’anneau de stockage ADONE, dans des collisions d’électrons avec des positrons, le taux de production des pions est trois fois plus élevé que prédit. Un nouveau nombre quantique est proposé, analogue à la charge électrique pour la force électromagnétique, mais dans ce cas ci relié à la force forte. La nouvelle charge doit avoir trois états, et Gell-Mann choisit la couleur pour les définir : rouge, bleu, vert. Chaque couleur de quark peut produire un pion, ce qui multiplie par un facteur trois la probabilité qu’un pion soit produit !
L’idée de la couleur est acceptée assez rapidement, puisqu’elle donne une réponse à plusieurs questions restées en suspens i.e. pourquoi les quarks ne se combinent qu’en mésons (quark et anti-quark) et baryons (trois quarks) ? En fait, ils se combinent en objets incolores, de manière à annuler la charge de couleur: soit couleur-anti-couleur, soit les trois couleurs en un même objet. La force forte entre les quarks est donc liée à la propriété de couleur, d’où l’appellation de la théorie de la Chromo Dynamique Quantique.
Révolution de Novembre 1974
12
Une véritable révolution se trame au collisionneur électron-positron SPEAR (Stanford Positron Electron Asymmetric Ring). Burton Richter joue un rôle important dans la construction de la machine entre 1970 et 1973. Les résultats obtenus à des énergies de centre de masse entre 2.5 et 4 GeV sont intrigants.
Les 9 et 10 novembre, le groupe décide de répéter des mesures pour explorer une anomalie vers 3.1 GeV (2 X 1.55 GeV). L’énergie de SPEAR peut être ajustée très précisément, et un balayage par pas de 0.001 GeV est effectué. Ce qui est observé est impressionnant. Le nombre de collisions augmente d’un facteur 100 entre 3.100 GeV et 3.105 GeV, puis chute très rapidement à 3.120 GeV. On se rend vite compte que plusieurs expériences par le passé ont raté de peu ce pic de masse lourd mais étroit, qui correspondrait à une nouvelle particule.
En mécanique quantique, un pic étroit correspond à une particule dont le temps de vie est long, alors qu’une particule massive possède en général un temps de vie court. Mais la nouvelle particule découverte, qu’on surnomme psi ψ, est massive (trois fois la masse du proton), ce qui semble incompatible avec le fait qu’elle possède un pic étroit. La seule explication plausible est que cette nouvelle particule soit constituée de nouvelle matière, attribuée à un nouveau type de quark, élégamment surnommé le quark charmé.
Une partie de l’excitation vient du fait que la découverte a lieu simultanément et indépendamment à deux endroits : à SLAC (côte ouest des États Unis) par l’équipe de Burt Richter, et à BNL (côte est des États Unis) par Sam Ting et son équipe qui étudient les paires électron-positron sortantes dans les collisions protons sur noyaux. Finalement on surnomme la particule J/ψ (J dans certains dialectes chinois se prononce ting ; les traces laissées dans le détecteur à SLAC ont la forme d’un ψ).
En fait, le quark charmé est prédit par J.D.Bjorken et Sheldon Glashow dès 1964, puis par Glashow, lliopoulos et Maiani en 1970. A ce moment là, un triplet de quarks est connu (u,d,s), mais l’expérience aux deux neutrinos a établi un schéma à quatre leptons: (e,νe) et (μ,νμ). La découverte du quark charmé établit le schéma correspondant pour les quarks : (u,d) et (c,s), et aussi la forme du Modèle Standard. Ainsi, les quarks et leptons viennent par paires : la première, et plus légère, génération constituée de (u,d) et (e,νe), puis la deuxième génération plus lourde
(c,s) et (μ,νμ). La troisième génération ne se fera pas attendre.
Le Modèle Standard à trois générationsOn observe les premiers candidats à la troisième génération peu de temps après. En 1976, à SPEAR, le cinquième lepton, le tau τ, est découvert. Puis en 1978 à Fermilab, dans un accélérateur à protons de 400 GeV, du même type que l’expérience de Ting, un cinquième quark est découvert. Trois pics rapprochés sont observés. C’est l’upsilon Υ à 10 GeV et ses états excités. Ce sont des états liés d’un quark et d’un anti- quark que l’on surnomme beauté. Le sixième quark, le top, n’est observé qu’en 1994, et le sixième lepton, le neutrino associé au τ, en 2000.
Ainsi, à la fin des années 1970, le Modèle Standard des particules à trois générations, avec ses paires de quarks et de leptons, est presque complètement dévoilé, puisque cinq (sur six) des quarks et des leptons ont été observés. Combien de générations y aura-t-il encore ? Il faut attendre les résultats du LEP (Large Electron Positron Collider) et du SLC (Stanford Linear Collider) dans les années 1990 pour avoir la réponse.
Gluons et la force forte
Feynman a vu juste en suggérant la notion de partons qui englobe les quarks et cet autre chose que sont les gluons. L’évidence directe pour les gluons vient en 1978, à l’anneau de stockage d’électrons et de positrons PETRA de 30 GeV, au laboratoire de DESY (Deutsches Elektron Synkrotron) à Hambourg.
Les interactions dues aux forces fondamentales ont lieu via des échanges de particules de spin entier qu’on surnomme les bosons. La particule d’échange de la force électromagnétique est le
13
photon (la lumière) et celle de la force forte est le gluon. Les gluons et les photons sont des bosons de spin 1 et ont une masse nulle. Les gluons diffèrent des photons par le fait qu’ils transportent la charge forte de couleur, alors que le photon a une charge électrique nulle. C’est ce qui explique que la force entre les quarks augmente au fur et à mesure qu’on les sépare : la densité de gluons, et donc de charges fortes, augmente, avec pour conséquence une augmentation de l’intensité de la force forte, ce qui provoque une augmentation de la densité de gluons ! Les gluons viennent en 8 saveurs qui diffèrent par la charge de couleur transportée : chaque gluon est caractérisé par une couleur et une anti-couleur.
L’unification électrofaible
De 1916 (fin de ses travaux sur la Relativité Générale) jusqu’à sa mort en 1955, Einstein fut obsédé par l’idée d’une théorie des champs unifiée, en vain. Il faut attendre la théorie électrofaible de Sheldon Glashow (1961), Abdus Salam (1968) et Steven Weinberg (1967), qui leur valut un prix Nobel en 1979, dans laquelle deux des quatre forces fondamentales sont unifiées : les interactions électromagnétique et nucléaire faible.
La force électromagnétique et la force nucléaire faible semblent à première vue assez dissemblables. La première a une portée infinie alors que la seconde a une portée si courte qu’elle n’agit pas en dehors du noyau atomique. Celle-ci interagit avec tous les fermions (quarks et les leptons) de spin 1⁄2. Elle peut convertir une saveur de quark en une autre, et peut donc transformer des neutrons en protons, ou vice versa. Elle est responsable des désintégrations nucléaires associées à la radioactivité (i.e. désintégration β).
Alors que les photons et les gluons (tous les deux des bosons de spin 1) sont les transmetteurs de la force électromagnétique et de la force nucléaire forte respectivement, qui sont au juste les transmetteurs de la force nucléaire faible ? La réponse vient en 1967 quand Weinberg et Salam reprennent un concept développé plus tôt par Glashow et l’appliquent aux interactions faible et électromagnétique. Les deux forces sont une seule et même interaction, qui diffèrent par le fait que le boson transmetteur de la force électromagnétique (le photon) a une masse nulle alors que celui de la force faible est massif.
La théorie d’unification électrofaible prédit l’existence de bosons transmetteurs chargés et neutre, les W± et le Z0 respectivement, ayant des masses de l’ordre de 100 fois la masse du
proton. Le photon (γ) est le transmetteur neutre associé à l’interaction électromagnétique. Quand une interaction implique un changement de charge, on dit qu’il y a un courant chargé, et quand la charge est conservée, un courant neutre. Les courants associés au boson neutre massif (Z0) tout comme les bosons W± n’ont encore jamais été observés.
Gargamelle et la découverte des courants neutres
En 1972 au CERN, un événement historique est capturé par Gargamelle, une grande chambre à bulles remplie de fréon. Elle détecte le processus suivant : νμ e- → νμ e-, qui ne peut avoir lieu que par l’intermédiaire d’un Z0 (les neutrinos n’interagissent que par la force faible) et est donc la première preuve de l’existence des courants neutres faibles.
Gargamelle est initialement conçue pour la détection des neutrinos. Une chambre à bulles contient un liquide sous pression qui révèle les traces de particules chargées comme des traînées de petites bulles quand la pression est réduite. Les neutrinos n’ont pas de charge et ne laissent pas de traces, mais le but est de les voir en rendant visible toute particule chargée mise en mouvement par l’interaction de neutrinos dans le liquide. Comme les neutrinos interagissent très rarement, la chambre doit être la plus grande possible et fonctionner avec un liquide très dense i.e. le fréon, dans lequel les neutrinos ont le plus de chance d’interagir. Gargamelle mesure
finalement 4.8m de long et 1.85m de large, constitue un volume de 12 m3, et contient 18 tonnes de fréon. Le faisceau de neutrinos provient du PS (Proton Synchrotron) du CERN.
14
Le SPS (Super Proton Synchrotron) du CERN et la découverte du W
À la fin des années 1970, le CERN lance le projet de convertir un synchrotron de 400 GeV en un anneau de stockage pouvant accélérer, stocker et faire entrer en collision des faisceaux de protons et d’anti-protons. Ce projet est motivé par Carlo Rubbia, impressionné par les ISR (Intersecting Storage Rings au CERN ; construit en 1971 ; 31 GeV par faisceau) où des protons entrent en collision avec des protons. Il est aussi stimulé par l’idée de découvrir le boson W prédit par la théorie électrofaible. Un accélérateur suffisamment puissant doit être construit. Un faisceau de protons de 400 GeV sur cible fixe ne suffit pas pour produire le W dont la masse est prédite aux environs de 100 GeV.
Les problèmes techniques sont formidables. Il faut produire des anti-protons (considérés il y a peu comme des particules exotiques !) en nombre sans précédent, les injecter dans le complexe accélérateur, les accélérer soigneusement, et tout cela en même temps que les protons. Les faisceaux ont finalement 260 GeV d’énergie, ce qui est suffisant pour produire une nouvelle particule massive de 100 GeV. Il ne faut que quatre années à Carlo Rubbia, Simon Van der Meer et leur équipe pour construire le nouvel accélérateur !
En 1983, les premiers W± et Z0 sont observés ! Les expériences UA1 et UA2 (Underground Area 1 et 2) mesurent la masse des bosons, respectivement 83 GeV et 92 GeV, en accord avec les prédictions de la théorie électrofaible. Une année plus tard, Rubbia et Van der Meer se partagent le prix Nobel.
Récapitulatif
figure 7
Au fil des découvertes effectuées aux accélérateurs de particules, le Modèle Standard se met en place. Les particules élémentaires qui le composent sont résumées dans les tableaux ci-dessus (figure 7), tout comme les quantités (masse, charge électrique) qui les définissent. Le Modèle n’est toutefois pas encore complet. Il manque même quelque chose de fondamental, qui concerne l’origine de la masse.
15
Le boson de Higgs et l’origine de la masse
Quel mécanisme, dans la théorie électrofaible, génère la masse des bosons W± et Z0 ? Pourquoi le photon n’acquiert pas de masse ? Les masses des fermions sont-elles reliées à ce mécanisme ? Pourquoi les masses des quarks sont elles si différentes les unes des autres ? Pour tenter de répondre à ces questions, on doit introduire la notion de symétrie, et de sa brisure, dans la théorie électrofaible.

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google