ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG

  initiation musicale

 

 

 VIDEO     canal U       LIEN 

 

 

 

CASSEURS D'ATOMES : UN PAS DE PLUS VERS LE BIG BANG


Les Casseurs d'atomes, plus communément appelés Accélérateurs, sont les outils de tous les jours de nombreux physiciens des particules qui sondent la matière infiniment petite. Il y a de ça un peu plus d'un siècle, en 1894, Albert Michelson - qui étudia le comportement de la lumière - n'aurait jamais imaginé se retrouver devant un monde incroyablement plus complexe qu'il l'aurait cru lorsqu'il déclara que tout ce qu'il restait à faire en physique était de déterminer jusqu'à la sixième décimale les valeurs connues en ce temps là. Il ne se doutait pas que la structure entière de la physique serait complètement révolutionnée dans les 20 années qui allaient suivre. Les premiers accélérateurs sont apparus au début du 20e siècle et ce qui fut dévoilé au fil des années a permis de construire un modèle théorique cohérent, le Modèle Standard (MS). Les particules prédites par ce modèle furent presque toutes observées, les prédictions sur leur comportement furent testées, mais effectivement le plus important manquait et manque toujours. Le boson de Higgs, auquel est associé le champs de Higgs qui permet à toutes les particules d'acquérir une masse, reste encore aujourd'hui inobservé. Les expériences du futur nous permettront de vérifier si cette particule existe vraiment, et si d'autres modèles théoriques au-delà du MS sont viables i.e. la Super Symétrie, l'existence de dimensions supplémentaires. Il faut toutefois garder les pieds sur terre, ou peut-être pas, car la physique des particules aux accélérateurs, résumé sur l'échelle universelle du temps depuis le Big Bang jusqu' aujourd'hui, ne correspond qu'à un tout petit pas. Le terrain à défricher reste encore énorme, et les Casseurs d'atomes joueront un rôle clef dans la compréhension de cet Univers de l'infiniment petit. Je tenterai donc, dans cette présentation, de faire un survol historique de la théorie, des accélérateurs, des découvertes et de parler du futur de la physique aux accélérateurs.

Texte de la 529e conférence de l’Université de tous les savoirs donnée le 16 juin 2004
Les casseurs d’atomes Helenka Przysiezniak
Plus communément appelés accélérateurs de particules, les « casseurs d’atomes » permettent de sonder l’infiniment petit avec des particules extrêmement énergétiques. La relation de Broglie
E=h/λ
relie l’énergie E à la longueur d’onde λ d’une particule (reliée à sa taille). Plus l’énergie des
particules incidentes est grande, plus les distances sondées sont petites.
Dans la figure 1, l’ordonnée représente l’échelle de temps en secondes allant de 10-43 seconde après le Big Bang à 1017 secondes (1010 années), l’âge de notre Univers. L’abscisse représente la température : de 0 à 1032 Kelvin (0o Celsius = 273 Kelvin).
Figure 1
Référence: From Quarks to the Cosmos de Lederman et Schramm.
L’Univers aujourd’hui est très froid (~10 Kelvin), alors qu’au moment du Big Bang, sa température est de 1032 Kelvin, et il est infiniment petit (il mesure 10-33cm i.e. beaucoup plus petit qu’un noyau d’atome 10-13 cm) et lourd. La densité d’énergie atteinte dans les accélérateurs de particules aujourd’hui est semblable à celle dans l’Univers environ 10-13 secondes après le Big Bang (T~1016 Kelvin). Comment et pourquoi en sommes nous arrivés à construire de telles machines ?
1
Contexte historique
Au 19ème siècle, James Maxwell (1831-1879) unifie deux interactions fondamentales, l’électricité et le magnétisme, dans sa théorie de l’électromagnétisme. Les deux ne sont que des représentations différentes d’une seule et même interaction. Une conséquence de ses équations est que les ondes doivent de propager à 3x108 (300 000 000) m/s, ce qui est exactement la vitesse de la lumière.
En 1894 Albert Michelson (prix Nobel de physique 1907 pour ses travaux sur la lumière) déclare, en parlant de la physique, qu’il ne reste plus qu’à mesurer tout ce que l’on connaît déjà jusqu’à la sixième décimale. En fait, la structure entière de la physique sera complètement révolutionnée dans les 20 années qui suivent.
Un premier bouleversement survient en 1896, quand Henri Becquerel (Nobel 1903) découvre accidentellement la radioactivité. Il enveloppe de papier noir des plaques photographiques et les placent dans un tiroir avec des sels d’uranium. Quand il les développe, elles sont devenues toutes noires ! Il pense que l’uranium a émis un certain type de radiation. On comprend que cette nouvelle radioactivité est l’émission spontanée de trois types de radiations : les rayons gamma γ (photons), les particules alpha α chargées (noyau d’atome d’hélium), et les particules beta β (électrons).
Ernest Rutherford (1871-1937 ; Nobel 1908) découvre en 1888 que les particules alpha sont des atomes d’hélium sans leur électron. Les particules alpha sont éjectées des matériaux radioactifs à grande vitesse : 10 000 km/s. En 1910, il reconnaît que ces particules peuvent être utilisées pour sonder les atomes.
Dans ce qui devient le prototype de l’expérience de diffusion, Rutherford vise un faisceau de particules alpha sur une plaque très fine d’or (figure 2). Celle-ci est entourée d’écrans recouverts d’une fine couche de sulfate de zinc (ZnS). En traversant cette fine couche, la particule alpha perturbe les molécules de ZnS, et celles-ci émettent des photons de lumière. L’éclat est à peine visible à l’œil nu. L’expérience doit être répétée plusieurs fois pour se convaincre de la validité du résultat qui est saisissant : la plupart des particules α passent à travers l’or en subissant de petites déviations par rapport à leur direction initiale, mais quelques unes rebondissent vers l’arrière. La particule α rapide et massive doit rencontrer quelque chose d’encore plus massif. De simples calculs montrent qu’il doit y avoir un champ électrique énorme à l’intérieur de l’atome d’or. Un champ aussi puissant ne peut exister que si la charge positive est concentrée dans un
volume extrêmement petit. Rutherford évalue que la charge positive occupe moins de 10-14 du volume de l’atome. Il découvre ainsi le noyau atomique !
figure 2
Expérience de diffusion sur l’or de Rutherford. Référence: From Quarks to the Cosmos de Lederman et Schramm.
2
En 1911, quand Niels Bohr (1885-1962 ; Nobel 1922) arrive au laboratoire de Rutherford, l’atome est considéré comme étant constitué d’un cœur minuscule de charge positive exactement égale à la charge négative des électrons gravitant autour. Pourtant, on ne comprend pas comment les constituants de l’atome tiennent ensemble et pourquoi l’atome est un objet stable. L’électron ne peut rester immobile, sinon il plongerait dans le noyau ; pourtant s’il gravite autour du noyau comme la terre autour du soleil, selon les équations de l’électromagnétisme de Maxwell il émettrait de la radiation synchrotron perdant son énergie, et plongerait en spirale dans le noyau. Existe-il d’autres lois dans la nature? Niels Bohr propose une solution révolutionnaire: seules certaines orbites sont permises aux électrons d’un atome et leur énergie est quantifiée. La théorie quantique est née, aussi bouleversante soit-elle !Une autre théorie révolutionnaire est conçue par Albert Einstein (1879-1955 ; Nobel 1921). Selon lui, notre expérience de l’espace et du temps dépend de notre propre état de mouvement, d’où la relativité de toute observation. La seule exception concerne la vitesse de la lumière (=c), qui est constante en toutes circonstances. Einstein reconnaît d’ailleurs la constance de la vitesse de la lumière comme un fondement de sa théorie. Il étend ses idées à la force gravitationnelle, construisant sa fameuse théorie de la relativité générale.
Les découvertes de la radioactivité et du noyau atomique, ainsi que les révolutions théoriques de la mécanique quantique et de la relativité générale, redonnent vie à la physique et notamment à la physique des particules élémentaires.
Les particules élémentaires
Le terme particule élémentaire désigne une particule indivisible, fondamentale et constituante de la matière environnante. En cette fin du 19ème, début du 20ème siècle, on commence à observer de nouveaux phénomènes qui indiquent que nous n’avons pas encore tout compris. Plusieurs découvertes vont permettre par la suite de poser les bases du Modèle Standard des particules élémentaires tel qu’il est connu aujourd’hui.
Les rayons cosmiques
En août 1912, Victor Hess (1883-1963) envoie dans l’atmosphère un ballon rempli d’hydrogène équipé d’un compteur à ionisation. Cet appareil mesure l’intensité de l’ionisation qui résulte quand des particules énergétiques séparent les atomes normalement neutres d’un gaz en électrons libres et un résidu chargé. Les charges sont récupérées et la quantité de charges est une mesure d’intensité de l’ionisation. Hess observe d’abord un certain taux d’ionisation sur terre, puis plus le ballon s’élève, plus le taux augmente. Il effectue l’expérience de jour comme de nuit, et n’observe aucune différence entre les deux mesures. Il a donc la preuve que le soleil n’en est pas la source. Comme le taux d’ionisation augmente au fur et à mesure que le ballon s’élève, il sait aussi que cela ne peut provenir de la radioactivité naturelle de la terre. Hess argumente que les particules viennent de l’espace, mais 15 années s’écoulent avant que leur origine extra-terrestre ne soit acceptée : Hess a découvert les rayons cosmiques.
UnitésPour décrire ces nouveaux rayonnements et particules microscopiques, on utilise des unités adaptées. L‘énergie et la masse sont reliées par la relation E=mc2 où m = m0/[1-(v2/c2)]
1/2. L’unité utilisée pour l’énergie ou la masse d’une particule est l’électron-Volt, qui équivaut à l’énergie acquise par un électron lorsqu’il traverse la brèche entre deux électrodes connectées à une pile d’un Volt. En comparaison, un joule, l’énergie potentielle d’une masse de 1kg élevée à
une hauteur de 1m, équivaut à 6 X 1018 eV, et un kilowatt-heure, ce par quoi notre facture d’électricité est calculée, équivaut à 3,600,000 joules !
Aux accélérateurs, les particules peuvent atteindre des énergies de l’ordre du MeV (1 Méga-
électron-Volt = 106eV), du GeV (= 109eV) et même du TeV (= 1012eV). Toutefois, les particules 3
les plus énergétiques que l’on connaisse sont les rayons cosmiques, dont l’énergie peut atteindre
1020eV, c’est à dire l’énergie d’une balle de tennis au service, ou encore 100 millions de fois l’énergie des particules dans le plus grand des accélérateurs.
La découverte du neutrino
James Chadwick (1891-1974) est l’étudiant le plus productif de Rutherford. Son premier travail significatif concerne l’étude de l’émission des particules β (électrons) par des noyaux radioactifs.
Il veut savoir si les particules β ont toutes la même énergie ou si leur énergie a une certaine distribution. Chadwick utilise un type de compteur Geiger pour mesurer l’énergie et l’impulsion d’électrons émergeant du radium. Il voit que les électrons ont un spectre d’énergie continu, ce qui semble violer la loi de la conservation de l’énergie pour une désintégration en deux particules. Une particule invisible est elle émise? En 1929, l’expérience a déjà été répétée plusieurs fois et les résultats sont très gênants. Niels Bohr suggère que la loi de la conservation de l’énergie ne s’applique peut être pas aux noyaux !Wolfgang Ernst Pauli (1900-1958) est un brillant théoricien suisse qui fait sa réputation à l’âge de 19 ans lorsqu’il écrit une revue de la théorie de la relativité générale. Il est aussi l’auteur, à 25 ans, du fameux principe d’exclusion de Pauli qui explique la structure en orbites des électrons dans l’atome et le tableau périodique. Pauli ne peut accepter l’idée de Bohr de la non-conservation de l’énergie, et il propose en 1930 l’existence d’une nouvelle particule qui s’échappe, ne laissant aucune trace et ne déposant aucune énergie dans les détecteurs. Cette particule doit être neutre, très pénétrante, et de très petite masse. Pauli prédit ainsi le neutrino, comme Enrico Fermi devait la surnommer plus tard. Le neutrino n’est observé directement qu’en 1959. Néanmoins, cette évidence indirecte, déduite à partir des lois de conservation, mène à l’acceptation générale de l’idée du neutrino.
La découverte du neutron
Durant la période de la course effrénée mondiale pour comprendre la radioactivité, plusieurs substances radioactives sont découvertes et utilisées comme des sources de radiation. En 1928 en Allemagne, des particules α issues du polonium sont dirigées sur du béryllium. Une radiation pénétrante sans charge électrique est observée. Cette radiation est aussi observée à Paris. Tout ceci attire l’attention de Rutherford et de Chadwick. Ce dernier utilise un mélange de polonium et de béryllium, puis parvient à mesurer la masse de la nouvelle radiation, à peu près égale à la masse du proton. Il découvre ainsi le neutron.
La force forteCette dernière découverte permet de clarifier la structure du noyau atomique, qu’on conçoit rapidement comme composé de neutrons et de protons. La force qui lie les neutrons et protons entre eux doit être très forte et de très courte portée, sinon la force électrique poussant les charges positives hors du noyau feraient exploser le noyau. Graduellement, suite à plusieurs expériences, on parvient à décrire quantitativement cette nouvelle force qu’on appelle la force forte.
Le positron et l’antimatière
En 1927, un théoricien de Cambridge Paul Dirac tente de marier la relativité restreinte à la mécanique quantique. Il étudie l’électron sujet aux champs électromagnétiques. Avant Dirac, ces deux théories sont considérées comme des révolutions séparées. La mécanique quantique a été appliquée à des électrons circulant lentement dans l’atome. La relativité restreinte s’applique au contraire à des particules circulant à la vitesse de la lumière. Personne n’a encore réussi à rendre les équations du mouvement de l’électron en accord avec la relativité. Les efforts de Dirac mènent à une nouvelle équation gouvernant le comportement de l’électron en présence de champs. Une fois résolue, elle donne quelques prédictions saisissantes : l’électron a un spin (moment angulaire quantifié ; mesure de l’activité de rotation d’un objet) de 1⁄2 . L’autre
4
prédiction est complètement inattendue: une particule de charge positive doit exister, avec la même masse et le même spin que l’électron. Dirac prédit ainsi l’existence de l’antimatière. Il faut attendre 1933 pour que Carl Anderson découvre le positron expérimentalement.
La force faible
Enrico Fermi (1901-1954) est considéré comme un des génies du siècle. Il contribue autant à la physique expérimentale qu’à la physique théorique. Il donne une interprétation du principe d’exclusion de Pauli en termes de la nature statistique des électrons. Les particules de spin 1⁄2 sont surnommées fermions et se comportent selon la statistique de Fermi. Les particules de spin entier (photons de spin 1 ; particules α de spin 0), que l’on surnomme bosons, obéissent à un ensemble de règles complètement différentes : la statistique de Bose Einstein.
En 1931, Pauli suggère que la désintégration β (i.e. n → p+ + β) soit associée à l’émission d’électrons et de neutrinos (i.e. n → p+ + β → p+ + e- + ν). En mécanique quantique, les champs des forces classiques sont remplacés par des particules qui transportent l’influence des champs d’un point à l’autre, dans l’espace et le temps. Dans le cas du champ électromagnétique, le transmetteur est le photon, le quantum d’énergie de la lumière (Einstein). La force entre deux particules chargées survient à cause de l’échange de photons. En 1933, Fermi adopte cette idée pour la désintégration β. Il est le premier à formuler clairement l’existence d’une nouvelle force fondamentale. Certains appellent la nouvelle interaction de Fermi la force faible.
En 1933, Fermi décrit correctement les distributions en énergie des électrons émergeant des désintégrations β, mais prédit aussi les temps de vie et autres caractéristiques de noyaux radioactifs. L’interaction de Fermi est la composante clef du Modèle Standard des particules des années 1980.
Lemuonμetlepion π
En 1935, Hideki Yukawa prédit l’existence d’une particule ayant 200 fois la masse de l’électron qui expliquerait à la fois la force forte entre les protons et neutrons et la force faible induisant les désintégrations radioactives. Il pense que cette nouvelle particule serait le transmetteur de la force forte. Quand en 1937, Carl Anderson découvre le muon en détectant des rayons cosmiques, beaucoup pensent que c’est la particule prédite par Yukawa. Bruno Rossi en mesure le temps de
vie, 2 X 10-6s, ce qui est trop long pour être une particule de Yukawa forte, dont le temps de vie
doit être de l’ordre de 10-8s. De plus, une particule forte interagit fortement avec la matière qu’elle traverse, alors que le muon ne laisse presque aucune trace.
Le mystère de la particule de Yukawa est résolu avec la découverte du pion en 1947. Il a toutes les bonnes propriétés. Il est découvert accidentellement en détectant des rayons cosmiques avec des émulsions photographiques. Cecil Powell et Giuseppe Occhialini. apportent au pic du Midi dans les Pyrénées de toutes nouvelles émulsions fabriquées par Illford à leur demande. Le taux des rayons cosmiques est dix fois plus élevé à 3000m qu’au niveau de la mer. Les plaques révèlent un foisonnement d’activité jamais vue auparavant. Une particule d’une masse
intermédiaire de 140 MeV et d’un temps de vie fort de 10-8s est observée. Elle se désintègre en un muon et un neutrino. On l’appelle le pion.
En bref
Les découvertes et théories issues de cette période changent radicalement le paysage de la physique des particules élémentaires. Les interactions fondamentales se résument à quatre forces : gravitationnelle, électromagnétique, nucléaire faible et nucléaire forte. Le transmetteur de la force électromagnétique est le photon γ alors que celui de la force forte est relié d’une certaine manière au pion π. Quant aux deux autres forces (faible et gravitationnelle), aucun candidat transmetteur n’a encore été identifié. Les leptons sont définis comme des particules qui
5
ne subissent pas la force forte : on connaît l’électron e-, son anti-particule le positron e+, le muon μ± et le neutrino ν. Les fermions ont un spin demi-entier, et les bosons ont un spin entier. Finalement, à chaque particule est associée son anti-particule.
Pour sonder en profondeur les propriétés de la matière, on comprend qu’il faut utiliser des particules plus énergétiques et abondantes que celles produites dans la nature. Les accélérateurs de particules vont grandement contribuer à compléter le tableau des particules élémentaires tel que nous le connaissons aujourd’hui.
Les accélérateurs de particules
En 1919 Rutherford démontre que le noyau de nitrogène se désintègre si on le bombarde de particules α. Ceci marque le début d’un tout nouveau champ, la physique nucléaire, et d’un niveau d’observation plus profond. L’habileté des particules de grande vitesse à provoquer des désintégrations nucléaires mène à des tentatives de produire des particules encore plus énergétiques que celles émergeant naturellement de substances radioactives. Un appareil pouvant générer un faisceau intense de particules très énergétiques permettrait de sonder les propriétés de la matière.
Pour accélérer une particule chargée, un simple champ électrique suffit. L’accélération a lieu quand la particule en mouvement traverse une brèche où une tension électrique est appliquée : la particule est tirée vers l’avant par une charge de signe opposé, et poussée par derrière par une charge de même signe. Chaque fois qu’elle traverse la brèche, elle est accélérée par l’élan électrique qu’elle reçoit. En partant de ce principe très simple, les tout petits accélérateurs de particules des années 1920 (d’une dizaine de cm de diamètre ; figure 3), se muent en machines gigantesques dans les années 1980 (de plusieurs km de diamètre ; figure 4), des millions de fois l’énergie des particules α de Rutherford.
figure3
Chambre accélératrice de 28cm de diamètre du cyclotron construit en 1937 au Laboratoire Lawrence Berkeley. Référence: From Quarks to the Cosmos de Lederman et Schramm.
6
figure 4
Large Electron Positron Collider (LEP) de 27km de circonférence au CERN (France-Suisse) construit de 1983 à 1989. Référence : CERN.
Un accélérateur de particules est caractérisé par l’énergie E des particules circulant à des vitesses frôlant celle de la lumière, par l’intensité I, le nombre de particules passant en un point donné par seconde, et par la luminosité L, le nombre de particules passant en un point donné par seconde et par unité de surface.Il existe aujourd’hui deux conceptions différentes d’accélérateurs: ceux à cible fixe et ceux dits collisionneurs. Dans le premier cas, les particules sont accélérées et entrent en collision avec une cible fixe. Quelques particules vont frapper les atomes de la cible et vont, s’ils sont assez énergétiques, libérer un jet de neutrons, protons, et autres particules, toutes pouvant être identifiées correctement par des détecteurs placés adéquatement. En compilant les résultats de milliers voire de millions de telles collisions, on acquiert des connaissances sur la structure du noyau.
Dans le cas des collisionneurs, deux paquets de particules circulent en sens opposé. Chaque paquet est accéléré au maximum des possibilités de la machine, puis on les fait entrer en collision frontale. Le gain en énergie par rapport à une collision sur cible fixe est important. En effet, l’énergie dans le centre de masse Ecm, (en quelque sorte l’énergie utile) pour un proton de 1000 GeV qui entre en collision avec une cible fixe est de 42 GeV, alors que l’énergie dans le centre de masse pour deux faisceaux de protons de 1000 GeV qui entrent en collision l’un avec l’autre est de 2000 GeV !
Le tube cathodique et la découverte de l’électron
Le tout premier appareil ayant accéléré des particules est le tube cathodique. Le principe est le suivant : une tension est appliquée à un gaz raréfié en scellant des fils, appelés électrodes, aux deux bouts d’un tube en verre. L’électrode connectée à la source négative d’électricité est la cathode et le terminal positif est l’anode. Des décharges électriques luminescentes spectaculaires sont observées. Elles émanent de la cathode et foudroient le verre autour de l’anode, illuminant le verre. Les rayons des cathodes sont en fait des faisceaux d’électrons accélérés, découverts par J.J.Thomson (1856-1940) en 1896.
Accélérateur électrostatique
En 1932, John D.Cockroft et Ernest T.S.Watson réussissent pour la première fois à accélérer des protons jusqu’à 770 KeV (770⋅103eV) d’énergie, dans une machine électrostatique (champ électrique accélérateur) faisant usage d’une tension fixe et stable. La machine électrostatique la plus réussie est développée par Robert Van de Graaff en 1931 et atteint 1.5 MeV d’énergie.
Le cyclotronLa percée technologique donnant naissance aux accélérateurs modernes vient grâce à Ernest O.Lawrence (1901-1958) de Berkeley en Californie, aux environs de 1930. Il reçoit d’ailleurs le prix Nobel en 1957 pour la mise en application de ce tout nouveau principe d’accélération. En 1929, il tombe sur l’article d’un Norvégien autodidacte Rolf Wideroe. Celui- ci imagine à 21 ans un accélérateur atteignant 100 MeV d’énergie. L’idée est d’utiliser plus qu’une brèche accélératrice, ou d’utiliser la même brèche plusieurs fois.
Lawrence ajoute au concept de Wideroe l’idée de confiner le mouvement des particules accélérées avec un champ magnétique. Dans un champ vertical, une particule chargée en
7
mouvement horizontal trace un cercle et le temps du circuit est indépendant de la vitesse de la particule. Plus la vitesse augmente, plus le rayon de sa trajectoire circulaire augmente, et le parcours plus long compense exactement la vitesse plus élevée. Ainsi, une tension électrique oscillante (champ alternatif), de radio-fréquence (RF ; haute fréquence) exactement égale à la fréquence de rotation de la particule, donne l’élan dans la brèche. La tension radio fréquence est simplement une tension qui alterne entre tension positive et négative de manière synchrone avec le parcours circulaire de la particule. Chaque passage de la particule dans la brèche donne un nouvel élan à la particule. La particule gagne en énergie, et le rayon augmente, mais la période de l’orbite est constante.
Le premier modèle de Lawrence construit avec son étudiant Stanley Livingston a un aimant dont les pièces circulaires mesurent quelques cm de diamètre. Des protons y sont accélérés jusqu’à 80 KeV. Son deuxième modèle atteint 1.2 MeV et les particules produisent des désintégrations nucléaires. La tension de radio-fréquence n’est que de 1000 Volts, mais les protons effectuent plus de 1000 tours en effectuant des spirales de plus en plus grandes. Il appelle ses machines des cyclotrons (figure 5).
Figure 5
Schéma de cyclotron. Référence: From Quarks to the Cosmos de Lederman et Schramm
Focalisation
Lawrence a beaucoup de chance. Une condition connue sous le nom de focalisation (focusing) est nécessaire pour empêcher les particules de se disperser loin des orbites circulaires propres. Toute petite déviation d’un tir parfait augmente graduellement au cours des centaines de milliers de tours, donnant un faisceau de particules complètement dispersés dans le cyclotron. Mais, et voici la chance de Lawrence, la convergence nécessaire est naturellement donnée par le fait que le champ magnétique est plus faible vers l’extérieur de l’orbite, proche du bord de l’aimant. Une analyse mathématique par un autre jeune étudiant, R.R.Wilson, montre que cet affaiblissement du champ magnétique, plus tard connu sous le nom de gradient du champ magnétique, fournit une force qui rétablit les particules déviées sur l’orbite idéale.
Synchrocyclotron
8
Hans Bethe (1906-) se rend compte, en ce qui concerne le cyclotron de Lawrence, que quand la masse des particules accélérées augmente, tel que décrit dans la théorie de la relativité, la période de l’orbite change et la particule n’est plus synchronisée avec la radio-fréquence dans la brèche accélératrice. Ceci pose une limite supérieure sur l’énergie à laquelle les particules peuvent être accélérées dans un cyclotron. L’obstacle soulevé par Bethe donne lieu à une nouvelle invention, le synchrocyclotron, dans lequel la radio-fréquence varie pour tenir compte de l’augmentation de la masse. Après la deuxième guerre mondiale, des synchrocyclotrons de diverses énergies sont construits, et opèrent dans le domaine de quelques centaines de MeV, le plus puissant a 600 MeV. Il faut construire des aimants de plus en plus grands, de 60 à 500 cm de diamètre, en fer et pesant plusieurs milliers de tonnes. Ces aimants deviennent de plus en plus difficile à construire, et pour atteindre des énergies plus élevées, il faut imaginer une approche différente.
Synchrotron
La solution vient avec le synchrotron. Le rayon de l’orbite est maintenu constant, et le champ magnétique est augmenté en synchronisant avec le gain en impulsion. La radio-fréquence est variée aussi puisque les orbites sont complétées de plus en plus rapidement. Puisque l’orbite est fixe, un champ magnétique est requis seulement autour de l’orbite, nécessitant un volume d’aimant beaucoup plus petit. Les synchrotrons à protons et à électrons construits dans les années 1950 atteignent le GeV (109eV) et ainsi débute l’ère moderne des grands accélérateurs !
Focalisation forte
Dans les accélérateurs circulaires, les particules tournent des dizaines de millier de fois durant le cycle d’accélération. La stabilité des orbites est un facteur crucial. Toute petite déviation de la trajectoire, par exemple due à une collision avec un atome de gaz résiduel, augmenterait en taille avec chaque tour effectué et mènerait éventuellement à la perte de la particule, à moins que des forces convergentes soient utilisées. En 1952, une découverte sur la convergence magnétique est faite au laboratoire de BNL (Brookhaven National Laboratory). Stanley Livingston, Ernest Courant, Hartland Snyder et d’autres découvrent que si le champ magnétique est ajusté pour alternativement focaliser et dé-focaliser le faisceau (principe du gradient alternatif ; se dit alternating gradient en anglais), la stabilité des orbites augmente. L’effet net est une focalisation qu’ils surnommeront la focalisation forte. Les variations autour de l’orbite circulaire idéale sont ainsi minimisées, réduisant aussi l’ouverture requise des aimants, leur taille et leur coût. La focalisation et la dé-focalisation peut être induite en façonnant des aimants dipôles, ou grâce à une nouvelle invention de BNL, les aimants quadrupoles : deux pôles nord et deux pôles sud sont arrangés de manière à générer des forces perpendiculaires à la trajectoire, poussant les particules vers ou loin du centre de l’axe de mouvement. Un PS (Proton Synchrotron) de 25 GeV est construit au CERN en 1959, puis BNL construit le leur de 30 GeV en 1960 (AGS : Alternating Gradient Synchrotron ; figure 6).
Les deux plus grands synchrotrons à protons construits sont le SPS (Super PS) de 450 GeV du CERN et le PS de 1000 GeV de Fermilab, de 6.9km et 6.3km de circonférence respectivement, datant du milieu des années 1970.
9
figure 6
Schéma de l’AGS, le synchrotron à protons à Brookhaven National Laboratory. Référence: BNL.
Accélérateur linéaire
Les accélérateurs linéaires utilisent le même principe d’accélération que les synchrotrons, c’est à dire un champ électrique alternatif de haute fréquence (RF). Celui-ci est établi dans l’axe d’un long tube rectiligne. Des sources puissantes de haute fréquence n’apparaissent qu’après la Seconde Guerre mondiale. Dès le lendemain de la guerre, un accélérateur à protons de 32 MeV entre en service aux États Unis. L’accélérateur à protons de Los Alamos au Nouveau Mexique atteint 800 MeV d’énergie. Le plus grand accélérateur linéaire à électrons est construit à l’Université de Stanford en Californie, mesure 3km de long et atteint 30 GeV d’énergie!
Collisionneurs
Dans les années 1960, des anneaux de stockage sont conçus. Des paquets de particules (électrons et positrons ; protons et anti-protons) circulent autour d’un anneau magnétique en directions opposées. Les paquets se rencontrent à des endroits précis. Aux points de rencontre, deux particules entrent occasionnellement en collision, et une variété de particules sont créées: photons, pions, kaons, protons, anti-protons, etc... On appelle aussi ces anneaux de stockage des collisionneurs. La collision frontale entre deux paquets de particules permet d’atteindre des énergies dans le centre de masse plus élevées que si un seul faisceau entre en collision avec une cible fixe. Au fur et à mesure que la technique mûrit, la densité des paquets et les taux de collisions augmentent.
En bref
L’évolution des accélérateurs est spectaculaire. Tout commence avec Rutherford qui sonde l’atome d’or avec des particules α de 5 MeV (5⋅106eV). Cent années plus tard, des électrons d’énergie 10000 fois supérieure sont produits. Évidemment, les découvertes en physique des particules ponctuent, voire même motivent le développement des accélérateurs, et permettent de mettre en place le Modèle Standard des particules élémentaires.
La construction du Modèle Standard
Le tableau périodique des éléments est une liste ordonnée des atomes et ses mystérieuses régularités ne sont comprises que lorsque l’électron est découvert et la théorie quantique construite. Dans les années 80, l’organisation correspondante des particules de base est appelée le Modèle Standard des particules élémentaires.
Découverte du neutrino muonique
La première découverte majeure au synchrotron à protons de BNL, l’AGS, arrive avec l’expérience aux deux neutrinos, menée en 1961 par trois physiciens (prix Nobel 1988) Jack Steinberger, Leon Lederman et Melvin Schwartz. Ils cherchent à étudier la force faible, la seule qui affecte les neutrinos. Mais les neutrinos interagissent très peu avec la matière : un neutrino passant dans 100 millions de km d’acier a une chance sur deux d’être arrêté ou défléchi. À l’Université de Columbia (ville de New York), Schwartz suggère de créer des faisceaux de neutrinos énergétiques. Des protons de 15 GeV sont précipités sur une cible de béryllium, produisant ainsi des protons, neutrons, et pions. Ces derniers se désintègrent presque tout le temps en muon et neutrino. Toutes ces particules fuient vers l’avant dans la même direction que
10
le faisceau de protons incidents. Pour filtrer tout sauf les neutrinos, ils mettent un obstacle : une barrière d’acier d’une dizaine de mètres d’épaisseur. L’acier arrête presque toutes les particules, permettant aux neutrinos seulement de passer. Le résultat est le premier faisceau de neutrinos énergétiques ! Même si la probabilité d’interaction des neutrinos est extrêmement faible, il y en a tellement qu’ils arrivent à observer, en 8 mois de prises de données, 56 interactions dans leur détecteur de 10 tonnes.
Le neutrino de Pauli, né avec un électron, peut produire des électrons. La désintégration d’un pion en un muon et un neutrino signifie que ce neutrino peut produire des muons dans une collision. Mais ces deux neutrinos sont ils identiques? S’ils l’avaient été, l’expérience aurait produit autant d’électrons que de muons. Cependant, seuls des muons sont observés. Ainsi, le groupe de Columbia découvre un nouveau type de neutrino, ce qui aura des conséquences profondes sur la structure du Modèle Standard.
Avant l’expérience aux deux neutrinos, le seul neutrino connu est celui produit par les désintégrations β- →e- ν. Les neutrinos produits par l’expérience de Columbia sont qualifiés de muoniques. On suggère, de manière pas tout à fait sérieuse, qu’ils diffèrent de saveur : l’un est de saveur électronique, l’autre de saveur muonique. Ce concept de saveur devient finalement crucial pour l’élaboration du Modèle Standard. Dans cette généralisation, nous verrons qu’il existe 6 saveurs de quarks (i.e. composants des protons, neutrons, pions), et de manière équivalente, 6 saveurs de leptons (particules qui n’interagissent pas fortement). À chaque membre expérimentalement distinct d’une classe de particules (quarks ou leptons) est assigné une saveur. L’idée simple de saveur est reconnue dans le cas des deux saveurs de neutrinos, où la distinction est subtile.
Gell-Mann et la classification des nouvelles particules
Au début des années 1960, une centaine de nouvelles particules ont été découvertes dans les accélérateurs. La plupart sont des produits de la force forte, et on les surnomme des hadrons, du mot grec pour « fort ». En 1962, un faisceau de kaons chargés négativement (nouvelles particules de type fortes découvertes) est produit par l’AGS. Le but de l’expérience est de tester une hypothèse de Murray Gell-Mann (1929-), de CalTech (California Institute of Technology). Gell-Mann parvient à organiser tous les hadrons connus par groupe de 8 (octets) ou de 10 (décuplets) particules. Il surnomme son modèle L’Octuple Sentier en se référant au terme bouddhiste. Dans le cadre d’un de ces décuplets, neuf particules ont été découvertes et ordonnées. La symétrie de la théorie exige l’existence d’une 10ème particule, qu’on surnomme Ω- (oméga moins). Le but de l’expérience est de découvrir cette particule. En décembre 1963, l’expérience prend ses premières données, elles sont défrichées, et le comble, l’Ω- est découvert ! Cette organisation des nouvelles particules nous rappelle celle du tableau périodique. Celui-ci n’acquiert tout son sens que lorsqu’on comprend la sous-structure de l’atome : un noyau composé de protons et de neutrons entouré d’électrons. Existe-t-il donc une physique sous- jacente à cette nouvelle classification? Gell-Mann et George Zwieg (de CalTech) proposent de manière indépendante une structure fondamentale et sous-jacente : un triplet de particules qui composeraient tous les hadrons. Bien que ce triplet explique les octets et décuplets, il a des conséquences plutôt farfelues : les particules du triplet ont des charges fractionnelles de celle de l’électron, et transportent 1/3 des propriétés du neutron ou du proton. Gell-Mann surnomme ces nouvelles particules des quarks, ce qui signifie absurdité en argot allemand.
Il existerait trois saveurs de quarks : up (u), down (d), strange (s) de charges +2/3, -1/3 et –1/3 respectivement. Les baryons (i.e. neutron, proton) sont constitués de trois quarks (i.e. neutron : udd, proton : uud, Ω-=sss). Les mésons, qui ont d’abord été proposés comme des particules d’échange pour tenir les nucléons ensemble, sont constitués d’un quark et d’un anti-quark (i.e. pions π- = anti-u d, π+ = u anti-d, π0 = (u anti-u + d anti-d)/√2, kaons K- = anti-u s, K+ = u anti- s).
11
Il est important de noter que l’hypothèse de l’existence des quarks est motivée par l’existence des baryons et mésons qui s’arrangent parfaitement selon l’octuple sentier. Le fait que les trois saveurs de quarks reproduisent bien tous les baryons et mésons connus est un point très favorable à leur hypothèse, mais il manque l’évidence expérimentale.
La vérification expérimentale des quarks, une longue histoire
On imagine alors des expériences pour sonder le proton, en quelque sorte des versions modernes de l’expérience de Rutherford. En 1953, lors d’expériences de diffusion d’électrons d’environ 100 MeV sur des protons (atomes d’hydrogène), Robert Hofstadter (Nobel 1961) comprend que la charge est distribuée uniformément à l’intérieur du proton.
En 1961, l’accélérateur linéaire de Stanford (SLAC) est construit. Il mesure 3km de long, et accélère des électrons jusqu’à 20 GeV. Dans les années 1960 et 1970, on y reprend des expériences de diffusion d’électrons sur des protons, et les résultats sont époustouflants et apparemment contradictoires avec les résultats de Hofstadter. On ne comprend plus rien ! Kendall et Friedman (Nobel avec Taylor en 1990) mènent une des expériences (1968). Deux théoriciens jouent un rôle déterminant dans l’interprétation des résultats : James Bjorken (de SLAC) et Richard Feynman (de CalTech ; Nobel 1965). Ils suggèrent que le proton est composé d’objets ponctuels qui diffusent les électrons. Feynman appelle ces objets des partons (partie du proton). Pourquoi pas des quarks? Feynman est convaincu que quelque chose d’autre accompagne les quarks dans le proton.
Quarks et gluons
L’intuition de Feynman lui donne raison. De nouvelles expériences au milieu des années 1970 confirment les résultats observés à SLAC et confirment l’idée de l’existence d’autres constituants que l’on nomme les gluons, dont le rôle est de transmettre la force forte. Au bout de quelques années, il devient clair que les partons de Feynman sont effectivement les quarks et gluons.
Les quarks ont une nature ponctuelle et sont apparemment indivisibles. Un nombre infini de quarks peuvent entrer dans un volume limité, tel un trou noir. Cette nature ponctuelle est en fait essentielle pour expliquer les densités incroyablement élevées au début de l’Univers.
De plus, les quarks semblent confinés dans les protons et neutrons. La notion de confinement est inventée par des théoriciens après que les expérimentateurs aient échoué de nombreuses fois à observer des quarks de charge 1/3. Les quarks sont donc confinés en permanence dans les hadrons et il n’est pas plus possible d’isoler un quark que de séparer les pôles nord et sud d’un aimant. Le confinement nous apprend quelque chose de fondamental sur la force entre les quarks.
Charge de couleur
En 1971 à l’anneau de stockage ADONE, dans des collisions d’électrons avec des positrons, le taux de production des pions est trois fois plus élevé que prédit. Un nouveau nombre quantique est proposé, analogue à la charge électrique pour la force électromagnétique, mais dans ce cas ci relié à la force forte. La nouvelle charge doit avoir trois états, et Gell-Mann choisit la couleur pour les définir : rouge, bleu, vert. Chaque couleur de quark peut produire un pion, ce qui multiplie par un facteur trois la probabilité qu’un pion soit produit !
L’idée de la couleur est acceptée assez rapidement, puisqu’elle donne une réponse à plusieurs questions restées en suspens i.e. pourquoi les quarks ne se combinent qu’en mésons (quark et anti-quark) et baryons (trois quarks) ? En fait, ils se combinent en objets incolores, de manière à annuler la charge de couleur: soit couleur-anti-couleur, soit les trois couleurs en un même objet. La force forte entre les quarks est donc liée à la propriété de couleur, d’où l’appellation de la théorie de la Chromo Dynamique Quantique.
Révolution de Novembre 1974
12
Une véritable révolution se trame au collisionneur électron-positron SPEAR (Stanford Positron Electron Asymmetric Ring). Burton Richter joue un rôle important dans la construction de la machine entre 1970 et 1973. Les résultats obtenus à des énergies de centre de masse entre 2.5 et 4 GeV sont intrigants.
Les 9 et 10 novembre, le groupe décide de répéter des mesures pour explorer une anomalie vers 3.1 GeV (2 X 1.55 GeV). L’énergie de SPEAR peut être ajustée très précisément, et un balayage par pas de 0.001 GeV est effectué. Ce qui est observé est impressionnant. Le nombre de collisions augmente d’un facteur 100 entre 3.100 GeV et 3.105 GeV, puis chute très rapidement à 3.120 GeV. On se rend vite compte que plusieurs expériences par le passé ont raté de peu ce pic de masse lourd mais étroit, qui correspondrait à une nouvelle particule.
En mécanique quantique, un pic étroit correspond à une particule dont le temps de vie est long, alors qu’une particule massive possède en général un temps de vie court. Mais la nouvelle particule découverte, qu’on surnomme psi ψ, est massive (trois fois la masse du proton), ce qui semble incompatible avec le fait qu’elle possède un pic étroit. La seule explication plausible est que cette nouvelle particule soit constituée de nouvelle matière, attribuée à un nouveau type de quark, élégamment surnommé le quark charmé.
Une partie de l’excitation vient du fait que la découverte a lieu simultanément et indépendamment à deux endroits : à SLAC (côte ouest des États Unis) par l’équipe de Burt Richter, et à BNL (côte est des États Unis) par Sam Ting et son équipe qui étudient les paires électron-positron sortantes dans les collisions protons sur noyaux. Finalement on surnomme la particule J/ψ (J dans certains dialectes chinois se prononce ting ; les traces laissées dans le détecteur à SLAC ont la forme d’un ψ).
En fait, le quark charmé est prédit par J.D.Bjorken et Sheldon Glashow dès 1964, puis par Glashow, lliopoulos et Maiani en 1970. A ce moment là, un triplet de quarks est connu (u,d,s), mais l’expérience aux deux neutrinos a établi un schéma à quatre leptons: (e,νe) et (μ,νμ). La découverte du quark charmé établit le schéma correspondant pour les quarks : (u,d) et (c,s), et aussi la forme du Modèle Standard. Ainsi, les quarks et leptons viennent par paires : la première, et plus légère, génération constituée de (u,d) et (e,νe), puis la deuxième génération plus lourde
(c,s) et (μ,νμ). La troisième génération ne se fera pas attendre.
Le Modèle Standard à trois générationsOn observe les premiers candidats à la troisième génération peu de temps après. En 1976, à SPEAR, le cinquième lepton, le tau τ, est découvert. Puis en 1978 à Fermilab, dans un accélérateur à protons de 400 GeV, du même type que l’expérience de Ting, un cinquième quark est découvert. Trois pics rapprochés sont observés. C’est l’upsilon Υ à 10 GeV et ses états excités. Ce sont des états liés d’un quark et d’un anti- quark que l’on surnomme beauté. Le sixième quark, le top, n’est observé qu’en 1994, et le sixième lepton, le neutrino associé au τ, en 2000.
Ainsi, à la fin des années 1970, le Modèle Standard des particules à trois générations, avec ses paires de quarks et de leptons, est presque complètement dévoilé, puisque cinq (sur six) des quarks et des leptons ont été observés. Combien de générations y aura-t-il encore ? Il faut attendre les résultats du LEP (Large Electron Positron Collider) et du SLC (Stanford Linear Collider) dans les années 1990 pour avoir la réponse.
Gluons et la force forte
Feynman a vu juste en suggérant la notion de partons qui englobe les quarks et cet autre chose que sont les gluons. L’évidence directe pour les gluons vient en 1978, à l’anneau de stockage d’électrons et de positrons PETRA de 30 GeV, au laboratoire de DESY (Deutsches Elektron Synkrotron) à Hambourg.
Les interactions dues aux forces fondamentales ont lieu via des échanges de particules de spin entier qu’on surnomme les bosons. La particule d’échange de la force électromagnétique est le
13
photon (la lumière) et celle de la force forte est le gluon. Les gluons et les photons sont des bosons de spin 1 et ont une masse nulle. Les gluons diffèrent des photons par le fait qu’ils transportent la charge forte de couleur, alors que le photon a une charge électrique nulle. C’est ce qui explique que la force entre les quarks augmente au fur et à mesure qu’on les sépare : la densité de gluons, et donc de charges fortes, augmente, avec pour conséquence une augmentation de l’intensité de la force forte, ce qui provoque une augmentation de la densité de gluons ! Les gluons viennent en 8 saveurs qui diffèrent par la charge de couleur transportée : chaque gluon est caractérisé par une couleur et une anti-couleur.
L’unification électrofaible
De 1916 (fin de ses travaux sur la Relativité Générale) jusqu’à sa mort en 1955, Einstein fut obsédé par l’idée d’une théorie des champs unifiée, en vain. Il faut attendre la théorie électrofaible de Sheldon Glashow (1961), Abdus Salam (1968) et Steven Weinberg (1967), qui leur valut un prix Nobel en 1979, dans laquelle deux des quatre forces fondamentales sont unifiées : les interactions électromagnétique et nucléaire faible.
La force électromagnétique et la force nucléaire faible semblent à première vue assez dissemblables. La première a une portée infinie alors que la seconde a une portée si courte qu’elle n’agit pas en dehors du noyau atomique. Celle-ci interagit avec tous les fermions (quarks et les leptons) de spin 1⁄2. Elle peut convertir une saveur de quark en une autre, et peut donc transformer des neutrons en protons, ou vice versa. Elle est responsable des désintégrations nucléaires associées à la radioactivité (i.e. désintégration β).
Alors que les photons et les gluons (tous les deux des bosons de spin 1) sont les transmetteurs de la force électromagnétique et de la force nucléaire forte respectivement, qui sont au juste les transmetteurs de la force nucléaire faible ? La réponse vient en 1967 quand Weinberg et Salam reprennent un concept développé plus tôt par Glashow et l’appliquent aux interactions faible et électromagnétique. Les deux forces sont une seule et même interaction, qui diffèrent par le fait que le boson transmetteur de la force électromagnétique (le photon) a une masse nulle alors que celui de la force faible est massif.
La théorie d’unification électrofaible prédit l’existence de bosons transmetteurs chargés et neutre, les W± et le Z0 respectivement, ayant des masses de l’ordre de 100 fois la masse du
proton. Le photon (γ) est le transmetteur neutre associé à l’interaction électromagnétique. Quand une interaction implique un changement de charge, on dit qu’il y a un courant chargé, et quand la charge est conservée, un courant neutre. Les courants associés au boson neutre massif (Z0) tout comme les bosons W± n’ont encore jamais été observés.
Gargamelle et la découverte des courants neutres
En 1972 au CERN, un événement historique est capturé par Gargamelle, une grande chambre à bulles remplie de fréon. Elle détecte le processus suivant : νμ e- → νμ e-, qui ne peut avoir lieu que par l’intermédiaire d’un Z0 (les neutrinos n’interagissent que par la force faible) et est donc la première preuve de l’existence des courants neutres faibles.
Gargamelle est initialement conçue pour la détection des neutrinos. Une chambre à bulles contient un liquide sous pression qui révèle les traces de particules chargées comme des traînées de petites bulles quand la pression est réduite. Les neutrinos n’ont pas de charge et ne laissent pas de traces, mais le but est de les voir en rendant visible toute particule chargée mise en mouvement par l’interaction de neutrinos dans le liquide. Comme les neutrinos interagissent très rarement, la chambre doit être la plus grande possible et fonctionner avec un liquide très dense i.e. le fréon, dans lequel les neutrinos ont le plus de chance d’interagir. Gargamelle mesure
finalement 4.8m de long et 1.85m de large, constitue un volume de 12 m3, et contient 18 tonnes de fréon. Le faisceau de neutrinos provient du PS (Proton Synchrotron) du CERN.
14
Le SPS (Super Proton Synchrotron) du CERN et la découverte du W
À la fin des années 1970, le CERN lance le projet de convertir un synchrotron de 400 GeV en un anneau de stockage pouvant accélérer, stocker et faire entrer en collision des faisceaux de protons et d’anti-protons. Ce projet est motivé par Carlo Rubbia, impressionné par les ISR (Intersecting Storage Rings au CERN ; construit en 1971 ; 31 GeV par faisceau) où des protons entrent en collision avec des protons. Il est aussi stimulé par l’idée de découvrir le boson W prédit par la théorie électrofaible. Un accélérateur suffisamment puissant doit être construit. Un faisceau de protons de 400 GeV sur cible fixe ne suffit pas pour produire le W dont la masse est prédite aux environs de 100 GeV.
Les problèmes techniques sont formidables. Il faut produire des anti-protons (considérés il y a peu comme des particules exotiques !) en nombre sans précédent, les injecter dans le complexe accélérateur, les accélérer soigneusement, et tout cela en même temps que les protons. Les faisceaux ont finalement 260 GeV d’énergie, ce qui est suffisant pour produire une nouvelle particule massive de 100 GeV. Il ne faut que quatre années à Carlo Rubbia, Simon Van der Meer et leur équipe pour construire le nouvel accélérateur !
En 1983, les premiers W± et Z0 sont observés ! Les expériences UA1 et UA2 (Underground Area 1 et 2) mesurent la masse des bosons, respectivement 83 GeV et 92 GeV, en accord avec les prédictions de la théorie électrofaible. Une année plus tard, Rubbia et Van der Meer se partagent le prix Nobel.
Récapitulatif
figure 7
Au fil des découvertes effectuées aux accélérateurs de particules, le Modèle Standard se met en place. Les particules élémentaires qui le composent sont résumées dans les tableaux ci-dessus (figure 7), tout comme les quantités (masse, charge électrique) qui les définissent. Le Modèle n’est toutefois pas encore complet. Il manque même quelque chose de fondamental, qui concerne l’origine de la masse.
15
Le boson de Higgs et l’origine de la masse
Quel mécanisme, dans la théorie électrofaible, génère la masse des bosons W± et Z0 ? Pourquoi le photon n’acquiert pas de masse ? Les masses des fermions sont-elles reliées à ce mécanisme ? Pourquoi les masses des quarks sont elles si différentes les unes des autres ? Pour tenter de répondre à ces questions, on doit introduire la notion de symétrie, et de sa brisure, dans la théorie électrofaible.

 
 
 
initiation musicale toulon  

ONDE

  initiation musicale

       

 

 

 

 

 

ONDE

PLAN
        *         ONDE
        *         1. Les différents types d’ondes
        *         1.1. Les ondes mécaniques progressives
        *         1.1.1. Les vagues
        *         1.1.2. Les cordes
        *         1.1.3. Les ondes sonores ou acoustiques
        *         1.2. Les ondes mécaniques stationnaires
        *         1.3. La lumière et les ondes électromagnétiques
        *         1.3.1. La nature ondulatoire de la lumière
        *         1.3.2. Les ondes électromagnétiques
        *         1.3.3. La dualité onde-corpuscule
        *         2. Caractéristiques physico-mathématiques des ondes
        *         2.1. Généralités
        *        2.2. Grandeurs caractéristiques
        *         2.2.1. Période et fréquence
        *         2.2.2. Longueur d'onde
        *         2.3. Les ondes sinusoïdales
        *         2.4. Aspects énergétiques
        *         3. Le spectre des ondes électromagnétiques
Voir plus
onde
(latin unda)

Cet article fait partie du dossier consacré à la lumière.
Modification de l'état physique d'un milieu matériel ou immatériel, qui se propage à la suite d'une action locale avec une vitesse finie, déterminée par les caractéristiques des milieux traversés.

Les techniques de télécommunication – radio, télévision, téléphone – nous ont rendu familière la présence des ondes. Avant de donner lieu à des utilisations de cette importance, les phénomènes ondulatoires ont progressivement occupé une place de plus en plus grande en physique. Ils ont révélé leur présence dans les domaines les plus divers, au point d'apparaître comme intimement liés, d'une certaine façon, à la constitution de la nature en ses aspects fondamentaux. Si l'onde sonore s'explique en termes mécanistes par les mouvements des particules dont l'air est constitué, il n'y a rien de tel, par exemple, pour les ondes hertziennes. Leur analyse mathématique n'en revêt que plus d'importance. Avec la mécanique ondulatoire, on est même tenté de dire qu'il ne s'agit plus que de mathématiques.

1. Les différents types d’ondes
1.1. Les ondes mécaniques progressives
1.1.1. Les vagues

       


Un objet – une simple goutte – qui tombe sur la surface d'une eau calme y produit des ondulations. Ce train d'ondes est constitué de quelques cercles qui, issus de la source du phénomène, vont en s'agrandissant et qui finissent par s'affaiblir. Si un corps flotte immobile, les ondes, en l'atteignant, ne le déplacent pas à la surface de l'eau dans le sens de leur mouvement. Elles l'agitent verticalement, tout comme le feraient les vagues de la mer. « Onde » vient d'ailleurs de unda, qui désigne l'eau de la mer, avec les mouvements qui s'y peuvent voir. Les rides circulaires à la surface de l’eau se propageant dans deux directions sont qualifiées d’ondes mécaniques progressives à deux dimensions.

1.1.2. Les cordes
Une autre manière de produire un phénomène semblable consiste à déployer une corde, sans nécessairement attacher l'une de ses extrémités, et à secouer l'autre assez vigoureusement. Chaque secousse engendre une déformation que l'on voit se propager le long de la corde. En faisant se succéder les secousses, on obtient un train d'ondes. Ces ondes se propageant dans une seule direction sont qualifiées d’ondes mécaniques progressives à une dimension.

1.1.3. Les ondes sonores ou acoustiques


C'est un phénomène analogue qui a servi à expliquer la nature physique du son et à étudier en finesse ses propriétés. La corde de lyre que l'on pince vibre rapidement. Ses vibrations se transmettent à l'air, s'éloignant dans toutes les directions. Les ondes acoustiques se propageant dans trois directions sont qualifiées d’ondes mécaniques progressives à trois dimensions. Une oreille, placée n'importe où autour, reçoit des ondes (→ audition). Les vibrations sont communiquées par l'air au tympan. La source peut être n'importe quelle membrane susceptible de vibrer : la peau d'un tambour, mais aussi les cordes vocales.

   



En vibrant, la membrane pousse l'air tout proche ; les particules d'air déplacées poussent à leur tour leurs voisines et ainsi de suite. Si l'on pouvait voir un petit corps flotter dans cet air, on observerait toutefois que l'agitation très rapide qu'il subit sur place ne se fait pas comme celle d'un bouchon sur l'eau. Ce dernier oscille verticalement, tandis que les ondes s'éloignent horizontalement de leur source : de telles ondes sont dites transversales. Dans le cas de l'air, l'objet est agité dans la direction même du mouvement des ondes : celles-ci sont dites longitudinales.

1.2. Les ondes mécaniques stationnaires
Les ondes des trois genres mentionnés auparavant peuvent donner lieu à des phénomènes stationnaires. Si un caillou tombe dans l'eau d'un bassin, les ondes se réfléchissent sur le bord. De même, si l'on secoue sans cesse le bout d'une corde qui est fixée à l'autre extrémité et légèrement tendue, les ondes repartent de cette extrémité. Certains points de la corde peuvent ne pas bouger du tout, alors que tout s'agite autour d'eux, parce que le mouvement qui y est créé par les ondes allant dans un sens est constamment contrarié par celui qu'y induisent les ondes allant dans l'autre sens. Les points pour lesquels l'oscillation est maximale sont appelés les ventres ; ceux pour lesquels elle est nulle, les nœuds.
Semblablement, si deux pointes vibrent ensemble à la surface d'un liquide, les deux trains d'ondes ainsi entretenus laissent immobiles des points de cette surface formant des lignes entières, des hyperboles très précisément. C'est le phénomène des interférences, difficile à observer sans un éclairage adapté.

1.3. La lumière et les ondes électromagnétiques
1.3.1. La nature ondulatoire de la lumière

       
Thomas Young (1773-1829) montra que des interférences peuvent s'observer aussi en optique : une lumière monochromatique passant par deux fentes parallèles donne sur un écran une alternance de franges brillantes et de franges sombres. L'apparition de ces dernières ne s'expliquerait pas si la lumière était constituée de corpuscules en mouvement, comme Isaac Newton (1642-1727) en avait fait admettre l'idée.
Augustin Fresnel (1788-1827) montra que, au contraire, si la lumière est de nature ondulatoire, les interférences s'expliquent jusque dans leurs aspects quantitatifs. Ainsi s'installa l'idée que l'espace est rempli par un milieu imperceptible, l'éther, dont les vibrations constituent la lumière, tout comme les vibrations de l'air et d'autres milieux matériels constituent le son. La découverte du phénomène de polarisation par Étienne Malus (1775-1812) contraria rapidement l'idée qu'il s'agissait, comme dans le cas du son, d'ondes longitudinales.

Un autre phénomène bien connu, la diffraction, s'explique mieux dans une théorie ondulatoire que dans une théorie corpusculaire de la lumière. On l'obtient en faisant passer de la lumière par un trou que l'on rétrécit. Le pinceau de lumière commence par s'affiner mais, à partir d'une certaine petitesse du trou, au lieu de continuer de se rétrécir, le pinceau se disperse.

1.3.2. Les ondes électromagnétiques

Un demi-siècle plus tard, James Maxwell (1831-1879) ayant réduit l'électricité et le magnétisme à quelques formules, il apparut par le calcul que la propagation des actions électromagnétiques devait prendre la forme d'ondes. Heinrich Hertz (1857-1894) les produisit et les étudia expérimentalement. Transversales elles aussi, elles se déplacent à une vitesse qui se trouve être celle de la lumière. Ainsi s'achemina-t-on vers la conclusion que la lumière n'est elle-même qu'une onde électromagnétique, occupant une modeste place dans la gamme des cas possibles. Si l'on préfère, ces ondes constituent une lumière généralement invisible, c'est-à-dire insensible à l'œil, à l'exception d'une petite partie. L'éther que l'on cherchait à mieux connaître n'était plus le siège des seules ondes lumineuses, mais celui des ondes électromagnétiques en général. Les diverses propriétés qu'il se devait de posséder étaient si difficiles à accorder entre elles qu'il constituait une grande énigme. On a fini par renoncer à cette notion.
On accepte l'idée qu'il puisse y avoir de telles ondes sans qu'elles soient les ondulations d'un milieu. On sait seulement que ce sont des charges électriques en mouvement qui les produisent.
Pour en savoir plus, voir l'article ondes électromagnétiques [santé].

1.3.3. La dualité onde-corpuscule

       
Albert Einstein (1879-1955), l'année même où il proposa la théorie de la relativité restreinte (1905), donna une explication de l'effet photoélectrique. Elle consistait à revenir à la conception corpusculaire de la lumière, sans renoncer pour autant à son aspect ondulatoire. Plus généralement, l'onde électromagnétique s'est vu associer un flux de photons, association purement mathématique et qui rendait encore plus intenable l'hypothèse d'un éther. Louis de Broglie (1892-1987), en l'inversant, étendit l'idée à toutes les particules : à chacune on associe une onde. L'expérience a confirmé la justesse de cette hypothèse : il fut établi qu'un faisceau d'électrons est susceptible de donner lieu au phénomène de diffraction.

La mécanique quantique prend désormais pour objets des quantons, qui se comportent comme des corpuscules dans certains contextes expérimentaux et comme des ondes dans d'autres. La fonction d'onde de la particule, obtenue par la résolution de l'équation de Schrödinger, sert à calculer les caractéristiques de son mouvement, mais en termes de probabilité seulement. On ne peut pas annoncer qu'à tel instant la particule sera en tel point, comme on le fait en mécanique classique. On peut seulement calculer avec quelle probabilité elle se trouvera dans telle portion d'espace.

2. Caractéristiques physico-mathématiques des ondes
2.1. Généralités

Un mécanisme de production et de propagation des ondes peut être détaillé dans le cas de la surface d'un liquide ou dans celui du son, parce que l'on peut analyser le comportement d'un milieu – le liquide, l'air – en termes mécanistes. Il n'en va plus de même pour les ondes électromagnétiques, et encore moins pour celles de la mécanique ondulatoire, puisqu'il n'y a plus de milieu connu dans ces cas-ci. Une étude générale des ondes doit donc se rabattre sur la description mathématique de la propagation.
→ mécanique.
Il convient de remarquer que, lorsqu'une description mécaniste est possible, elle n'explique pas la toute première apparence. Une onde, qu'il s'agisse d'une vague ou de la déformation d'une corde, se présente spontanément comme quelque chose qui se déplace. C'est ce déplacement qui est désigné par le terme « propagation ». Il ne se présente pas comme le déplacement d'un objet (navire avançant sur l'eau ou anneau coulissant sur une corde). Le phénomène offre le spectacle de quelque chose qui se meut et ne se meut pas à la fois.
Le mécanisme de la production de la perturbation à la source, et de sa transmission par le milieu, explique qu'un corps flottant ainsi que l'eau qui l'entoure montent et descendent alternativement. Il n'explique pas complètement l'illusion que constitue le déplacement de la vague. On peut dire néanmoins que c'est le déplacement transversal de l'eau qui se décale dans la direction de propagation.

2.2. Grandeurs caractéristiques

Lorsqu'aucun milieu n'est le siège de la propagation, on peut néanmoins concevoir qu'il y ait, attachée à chaque point de l'espace, une certaine grandeur qui soit l'analogue de l'altitude de la surface de l'eau. En prenant pour niveau de référence celui de la surface liquide au repos par exemple, le phénomène de l'ondulation peut être décrit mathématiquement en donnant, pour chacun des points de la surface, son altitude en fonction du temps. Pour une onde d'une autre nature, le rôle joué précédemment par l'altitude peut l'être par la valeur d'un champ, électrique ou magnétique.
De façon plus générale, en se plaçant en un point P de l'espace, a (t) désignera la valeur, à l'instant t, de la grandeur qui varie.

2.2.1. Période et fréquence
On se place dans l'hypothèse d'une onde entretenue et périodique : en P, la grandeur oscille sans cesse et elle reprend toujours la même valeur au bout d'un même temps T, appelé la période de l'onde. Autrement dit, quel que soit l'instant t,
a (t + T) = a (t)

On appelle alors fréquence de l'onde le nombre d'oscillations complètes que P effectue pendant une unité de temps. La fréquence f (aussi notée N, ou encore ν) est reliée à la période par
f = 1 / T
Si l'on adopte la seconde comme unité de temps, la fréquence s'exprime en hertz, de symbole Hz (ou cycles par seconde).

2.2.2. Longueur d'onde
La longueur d'onde λ est la distance parcourue par l'onde pendant le temps T. Si V est la vitesse de propagation, supposée constante, on a
λ = VT
soit encore
λ = V / f
C'est ainsi que, dans un cas comme celui de la lumière, où la vitesse de propagation est connue (près de 300 000 km.s−1 dans le vide), la détermination expérimentale d'une longueur d'onde permet de trouver la fréquence correspondante.

2.3. Les ondes sinusoïdales

Une situation particulière de grande importance est celle des ondes sinusoïdales, pour lesquelles
a (t) = A (sin ω t + ϕ)
L'importance des ondes sinusoïdales tient à ce qu'elles fournissent un modèle mathématique satisfaisant pour nombre de phénomènes. C'est le cas pour les ondes électromagnétiques en particulier, où se rencontre une complication par rapport aux situations envisagées jusqu'à présent : il n'y a pas, en un point, une grandeur a qui varie sinusoïdalement, mais deux, le champ électrique et le champ magnétique, vecteurs orthogonaux entre eux ainsi qu'à la direction de propagation (le rayon lumineux).


       


Une autre raison de l'intérêt porté aux ondes sinusoïdales est que l'on sait, depuis les travaux mathématiques de Joseph Fourier (1768-1830), que pour toute fonction périodique, on peut envisager une décomposition sous la forme d'une somme de fonctions sinusoïdales. La connaissance de ces dernières fournit donc la clef de l'analyse d'un phénomène périodique quelconque.
Lorsque t varie, a (t) varie perpétuellement entre − A et A.
• Amplitude. La constante positive A est l'amplitude de l'onde au point P.
• Phase. L'expression ω t + ϕ est appelée la phase ; ϕ est la phase à l'origine, c'est-à-dire la valeur de la phase à l'instant 0.
• Pulsation. Le coefficient ω est la pulsation ; il est lié à la période par T = 2 π / ω et à la fréquence par ω = 2πf ; il s'exprime en radians par seconde (rad / s ou rad.s−1).
La valeur de ϕ est propre au point P où l'on se place. Pour un point P′ autre, la phase à l'origine a une valeur ϕ′, alors que ω et A sont les mêmes partout. Mais si l'on prend pour P′ un point situé à une distance de P égale à la longueur d'onde λ, ϕ′ = ϕ + 2π, de sorte que la grandeur a prend à tout instant la même valeur en P et en P′. On dit que ces points vibrent en phase.

2.4. Aspects énergétiques

Le déplacement d'une onde est en un sens une illusion. Le point de vue énergétique permet au physicien de donner une certaine consistance à ce déplacement. À la source S, on fournit une énergie essentiellement cinétique aux parties de la corde qu'on y agite, celle du mouvement transversal. Cette énergie se transmet de proche en proche. Lorsque l'agitation atteint les parties les plus proches de l'extrémité S′, on peut l'utiliser pour mettre un objet en mouvement, ou pour obtenir d'autres sortes d'effets. Au total, il y a eu transfert progressif d'énergie de la source à l'extrémité. La quantité d'énergie qui se propage est, pourrait-on dire, un pseudo-objet qui s'éloigne de la source. Dans une perspective de communication, on préfère dire qu'un signal est émis en S et propagé jusqu'en S′.
Pour ce qui est de la mécanique quantique, la prise en compte de l'énergie est à la base même de l'association entre l'onde et la particule. Si ν et E sont respectivement la fréquence de la première et l'énergie dont la seconde est porteuse,
E = hν
(relation de Planck-Einstein, où h est la constante de Planck).
De manière analogue, si λ et p sont respectivement la longueur d'onde et la quantité de mouvement,
p = h / λ (relation de de Broglie)

3. Le spectre des ondes électromagnétiques

La première application pratique des ondes électromagnétiques a été la télégraphie sans fil, bientôt rebaptisée radiophonie (→ radiocommunication). La télévision devait suivre. Le radar, quant à lui, n'est rien d'autre que l'utilisation de la propriété qu'ont les ondes électromagnétiques, à l'instar de la lumière, de se réfléchir sur un obstacle. Le fonctionnement s'apparente étroitement à celui de l'écho sonore.

       

Chacune de ces applications fait appel à un certain domaine des ondes caractérisé par ses longueurs d'onde extrêmes (ou, ce qui revient au même, par ses fréquences-limites). Les cas évoqués ci-dessus sont des exemples d'ondes hertziennes. On désigne ainsi celles dont la longueur d'onde s'étend entre le centimètre et quelques kilomètres. La lumière visible correspond à la bande qui va de 0,4 à 0,8 micromètre. Entre celle-ci et les précédentes se situe le domaine de l'infrarouge. Au-delà, on passe dans l'ultraviolet, puis, entre 3 nanomètres et 0,01 nanomètre, aux rayons X. Enfin viennent les rayons gamma (γ) et le rayonnement cosmique. Les derniers cités, ayant la plus petite longueur d'onde, ont la fréquence la plus élevée. Conformément à la relation E = hν, ce sont leurs photons qui sont porteurs de l'énergie la plus grande. De fait, ultraviolet, rayons X et rayons γ sont connus pour le danger qu'ils représentent pour les organismes vivants, plus grand même pour les derniers que pour les premiers.
→ ondes électromagnétiques [santé].
Mais c'est aussi par l'analyse de la diffraction qu'un cristal impose aux rayons X que l'on a pu y étudier de manière précise, à partir de 1912, l'arrangement des atomes (→ cristallographie).

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

MATIÈRE

  initiation musicale

 

 

 

 

 

 

matière
(latin materia)

Cet article fait partie du dossier consacré à la matière.
Substance constituant les corps, douée de propriétés physiques

PHYSIQUE
1. Qu'est-ce que la matière ?

La nature qui nous entoure, et dont nous faisons partie, offre à l'observation des réalités et des apparences, des substances et des phénomènes. Le magnétisme, cette capacité qu'ont les aimants de s'attirer ou de se repousser, est à ranger dans les phénomènes, mais on a pu se demander si l'aimant lui-même n'était pas une substance. Des interrogations tout aussi légitimes ont porté sur la chaleur, la lumière et l'électricité. La matière, en revanche, est sans hésitation possible le type même de la substance.
Elle est ce dont les corps sont faits, elle a des qualités et des propriétés, elle peut être le siège de divers phénomènes. En un sens, conformément à un usage bien établi, il y a plusieurs matières : un objet peut être en bronze ou en bois, en chêne ou en pin. Chaque variété de bois, chaque métal, a ses qualités propres. Mais ces matières – ces matériaux comme on dit aussi à propos des objets fabriqués, ces substances comme disent les chimistes – ont en commun d'être des variétés d'une seule et même substance, qui est ce que l'on appelle la matière.


Chacun sait qu'il y a des corps lourds, que certains sont chauds, bref que les corps ont des qualités plus ou moins définitives, plus ou moins changeantes. Quand toutes les qualités des corps viendraient à changer, quelque chose n'en subsisterait pas moins. C'est cette substance que la science appelle la matière et dont elle cherche, sinon la nature, du moins la constitution.
Au fil des siècles, la science s'est préoccupée de déterminer le plus possible de propriétés empiriques – ou macroscopiques – de la matière. Elle a eu à en chercher aussi la structure intime, ainsi que les propriétés de ses constituants, afin de pouvoir expliquer les différentes propriétés et les différents phénomènes dont la matière est le siège, telles la dureté et la chaleur. Ses succès remarquables ont, en un sens, déplacé le problème. Car la question est maintenant de savoir de quoi les particules élémentaires sont faites. Les seules réponses que l'on sache donner à cette question sont quasiment d'ordre mathématique.


2.1. Les conceptions anciennes
Les Grecs, dans leurs audacieuses spéculations, avaient proposé différentes conceptions de la matière. Pour certains, tels qu’Épicure (vers 341-270 avant J.-C.), puis Lucrèce (vers 98-55 avant J.-C.), il s'agissait de quelque chose de lacunaire, voire de particulaire ; pour d'autres, notamment Aristote (384-322 avant J.-C.), de quelque chose de continu. Rien n'avait véritablement permis de les départager sinon, au Moyen Âge, l'autorité reconnue par l'Université à Aristote.

La situation changea au début du xviie s. avec René Descartes (1596-1650). Celui-ci formula une doctrine mécaniste que l'on peut dire radicale. Non seulement la matière fut entièrement séparée de l'esprit, mais en outre elle ne devait plus avoir que le minimum le plus strict de qualités fondamentales : être étendue et divisible en parties susceptibles de se mouvoir, le mouvement devant suivre quelques lois extrêmement simples. Il s'agissait de rendre compte sur cette base de tout ce qui se rencontre dans la nature, par des explications données en termes de machineries, en quelque sorte. Le cartésianisme fut un temps de chasse aux qualités. Il ne niait pas que, dans les phénomènes, il puisse se rencontrer par exemple des attractions entre aimants, mais pas question d'y voir l'effet d'une vertu magnétique conçue comme qualité dernière. L'aimantation de la pierre de Magnésie était attribuée aux formes et aux mouvements d'une partie imperceptible de la matière. Quoique ce projet ait échoué, il avait marqué les esprits.

2.2. Du xviiie s. à nos jours

Petit à petit, il fallut admettre d'autres propriétés fondamentales de la matière. Isaac Newton (1643-1727) notamment, démontra que deux corps s'attirent toujours, quoique l'on n'ait jamais réussi à imaginer un mécanisme expliquant ce phénomène et les lois qui le régissent. La notion même de masse, déjà, ne se laisse guère expliquer en termes mécanistes. La masse a dû être acceptée comme qualité première, tandis que le poids devenait un simple phénomène, explicable par les masses et les forces de gravitation. Ces forces à distance, à l'existence bien établie, valurent un embarras certain à leurs premiers défenseurs, parce qu'elles semblaient réintroduire les qualités occultes.
C'est dans le cadre d'un mécanisme relatif, comme à regret, que les physiciens puis les chimistes ont emboîté le pas à Galilée (1564-1642). Reprenant la démarche qui avait réussi à Archimède en statique, celui-ci avait montré comment concentrer l'interrogation de la nature sur les grandeurs que l'on peut définir : longueurs, vitesses, poids, etc. Les physiciens inventèrent ainsi la température, au xviiie s., en la distinguant de la chaleur. Ils firent ensuite de celle-ci l'une des formes de l'énergie, nouvelle grandeur douée comme la masse de la propriété d'invariance : dans un système isolé, elle se conserve en quantité même si elle change de forme.


Un nouveau virage intervint au début du xxe s., où matière et énergie étaient encore considérées comme deux concepts indépendants, à l'origine de tout phénomène physique. En effet, la théorie de la relativité restreinte d’Einstein, formulée en 1905, permit de regrouper ces deux concepts par la célèbre relation d’équivalence entre la masse et l’énergie : E = mc2. Puis se développa la physique quantique, sous l’impulsion notamment de Max Planck, qui accentua le bouleversement de notre conception de la matière : la matière, à son stade ultime de particule élémentaire, peut être considérée comme une perturbation de l’espace-temps.

3. Les états de la matière

De manière générale, la matière peut être solide ou fluide. Les corps solides conservent leur forme, tandis que celle des fluides s'adapte au récipient qui les contient. Parmi les fluides on distingue les liquides et les gaz : ces derniers peuvent être aisément comprimés. La matière se présente donc généralement sous trois états physiques : solide, liquide ou gazeux. De très nombreux genres de corps peuvent passer par ces trois états, selon les conditions. On sait bien que l'eau peut devenir glace comme elle peut devenir vapeur. Il suffit que la température varie. Les changements d'état d'un corps peuvent aussi résulter des variations de la pression.
Par ailleurs, il existe des états particuliers, comme l’état de plasma (gaz partiellement ou totalement ionisé), l’état superfluide (viscosité nulle), l’état supraconducteur (résistance électrique nulle) ou encore l’état de condensat de Bose-Einstein (atomes dans le même état quantique d’énergie minimale), qui nécessitent un formalisme quantique complexe.
La physique a établi, pour chaque substance et dans chacun des états, diverses propriétés quantitatives : masse volumique, densité, température de fusion à la pression atmosphérique, etc. La chimie a poursuivi de son côté l'idée qu'il se produit, lors d'une réaction, des changements qui affectent la matière plus profondément que ne le font les simples changements d'état. En d'autres termes, elle a fait sienne l'enquête sur la nature de chaque matière. Une fois devenue attentive elle aussi aux aspects quantitatifs des choses, elle a pu établir que la masse totale des corps se conserve au cours de toute réaction. La physique, peu après, affirma un principe de conservation de portée encore plus grande pour l'énergie, notion qui en est venue ainsi à concurrencer celle de matière.
→ transition de phase, phase.

4. La structure intime de la matière
La chimie, au début du xixe s., a commencé à donner une forme élaborée à l'une des vieilles conceptions de la matière, l'atomisme. L’histoire attribue généralement à Démocrite l'idée que la matière pouvait être composée de corpuscules insécables , plus ou moins semblables les uns aux autres, et que toutes les propriétés de la matière devaient pouvoir s'expliquer par leurs divers arrangements. Toutefois, il semblerait que Démocrite ne soit pas le matérialiste qu’on a l’habitude de décrire et que l’atomisme soit plutôt porté par Épicure puis par son disciple Lucrèce. Les chimistes, tout un siècle durant, tâtonnèrent à la recherche d'une théorie apte à rendre compte de tous les faits, qualitatifs et quantitatifs. Les physiciens prirent le relais à la fin du xixe s., et révélèrent enfin la structure générale de la matière.

4.1. Les atomes

Les atomes d'un même élément, le néon (Ne) par exemple, peuvent rester isolés les uns des autres. La plupart s'associent, en molécules ou bien en cristaux. Ainsi l'eau est-elle composée de molécules comportant chacune deux atomes d'hydrogène et un d'oxygène (H2O). Un cristal est constitué de nombreux atomes disposés de manière tout à fait régulière. Le chlorure de sodium, par exemple, c'est-à-dire le sel de table, est fait d'atomes de chlore (Cl) et d'atomes de sodium (Na) en nombre égal, rangés selon un ordre répétitif et rigoureux.
Dans une molécule, comme dans un cristal, les atomes restent ensemble sous l'effet des forces qu'ils exercent les uns sur les autres. Il s'agit de forces électriques dues à la présence de charges. Elles sont présentes dans tout atome, quoique celui-ci, au total, soit électriquement neutre.
Ces forces s'exercent aussi entre les molécules, plus ou moins selon les circonstances, ce qui explique les états physiques. Fortement liées entre elles, les molécules ne peuvent pas bouger les unes par rapport aux autres : le corps est solide. Totalement libres au contraire, elles se déplacent à grande vitesse et dans tous les sens : le corps est gazeux. Ces mouvements se produisent au milieu de beaucoup de vide, ce qui explique qu'un gaz puisse voir son volume réduit par compression. Le liquide est la situation intermédiaire où les forces s'exercent suffisamment pour limiter la liberté, mais pas assez pour empêcher un glissement relatif des molécules.
Quant à la température on l'explique, dans les trois états, par le degré d'agitation des atomes et des molécules.

4.2. Les noyaux atomiques

Les atomes sont tous composés d'un noyau autour duquel gravitent des électrons. Les nucléons, c'est-à-dire les constituants du noyau, sont des protons et des neutrons. Tous ont une masse. Protons et électrons portent en outre des charges électriques, égales et de signes opposés. Au sein du noyau, les protons, chargés positivement, devraient se repousser. Or l'attraction universelle est bien trop faible pour compenser la force électrique. C'est une autre force, l'interaction forte, qui retient les nucléons groupés.
Un atome peut s'ioniser, c'est-à-dire perdre ou gagner un ou plusieurs électrons. L'ionisation est un aspect important des atomes pour la chimie : de la capacité des atomes à s'ioniser dépend dans une large mesure l'aptitude des corps à réagir ou pas les uns avec les autres.
→  ion, réaction chimique
Dans des conditions extrêmes, les atomes peuvent même perdre tous leurs électrons. On obtient alors un plasma, considéré comme un quatrième état de la matière. Les étoiles, autrement dit la plus grande partie de la masse de l'Univers, sont à l'état de plasma.

4.3. Les particules

Les nucléons eux-mêmes se sont révélés être des particules composées par d’autres particules plus élémentaires encore : les quarks. La théorie des quarks a été élaborée puis confirmée expérimentalement dans la seconde moitié du xxe s. Elle consiste à expliquer l'existence et les propriétés des protons et des neutrons, et, avec eux, de toutes les particules que l'on place dans la catégorie des hadrons, par les combinaisons de six types de quarks, aussi appelés « saveurs ». Chacun est désigné par une lettre : u (up), d (down), c (charm), s (strange), t (top), b (bottom). Les quarks sont caractérisés par leur masse et leur charge électrique, mais aussi par d'autres paramètres tels que leur couleur. Le proton correspond à la combinaison uud, et le neutron, à udd. L'électron n'est pas concerné car il n'est pas de la famille des hadrons mais de celle des leptons, qui compte six particules (l’électron, le neutrino électronique, le muon, le neutrino muonique, le tau, et le neutrino tauique).

On a ainsi les douze particules élémentaires du modèle standard. Et la masse de ces douze particules fait intervenir une seule particule : le boson de Higgs, très probablement détecté en 2012 dans le grand collisionneur de hadrons (LHC) du Cern, près de Genève..

4.4. Formes et apparences de la matière
La matière était initialement regardée comme ce dont les corps « sensibles » sont faits. Elle était conçue comme une substance, opposée en cela aux phénomènes. De ces derniers, comme pour le magnétisme, on pouvait espérer trouver une explication qui les aurait réduits à un statut d'illusions inévitables. Or la matière n'est pas que formes et mouvements, c'est aussi de la masse ainsi qu'une capacité attractive liée à celle-ci. L'électricité, en revanche, n'apparaissait liée à la matière que de façon accidentelle. Il fallait électriser un corps pour qu'il portât une charge. Tout cela reste vrai lorsque l'on prend les choses au niveau de nos sens. Mais lorsque le regard pénètre plus en profondeur, grâce à tout l'arsenal de la science, expérimental et théorique à la fois, cet ordonnancement doit laisser place à d'autres, plus complexes.
4.5. Matière et ondes

La mécanique rationnelle de Newton, science des mouvements et de leurs rapports avec les forces, avait obtenu de beaux succès à l'échelle macroscopique, tout particulièrement dans l'étude du Système solaire. Pour l'atome isolé et pour ses constituants, il a fallu l'abandonner au profit de la mécanique quantique. Un des aspects majeurs de celle-ci est que toute particule se voit associer une onde, tout comme l'onde électromagnétique s'était vue associer une particule, le photon. L'opposition de la matière et de la lumière en a été sensiblement réduite ; la barrière qui les sépare peut être repérée dans les caractéristiques du photon. Notamment, bien qu'il ait une quantité de mouvement et une énergie, celui-ci n'a pas de masse. La mécanique quantique, en même temps, a limité drastiquement les espoirs de pouvoir acquérir une connaissance expérimentale aussi fine que voulue de l'infiniment petit : ce qui se gagne en précision dans la connaissance d'une grandeur (position, temps) ne peut que se perdre sur une autre (vitesse, énergie).

4.6. Matière et énergie

Une autre mécanique, celle de la relativité restreinte, nécessaire lorsque les particules sont animées de grandes vitesses (proches de celle de la lumière), a annoncé que la matière ne devait pas être opposée à l'énergie de manière trop tranchée. Plus exactement, la masse, qui passait auparavant pour la grandeur la plus caractéristique de la matière, peut se transformer en énergie (selon la célèbre formule d’Einstein : E = mc2). La technique des explosifs nucléaires et thermonucléaires témoigne de la justesse de cette conception, de sorte que la matière n'a pu conserver un statut de véritable substance.
Pis encore, lorsque de l'énergie se transforme en matière, il y a création simultanément d'antimatière. Le phénomène se produit dans le cosmos, ou bien à l'occasion de collisions dans les accélérateurs de particules. Pour chaque particule il existe une antiparticule, de même masse mais de charge électrique opposée : le positon (ou positron), par exemple, pour l'électron. L'antiparticule est détruite par la rencontre de sa particule associée, aussi ne peut-elle exister que pendant un temps extrêmement bref. Ainsi la matière se trouve-t-elle doublée, au moins sur un plan théorique, par quelque chose dont on ne sait trop s'il faut en parler comme d'une autre substance.
Mais le plus grand mystère concernant la matière est le fait que celle-ci représente moins de 5 % du total masse/énergie de l’Univers ! En effet, l’Univers serait également composé d’environ 25 % de matière noire de nature inconnue et de 70 % d’une d’énergie noire tout aussi mystérieuse…

4.7. Matière et interactions
L'analyse de la matière, depuis la découverte de la gravitation universelle jusqu'à nos jours, a constamment donné le beau rôle aux interactions, c'est-à-dire aux forces qui s'exercent entre les corps. La physique tend à réduire le nombre de celles-ci. Déjà l'interaction électromagnétique et l'interaction faible, propre aux particules à faible durée de vie, ont pu être réunies en une seule théorie, celle de l'interaction électrofaible, et les théoriciens espèrent bien parvenir à une théorie qui la réunirait aux deux autres, l'interaction forte et l'attraction universelle.
→ interactions fondamentales, gravitation.
Mais quelle que soit l'unité que l'on puisse mettre dans ce domaine, il faut tenir compte d'une nouvelle réalité, bien établie désormais : le phénomène de l'interaction entre deux particules A et B s'accompagne de l'échange, entre A et B, d'une troisième, à durée de vie limitée, désignée de manière générique sous l'appellation de boson vecteur. Celui de l'attraction universelle, qui n'a pas encore été mis en évidence expérimentalement, serait le graviton. Ainsi la distinction entre particules et interactions est devenue de plus en plus floue.

5. La nature de la matière
5.1. Une définition de plus en plus complexe

Au point où sont parvenues les sciences de la nature, la matière est une notion qui a perdu une partie de son importance au bénéfice de l'énergie, de l'interaction, de l'antimatière, voire du vide. Ce dernier s'est révélé posséder tant de propriétés qu'il est presque permis d'y voir une substance, moins évanescente, en un sens, que la matière.
→ vide.
À la question de savoir ce qu'est la matière, il n'est plus guère possible de donner une réponse unique. Il faut que la question soit précisée par l'indication du niveau visé (macroscopique, atomique ou particulaire). Une réponse simplifiée consiste à dire qu'elle est un assemblage de particules ; la propriété qui assure le mieux leur unité étant la masse.

5.2. Au carrefour de plusieurs sciences
L'étude de la matière est une tâche répartie entre différentes sciences de la nature. Si la physique a été la première héritière de la philosophie naturelle, la chimie l'a suivie et l'on a d'abord eu l'impression qu'elles pouvaient se répartir les rôles. Cette dernière se réservait la question de la nature intime de la matière, de ce qui fait que le bronze n'est pas le fer. Mais la chimie s'est vue en quelque sorte contournée : elle est science des molécules et autres arrangements d'atomes. Elle étudie les transformations au cours desquelles les atomes, ou du moins les noyaux, conservent leur intégrité. Dès qu'il n'en va plus ainsi, on parle de physique nucléaire et, au niveau inférieur, de physique des particules. Même la science de l'atome, indépendamment de toute transformation, est plutôt cataloguée comme physique atomique, malgré tout ce qu'elle doit aux efforts des chimistes du xixe s. D'un point de vue théorique, la chimie n'est qu'une branche spécialisée de la physique. Quant à la biologie prise dans son unité, elle vise elle-même à n'être qu'une branche spécialisée de la physique-chimie, celle qui se consacre à l'étude des phénomènes de la vie. Les chimistes, mais aussi des biochimistes et des astrochimistes, ont mis à mal l'idée d'une nature propre à la matière vivante, en réalisant notamment des synthèses de substances organiques. Si le passage de l’inerte au vivant reste encore une énigme, celle-ci semble de plus en plus à portée de main.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

Mieux comprendre les hommes...

 

 

 

 

 

 

Mieux comprendre les hommes...


Luc Steels dans mensuel 350
daté février 2002 -

Construirons-nous un jour des robots humanoïdes autonomes et aussi performants que nous-mêmes dans les domaines moteur, sensoriel et cognitif ? C'est peu probable. En revanche, la mise au point de machines de plus en plus perfectionnées permet de mieux comprendre les capacités humaines, telles que la marche ou l'apprentissage du langage.

IA, le récent film de Steven Spielberg, où un robot ressemble à s'y méprendre à un humain, est une histoire étonnante, dont chaque spectateur appréciera ou non l'intérêt dramatique. Toutefois, en ce qui concerne sa vraisemblance, les spécialistes de l'intelligence artificielle savent à quoi s'en tenir : non seulement aucun d'entre nous ne sait aujourd'hui fabriquer des machines aussi perfectionnées, mais cela ne fait même pas partie de notre programme de recherche.
Cette affirmation peut sembler paradoxale au vu des efforts intenses que poursuivent aujourd'hui quelques entreprises pour mettre au point des robots humanoïdes. De tels robots, qui marchent sur deux jambes, saisissent des objets avec leurs mains et interagissent avec leur environnement grâce à des capteurs visuels, auditifs ou tactiles, auront vraisemblablement des applications pratiques dans notre vie quotidienne, ne serait-ce que comme jouets.
Mais aux yeux des chercheurs en intelligence artificielle, ce n'est pas leur principal intérêt. Notre préoccupation est plutôt de mieux comprendre comment les hommes pensent, se comportent ou se développent. De ce point de vue, les robots permettent de tester des hypothèses en réalisant des expériences. Nous pouvons par exemple déterminer la validité d'un modèle théorique associé à une fonction telle que la marche ou le langage : sa mise en oeuvre révèle sans équivoque s'il permet à un robot de marcher ou de parler. En cas d'échec, le modèle est éliminé. En cas de réussite, nous n'avons bien sûr pas la certitude que les humains fonctionnent de la même façon, mais le modèle testé entre dans la catégorie des mécanismes plausibles, que les psychologues et les biologistes peuvent à leur tour soumettre à d'autres tests.

Avancées techniques. L'intelligence artificielle a émergé vers 1960, à une époque où les capacités des ordinateurs étaient bien trop faibles pour que quiconque puisse prétendre recréer une quelconque forme d'intelligence. Elle n'a en fait vraiment pris son essor que depuis une dizaine d'années, grâce à trois avancées importantes. D'abord, toutes les technologies nécessaires au fonctionnement de robots autonomes assez performants pour tester des modèles d'apprentissage ou de comportement ont énormément progressé : capacités des batteries, des moteurs, des microprocesseurs ou des capteurs.
Ensuite, dans la même période, les différents sous-domaines de l'intelligence artificielle ont aussi beaucoup progressé. Nous disposons désormais d'algorithmes performants pour l'apprentissage de connaissances, pour la vision par ordinateur voir l'article de Thierry Viéville p. 42, pour la planification de l'action ou pour le traitement de la parole. Le principal défi à relever aujourd'hui est l'intégration de toutes ces fonctionnalités au sein d'un système unique, dont les performances seraient supérieures à la somme des performances des systèmes spécialisés : ces derniers compenseraient mutuellement leurs éventuelles imperfections en interagissant. Par exemple, le système de vision et de reconnaissance d'objets d'un robot aiderait son système de traitement de la parole à comprendre des informations orales concernant les objets présents dans l'environnement.
La troisième grande avancée de l'intelligence artificielle, la plus importante, concerne l'architecture des robots. Contrairement aux deux autres, il ne s'agit pas seulement d'une amélioration de dispositifs existants, mais d'une totale remise en question des approches antérieures. Jusqu'au début des années 1990, en intelligence artificielle, on construisait un module de contrôle central, qui prenait toutes les décisions et qui ne déclenchait l'action qu'après une réflexion attentive. Avec Rodney Brooks, du Massachusetts Institute of Technology, j'ai alors proposé de développer une « robotique comportementale », où l'intelligence est distribuée dans plusieurs modules qui coopèrent de manière dynamique. Chaque module est entièrement responsable de l'accomplissement d'un certain nombre d'actions, telles que marcher, saisir des objets ou se lever. Il recueille des informations provenant de son environnement et de ses propres états, il décide de l'action à mener, et influence le comportement global du robot. Le fonctionnement résultant est complexe, mais le robot adapte mieux et plus vite ses actions aux variations de son environnement.

Modèles partiels. Ainsi, le robot n'a plus besoin d'un modèle du monde centralisé comme en intelligence artificielle classique, mais chaque module développe ses propres représentations, qui peuvent être partielles et spécialisées. Par exemple, afin d'éviter un objet, il n'est pas nécessaire de l'identifier, ce qui prend beaucoup de temps et qui n'est pas vraiment fiable : il suffit d'en détecter les contours pour réagir immédiatement. Cela donne un comportement moins sujet aux erreurs et des réponses plus rapides au monde extérieur, comme nous l'avons vérifié lors d'essais comparatifs entre les deux types d'approche1.

Décisions émotionnelles. Enfin, au lieu d'utiliser des procédures de décision rationnelle fondées sur le raisonnement logique, les architectures comportementales se fondent sur des modèles éthologiques du comportement animal : des états de motivation qui varient dans un espace continu et sont directement connectés à la perception et aux actions dans le monde, influencent mais ne contrôlent pas totalement l'activation des différents comportements et leurs interactions. Cela permet au robot de prendre des décisions dans des circonstances que les raisonnements rationnels de l'intelligence artificielle classique ne peuvent pas traiter, par exemple de décider ce qu'il doit regarder dans une scène où plusieurs objets bougent, accompagnés par des sons. De la même façon, un robot alimenté par une batterie tiendra compte de la charge de celle-ci avant de s'engager dans la réalisation d'une tâche.
La pertinence de cette approche comportementale a été validée dans le domaine sensori-moteur. C'est en effet en l'utilisant que Sony a mis au point Aibo , le robot chien de compagnie voir l'article de F. Kaplan, M. Fujita et T. Doi, p. 84 et le DreamRobot qui peut se lever, vous serrer la main ou danser la Macarena.
En revanche, dans le domaine cognitif, les résultats de la robotique comportementale ne sont pas encore très impressionnants. En particulier, les capacités de communication des robots restent limitées. C'est sur ce point que porte l'essentiel des travaux que nous menons aujourd'hui à Bruxelles et à Paris. Chez l'homme, le langage est le mode de communication le plus naturel et le plus efficace. Vers l'âge de deux ans, on assiste chez les enfants à une explosion de son utilisation et à un développement rapide de la conceptualisation. Pourrait-on atteindre au moins cette étape avec des robots ?

Au XXe siècle, la psychologie cognitive s'est focalisée sur l'individu, et la recherche en intelligence artificielle s'est engagée sur la même voie. Les behavioristes*, en particulier, ont défendu l'hypothèse que les enfants apprennent par induction à partir d'un ensemble de situations modèles. D'après eux, par exemple, l'enfant créerait des catégories naturelles telles que les couleurs, les formes ou les textures en catégorisant spontanément les caractéristiques des objets qu'il voit, et qui changent en permanence. Ensuite seulement, il nommerait ces catégories avec précision. Aujourd'hui, beaucoup d'algorithmes d'apprentissage fonctionnent de cette façon. Mais cela n'aboutit souvent qu'à des concepts très éloignés de ceux rencontrés dans les langues humaines, sauf si l'expérimentateur choisit très soigneusement les exemples proposés au robot comme support de l'apprentissage2.

Ce n'est en fait pas comme cela que nous apprenons à parler. Au milieu des années 1990, des psychologues tels que Michael Tomasello, aujourd'hui à l'Institut Max Planck d'anthropologie évolutionniste de Leipzig, et Jérôme Bruner, aujourd'hui à l'université de New York, ont proposé une théorie alternative : l'apprentissage social. Selon eux, la plupart des apprentissages ne sont pas le fait d'un individu isolé : il nécessite l'interaction d'au moins deux personnes. Appelons-les l'apprenant et le médiateur. Le plus souvent, le médiateur est un parent et l'apprenant un enfant, bien que les enfants ou les adultes puissent aussi apprendre les uns des autres. Le médiateur impose des contraintes à la situation afin d'encadrer l'apprentissage : il encourage verbalement, donne des appréciations et agit sur les conséquences des actions de l'apprenant. Les appréciations ne sont ni très précises ni très régulières, mais le plus souvent pragmatiques, selon que l'objectif fixé a été atteint ou non. Le médiateur est absolument nécessaire, sans quoi le champ des possibilités qui s'offrent à l'apprenant serait vraiment trop vaste pour qu'il puisse deviner ce qu'on attend de lui.

Les jeux de langage sont un bon exemple de ce mode d'apprentissage3. Un jeu de langage est une suite répétitive d'interactions entre deux personnes. Tous les parents jouent à des milliers de jeux de ce type avec leurs enfants. Et, tout aussi important, les enfants jouent à ce type de jeux entre eux à partir d'un certain âge. En voici un exemple type, entre un père et son enfant devant des images d'animaux. L'enfant apprend à reconnaître et à reproduire les sons émis par les différents animaux, à associer son, image et mot.
Le père : « Comment fait la vache ? [il montre la vache] Meuh ».
L'enfant : [il se borne à observer]
Le père : « Comment fait le chien ? » [il montre le chien] « Ouah. »
L'enfant : [il observe]
Le père : « Comment fait la vache ? »
[il montre à nouveau la vache puis attend...]
L'enfant : « Meuh »
Le père : « Oui ! »

Cet apprentissage nécessite plusieurs modalités et capacités sensorielles son, image, parole et il contient un ensemble d'interactions répétitives qui est bien implanté au bout d'un moment, de sorte que ce qui est attendu est clair. Le sens d'un mot nouveau, par exemple, ici, du nom d'un nouvel animal, peut être deviné grâce à sa position dans la phrase prononcée par le médiateur.
Pour les théoriciens de l'apprentissage social, l'apprenant ne reçoit pas passivement les données qui lui sont transmises mais teste ses connaissances en interagissant avec son environnement et avec les personnes qui s'y trouvent. Toute interaction est une occasion d'apprendre ou de mettre à l'épreuve des connaissances existantes. Il n'y a pas de dichotomie marquée entre une phase d'apprentissage et une phase d'utilisation.

Jouer aux devinettes. Enfin, l'une des caractéristiques de l'apprentissage social - probablement la plus importante illustrée par ce jeu - est que l'apprenant essaie de deviner les intentions du médiateur. Ces intentions sont de deux ordres. D'abord, l'apprenant doit deviner l'objectif que le médiateur cherche à lui faire accomplir. Ensuite, il doit deviner la manière de penser du médiateur : l'apprenant doit, dans une certaine mesure, développer une idée de ce que pense son interlocuteur, ce qui lui permet de comprendre ses ellipses de langage.
Un robot humanoïde apprendra-t-il un jour de cette façon à parler comme nous ? J'en doute fort, mais, au moins dans un premier temps, les expériences menées avec les robots nous aideront à tester des modèles scientifiques de l'apprentissage social et de le comparer systématiquement à l'apprentissage solitaire de type behavioriste. Pour cela, le robot doit d'abord remplir certaines conditions préliminaires. En particulier, il doit pouvoir interagir avec des interlocuteurs. Divers chercheurs en intelligence artificielle explorent actuellement ce sujet.
Ainsi, en 1998, au Massachusetts Institute of Technology, Cynthia Breazeal a mis au point Kismet , une tête animée dont les yeux sont des caméras et les oreilles, des micros4. Il est équipé d'un synthétiseur pour produire des sons. Ses traits sont stylisés, mais ils traduisent bien l'animation du visage. Il a déjà prouvé qu'il pouvait établir un espace d'attention partagée avec un expérimentateur. Ainsi, lorsque ce dernier saisit un objet et le déplace, Kismet le suit des yeux. Il peut aussi identifier et suivre des visages, reconnaître quand les gens montrent un objet du doigt, prendre la parole à son tour même si les sons qu'il produit n'ont aucun sens, identifier et exprimer des états émotionnels comme la peur, l'intérêt ou la joie ce qui n'est évidemment pas la même chose que d'éprouver vraiment ces émotions. Toutes ces fonctions sont essentielles pour l'apprentissage social. Elles ont été obtenues par la combinaison d'algorithmes de reconnaissance des formes et d'analyse de scènes avec des programmes perfectionnés d'intelligence artificielle qui construisent les modèles du monde et des individus qui participent à l'interaction.

Nous avons franchi une étape supplémentaire en explorant l'apprentissage social par les jeux de langage avec différents robots possédant les mêmes capacités que Kismet , notamment des dérivés d' Aïbo voir aussi l'encadré : « Les têtes parlantes ». Dans une première série d'expériences, un expérimentateur a proposé à Aïbo de jouer à la balle. Le chien robot percevait des images de la balle dans son environnement. Contrairement à ce qu'on pourrait naïvement croire, il est extrêmement difficile de déterminer que différentes images correspondent à un même objet, en l'occurrence à une balle. On ne voit en effet jamais celle-ci en entier. En outre, sa couleur change selon sa position et l'éclairage de la pièce. Parfois, l'algorithme de reconnaissance d'objets détecte la présence de plusieurs objets au lieu d'un seul, simplement à cause d'une tache de lumière sur la balle. Avec des objets plus complexes, l'aspect peut même être complètement différent selon l'angle sous lequel on regarde. Au lieu de se fier à une reconnaissance d'objet rigoureuse selon, les critères de l'intelligence artificielle classique, le robot utilise donc une approche fondée sur la mémoire sensitive du contexte. Il mémorise toutes les caractéristiques des situations d'apprentissage, aussi bien sa propre position ou les actions qu'il est en train d'effectuer que la distribution des couleurs dans la scène visuelle, et la reconnaissance d'objet se fait avec un algorithme de recherche de la situation la plus proche. L'avantage de cette technique est que le robot peut mémoriser à tout moment de nouvelles situations décrivant l'objet. Ainsi la caractérisation d'un objet est affinée en permanence.

Chien parlant. Ici, le rôle du langage est fondamental pour déterminer ce qui est une balle. Le médiateur choisit les situations qui servent d'exemples et donne son appréciation sur les performances du robot. En utilisant ces mécanismes, nous avons programmé une version améliorée d' Aïbo pour qu'elle utilise un vocabulaire restreint de mots ancrés dans son expérience sensori-motrice.
Ces premiers résultats sont encourageants. Nous sommes bien sûr encore très éloignés d'humanoïdes entièrement autonomes dont les capacités cogni-tives s'approcheraient, même de loin, de celles de l'homme. Mais la fabrication de machines est bien un moyen puissant pour mieux comprendre ce qui nous rend uniques en tant qu'humains, ne serait-ce que parce que ces machines constituent des points de comparaison. Nos travaux montrent qu'un ancrage dans le monde par l'intermédiaire d'un corps physique et l'appartenance sociale à une communauté sont d'une grande importance pour apprendre les concepts et le langage utilisés dans les communautés humaines. Si nous sommes intelligents, c'est en partie parce que nous vivons en société. Si nous voulons des robots intelligents, nous devrons beaucoup interagir avec eux.

1 L. Steels et R.A. Brooks, The Artificial life Route to Artificial Intelligence : Building Embodied Situated Agents , Lawrence Erlbaum Associates, 1995.
2 L. Steels et F. Kaplan, AIBO's F irst W ords. The S ocial L earning of L anguage and M eaning. Evolution of Communication , 41, 2001.
3 L. Steels, IEEE Intelligent S ystems , September/October 2001, p. 16.
4 C. Breazeal et B. Scassellati, Infant-like Social Interactions Between a Robot and a Human Caretaker, in Special Issue of Journal of Adaptive Behavior, Simulation Models of Social Agents , guest editor Kerstin Dautenhahn, 1999.
5 L. Steels et al. , in The Transition to Language , édité par A. Wray et al. , Oxford University Press, 2002.

 

DOCUMENT   larecherche.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google