ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

Les particules élémentaires de la matière

  initiation musicale


 

 

 

 

 

Les particules élémentaires de la matière

Publié le 4 mars 2016
       
Les objets, la lumière, l’électricité… La matière qui nous entoure est un assemblage de particules élémentaires reliées entre elles par des interactions. C’est ce que décrit la théorie du modèle standard de la physique des particules. Cette théorie explique l’origine, la composition et les propriétés intimes de la matière et des forces à l’aide de « grains » élémentaires. Certaines de ces particules ont été observées et étudiées depuis longtemps. D’autres commencent tout juste à être « détectées », comme le boson de Higgs. Certaines n’ont cependant toujours pas pu être débusquées par les plus puissants détecteurs du monde.


LES PARTICULES,
INGRÉDIENTS DE LA MATIÈRE


La matière qui nous entoure est composée de particules élémentaires, plus petites que les atomes. Ces « briques » microscopiques sont définies par plusieurs propriétés :
*         une masse : une particule est plus ou moins « massive ». À cette échelle infiniment petite, la masse s’exprime en énergie (électronvolt) ;
*        
*         une charge électrique : une particule peut posséder des propriétés électriques ou non ;
*        
*         un spin : responsable d’une partie des propriétés magnétiques, à l’échelle subatomique ;
*        
*         une « charge de couleur » : rouge, verte ou bleue (attention : à l’échelle des particules, la notion de « couleur » n’est pas la même qu’à l’échelle humaine ; il s’agit d’un code auquel on peut attribuer 3 possibilités, représentées par trois couleurs).
*        
Selon leurs propriétés et leur environnement, les particules peuvent s’attirer, rester ensemble, s’éviter, ne pas interagir du tout…

Propriétés de quelques particules
     Masse    Charge    Spin    Couleur
  Quark up      1,5->4 Me/c2    +2/3    ½    1 couleur (rouge, vert ou bleu)
  Quark down      4->8 MeV/c2    -1/3    ½    1 couleur (rouge, vert ou bleu)
  Electron      ≈ 0,5 MeV/c2    -1    ½    pas de couleur
  Neutrino ve      < 2,5 eV/c2    0    ½    pas de couleur
  Photon      0 eV/c2    ≈ 0    1    pas de couleur
  Gluon      0 eV/c2    0    1    1 couleur +1 « anti-couleur »
  Boson de Higgs      ≈ 125 GeV/c2    0    0    pas de couleur
  Positon      ≈ 0,5 MeV/c2    +1    ½    pas de couleur




DEUX GRANDES FAMILLES :


LES « GRAINS » DE MATIÈRE
ET LES CHAMPS DE FORCE
De façon générale, il existe deux grandes familles de particules-clés : les fermions et les bosons. Les premiers constituent les briques de matières tandis que les seconds sont des champs de force qui permettent à ces briques d’interagir et de s’assembler.
NB : Les « antiparticules » sont des particules (fermions ou bosons) de charge électrique et de couleur opposées à celles des particules « standard ».


 Les particules élémentaires. © CEA - Cliquez sur l'image pour l'agrandir.




DES PARTICULES ÉLÉMENTAIRES
AUX ATOMES :
COMPRENDRE L’INFINIMENT PETIT


Les atomes, encore parfois présentés à tort comme plus petites unités de matière, sont constitués de fermions, « particules de matière », maintenues ensemble par des bosons, « particules de force ».
*         Le noyau d’un atome est composé de protons et de neutrons. Ces éléments sont des assemblages de quarks (hadrons baryoniques) de la famille des fermions.
*        
*         Ils sont maintenus ensemble grâce à des échanges continus de gluons, qui appartiennent à la famille des bosons.
*        
*         Des électrons circulent autour du noyau : ces leptons sont liés au noyau par des photons (interaction électromagnétique).
*        
Grâce aux gluons, les quarks peuvent s’assembler et former des particules composites. On ne parle plus de particules élémentaires, mais de hadrons (assemblages de quarks).

Cliquez sur l'image pour l'agrandir.

Les assemblages de particules. © CEA







LES OUTILS DE RECHERCHE
Beaucoup de particules élémentaires ne sont pas stables. Elles se désintègrent rapidement en d'autres particules, ce qui rend leur étude difficile. Sonder la matière à l’échelle subatomique nécessite des outils de pointe :
*         Les accélérateurs de particules permettent de provoquer des collisions de particules à des vitesses proches de celle de la lumière, pour en créer de nouvelles et étudier leurs propriétés. Il est possible de recréer des conditions (d'énergie, de température…) proches de celles qui existaient au début de l'Univers. Ces accélérateurs produisent ainsi des particules fugaces qui existaient dans les premiers instants de l’Univers. Ces particules sont observées grâce à des détecteurs géants. Le LHC (Large Hadron Collider), plus grand accélérateur de particules du monde, est installé dans un tunnel en forme d’anneau de 27 km de circonférence, creusé à 100 mètres sous terre entre la France et la Suisse.
*        
*         Les observatoires spatiaux : l’étude de l’Univers est intimement liée à la physique des particules. Elles tendent toutes les deux à comprendre l’origine de l’Univers, son évolution et sa composition. Par exemple, Le télescope HESS II étudie des rayons cosmiques appelés « sursauts gamma », qui sont constitués de jets de photons très énergétiques. Les rayonnements cosmiques peuvent être également composés de protons, noyaux d’hélium ou encore d’électrons.
Les particules élémentaires de la matière

Publié le 4 mars 2016
       
Les objets, la lumière, l’électricité… La matière qui nous entoure est un assemblage de particules élémentaires reliées entre elles par des interactions. C’est ce que décrit la théorie du modèle standard de la physique des particules. Cette théorie explique l’origine, la composition et les propriétés intimes de la matière et des forces à l’aide de « grains » élémentaires. Certaines de ces particules ont été observées et étudiées depuis longtemps. D’autres commencent tout juste à être « détectées », comme le boson de Higgs. Certaines n’ont cependant toujours pas pu être débusquées par les plus puissants détecteurs du monde.

LES PARTICULES,
INGRÉDIENTS DE LA MATIÈRE

La matière qui nous entoure est composée de particules élémentaires, plus petites que les atomes. Ces « briques » microscopiques sont définies par plusieurs propriétés :
*         une masse : une particule est plus ou moins « massive ». À cette échelle infiniment petite, la masse s’exprime en énergie (électronvolt) ;
*        
*         une charge électrique : une particule peut posséder des propriétés électriques ou non ;
*        
*         un spin : responsable d’une partie des propriétés magnétiques, à l’échelle subatomique ;
*        
*         une « charge de couleur » : rouge, verte ou bleue (attention : à l’échelle des particules, la notion de « couleur » n’est pas la même qu’à l’échelle humaine ; il s’agit d’un code auquel on peut attribuer 3 possibilités, représentées par trois couleurs).
*        
Selon leurs propriétés et leur environnement, les particules peuvent s’attirer, rester ensemble, s’éviter, ne pas interagir du tout…

Propriétés de quelques particules
     Masse    Charge    Spin    Couleur
  Quark up      1,5->4 Me/c2    +2/3    ½    1 couleur (rouge, vert ou bleu)
  Quark down      4->8 MeV/c2    -1/3    ½    1 couleur (rouge, vert ou bleu)
  Electron      ≈ 0,5 MeV/c2    -1    ½    pas de couleur
  Neutrino ve      < 2,5 eV/c2    0    ½    pas de couleur
  Photon      0 eV/c2    ≈ 0    1    pas de couleur
  Gluon      0 eV/c2    0    1    1 couleur +1 « anti-couleur »
  Boson de Higgs      ≈ 125 GeV/c2    0    0    pas de couleur
  Positon      ≈ 0,5 MeV/c2    +1    ½    pas de couleur


DEUX GRANDES FAMILLES :
LES « GRAINS » DE MATIÈRE
ET LES CHAMPS DE FORCE
De façon générale, il existe deux grandes familles de particules-clés : les fermions et les bosons. Les premiers constituent les briques de matières tandis que les seconds sont des champs de force qui permettent à ces briques d’interagir et de s’assembler.
NB : Les « antiparticules » sont des particules (fermions ou bosons) de charge électrique et de couleur opposées à celles des particules « standard ».



DES PARTICULES ÉLÉMENTAIRES
AUX ATOMES :
COMPRENDRE L’INFINIMENT PETIT


Les atomes, encore parfois présentés à tort comme plus petites unités de matière, sont constitués de fermions, « particules de matière », maintenues ensemble par des bosons, « particules de force ».
*         Le noyau d’un atome est composé de protons et de neutrons. Ces éléments sont des assemblages de quarks (hadrons baryoniques) de la famille des fermions.
*        
*         Ils sont maintenus ensemble grâce à des échanges continus de gluons, qui appartiennent à la famille des bosons.
*        
*         Des électrons circulent autour du noyau : ces leptons sont liés au noyau par des photons (interaction électromagnétique).
*        
Grâce aux gluons, les quarks peuvent s’assembler et former des particules composites. On ne parle plus de particules élémentaires, mais de hadrons (assemblages de quarks).


LES OUTILS DE RECHERCHE
Beaucoup de particules élémentaires ne sont pas stables. Elles se désintègrent rapidement en d'autres particules, ce qui rend leur étude difficile. Sonder la matière à l’échelle subatomique nécessite des outils de pointe :
*         Les accélérateurs de particules permettent de provoquer des collisions de particules à des vitesses proches de celle de la lumière, pour en créer de nouvelles et étudier leurs propriétés. Il est possible de recréer des conditions (d'énergie, de température…) proches de celles qui existaient au début de l'Univers. Ces accélérateurs produisent ainsi des particules fugaces qui existaient dans les premiers instants de l’Univers. Ces particules sont observées grâce à des détecteurs géants. Le LHC (Large Hadron Collider), plus grand accélérateur de particules du monde, est installé dans un tunnel en forme d’anneau de 27 km de circonférence, creusé à 100 mètres sous terre entre la France et la Suisse.
*        
*         Les observatoires spatiaux : l’étude de l’Univers est intimement liée à la physique des particules. Elles tendent toutes les deux à comprendre l’origine de l’Univers, son évolution et sa composition. Par exemple, Le télescope HESS II étudie des rayons cosmiques appelés « sursauts gamma », qui sont constitués de jets de photons très énergétiques. Les rayonnements cosmiques peuvent être également composés de protons, noyaux d’hélium ou encore d’électrons.

 

   DOCUMENT     cea         LIEN
 

 
 
 
initiation musicale toulon  

La radioprotection

  initiation musicale

 

 

 

 

 

 

La radioprotection


Pour protéger la population et les travailleurs, des mesures ont été fixées à l’échelle internationale et nationale.

Publié le 1 juillet 2014
       
LES RÈGLES DE RADIOPROTECTION
La radioprotection est un ensemble de mesures destinées à assurer la protection sanitaire de la population et des travailleurs.

Trois règles de protection contre toutes les sources de rayonnements sont :
*         s’éloigner de la source de rayonnements, car leur intensité diminue avec la distance ;
*        
*         mettre un ou plusieurs écrans entre la source de rayonnements et les personnes (par exemple, dans les industries nucléaires, de multiples écrans protègent les travailleurs. Ce sont des murs de béton, des parois en plomb et des verres spéciaux chargés en plomb) ;
*        
*         diminuer au maximum la durée de l’exposition aux rayonnements.


Ces mesures de radioprotection peuvent être comparées à celles que l’on prend contre les ultraviolets : utilisation d’une crème solaire qui agit comme un écran et limitation de l’exposition au Soleil.

Equipement d’un technicien travaillant en milieu nucléaire : dosimètres, gants, bague, ceinture...
© L. Zylberman


Unité de radioprotection effectuant des prélèvements de terre près d’un centre, pour analyse. © L. Godart / CEA
Pour les sources radioactives émettant des rayonnements, deux autres recommandations sont à ajouter aux précédentes :

*         attendre, quand cela est possible, la décroissance naturelle radioactive des éléments ;
*        
*         utiliser la dilution lorsque l’on a affaire à des gaz radioactifs.

Par exemple, les installations nucléaires ne sont pas démantelées aussitôt après leur arrêt, de façon à attendre une diminution de l’activité des zones. Dans les mines d’uranium souterraines, une ventilation très efficace permet de maintenir une faible concentration de radon dans l’air que respirent les mineurs.

Les travailleurs pouvant être soumis à des rayonnements ionisants lors de leur activité (industries nucléaires, médecins, radiologues…) portent dosimètres, gants, ceintures, bague qui mesurent la quantité de rayonnements auxquels ils ont été soumis. Ces dispositifs permettent de s’assurer que la personne n’a pas reçu une dose supérieure à la norme tolérée ou d’en mesurer la localisation et l’importance.

Plusieurs commissions indépendantes ont amené les autorités à fixer des normes réglementaires pour les limites de doses.

LES NORMES INTERNATIONALES DE RADIOPROTECTION

La prise de conscience du danger potentiel d’une exposition excessive aux rayonnements ionisants a amené les autorités à fixer des normes réglementaires pour les limites de doses. Ces limites correspondent à un risque supplémentaire minime par rapport au risque naturel, qui le rend donc acceptable.
*         Depuis 1928, la Commission internationale de protection radiologique (CIPR) rassemble des médecins, physiciens, biologistes… de tous pays. Cette autorité scientifique indépendante émet des avis précieux en matière de radioprotection, pour les réglementations propres à chaque État.
*        
*         L’UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) réunit des scientifiques représentant 27 nations. Il a été créé en 1955 au sein de l’ONU pour rassembler le maximum de données sur les niveaux d’exposition dus aux diverses sources de rayonnements ionisants et leurs conséquences biologiques, sanitaires et environnementales. Il établit un bilan régulier de ces données, mais également une évaluation des effets en étudiant les résultats expérimentaux, l’estimation des doses, les données humaines.
*        
*         Au niveau européen, l’Union européenne reprend ces avis dans ses propres normes ou directives.

Les normes légales de radioprotection donnent :
*         une limite de dose efficace de 1 mSv/an pour la population et de 20 mSv/an en moyenne sur 5 ans pour les personnes directement affectées aux travaux sous rayonnements ionisants (industrie nucléaire, radiologie médicale) ;
*        
*         une limite de dose équivalente (organe) de 150 mSv pour le cristallin (œil) et 500 mSv pour la peau et les mains.



Le compteur Geiger-Müller

Nb : ce contenu existe également en version interactive à cette adresse (requiert flash).
Votre navigateur ne permet pas de lire des vidéos.
télécharger : version vidéo | version flash interactive    VOIR DANS LA MÉDIATHÈQUE     

Le législateur divise par 20 les doses admissibles des travailleurs pour la population car il considère que celle-ci comporte des sujets de tous âges, de tous états de santé et qui ne sont pas si bien suivis médicalement…


AU NIVEAU NATIONAL
En France, c’est l’Autorité de sûreté nucléaire (ASN), autorité administrative indépendante, créée en 2006, qui a en charge le contrôle de la sûreté et de la radioprotection. L’Institut de radioprotection et de sûreté nucléaire (IRSN), appui technique de l’ASN, est placé sous la tutelle conjointe des ministres chargés de la Défense, de l’Environnement, de l’Industrie, de la Recherche et de la Santé. Il a été créé en février 2002 par la réunion de l’Institut de protection et de sûreté nucléaire (IPSN) et de l’Office de protection contre les rayonnements ionisants (OPRI).
L’IRSN réalise des recherches, des expertises et des travaux dans les domaines de la sûreté nucléaire, de la protection contre les rayonnements ionisants, du contrôle et de la protection des matières nucléaires, et de la protection contre les actes de malveillance.

 

   DOCUMENT     cea         LIEN

 
 
 
initiation musicale toulon  

LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE

  initiation musicale

 

 

 

 

 

 

LES TESTS ET EFFETS DE LA PHYSIQUE QUANTIQUE

Depuis son émergence dans les années 1920, la Mécanique Quantique n'a cessé d'interpeller les physiciens par le caractère non intuitif de nombre de ses prédictions. On connaît l'intensité du débat entre Bohr et Einstein sur cette question. Le caractère incontournable de la Mécanique quantique au niveau microscopique est très vite apparu évident, puisque cette théorie fournit une description cohérente de la structure de la matière. En revanche, un doute pouvait subsister sur la validité au niveau macroscopique de prédictions étonnantes comme la dualité onde particule, ou les corrélations à distance entre particules intriquées. Après la publication des inégalités de Bell, en 1965, on a réalisé que les prédictions de la Mécanique quantique sur ces corrélations à distance étaient en contradiction avec la vision du monde (réalisme local) défendue par Einstein, et qu'il devenait possible de trancher ce conflit par des tests expérimentaux. Les expériences réalisées depuis plus de deux décennies avec des paires de photons corrélés ont confirmé de façon indubitable la justesse des prédictions quantiques, et donc la nécessité de renoncer à certaines images plus intuitives défendues par Einstein. Ces travaux très fondamentaux débouchent aujourd'hui sur des applications inattendues : cryptographie quantique, ordinateur quantique...

Texte de la 213e conférence de l'Université de tous les savoirs donnée le 1er août 2000.
Quelques tests expérimentaux des fondements de la mécanique quantique (en optique) par Alain Aspect
Je vais vous parler de fondements conceptuels de la mécanique quantique, et de tests expérimentaux directs de ceux-ci. La mécanique quantique est une théorie élaborée au début du XXe siècle entre 1900 et 1925. Cette nouvelle théorie physique a eu immédiatement des succès considérables pour comprendre le monde physique qui nous entoure, de la structure de l’atome à la conduction électrique des solides. Toutes ces propriétés ne peuvent se décrire correctement que dans le cadre de la mécanique quantique.

La mécanique quantique est également le cadre naturel pour décrire l'interaction entre la lumière et la matière, par exemple pour expliquer comment la matière peut émettre de la lumière blanche quand elle est chauffée (c'est ce qui se passe dans les ampoules électriques ordinaires). Un processus d'émission particulier, l’émission stimulée, est à la base du laser dont on connaît les nombreuses applications, des lecteurs de disque compact aux télécommunications par fibre optique.
Est-il bien sérieux de vouloir tester une théorie manifestement bien confirmée par le simple fait qu'elle explique tant de phénomènes ? Nous allons montrer que la mécanique quantique a tellement bouleversé les cadres conceptuels dans lesquels s'exerçait la pensée scientifique, et même la pensée tout court, que dès l'émergence des théories quantiques les physiciens se sont préoccupé de vérifier expérimentalement ses prédictions les plus surprenantes. Cette quête n’a pas cessé, au gré des progrès techniques. Il est remarquable que la plupart de ces tests portent sur la lumière, phénomène au départ de la théorie quantique il y a un siècle, avec les travaux de Planck en 1900, et ceux d’Einstein sur l’effet photoélectrique en 1905.
Je vais aujourd’hui aborder deux points particulièrement fascinants de la mécanique quantique : d’abord la dualité onde-particule ; puis les corrélations Einstein-Podolsky-Rosen, manifestation de l’intrication quantique.

À la fin du XIXe siècle, la physique est solidement établie sur deux piliers. Il y a d'un côté les particules, des corpuscules de matière, dont le mouvement est décrit par la mécanique newtonienne. Cette théorie extrêmement fructueuse est celle qui nous permet aujourd'hui de lancer des fusées aux confins du système solaire. La relativité a apporté quelques corrections à cette mécanique newtonienne mais le cadre conceptuel de la physique a peu changé. On parle toujours de trajectoires des particules soumises à des forces. De l’autre côté il y a les ondes, au rang desquelles la lumière. L'électromagnétisme est une théorie bien établie qui explique parfaitement la propagation de la lumière, et qui a permis l’invention de dispositifs pour générer les ondes radio. Ces ondes ont des propriété typiques : elles interfèrent, elles diffractent. Pour la physique classique, les deux domaines sont parfaitement identifiés : il y a d'un côté, les particules, et de l'autre les ondes.
La mécanique quantique au contraire mélange tout cela. Pour cette théorie, un électron est certes une particule mais aussi une onde, tandis que la lumière est non seulement une onde mais aussi une particule (le photon). Le premier test expérimental que je présenterai portera sur cette dualité onde-particule.
Un deuxième point radicalement incompatible avec les concepts de la physique classique a été mis en lumière en 1935 par Einstein et deux collaborateurs, Podolsky et Rosen. Ils ont en effet découvert que la mécanique quantique prévoyait, dans certaines situations très rares, que deux particules pouvaient avoir des corrélations étonnantes. Un long débat de nature épistémologique s’en est suivi, principalement entre Einstein et Bohr, mais sur le plan expérimental il n’était pas prouvé que ces corrélations EPR pouvaient être observées dans la
1
nature. Ce n’est qu’à partir des années 1970, après la contribution majeure de John Bell, que les expériences on commencé à apporter une réponse. C'est à ce problème que nous allons consacrer la deuxième partie de cette conférence.
Commençons donc par la dualité onde-corpuscule, toujours aussi fascinante. Si elle a été mise en évidence dès 1925 pour l’électron, et largement confirmée depuis, la situation n’est devenu claire pour la lumière que vers les années 70. Une expérience réalisée en 1982 à l’Institut d’Optique avec Philippe Grangier illustre particulièrement bien cette dualité. Dans un premier temps, nous analysons la lumière émise par une source S, à l’aide d’une lame semi-réfléchissante B suivie de deux détecteurs, un dans le faisceau transmis, l’autre dans le faisceau réfléchi (Figure 1). Chaque détecteur (photomultiplicateur) fournit, lorsqu’il reçoit de la lumière, des impulsions électriques, d’autant plus nombreuses que la lumière est plus intense, et dont les taux sont mesurés par les compteurs CT et CR. Comme notre lame semi- réfléchissante est équipée (elle transmet 50 % de la lumière incidente, et elle en réfléchit
50 %), on observe des taux de comptages égaux.
Un compteur de coïncidences CC est alors ajouté au dispositif. Il s'agit d'une sorte d'horloge extrêmement précise, capable de déterminer si deux détections dans les voies transmise et réfléchie sont simultanées à mieux que 5 milliardièmes de seconde près (5 nanosecondes). Qu’attend-on dans le cadre d'une description ondulatoire de la lumière ? L’onde incidente est partagée en deux ondes d’intensités égales, qui donnent lieu sur chaque détecteur à des impulsions produites à des instants aléatoires, mais dont les taux moyens sont égaux. On attend que de temps en temps, de façon aléatoire, deux détections dans les voies transmise et réfléchie se produisent simultanément : on doit observer un certain nombre de coïncidences.
Or lorsque nous avons analysé la lumière issue d’une source très particulière, développée pour l'occasion, aucune coïncidence n’a été observée. Comme nous l’attendions, cette source émet de la lumière dont les propriétés apparaissent manifestement corpusculaires : la seule interprétation raisonnable de l’absence de coïncidences est que cette lumière se comporte non pas comme une onde, mais comme des grains de lumière séparés – des photons- qui sont soit transmis soit réfléchis, mais qui ne sont pas divisés en deux par la lame semi réfléchissante. La source particulière permettant d'obtenir ce résultat est appelée « source de photons uniques ». Les photons y sont émis un par un, bien séparés dans le temps.
2
Figure 1. Mise en évidence du caractère corpusculaire de la lumière émise par la source de photons uniques S. On n’observe aucune détection en coïncidence sur les détecteurs CS et CC , placés derrière la lame semi réfléchissante B. Cette observation nous amène à décrire cette lumière comme formée de grains de lumière (les photons) qui sont soit transmis, soit réfléchis par B, mais pas divisé comme cela serait le cas pour une onde.
Dans un deuxième temps, sans changer de source, nous avons remplacé les détecteurs par des miroirs permettant de recombiner les deux faisceaux lumineux sur une deuxième lame semi-réfléchissante. Les deux détecteurs sont maintenant placés dans les deux voies de sortie de cette lame semi réfléchissante (Figure 2). On a ainsi réalisé un schéma classique d’interféromètre de Mach-Zehnder, qui nous a permis d’observer un comportement habituel d’interférences: lorsqu’on modifie lentement la longueur d’un des deux bras de l’interféromètre (en déplaçant un miroir), on observe que les taux de comptage sont modulés (Figure 3).
Figure 2. Mise en évidence du caractère ondulatoire de la lumière émise par la même source S que pour l’expérience de la figure 1. Les faisceaux issus de B sont réfléchis par les miroirs MR et MT , puis recombinés sur une deuxième lame B’, et détectés sur D1 . On observe que le taux de détection est modulé en fonction de la différence des longueurs des trajets BMTB’ et BMRB’. Cette observation nous amène à décrire la lumière comme une onde partagée sur la lame B, et recombinée sur la lame B’, ce qui donne lieu à interférence.
Figure 3. Interférences à un seul photon, observées avec le montage de la figure 2. On porte le taux de comptage enregistré par le compteur C1 ,en fonction de la position du miroir MT . On observe une modulation complète, de période égale à la longueur d’onde de la lumière, comme on s’y attend pour une onde. Au maximum, on détecte 200 photons en 20
3
secondes d’observation. La source S est la même que celle utilisée dans l’expérience de la figure 1.
Ce comportement s’interprète sans difficulté dans le cadre d’une description ondulatoire de l’expérience de la figure 2. L’onde incidente, décrite comme une vibration sinusoïdale du champ électromagnétique, est divisée par la première lame semi-réfléchissante en deux ondes (plus faibles) qui vont se recombiner sur la deuxième lame semi-réfléchissante. Suivant la différence des chemins parcourus entre les deux bras de l’interféromètre, les deux ondes vont se recombiner en phase ou en opposition de phase, et on comprend que le taux de comptage dépende de la différence des longueurs des deux bras.
Ainsi, dans l’expérience de la figure 2, la lumière émise par notre source se comporte comme une onde qui se partage en deux sur la première lame semi réfléchissante, et qui se recombine sur la deuxième. Mais l'expérience de la figure 1 mettait en évidence un comportement radicalement différent : la lumière y apparaissait formée de corpuscules – les photons – qui, au niveau de la première lame semi réfléchissante, allaient soit dans une direction, soit dans l'autre, mais jamais des deux côté à la fois. Or il s’agit de la même source S, et de la même lame semi-réfléchissante B. Le problème de la dualité onde-corpuscule est contenu dans le fait que, suivant le dispositif expérimental placé après B, les observations nous conduisent à nous représenter la lumière soit comme une onde qui se partage en deux, soit au contraire comme un flux de corpuscules qui ne se divisent pas mais vont aléatoirement d’un côté ou de l’autre.
Les deux descriptions ne peuvent pas être réconciliées. Il s'agit d'un des problèmes conceptuels de base de la mécanique quantique. Bien que le formalisme mathématique de la mécanique quantique rende compte sans difficulté de ce double comportement, il n'existe pas d'image classique qui puisse le représenter.

Ce problème a provoqué de nombreuses interrogations et des réticences sérieuses chez de grands physiciens. Ainsi, lorsqu’en 1913 les quatre grands savants Planck, Warburg, Nernst et Rubens écrivent une lettre pour soutenir la candidature d'Einstein à l'Académie des Sciences de Prusse, ils ne peuvent s’empêcher de faire part de leurs réserves : « Il n’y a quasiment aucun grand problème de la physique moderne auquel Einstein n’a pas apporté une contribution importante. Le fait qu’il se soit parfois fourvoyé, comme par exemple dans son hypothèse des quanta de lumière, ne saurait vraiment être retenu contre lui, car il n’est pas possible d’introduire des idées fondamentalement nouvelles, même dans les sciences les plus exactes, sans prendre occasionnellement un risque ». Il est amusant de constater que c’est précisément pour cette hypothèse jugée hasardeuse qu’Einstein allait recevoir le prix Nobel huit ans plus tard, après que Millikan ait confirmé expérimentalement la valeur de cette hypothèse pour comprendre l’effet photoélectrique. Que cette hypothèse corpusculaire ait été un véritable traumatisme, à la lumière de tout ce qu’on connaissait des phénomènes ondulatoires (interférences, diffraction...) est attesté par Millikan lui même, qui écrit dans ses mémoires, en 1949 : « Je passai dix ans de ma vie à tester cette équation d’Einstein de 1905, et, contre toutes mes attentes, je fus contraint en 1915 de reconnaître sa vérification expérimentale sans ambiguïté, en dépit de son caractère déraisonnable, car elle semblait violer tout ce que nous savions sur les interférences lumineuses... ». En 1932, dans les Procès verbaux des séances de la Société des Sciences Physiques et Naturelles de Bordeaux, le jeune Alfred Kastler (futur prix Nobel de Physique pour ses travaux en optique), ne se montre pas plus rassuré : « Les efforts de conciliation de Louis de Broglie ont abouti à l'admirable synthèse de la mécanique ondulatoire ou mécanique quantique. Mais [...] une telle synthèse [...] continue à inquiéter le physicien. Pour lui, la dualité entre les aspects ondulatoires et corpusculaires de la lumière reste un mystère non résolu. »
4
Le mystère est-il résolu aujourd'hui ? Nous nous sommes habitués à cette dualité, mais je suis toujours incapable de vous donner une image de quelque chose qui soit en même temps une onde et un corpuscule. Tout ce que je peux vous dire c’est que le formalisme mathématique, en ce qui le concerne, englobe de façon harmonieuse et cohérente les deux concepts. Pouvons nous nous en satisfaire ?
Les corrélations quantiques EPR (pour Einstein, Podolsky et Rosen) posent des questions sans doute encore plus troublantes. Le problème fut posé en 1935 au travers de ce qu’on appelle l’expérience de pensée EPR, que je vais vous décrire dans sa version moderne, celle qui est devenu une expérience réelle.
Commençons par expliquer ce qu'est la polarisation de la lumière. Un faisceau lumineux peut être polarisé rectilignement, c'est-à-dire que le champ électrique lumineux oscille dans un plan bien défini, vertical, ou horizontal, ou oblique. (La polarisation peut également être circulaire, elliptique,... mais ne compliquons pas). Un analyseur de polarisation, par exemple un prisme de Wollaston en spath d'Islande (ou le plus moderne séparateur de polarisation à couches diélectriques), permet de mesurer cette polarisation, car la lumière ne suivra pas le même trajet suivant qu’elle est polarisée dans un plan parallèle ou perpendiculaire à la direction d’analyse a que je suppose verticale (Figure 1). Dans le premier cas elle sort vers le haut (résultat +1), dans le deuxième elle sort vers le bas (résultat –1). Si des compteurs de photons disposés dans les voies de sortie montrent que tous les photons sortent dans la voie +1 , je peux en conclure que la polarisation est parallèle à a. S’ils sortent tous dans la voie –1, la polarisation est perpendiculaire à a. Dans les cas intermédiaires, les photons sont détectés aléatoirement dans l’un ou l’autre canal, et on ne peut conclure sur la polarisation qu’en tournant le polariseur pour chercher s’il existe une orientation a’ où tous les photons sortent dans la même voie.
Figure 4. Mesure de la polarisation de la lumière suivant la direction a . Si la lumière est polarisée parallèlement à a, tous les photons sont détectés dans la voie de sortie +1. S’ils sont polarisés perpendiculairement à a , ils sont détectés dans la voie –1. Pour une polarisation intermédiaire, ils sortent en +1 ou –1 avec des probabilités dépendant de la polarisation.
L'expérience d'Einstein-Podolsky-Rosen (Figure 5) suppose que les photons sont émis par paires, dans des directions opposées, dans une situation (appelée aujourd’hui état intriqué, ou état EPR), que nous ne savons décrire que par le formalisme de la mécanique quantique. Cet état est la superposition de deux situations faciles à décrire : dans la première (notée
b , b en mécanique quantique), les deux photons sont polarisés verticalement ; dans la deuxième (notée ↔, ↔ en mécanique quantique), les deux photons sont polarisés horizontalement. Mais pour l’état superposition, noté ( b ,b + ↔, ↔ ), je n’ai plus de mots :
les deux photons sont à la fois tous les deux verticaux et tous les deux horizontaux. Les deux photons sont liés de façon totalement indissoluble et seule la polarisation de l'ensemble, de la paire, a un sens. Dans un état intriqué, on ne peut pas parler des propriétés individuelles de
5
chacun des photons, bien qu'ils soient en train de s'éloigner l'un de l'autre et n'interagissent plus.
A quoi puis-je m’attendre si je mesure les polarisations de ces deux photons (Figure 5) ?. La mécanique quantique nous donne les moyens mathématiques de calculer, pour un état intriqué, les probabilités d'observer les différents résultats : premier photon dans le canal +1 ou -1 de l'analyseur I, deuxième photon dans le canal +1 ou -1 de analyseur II. On peut ainsi calculer les probabilités simples, ou conjointes. Commençons par les simples. On trouve par exemple que la probabilité de trouver +1 pour le premier photon est de 1/2, quelle que soit l’orientation a de l'analyseur ; la probabilité de trouver -1 est aussi de 1/2. On peut conclure que le premier photon n’a pas de polarisation définie, puisque le résultat de la mesure est totalement aléatoire quelle que soit la direction de mesure. Les mêmes résultats sont trouvés pour le deuxième photon, le résultat étant aléatoire quelle que soit la direction d’analyse b.
En fait la situation se révèle beaucoup plus intéressante quand on calcule la probabilité conjointe des résultats pour les deux photons. On peut par exemple calculer la probabilité de trouver +1 pour le premier photon et +1 pour le second, les analyseurs de polarisation étant respectivement dans les orientations a et b. Si les deux analyseurs sont parallèles, l'angle entre a et b est nul, et on trouve que cette probabilité est de 1/2. On peut en conclure que les résultats de mesures qui pris séparément semblent aléatoires, sont en fait totalement corrélés. En effet, si la probabilité de trouver +1 pour premier photon vaut 1/2, et que la probabilité conjointe de trouver +1 pour le premier et +1 pour le deuxième vaut également 1/2, alors la probabilité conditionnelle de trouver +1 pour le deuxième quand on a trouvé +1 pour le premier vaut 1. Une autre façon de présenter le résultat est la suivante : on a des probabilités égales de trouver +1 ou –1 pour le premier photon, et de même pour le deuxième. Mais si on trouve +1 pour le premier, alors on est certain de trouver +1 pour le deuxième. Et si on trouve –1 pour le premier, on est certain de trouver –1 pour le deuxième.
Figure 5. Expérience de pensée d'Einstein-Podolsky-Rosen, sur des photons ν1 et ν2, émis par paires dans des directions opposées. Pour des paires intriquées (états EPR), la mesure simple sur chaque photon donne un résultat +1 ou –1 avec la même probabilité 1/2. Mais la mesure conjointe sur ν1 et ν2 montre une corrélation qui est totale pour des analyseurs de polarisation parallèles (a parallèle à b). Dans ce cas, si on trouve +1 pour ν1, on est certain de trouver +1 pour ν2 ; mais si on trouve –1 pour ν1, on est certain de trouver -1 pour ν2.
Einstein-Podolsky-Rosen se sont demandé comment se représenter ces corrélations prédites par la Mécanique Quantique entre les résultats de deux mesures effectuées à des endroits différents mais à des instants quasiment identiques.
On peut essayer de construire une image à partir du formalisme quantique. En voici une, dans laquelle on suppose que le photon ν1 atteint le polariseur I en premier : le résultat de la mesure sur ν1 est alors aléatoire (+1 ou –1), mais aussitôt un résultat particulier obtenu, le postulat de réduction du paquet d’onde entraîne que le photon éloigné ν2 acquiert instantanément la polarisation (parallèle ou perpendiculaire à a) trouvée pour ν1. Ceci permet
6
de comprendre la corrélation, mais au prix d’une image inacceptable pour le père de la relativité : comment un événement situé au premier polariseur pourrait-il affecter instantanément le photon éloigné, s’il n’existe pas d’interaction se propageant plus vite que la lumière ?
En fait, on peut proposer une autre image dans l’esprit de la vision du monde défendue par Einstein, où les objets ont des propriétés physiques qui leur sont attachées, et où aucune interaction ne va plus vite que la lumière. Dans cette image, les corrélations entre les résultats de mesures en I et II sont dues à l’existence de propriétés identiques pour les deux membres de la paire. Plus précisément, on peut imaginer que lors de leur émission conjointe, les deux photons d’une même paire vont acquérir une même propriété de polarisation, qui prédétermine le résultat des mesures qui seront faites sur chaque photon. Il n’y a alors plus de difficulté à comprendre que les mesures soient corrélées. Si de plus cette propriété initiale commune fluctue aléatoirement d’une paire à l’autre, on rend compte sans problème du caractère aléatoire observé sur chaque mesure considérée séparément.
Cette image est extrêmement naturelle et raisonnable. Elle suit la démarche adoptée par des médecins qui, constatant que les jumeaux vrais sont touchés de façon corrélée par une certaine affection (les deux sont malades, ou les deux sont indemnes, mais on ne trouve jamais un jumeau malade et son frère indemne), en concluent que cette affection est de nature génétique, liée à l’existence d’un ou plusieurs chromosomes identiques.
Niels Bohr refusa immédiatement cette conclusion d’Einstein. En effet, le physicien Danois était convaincu que la mécanique quantique donnait la connaissance ultime des choses, et qu'il ne pouvait donc pas y avoir de connaissance plus complète. Or le formalisme quantique décrit toutes les paires EPR par le même état quantique (b,b + ↔,↔ ), tandis
que dans l'interprétation d'Einstein, les paires de photons ne sont pas toutes identiques, puisqu’il y a une caractéristique supplémentaire, cachée, qui distingue les paires : par exemple certaines sont b , b , et d’autres sont ↔, ↔ .
Le débat entre les deux géants de la physique dura vingt ans, jusqu’à leur mort. Il ne s’agissait pas d’une divergence sur les faits, mais d’un débat sur l’interprétation de la mécanique quantique. Einstein ne remettait pas en doute le résultat du calcul quantique prévoyant les corrélations EPR. Il pensait simplement que le formalisme quantique ne constituait pas la description ultime des paires de photons, qu’il devait être complété. L’analyse de la situation EPR l’avait conduit à la conclusion qu'il y a une réalité physique sous-jacente plus fine, et qu'il fallait trouver le bon formalisme pour la décrire. Mais Bohr pensait que cette quête était vouée à l’échec, et que notre connaissance était fondamentalement limitée, les relations de Heisenberg indiquant l’existence d’une telle limite. S’il était fondamental sur le plan des concepts, ce débat purement épistémologique semblait sans grandes conséquences pour la physique.

En 1965, le problème change de nature avec l’entrée en scène de John Bell (du CERN à Genève). Poussant au bout de leur logique les idées d'Einstein, il introduit explicitement des paramètres supplémentaires λ (aussi parfois appelés variables cachées) identiques pour les deux membres d’une même paire, et déterminant le résultat de la mesure sur chaque membre de la paire. Il existe donc une fonction A(λ,a) indiquant le résultat -1 ou +1 de la mesure au polariseur I (dans l’orientation a), pour un photon porteur du paramètre λ ; de façon analogue une fonction B(λ,b) indique le résultat au polariseur II. Dans la source, un processus aléatoire va déterminer le paramètre λ particulier pris par chaque paire, et on le caractérise par une densité de probabilité ρ(λ).
Une fois les quantités A(λ,a), B(λ,b), et ρ(λ) données (ce qui correspond à un modèle à paramètres supplémentaires particulier), on peut en déduire les probabilités des résultats de mesures, simples ou conjointes. Il est en particulier possible de calculer le coefficient de
7
corrélation de polarisation E(a,b) caractérisant le degré de corrélation entre les résultats de mesure, en fonction de l’angle (a,b) entre les polariseurs. L'espoir est alors de trouver un modèle particulier qui donne un coefficient de corrélation de polarisation E(a,b) identique à la prédiction EMQ(a,b) de la mécanique quantique. Dans ce cas les corrélations EPR pourraient être interprétées par une image « à la Einstein ».
La découverte de Bell, c’est que cet espoir est vain. Le théorème de Bell montre qu’il est impossible de reproduire avec un modèle de ce type, toutes les prédictions de la mécanique quantique, pour toutes les orientations possibles a et b des polariseurs. Plus précisément, il s'intéresse à une quantité S combinaison des 4 coefficients de corrélation associés à deux orientations a et a’ du polariseur I, et deux orientations b et b’ du polariseur II. Et il montre que si ces corrélations peuvent être décrites à partir de paramètres supplémentaires suivant le schéma ci-dessus, alors S ne peut valoir plus de 2, ni moins de –2. Or il est facile de trouver des combinaisons d’orientations (a,a’,b,b’) pour lesquelles le résultat du calcul quantique donne une quantité S nettement supérieure à 2 (par exemple on
peut avoir SMQ = 2 2 = 2.83..). Dans ces situations, la mécanique quantique viole les
inégalités de Bell : elle est donc incompatible avec les modèles à variables cachées. Contrairement à ce que pensait Einstein, on ne peut donc à la fois croire aux
prédictions quantiques pour les corrélations EPR, et vouloir décrire ces corrélations par ce modèle si naturel, dans le droit fil des idées d’Einstein, selon lequel les paires de photons possèdent dès le départ la propriété qui déterminera le résultat de la mesure ultérieure. A ce point, on pourrait penser que la Mécanique Quantique a été si souvent validée par les observations expérimentales que la cause est entendue, et qu’il faut renoncer aux modèles à paramètres supplémentaires. En fait, dans les années qui suivirent la parution de l’article de Bell, on s’aperçut que les situations d’intrication où l’incompatibilité apparaît sont extrêmement rares, et qu’il n’existait aucune donnée expérimentale permettant de trancher. Ne pouvait-on alors imaginer que le conflit entre prédictions quantiques et inégalités de Bell indiquait une frontière où la mécanique quantique atteindrait ses limites ? Pour le savoir, il fallait se tourner vers expériences nouvelles.
Une première série d'expériences fut conduite aux USA dans la première moitié des années 1970. Après quelques résultats contradictoires, ces expériences de première génération penchèrent en faveur de la mécanique quantique. Cependant, les schémas expérimentaux de l’époque ne suivaient pas vraiment le schéma idéal de la figure 5, et leur interprétation reposait sur un certain nombre d’hypothèses supplémentaires raisonnables certes, mais qui pouvaient être contestées par les partisans des variables cachées.

C’est pour se rapprocher du schéma idéal que nous avons construit à l’Institut d’Optique d’Orsay, au début des années 80, une expérience bénéficiant des énormes progrès dans le domaine des lasers, de l’optoélectronique, du pilotage des expériences par ordinateur... Nous avons d’abord construit, grâce à une excitation à deux photons par deux lasers, une source de paires de photons intriqués des milliers de fois plus efficace que les sources précédentes. De plus, les progrès dans les traitements multicouches diélectriques nous ont permis de construire de véritables analyseurs de polarisation. Finalement, nous avons emprunté à la physique nucléaire les techniques de détection en coïncidence à plus de deux détecteurs, et l’ensemble nous a permis de faire en 1982, avec Philippe Grangier et Gérard Roger, une expérience suivant très exactement le schéma de la figure 5. Un point remarquable est qu’en une seule acquisition de durée 100 secondes, on peut mesurer les 4 taux de coïncidences N++ , N+− , N−+ , et N−− relatifs à une orientation donnée (a,b) des polariseurs,
et en déduire le coefficient de corrélation E(a,b)mesuré pour cette orientation. En répétant la mesure pour trois autres orientations (a,b’), (a’,b) et (a’,b’), on en tire une valeur mesurée
Sexp (a,a',b,b') de la quantité soumise à l’inégalité de Bell. Pour un jeu d’orientations bien
8
9
choisies (celui où la mécanique quantique prédit la plus grande violation), on a trouvé
Sexp = 2, 697 ± 0, 015 ce qui viole manifestement très fortement l’inégalité de Bell S ≤ 2 et
qui est en excellent accord avec la prédiction quantique pour cette situation expérimentale. La cause était-elle définitivement entendue ?
En fait, dès le début de notre programme, nous souhaitions aller plus loin et approfondir une question soulevée par John Bell dès son article initial : celle de la localité. De quoi s’agit-il ? Si on reprend le formalisme conduisant aux inégalités de Bell, on constate qu’il contient de façon implicite l’hypothèse que le résultat de la mesure par le polariseur I ne dépend pas de l’orientation b choisie pour le polariseur éloigné II (car sinon on aurait écrit
A(λ,a,b) au lieu de A(λ,a) ). Il en est évidemment de même pour la réponse du polariseur II
que l’on suppose indépendante de l’orientation de I, et également pour la préparation des paires dans la source supposée indépendante des orientations a et b des polariseurs qui feront la mesure (puisqu’on l’écrit ρ(λ) et non ρ(λ,a,b) ). Cette hypothèse est indispensable pour
l’établissement des inégalités de Bell. Elle semble naturelle, mais comme l’a fait remarquer John Bell rien ne s’oppose, dans une expérience où les polariseurs sont statiques, à ce qu’une interaction entre les polariseurs, ou entre les polariseurs et la source, mette cette hypothèse en défaut. En revanche, si on pouvait réaliser une expérience dans laquelle les orientations des polariseurs seraient changées aléatoirement et très vite, avec des temps caractéristiques courts devant le temps de propagation de la lumière entre les polariseurs, alors l’hypothèse de localité deviendrait une conséquence immédiate du principe de causalité relativiste suivant lequel aucune interaction ne se propage plus vite que la lumière. On comprend que dans ce cas la façon dont une paire est préparée ne puisse dépendre des orientations a et b des polariseurs qui feront la mesure, puisque ces orientations seront choisies après l’émission des photons, pendant leur propagation vers les polariseurs. Une telle expérience mettrait donc encore mieux l’accent sur le conflit entre les conceptions d’Einstein et la Mécanique Quantique.
Dans notre expérience, nous utilisions des analyseurs de polarisation ayant une masse de plusieurs dizaines de kilogrammes, et il était hors de question de les tourner en quelques nanosecondes. Pourtant, nous avons réussi à faire la première expérience avec polariseurs variables, avec Jean Dalibard qui était venu rejoindre notre équipe. L'astuce consistait à utiliser un aiguillage optique de notre invention, un commutateur rapide capable d’envoyer le photon ν1 soit vers un polariseur I dans l’orientation a, soit vers un deuxième polariseur I’ dans l’orientation a’. L’ensemble est équivalent à un polariseur unique basculant rapidement entre les orientations a et a’. Un dispositif analogue permet d’analyser le photon ν2 soit suivant l’orientation b, soit suivant l’orientation b’. Les deux commutateurs rapides, placés à 12 mètres l’un de l’autre, étaient capables de basculer toutes les 10 nanosecondes, plus vite que le temps de propagation de la lumière entre eux (40 nanosecondes). Cette expérience était à limite de ce qu'il était possible de faire en 1982, et elle n’était pas idéale parce que le basculement des polariseurs n’était pas strictement aléatoire. On avait pourtant toutes les raisons de penser que si la mécanique quantique devait être mise en défaut dans une expérience de ce type, cela se manifesterait sur les signaux expérimentaux. Mais les résultats furent sans appel en faveur de la mécanique quantique, contre les théories locales à variables cachées.

En 1998, une deuxième expérience avec polariseurs variables a abouti à Innsbruck dans l'équipe d'Anton Zeilinger. Cette expérience a tiré profit de la mise au point depuis une dizaine d’années de sources de photons EPR de troisième génération. Un avantage crucial de ces sources et que les photons peuvent être injectés dans des fibres optiques, ce qui conduit à des résultats spectaculaires. Ainsi, en utilisant le réseau de fibres optiques du téléphone Suisse, Nicolas Gisin a pu éloigner ses polariseurs à 30 kilomètres de la source ! Dans
l’expérience d’Innsbruck, les photons se propagent dans 400 mètres de fibre optique seulement, mais ce délai est suffisant pour autoriser un basculement vraiment aléatoire des polariseurs. Cette expérience encore plus proche d’une expérience idéale a confirmé que même avec des polariseurs rapidement variables, on observe bien les corrélations quantiques, et on viole les inégalités de Bell.
Il faut se rendre à l’évidence : les photons intriqués ont un comportement « jumeau quantique » : les corrélations observées vont au delà de ce qui serait explicable en terme de propriété classique commune, analogue à un patrimoine génétique commun. Les corrélations quantiques sont d’une autre nature, et on peut le vérifier par l’expérience.
Que conclure ? Einstein, qui ne connaissait pas le théorème de Bell, avait envisagé comme une hypothèse absurde la possibilité que l’on soit contraint de renoncer à une explication des corrélations par un modèle où chacun des photons, une fois séparé de son jumeau, possède une réalité physique autonome, et où les corrélations sont dues aux éléments communs de ces réalités physiques séparées dans l’espace temps. Si on renonçait à une telle description–nous dit Einstein- alors il faudrait :
- soit laisser tomber l'exigence d'une existence autonome de la réalité physique présente en différentes portions de l'espace ;
- soit accepter que la mesure sur un système change (instantanément) la situation réelle de l’autre système éloigné.
La première option revient à considérer qu'une fois les deux photons séparés dans l’espace-temps, ils constituent deux entités indépendantes. Y renoncer conduit à admettre que deux particules intriquées, même éloignées, constituent un tout inséparable, qui ne peut être décrit que comme une entité globale. En fait le formalisme de la mécanique quantique (où une paire intriquée est décrite par un vecteur d’état global) suggère d’accepter cette conclusion.

La deuxième option revient à accepter que des influences se propagent plus vite que la lumière, au moins au niveau des réalités physiques des systèmes séparés dans l’espace temps. Notons ici que même si on l’acceptait, cette conclusion n’entraînerait pas pour autant la possibilité de transmettre plus vite que la lumière de vrais messages utilisables, dont on pourrait par exemple se servir pour déclencher le lancement d’un missile, ou pour passer un ordre à la bourse de Tokyo... ou qui nous permettrait d’assassiner nos parents avant qu’ils ne nous aient conçus !
En fait, je ne suis pas sûr que la deuxième option (il y a des influences instantanées entre les systèmes séparés) soit radicalement différente de la première (les photons intriqués constituent un tout inséparable). Comment imaginer que deux objets en interaction instantanée soient réellement séparés ? C’est pourquoi je préfère conclure que deux systèmes intriqués forment un tout inséparable dans l’espace-temps.
Pour conclure, je voudrais vous partager mon étonnement d’avoir vu ces discussions sur les fondements conceptuels de la Mécanique Quantique, a priori très formelles, déboucher ces dernières années sur des idées d’applications de l’intrication quantique. Certes il ne s’agit pas de télégraphier plus vite que la lumière. Mais en revanche la cryptographie quantique met à profit les propriétés des mesures quantiques (qui perturbent nécessairement l’état quantique du système mesuré) pour garantir qu’une communication n’a pas pu être interceptée. Vous avez aussi certainement entendu parler de téléportation quantique, expression utilisée à tort et à travers, mais phénomène qui laisse le physicien admiratif puisqu’il permet de faire une copie fidèle à distance d’un état quantique (en détruisant l’original) alors même que les lois fondamentales de la mécanique quantique nous interdisent de connaître la totalité de cet état. Quant à l’ordinateur quantique basé sur les états intriqués, il aurait une puissance de calcul formidablement plus grande que les ordinateurs actuels, à condition de savoir répondre à la question suivante (cf. la conférence de Serge Haroche) : ces phénomènes quantiques sont ils réservés à l’infiniment petit, ou peut-on les observer avec des objets macroscopiques, voire
10
vivants (comme le malheureux chat de Schrödinger) ? On sait aujourd’hui que les phénomènes de décohérence détruisent l’intrication quantique de façon d’autant plus efficace que les objets sont plus gros. Mais on n’a pas démontré l’impossibilité absolue de paires EPR avec des objets bien plus complexes que de simples photons. Il y a encore de beaux défis pour les expérimentateurs !

 

  VIDEO       CANAL  U         LIEN 
 

 
 
 
initiation musicale toulon  

PHOTON

  initiation musicale

 

 

 

 

 

 

photon
(de électron)

Consulter aussi dans le dictionnaire : photon
Cet article fait partie du dossier consacré à la lumière.
Quanton spécifique de la lumière, véhicule des interactions électromagnétiques.

INTRODUCTION
Les phénomènes électromagnétiques, allant de l'électricité et du magnétisme aux rayons X, en passant par les ondes radio et la lumière, ont été rassemblés dans un cadre théorique unique par James Clerk Maxwell vers 1865. Depuis cette date, les équations de Maxwell ont joué un rôle central dans l'histoire de la physique, et notamment dans l'origine et les développements de deux théories « révolutionnaires » apparues au début du xxe s. : la relativité et la mécanique quantique.
Une découverte essentielle, ayant marqué les débuts de ces deux théories, est le concept de « grain » ou quantum d'énergie lumineuse, devenu plus tard le photon. Pressenti par Max Planck en 1900, introduit réellement par Albert Einstein en 1905, le concept de photon s'est immédiatement révélé très fructueux dans l'interprétation de certaines expériences. Cependant, la notion de « grain » d'énergie lumineuse semblait alors totalement contradictoire avec les équations de Maxwell. Ces équations, qui prévoient l'existence d'ondes lumineuses, formaient pourtant une des bases les plus solides de la physique de la fin du xixe s.


La résolution de ces contradictions devait venir de la toute jeune mécanique quantique, grâce à laquelle Paul Dirac put effectuer en 1927 une synthèse entre les propriétés à la fois « ondulatoires » et « corpusculaires » que semble posséder le photon. La théorie de Dirac, développée ensuite sous le nom d'électrodynamique quantique, est aujourd'hui fondamentale pour la physique des hautes énergies, dont un résultat spectaculaire a été la mise en évidence des bosons intermédiaires Z0, W+ et W− au Cern en 1983. Par ailleurs, l'apparition du laser au début des années 1960 a conduit au développement rapide d'un nouveau champ de recherches, l'optique quantique, dans laquelle les propriétés quantiques de la lumière jouent un rôle essentiel. En particulier, il est maintenant possible d'observer directement les propriétés ondulatoires et corpusculaires d'un photon unique, matérialisant ainsi des concepts vieux de plus de cinquante ans.

HISTORIQUE DE LA NOTION DE PHOTON
L'introduction du concept de photon ne s'est pas faite sans difficultés ; les étapes essentielles de ces débuts se situent entre 1900 et 1922.

PLANCK ET LE RAYONNEMENT DU CORPS NOIR

Un matériau chauffé à une température suffisamment élevée émet de la lumière : il devient incandescent. Le spectre de la lumière émise, c'est-à-dire la répartition de l'énergie lumineuse en fonction de la fréquence (responsable de la couleur que nous voyons), devrait dépendre du matériau utilisé. Cependant, Gustav Kirchhoff montra en 1860, par un argument thermodynamique très général, que ce spectre dépend uniquement de la température – et non du matériau particulier – à condition que celui-ci soit parfaitement absorbant ; on parle alors de « corps noir ». Cette découverte déclencha un intense travail expérimental et théorique, afin, d'une part de réaliser concrètement un tel corps noir et de mesurer son spectre et, d'autre part, de calculer la loi inconnue ρ (ν, T) exprimant la quantité d'énergie rayonnée à la fréquence ν par un corps noir chauffé à la température T.
À la fin du xixe s., les méthodes de mesure de l'émissivité du corps noir avaient beaucoup progressé, mais les tentatives de calculs de ρ (ν, T) demeuraient infructueuses : deux lois différentes semblaient s'appliquer aux régions « basses fréquences » et « hautes fréquences » des spectres observés. Enfin, en 1900, Planck parvenait à la bonne formule par une démarche d'abord intuitive. En fait, le caractère révolutionnaire de cette découverte apparut réellement lorsque Planck parvint à justifier rigoureusement sa formule, en admettant que les échanges d'énergie entre la lumière et le matériau s'effectuaient par quanta, c'est-à-dire par « paquets » indivisibles. La valeur du quantum d'énergie, dépendant de la fréquence ν, est égale à hν, où h est une constante universelle, maintenant baptisée « constante de Planck ».
Rien, dans la physique de cette époque, ne pouvait justifier l'hypothèse de Planck : la loi d'émissivité du corps noir, immédiatement confirmée par l'expérience, ouvrait donc la voie à des théories entièrement nouvelles.

EINSTEIN ET L'EFFET PHOTOÉLECTRIQUE

En 1905, le mystère des quanta de Planck restait entier ; on ignorait si la lumière, les atomes, ou seulement les échanges d'énergie devaient être quantifiés. C'est alors qu'Einstein proposa que la lumière elle-même soit formée de quanta (qui devaient être baptisés photons seulement en 1926) ; cette hypothèse permettait d'interpréter de façon simple l'effet photoélectrique.
Cet effet, connu depuis la fin du xixe s., consiste en l'émission d'électrons par une plaque métallique éclairée par un faisceau lumineux. Deux observations semblaient défier toute explication : tout d'abord, l'effet n'existe que pour des fréquences lumineuses ν supérieures à une certaine fréquence seuil νs ; ensuite, l'énergie cinétique des électrons émis dépend de la fréquence, c'est-à-dire de la couleur, et non de l'intensité de la lumière utilisée. L'interprétation fournie par Einstein fut alors la suivante : la lumière est formée de grains d'énergie hν et l'absorption d'un de ces grains provoque l'émission d'un électron par la plaque métallique. L'énergie cinétique Ec communiquée à l'électron est alors l'énergie hν, diminuée d'une quantité fixe Ws nécessaire pour arracher l'électron au matériau, ce qui se représente par l'équation :
Ec = hν − Ws
Cette équation très simple rend compte de tous les faits expérimentaux observés :
– l'énergie cinétique Ec d'un électron émis ne dépend pas de l'intensité de la lumière (c'est-à-dire du nombre de photons) mais de sa fréquence ; Ec augmente du côté « bleu » du spectre visible (hautes fréquences) ;
– pour que l'électron soit émis, l'énergie Ec doit être positive ; il existe donc un seuil à l'effet photoélectrique, c'est-à-dire une valeur minimum hνs = Ws en dessous de laquelle aucun électron n'est émis.
Le seuil dépend du métal utilisé ; les valeurs les plus basses de hνs sont obtenues pour les métaux alcalins.
Des expériences réalisées par Robert Millikan, en 1915, confirmèrent toutes ces prédictions.
L'énergie seuil fut mesurée pour plusieurs métaux, et la valeur de h obtenue par ces expériences se révéla être en très bon accord avec celle obtenue par Planck à partir de la loi d'émissivité du corps noir : on pouvait donc penser que le photon allait avoir gain de cause. En fait, rien n'était encore joué, puisque Millikan et, avec lui, de nombreux autres physiciens de renom rejetaient l'interprétation de l'effet photoélectrique donnée par Einstein. Ce conflit provenait de la contradiction apparente qui existe entre le concept de photon – particule de lumière – et les équations de Maxwell de l'électromagnétisme – qui impliquent l'existence d'ondes lumineuses.

COMPTON ET LA DIFFUSION ÉLECTRON-PHOTON

Cependant, une nouvelle expérience en faveur du photon « corpusculaire » devait emporter l'adhésion de la communauté des physiciens : il s'agit de l'étude par Arthur Compton de la « collision » d'un électron et d'un photon. Les équations de l'effet Compton décrivent le choc d'un électron et d'un photon comme un choc de particules matérielles, en assurant la conservation de l'énergie et de la quantité de mouvement. Le résultat du calcul est que le photon est dévié, et sa fréquence légèrement changée. La valeur théorique de ce décalage de fréquence fut confirmée expérimentalement par Compton, ce qui imposa définitivement la nécessité du concept de photon.
En 1918, Planck reçut le prix Nobel pour la découverte du quantum d'action ; Einstein, en 1922, pour son interprétation de l'effet photoélectrique ; Compton, en 1927, pour la découverte de l'effet qui porte son nom. Peu de temps après, les progrès réalisés par la théorie quantique allaient permettre une description synthétique des propriétés à la fois « ondulatoires » et « corpusculaires » de la lumière.

LE PHOTON, PARTICULE ÉLÉMENTAIRE
FICHE D’IDENTITÉ DU PHOTON
Le photon est une particule de masse nulle, de spin unité ; son énergie est E = hν, et sa quantité de mouvement est p = (h/2π) k où k est le vecteur d'onde associé à la particule.

INTERACTIONS PHOTON-MATIÈRE
Les interactions des photons avec des atomes ou d'autres particules peuvent s'accompagner de transfert d'énergie, d'impulsion ou de moment cinétique. Par exemple, des photons polarisés circulairement peuvent transférer leur moment cinétique à une vapeur atomique : c'est le principe du pompage optique, inventé par Alfred Kastler en 1950, utilisé notamment dans les lasers.
De même, la pression de radiation exercée par un faisceau lumineux sur des atomes peut être utilisée pour ralentir ou dévier un jet d'atomes. Ces phénomènes sont observés dans le domaine des basses énergies, c'est-à-dire pour des valeurs de hν très inférieures à l'énergie de masse mec2 d'un électron. Lorsque hν devient plus grand que 2 mec2 (domaine des rayons γ), l'électrodynamique quantique relativiste prédit la possibilité pour un photon de se transformer en une paire électron-positon (le positon, également appelé positron, étant l’antiparticule de l’électron) ; la réaction inverse (annihilation d'une paire) est possible également, et de telles réactions sont couramment observées dans les accélérateurs de particules.

LE PHOTON DANS LE MODÈLE STANDARD
Dans les théories contemporaines, le photon est le médiateur de l'interaction électromagnétique, c'est-à-dire que cette interaction est décrite comme un échange de photons. À très haute énergie, Steven Weinberg, Abdus Salam et Sheldow Glashow ont montré que l'interaction électromagnétique s'unifie avec l'interaction faible, responsable de certaines réactions de désintégration. Les médiateurs de cette interaction électrofaible sont les bosons intermédiaires Z0, W+ et W−.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google