ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

POURQUOI LA MATIÈRE CHANGE-T-ELLE D'ÉTAT ...

 

Texte de la 220e conférence de l'Université de tous les savoirs donnée le 7 août 2000.
Symétries et symétries brisées : la compétition ordre-désordre et les changements d'état de la matière
par Édouard Brézin


Introduction
Le sentiment d'harmonie dégagé par les symétries des objets naturels ou fabriqués, a sans aucun doute accompagné l'homme depuis ses origines. Peut-être est-ce la quasi-identité des moitiés gauche et droite de nombreuses espèces vivantes qui a conduit à l'adoption de canons esthétiques, présents à l'évidence dans la vision des premiers architectes égyptiens et grecs. Plus près de nous les cinq polyèdres réguliers platoniciens, de par leur perfection et leur unicité, apparaissaient encore à Kepler comme le modèle indispensable régissant les distances au soleil des cinq planètes du système solaire connues en son temps (la découverte en 1781 d'une sixième planète, Uranus, ne laissait plus aucune place à ce rêve).
Mais ce n'est qu'à partir de la fin du siècle dernier que, dépassant ces considérations géométriques et esthétiques, la symétrie s'est imposée progressivement comme instrument de compréhension de l'univers, et finalement, avec la notion contemporaine de symétrie locale, comme le concept premier et unificateur permettant de comprendre l'organisation de la matière, les interactions entre constituants élémentaires (électromagnétisme et forces nucléaires), et même la cosmologie de notre univers en inflation issu du big-bang initial. Le rêve de Kepler s'est en quelques sorte enfin réalisé : la symétrie détermine le monde.
Le langage nous tend des pièges difficiles à éviter. C'est ainsi qu'à côté de symétrie-dissymétrie nous trouvons ordre et désordre qui leur sont étroitement associés. Mais que l'on y prenne garde, c'est à la symétrie qu'est associé le désordre, alors que l'ordre résulte de la symétrie brisée, qui n'est pas l'absence de symétrie, notion qu'il va donc nous falloir expliciter tout à l'heure.

Le dix-neuvième siècle
Deux pionniers de l'étude des symétries ont marqué le siècle dernier, Louis Pasteur et Pierre Curie. Ils nous laissé des concepts profonds, et des interrogations qui n'ont cessé de nous accompagner depuis lors.
Les expériences du jeune Pasteur visaient à préciser la propriété connue de certains cristaux, tel le quartz, qui font tourner le plan de polarisation de la lumière. En 1848 Pasteur, chimiste d'exception avant de devenir le biologiste génial que tout le monde connaît, cherchait à préciser le lien entre cette activité optique et la structure des cristaux ; il remarqua que les cristaux de paratartrate de sodium étaient un mélange de deux « énantiomères », c'est à dire de petits cristaux qui étaient tantôt identiques, tantôt identiques à l'image des précédents dans un miroir (de même qu'une main droite n'est pas identique à une main gauche, mais simplement à l'image de celle-ci dans un miroir). Il montrait alors que chacun de ces deux types de cristaux, avait des propriétés optiques opposées, signe d'une chiralité moléculaire (du grec kheir main). Mais la découverte de Pasteur allait beaucoup plus loin, puisqu'elle mettait en évidence une différence fondamentale entre la matière inerte et la matière vivante. En effet la synthèse des paratartrates en laboratoire produisait des mésotartrates optiquement inactifs, qui se révélèrent être toujours des mélanges en parts égales des deux énantiomères, alors que la vie est profondément asymétrique puisque les cristaux de paratartrate, issus des dépôts dans le vin, étaient exclusivement lévogyres. Depuis la biochimie n'a cessé de nous révéler que les molécules constitutives du vivant, ADN, protéines, etc., étaient asymétriques, avec une homochiralité universelle : ainsi toutes les hélices constitutives de l'ADN tournent toujours dans le même sens, chez tous les êtres vivants.
Comment expliquer une telle différence entre la biochimie et la chimie du monde inanimé ? C'est bien un mystère, car les processus physiques qui régissent la constitution des atomes et molécules ne distinguent pas la droite de la gauche : une réaction chimique et celle qui serait constituée par l'image ce cette dernière dans un miroir, ont des probabilités égales de se produire. Notons tout de même que, rompant avec une conception qui faisait de cette égalité un dogme, deux physiciens américains nés en Chine, T.-D. Lee et C.-N. Yang, formulèrent en 1956 l'hypothèse que les interactions nucléaires, responsables de la radioactivité bêta, n'étaient pas identiques à leur « image dans un miroir ». Cette non-conservation de la parité fut rapidement mise en évidence expérimentalement par la physicienne de l'université de Columbia Mme C.-S. Wu. Pour ne prendre qu'une image, cela signifie que nous avons bien la possibilité de faire connaître à des extra-terrestres (connaissant les lois de la nature !) ce que nous appelons la droite et la gauche. Cette légère asymétrie serait-elle suffisante pour expliquer cette surprenante homochiralité du vivant ? D'autres préfèrent imaginer que les fluctuations statistiques dans des populations d'énantiomères droits et gauches a priori égales, peuvent produire une inégalité accidentelle qui s'auto amplifie et conduit à l'homochiralité du vivant. (Pour ma part je crois que ce mécanisme ne saurait suffire, sans invoquer également le précédent). D'autres enfin, à la suite de J. Monod, voient dans cette homochiralité la preuve d'une origine unique commune à tous les êtres vivants. Il n'est pas question ici de trancher, mais on voit combien cette observation extraordinaire de Pasteur reste au cSur des préoccupations contemporaines sur l'origine de la vie.
C'est l'étude de la piézoélectricité du quartz, cette propriété aujourd'hui si abondamment utilisée, par exemple dans nos montres à quartz, mise en évidence en 1888 par les frères Curie, qui conduisit Pierre Curie à formuler un principe de symétrie profond et général. Réfléchissant en effet sur le lien entre la direction de la polarisation électrique du cristal et celle des contraintes mécaniques qui lui donnent naissance, Pierre Curie postula que « lorsque certaines causes produisent certains effets, les éléments de symétrie des causes doivent se retrouver dans les effets possibles ». Malgré son aspect très formel ce principe est d'utilisation parfaitement opératoire, tout spécialement en présence de champs électriques et magnétiques. C'est ainsi qu'il implique qu'il n'est pas possible de réaliser des synthèses chimiques « asymétriques », privilégiant l'un des composés, droit ou gauche, de molécules possédant une chiralité déterminée, sous le simple effet d'un champ magnétique.
Nous savons aujourd'hui que ce principe de Curie, pris au pied de la lettre, ne couvre pas le champ important des symétries brisées, et il est paradoxal de constater que l'une de ces premières brisures connues, celle de la transition paramagnétique-ferromagnétique, a été découverte également par P. Curie.
Physique statistique : énergie et entropie
Il nous faut donc venir au concept important de brisure spontanée de symétrie, et auparavant situer la compétition entre ordre et désordre qui régit l'organisation de la matière. Inscrite dans la thermodynamique, elle prit tout son sens lorsque Boltzmann et Gibbs établirent à la fin du siècle dernier les fondements de la physique statistique, science de la déduction des propriétés du monde macroscopique à partir des constituants élémentaires de la matière.
Examinons un processus simple et familier comme le gel d'un liquide. Le solide ainsi formé possède une structure régulière dans laquelle les atomes ou molécules constitutives se rangent au sommet d'un réseau spatial périodique. (Remarquons au passage le lien étonnant entre mathématiques et physique en ce domaine : les symétries sont exprimées mathématiquement à l'aide de la théorie des groupes, c'est-à-dire de la théorie des opérations qui laissent un objet inchangé. Cette théorie conduit à montrer qu'il n'existe que 230 structures périodiques possibles pour ces arrangements spatiaux des molécules, et les cristallographes ont bien identifié des structures solides réalisant chacune de ces 230 possibilités. Il faut également observer que la nature sait déjouer les théorèmes mathématiques puisque aucune des structures permises ne possède de symétrie d'ordre cinq : or, à la surprise générale, on découvrit en 1984 un « solide » possédant une telle symétrie interdite. Ces structures bien identifiées aujourd'hui et appelées quasi-cristaux sont en fait parfaitement apériodiques). Si l'on tente d'imaginer le comportement des molécules constituantes lors de la solidification, le gigantisme du nombre de molécules contenues dans le moindre grain de matière rend le processus tout à fait stupéfiant. Une minuscule goutte d'eau est constituée de plusieurs milliards de milliards de molécules. Un infime abaissement de température de l'eau en dessous de 0°C, produit donc la mise en ordre spatial d'un nombre colossal d'objets sans que rien ne soit venu modifier ni les molécules ni les forces mutuelles d'interaction qui régissent leur comportement. Projetons en marche arrière le film de la fin d'un défilé au moment où tous les soldats s'éparpillent, et représentons nous un défilé imaginaire avec de très nombreux milliards de participants et nous aurons une image microscopique de la solidification.
La transition solide-liquide est la manifestation de deux phénomènes antagonistes, qui mettent en jeu énergie et entropie. Dans cette matière macroscopique en effet, les configurations des molécules sont innombrables ; chacune d'entre elles est susceptible de se réaliser avec une petite probabilité, d'autant plus grande que son énergie est plus basse. À basse température, dans la phase solide donc, les configurations de basse énergie, très ordonnées spatialement pour autoriser les molécules à « profiter » de leur attraction réciproque, ont un poids dominant. En revanche à plus haute température, la multiplicité des configurations possibles conduit à rejeter les configurations ordonnées, à privilégier des configurations plus énergétiques, bien moins probables donc, mais si nombreuses que cette considération (identifiée par Boltzmann à l'entropie des thermodynamiciens) l'emporte. Comparons le liquide et le solide : le liquide est isotrope, aucune direction n'y est privilégiée. Il est également tout à fait homogène, identique en tous ses points. Le solide lui possède des axes cristallins privilégiés et des points qui servent de sommets au réseau périodique sur lequel sont venus se ranger les molécules. Il est donc, certes plus ordonné que le liquide, mais moins symétrique que lui puisque des opérations telles que des rotations ou des translations arbitraires qui ne changent rien au liquide, ne laissent pas le solide invariant. Cette brisure de symétrie, manifestée par l'ordre cristallin, est spontanée en ce sens qu'elle ne nécessite aucun agent extérieur, aucune interaction privilégiant des directions particulières.
Pour visualiser de manière plus intuitive une brisure spontanée de symétrie, on peut considérer le flambement d'une poutre sous l'effet d'une charge excessive. Même si la pression exercée coïncide bien avec l'axe de la poutre, celle-ci finira par flamber de manière asymétrique si la pression dépasse un certain seuil. On voit donc que cela implique de compléter quelque peu le principe de Curie : la symétrie d'un état particulier résultant d'une cause déterminée, peut avoir moins de symétrie que cette dernière. Seul l'ensemble des états possibles sous l'effet de cette cause a la symétrie des effets qui l'ont provoquée.
Un grand nombre des changements d'état de la matière résultent donc de ce phénomène de symétrie brisée. Les « aimants » permanents présentent une aimantation dans une direction spatiale bien déterminée qui disparaît au-delà d'une certaine température (celle-ci porte le nom de Curie qui avait découvert cette transition entre un état « ferromagnétique » aimanté et présentant une orientation, et un état « paramagnétique » désorienté et donc tout à fait isotrope). De nos jours la supraconductivité, la superfluidité, les phases des cristaux liquides, et bien d'autres changements d'états, n'ont cessé d'enrichir le catalogue des symétries spontanément brisées que présente l'organisation de la matière. Les défauts à l'ordre eux-mêmes (un solide, et toute structure ordonnée, possèdent des défauts) s'organisent d'une manière tout à fait caractéristique des symétries brisées présentes dans la structure.
La compréhension du mécanisme de la compétition ordre-désordre (ou énergie-entropie) mise en jeu dans ces transitions s'est étendue sur de nombreuses décennies. Après de longues années d'interrogations inconclusives, les travaux de 1940 du physicien R. Peierls, qui avait fui le nazisme en Angleterre, montraient que la formulation statistique de la physique qui doit tant à Boltzmann, contenait bien la possibilité, la nécessité même, de transition de phase par brisure spontanée de symétrie. À la même époque, l'étude systèmatique par L. Landau en Union Soviétique, des types de symétrie et de leurs brisures spontanées, mettait en quelques sorte fin au problème. Landau introduisait le concept fort important de paramètre d'ordre qui permet de caractériser la transition de phase et les phénomènes singuliers qui l'accompagnent. Dans la phase symétrique, c'est-à-dire désordonnée, ce paramètre est nul. En revanche dans la phase ordonnée, c'est-à-dire de symétrie brisée, il prend une valeur non nulle spontanément, i.e. en l'absence de tout sollicitation extérieure.
Mais le problème devait resurgir dans les années 60 par l'arrivée de moyens expérimentaux nouveaux, tels que les lasers ou la diffraction des neutrons, qui révélaient que la théorie développée par Landau, bien que souvent qualitativement en accord avec l'expérience, était en fait quantitativement erronée. Que l'on me permette de ne pas tenter d'exposer ici les travaux sur le groupe de renormalisation, qui permirent de résoudre ce problème (et bien d'autres à sa suite) et valurent à l'américain K. Wilson le prix Nobel de physique 1981.

Symétries du monde subnucléaire
Les concepts de symétrie, associée à des opérations qui laissent le système invariant, ont joué un rôle central dans les idées de la physique. Je me contenterai de citer, sans la développer ici, la contradiction entre les symétries galiléennes de la mécanique classique, et celles de Lorenz-Poincaré de l'électrodynamique de Maxwell. C'est elle qui conduisit Einstein à la relativité restreinte. Un peu plus tard Einstein, toujours guidé par le souci de décrire les lois de la physique de manière universelle, indépendante de l'état de mouvement des observateurs, aboutit par des considérations d'invariance, c'est-à-dire de symétrie, à la relativité générale, nouvelle théorie de la gravitation, base indispensable de la cosmologie contemporaine. Plus près de nous les quarks, éléments constitutifs de la matière « hadronique » (c'est-à-dire liée par des forces nucléaires fortes), ont été mis en évidence par les propriétés de symétrie présentées par la classification des particules élémentaires, une démarche qui rappelait l'élucidation de la structure des atomes à partir des régularités du tableau de Mendeleïev.
Mais je voudrais tenter de décrire ici les idées très importantes de symétrie locale (plus couramment appelées symétries de jauge, même si cette dénomination n'est pas très éclairante) qui ont permis de comprendre à la période contemporaine les interactions entre particules élémentaires (électromagnétiques ainsi que nucléaires faibles et fortes). La symétrie n'est plus cette fois une simple propriété de la structure, mais l'élément qui permet de fixer entièrement la dynamique des forces électromagnétiques et nucléaires.
En 1925 les travaux du physicien anglais P.A.M. Dirac établissaient une théorie de l'électron en interaction avec le rayonnement électromagnétique qui incorporait à la fois la nouvelle mécanique des quanta, la relativité et les équations de Maxwell de l'électromagnétisme. Le physicien-mathématicien H. Weyl réalisa que l'interaction entre les particules dotées d'une charge électrique et le rayonnement électromagnétique, telle qu'elle apparaissait dans la théorie de Dirac, résultait de manière unique d'une propriété de symétrie insoupçonnée. Renversant le raisonnement, cette symétrie de « jauge » est alors suffisante pour fixer la théorie de Maxwell-Dirac. Une explication précise demanderait un peu trop de formalisme. En quelques mots il faut savoir que les états d'une particule comme l'électron, sont décrits en mécanique quantique par une fonction d'onde qui est un nombre complexe en chaque point de l'espace-temps (on peut se représenter cela par un vecteur dans un plan associé à chaque point de l'espace-temps). La théorie ne change pas si on modifie cette phase de la même quantité pour tous les points de l'espace-temps (c'est-à-dire si on fait tourner tous ces vecteurs dans le plan du même angle). Cette première symétrie n'est pas tout à fait banale, puisqu'elle implique que la charge électrique est « conservée », c'est-à-dire que dans tout processus la charge finale est la même que la charge initiale.
Peut-on modifier cette phase indépendamment pour chaque point de l'espace-temps ? A priori la réponse est négative, c'est-à-dire qu'en l'absence de champ électromagnétique, cette opération n'est certainement pas une symétrie de la théorie. Mais Weyl comprit que le champ électromagnétique avait précisément pour fonction d'instituer cette propriété d'invariance locale. Le champ résultant de cette invariance postulée obéit aux équations de Maxwell, et il introduit manifestement des interactions de portée infinie puisqu'il autorise de changer indépendamment les phases en des points arbitrairement espacés. Ce champ est constitué en termes quantiques de photons comme l'avait compris Einstein, particules sans masse, puisque porteuses d'une symétrie s'étendant à des distances arbitraires infinies (la portée est proportionnelle à l'inverse de cette masse).
La généralisation de ces idées à des symétries plus complexes qu'une simple rotation de vecteurs dans un plan, fut l'Suvre de Yang et Mills en 1956. Y apparaissent d'autres champs de « jauge » que les photons, qui ne reçurent initialement guère d'attention car, pour les mêmes raisons, les particules associées étaient elles-aussi sans masse et donc les interactions médiées par ces champs de portée infinie. Les théoriciens en butte avec la compréhension des forces nucléaires, et en particulier les forces dites « faibles », responsables par exemple de la désintégration bêta de noyaux dotés d'un excès de neutrons, auraient volontiers adopter une théorie de Yang-Mills, mais la portée des forces nucléaires faibles ne dépassant guère quelques milliardièmes de milliardième de mètre, il paraissait impossible, absurde même, de vouloir les faire sortir d'une théorie dans laquelle la portée des interactions est arbitrairement grande. C'est la compréhension du mécanisme de symétrie brisée qui permit d'établir finalement cette théorie des interactions faibles, unifiée de surcroît avec la théorie de l'électromagnétisme (modèle de Weinberg-Salam et nombreux travaux dont ceux de T. Hooft et Veltman, prix Nobel 1999). On introduit, en plus des particules usuelles, un champ de matière supplémentaire, le « boson de Higgs » (toujours hypothétique et activement recherché expérimentalement). Dans une première phase symétrique, qui a peut-être existé pendant quelques infimes instants après le big-bang, le scénario de Yang-Mills avec tous ses champs de masse nulle était à l'Suvre, mais une brisure spontanée de symétrie, une transition de phase analogue à celle de la supraconductivité évoquée à propos de la matière macroscopique, faisait apparaître une nouvelle phase, celle de notre monde d'aujourd'hui, dans laquelle certains des champs de Yang-Mills devenaient massifs, comme il se devait pour être conforme aux observations. La découverte expérimentale des particules Z et W± au CERN dans les années soixante-dix, analogues aux photons dans leur rôle de porteurs d'une symétrie locale, mais massifs pour ne transmettre l'interaction que sur une courte portée, établissaient la validité de cette extraordinaire construction.

Transitions de phase et cosmologie : les modèles d'univers en inflation
Le scénario classique du « big-bang », univers en expansion adiabatique à partir d'une singularité initiale, a connu des succès multiples. Le plus notable est la prédiction, aujourd'hui abondamment confirmée, du rayonnement « fossile », abandonné à lui-même depuis des milliards d'années sans jamais interagir, dans lequel baigne l'univers. Mais diverses observations dont cette théorie devrait rendre compte, telles que la compréhension du rapport entre le nombre de particules massives et le nombre de photons observés aujourd'hui, ou encore la nécessité d'une courbure de l'univers excessivement faible dans les premiers instants du big-bang, ont conduit là aussi à invoquer un mécanisme de symétrie spontanément brisée à l'origine de notre univers. Ces modèles d'univers en inflation, proposés par l'américain A. Guth et le russe (de Stanford désormais) A. Linde, résolvent les problèmes mentionnés ci-dessus si l'on suppose que l'univers a connu une transition de phase avec une brusque augmentation d'entropie, dans laquelle notre espace-temps est apparu, un peu comme une bulle de vapeur dans un liquide à son point d'ébullition. Diverses variantes de cette idée sont aujourd'hui considérées, telle l'inflation chaotique qui suppose la formation d'une écume de bulles, sans connections causales mutuelles, évoluant chacune en différents types d'univers. Seule l'une d'entre elles serait devenu notre univers. La validation de ces divers scénarios repose sur leur capacité à reproduire les paramètres aujourd'hui observés de notre univers, et il est sans doute bien trop tôt pour conclure, mais les cosmologistes semblent très généralement devoir faire appel à une symétrie brisée pour modéliser l'évolution de l'univers.
Conclusion
Je suis conscient que ces quelques lignes doivent paraître souvent bien incompréhensibles. Je souhaiterais simplement que le lecteur qui m'aurait accompagné jusque-là, partage notre émerveillement devant un monde dont l'évolution et dont les forces en présence, sont presque exclusivement fixées par ses symétries et leurs brisures. Jamais un si petit nombre de principes n'avaient suffi à embrasser une telle diversité de situations. En définitive, à l'échelle des constituants élémentaires de la matière, seule la compréhension d'une théorie quantique de la gravitation échappe encore à cette construction.
Lectures complémentaires
Les actes du 4e colloque Physique et interrogations fondamentales, intitulé « Symétrie et brisure de symétrie » ont été publiés par EDP Sciences en 1999. Plusieurs contributions développent certains des thèmes évoqués ci-dessus.

 

VIDEO           CANAL  U            LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
initiation musicale toulon  

LA CHIMIE , SCIENCE DES TRANSFORMATIONS

 

Texte de la 232e conférence de l’Université de tous les savoirs donnée le 19 août 2000.


La chimie, science des transformations                                                          par
Nguyên Trong Anh En chinois, chimie se dit science des transformations. De fait, depuis des siècles, des techniques chimiques ont permis de transformer la matière en des produits de première nécessité. Sans chimie, plus de métaux, de briques, de mortier. Nous habiterions encore des cavernes. Plus de livres. Nous retournerions à l'âge de pierre. Car le bronze, c'est déjà de la chimie. Si les arts chimiques sont très anciens, la science chimique est bien plus récente. Elle est née à la fin du XVIIIe siècle, quand l'homme ne s'est plus contenté de recettes empiriques et a cherché à comprendre ce qu'il faisait, ce qui posait trois problèmes. D'abord, il faut connaître les objets qui se transforment, donc déterminer leurs structures, c’est-à-dire préciser la nature des atomes constitutifs et la manière dont ils s'enchaînent entre eux. Il faut ensuite comprendre comment ces objets se transforment. Ce sont les mécanismes de réaction. Enfin, il s'agit d' utiliser ces connaissances pour la synthèse. Les exemples qui suivent illustrent une caractéristique de la science chimique : les questions étudiées sont souvent très difficiles et leurs solutions étonnamment simples.
La détermination des structures Imaginez Sherlock Holmes, mais un Holmes aveugle et n'ayant aucune idée de ce qu’est un château. Imaginez qu’on lui lise les livres de compte des architectes (Amboise, Blois… ont nécessité respectivement tant de pierres, d’ardoises, etc.) et que, muni de ces seuls renseignements, Holmes reconstitue exactement tous les châteaux de la Loire. Vous direz sans doute que c’est impossible, même pour Sherlock Holmes… et vous auriez tort. Car les chimistes du XIXe siècle avaient réussi un exploit équivalent. C'étaient des aveugles car ils ne pouvaient voir les molécules, encore moins les atomes. En fait, vers 1800, on ignorait ce qu’était une molécule (le château de la parabole) Tout ce que les chimistes pouvaient faire était d’effectuer des réactions : A + B Æ C + D et d’examiner A, B, C, D par analyse centésimale (équivalente des livres de compte), qui indique que dans tel composé, il y a tant pour cent de carbone, tant pour cent d'oxygène, etc. Cela leur avait suffi pour en déduire qu’un composé organique est un ensemble de molécules identiques, lesquelles sont formées d’ atomes, comme les maisons sont faites de briques et de tuiles…. Mieux, ils avaient créé une théorie, la chimie organique structurale, qui leur permettait d'établir par voie chimique, c’est-à-dire uniquement en faisant des réactions et des analyses, comment les atomes d’une molécule sont disposés dans l’espace. Pour l'Américain R. P. Feynman, prix Nobel de physique 1965, c’était là « une des plus fantastiques enquêtes policières jamais réalisées. » Pour Sir F. G. Hopkins, prix Nobel de médecine 1929, la chimie organique structurale était « l’un des plus grands exploits de l’esprit humain. » Voici deux épisodes de cette fantastique enquête, qui a duré trois quarts de siècle. La loi des volumes et son interprétation par Avogadro En 1808, le Français L.-J. Gay-Lussac fit remarquer que les réactions entre gaz étaient très simples : 1 volume d’hydrogène + 1 volume de chlore = 2 volumes de chlorure d’hydrogène 2 volumes d’hydrogène + 1 volume d’oxygène = 2 volumes de vapeur d’eau 3 volumes d’hydrogène + 1 volume d’azote = 2 volumes d’ammoniac C’était la célèbre loi des volumes : les volumes des gaz qui se combinent et ceux des produits formés sont dans des rapports simples : 1 à 1, 1 à 2, 2 à 3 … Voici l’interprétation qu’en a donnée l'Italien A. Avogadro (1811). Puisque les gaz se combinent dans des rapports simples, il est raisonnable de penser que : 1) La matière a une structure discontinue, chaque corps étant une juxtaposition « d’unités élémentaires » identiques. Cette hypothèse atomique est ici bien naturelle. Mélangeons en effet du bleu avec du jaune, nous obtenons une gamme continue de vert. Il n'y a aucune raison de choisir un vert plutôt qu'un autre, c’est-à-dire de prendre du jaune et du bleu dans des proportions simples. Étudions maintenant un ensemble discontinu d'éléments en prenant comme analogie un ballet. À tout moment, le nombre de danseurs est un nombre entier, celui de danseuses aussi. Ainsi, puisque l'hydrogène et le chlore se combinent volume à volume, il faut admettre en plus que : 2) Dans un volume donné, quel que soit le gaz, il y a toujours le même nombre « d’unités élémentaires ». Pour saisir la nécessité de cette hypothèse d'Avogadro, pensons à un bal où hommes et femmes sont en nombres égaux : personne ne fait tapisserie. L'analogie ne peut être poussée trop loin. Si une unité d'hydrogène se combine avec une unité de chlore pour donner une unité de chlorure d'hydrogène il résultera alors de l'hypothèse d'Avogadro qu'un volume d'hydrogène se combine avec un volume de chlore (ce qui est correct) pour donner un volume de chlorure d'hydrogène (ce qui est en désaccord avec l'expérience). Pour retrouver les résultats observés, il faut admettre deux autres hypothèses : 3) Les « unités » (appelées désormais molécules) ne sont pas les constituants ultimes de la matière mais sont formées d’une ou de plusieurs « particules » (atomes), identiques ou non. 4) Chaque atome ne peut faire qu'un nombre déterminé de liaisons avec ses voisins. Ce nombre s'appelle sa valence. Tout rentre alors dans l'ordre. Supposons que les molécules d'hydrogène et de chlore soient diatomiques et qu'un atome d'hydrogène s'unisse avec un atome de chlore pour donner une molécule de chlorure d'hydrogène. La réaction s’écrit symboliquement : Si les molécules d'oxygène et d'azote sont diatomiques et si les atomes d'oxygène et d'azote se lient respectivement avec deux et trois atomes d'hydrogène, les réactions de formation de l’eau et de l’ammoniac seront : Cette théorie avait reçu un accueil mitigé. Elle contenait quatre hypothèses : la structure discontinue de la matière (hypothèse atomique), l'hypothèse d'Avogadro, l'existence de molécules et les valences fixes des atomes. Or les chimistes, positivistes, n’aimaient guère spéculer sur des objets non observables. Ainsi, l’hypothèse atomique était récusée par les Français J. B. Dumas, H. E. Sainte-Claire Deville et M. Berthelot. En Allemagne, le célèbre W. Ostwald ne l’a acceptée qu’en 1911. À plus forte raison, les gens rechignaient à admettre d’un coup quatre hypothèses extraordinaires basées sur des données expérimentales limitées. La théorie d’Avogadro n’a été acceptée que cinquante ans après, quand les quatre hypothèses ont été expérimentalement prouvées, chacune de plusieurs manières. Voici une façon de déterminer les valences des atomes. Vers 1850, le Britannique E. Frankland tenta de préparer le radical éthyle C2H5 en traitant l'iodure d'éthyle I-C2H5 par le zinc. La réaction de Zn avec I devrait libérer l'éthyle : Zn + 2 I-C2H5 Æ I-Zn-I + 2 C2H5 (deux radicaux éthyle) En fait, il obtint la réaction que voici : Zn + 2 I-C2H5 Æ I-Zn-I + C2H5-C2H5 (une molécule de butane) Comment interpréter ce résultat ? L'éthyle a bien été engendré puisque l’iode de I-C2H5 s'est lié avec le zinc. Mais comme il n’a pu être isolé, cela signifie qu’il est très réactif et se combine aussitôt. Son couplage avec un seul congénère pour donner le butane indique qu’il ne peut faire qu’une liaison. On dit qu’il est monovalent. Comme l’éthane C2H5-H résulte de l’union de C2H5 et d’un hydrogène, H est donc aussi monovalent. Les formules OH2 (eau) et NH3 (ammoniac) montrent que l'oxygène est divalent et l’azote trivalent. De proche en proche, on peut ainsi déterminer les valences de tous les atomes. Détermination d'une structure inconnue Schématiquement, la détermination de la structure d'un composé inconnu par voie chimique se fait de la manière suivante :
1) L’analyse centésimale donne les pourcentages des éléments constitutifs (la molécule contient tant pour cent de carbone, tant pour cent d'hydrogène).
2) La masse moléculaire est déterminée en mesurant la densité de vapeur ou en faisant appel aux lois de Raoult (les températures d’ébullition et de congélation d’une solution dépendent de la quantité et de la masse moléculaire du soluté). Couplée avec l’analyse centésimale, la masse moléculaire fournit la formule brute (nombres d'atomes de chaque espèce dans la molécule).
3) Les fonctions chimiques présentes sont reconnues grâce aux réactions caractéristiques. Ainsi, tous les alcools primaires possèdent les propriétés suivantes : - Ils ont un hydrogène échangeable avec Na ; - Ils réagissent avec des acides carboxyliques pour donner des esters ; - Oxydés, ils perdent deux hydrogènes et donnent des aldéhydes ; - Traités par un acide fort, ils éliminent une molécule d’eau, créant une double liaison C=C. À chaque fonction chimique correspond un groupe d’atomes déterminé. Par exemple, tous les alcools primaires possèdent le groupe -CH2OH.
4) La molécule est découpée en morceaux assez petits pour que leurs structures puissent être facilement établies.
5) Il ne reste plus qu’à assembler les pièces du puzzle. En cas de doute, la structure envisagée peut être confirmée par synthèse. L'écriture chimique Les conventions sont les suivantes - Les valences doivent être respectées : l'hydrogène a une liaison, l'oxygène en a deux, l'azote trois, le carbone quatre. Chaque trait représente une liaison : - Chaque atome est représenté par son symbole chimique : O (oxygène), N (azote)…, mais les carbones (C) et les hydrogènes (H) qui leur sont directement attachés ne sont pas toujours explicités. Il est facile de reconstituer la formule développée complète à partir de la formule simplifiée : La détermination de structure par voie chimique d'un composé contenant 15 atomes de carbone consomme une centaine de grammes du produit inconnu et demande à un bon chimiste quatre à cinq ans de travail. Jusque vers 1960, on ne pouvait faire mieux. Depuis, la chimie analytique a progressé, en particulier dans deux domaines : la séparation des mélanges complexes et la détermination des structures par spectroscopies. Ces avancées ont des conséquences pratiques très importantes. En effet, les produits naturels sont généralement des mélanges. Ainsi, l'essence de rose contient environ 200 composantes. Le phényléthanol en est le constituant principal, mais ce sont les produits secondaires qui font la finesse de l'essence. Une piquette peut avoir à 95 % la même composition qu'un château-margaux, mais il n'est pas nécessaire d'être œnologue pour les distinguer ! Il est donc essentiel pour les contrôles de qualité de pouvoir analyser quantitativement les produits mineurs. La limite de détection d'un composé connu est actuellement de l'ordre de 10fg (un femtogramme est un millionième de milliardième de gramme). Identifier une impureté de 10fg dans un gramme de mélange équivaut à repérer 1mm sur la distance Terre-Soleil. La détermination de la structure d'un produit inconnu par spectroscopies n'exige que quelques millionièmes de gramme et quelques journées. C'est plus qu'un simple gain de produit et de temps. Chaque fois que la chimie analytique gagne quelques ordres de grandeur, des domaines inaccessibles avant s'ouvrent aux chercheurs. Supposons qu'on veuille examiner les métabolites d'un médicament. Comme la dose journalière est en général inférieure au gramme, si l'analyse requiert 100g de chaque métabolite, une telle étude sera impossible. Sans analyse de traces, l'écologie scientifique n'existerait pas. Par d'exemple, la réglementation européenne interdit d'émettre plus d'un milliardième de gramme de dioxines par mètre cube de fumée. Le mot dioxines doit être employé au pluriel. En effet, il en existe près d'une quarantaine, aux propriétés physiques et chimiques voisines, et toutes ne sont pas toxiques. Il y a quelques années, une usine était menacée de fermeture. Une analyse fine a montré qu'un produit, identifié comme toxique, est en réalité un mélange de plusieurs dioxines, la plupart non dangereuses. L'usine est donc aux normes et ma collègue très fière d'avoir sauvé plusieurs centaines d'emplois. Sachant maintenant déterminer les structures, abordons le deuxième problème.
Les mécanismes de réaction Le graphe suivant représente un chemin réactionnel. Le point A correspond au système de départ. Quand la réaction se produit, les structures et énergies des réactifs changent. En général, l'énergie du système augmente, passe par un maximum correspondant à l'état de transition, puis redescend vers le point B, représentatif des produits d'arrivée. Sur le chemin réactionnel, seuls A et B correspondent à des systèmes stables, dont les structures peuvent être établies. Les autres points représentent des espèces fugitives, d'une durée de vie de l'ordre de la picoseconde (un millionième de millionième de seconde). Leurs structures ne peuvent être précisées. Or, un mécanisme de réaction devrait détailler les changements structuraux faisant passer des réactifs aux produits. Selon une boutade célèbre, proposer un mécanisme basé sur les structures des réactifs et des produits équivaut à regarder la scène d'exposition et la scène finale d'une pièce de théâtre et à de deviner ce qui se passe au milieu ! Ce n'est qu'une boutade. En fait, le chimiste examine une infinité de pièces apparentées. Il modifie la première scène et la Nature lui indique comment la scène finale sera changée. Il peut ainsi en déduire des renseignements sur les scènes intermédiaires. Considérons par exemple la réaction du brome sur une double liaison C=C (alcène). La cinétique est du second ordre, ce qui signifie que la réaction a lieu quand une molécule de brome interagit avec une molécule d'alcène. Changeons maintenant de solvant. En passant d'un solvant non polaire à un solvant polaire (qui stabilise les charges électriques), la vitesse augmente. Or la vitesse de réaction dépend de l'énergie d'activation, différence d'énergie entre l'état de transition et le système initial. Plus l'énergie d'activation est faible, plus la vitesse est grande. Le système de départ étant composé d'alcène et de brome, sans charges électriques, son énergie ne doit pas varier avec le solvant. Si l'énergie d'activation diminue, cela veut donc dire que des charges sont apparues dans l'état de transition. Recommençons la réaction en ajoutant des ions chlorures Cl-. À côté du dérivé dibromé « normal » apparaît un produit où l'un des bromes a été remplacé par un chlore : Comme le chlore est présent sous forme d'ion négatif, il est naturel de penser que le brome remplacé est aussi un ion Br-. Le produit final étant neutre, le reste de la molécule doit par conséquent être un ion positif. Un mécanisme possible (confirmé par d'autres expériences) est le suivant. L'alcène arrache Br+ à la molécule de brome pour former un ion cyclique en expulsant un bromure Br-. Ce dernier attaque un carbone de l'ion positif pour donner le produit final dibromé. Évidemment, l'ion positif peut se combiner avec Cl- pour conduire au dérivé chloré. Par touches successives, on peut ainsi obtenir une image étonnamment précise d'un mécanisme de réaction. Dans ces mécanismes, les intermédiaires ne sont connus que par inférence. Depuis une vingtaine d'années, ils peuvent être étudiés directement. Grâce à des ordinateurs puissants, les structures et énergies des intermédiaires peuvent être calculées par la chimie quantique. L'importance de ces travaux a été reconnue par le prix Nobel 1998 attribué à l'Anglais J. A. Pople et à l'Américain W. Kohn. Les intermédiaires peuvent aussi être observés expérimentalement par la femtochimie. La méthode consiste à envoyer sur le système réactionnel une impulsion laser de quelques femtosecondes (millionièmes de milliardième de seconde) pour l'activer, puis une deuxième impulsion laser pour l'analyser. On obtient ainsi une «photographie» du système en évolution. Comme une réaction chimique dure quelques milliers de femtosecondes, cette technique fournit des instantanées de la transformation. L'américano-égyptien A. Zewail a reçu le prix Nobel 1999 pour ses contributions en ce domaine. Il est certain qu'un jour viendra où tous les points d'un chemin réactionnel pourront être décrits en détail. Pour l'instant la femtochimie reste limitée à des systèmes de 3 ou 4 atomes. Actuellement, on doit donc se contenter des mécanismes «classiques», obtenus par inférence. Ils permettent déjà de choisir les bonnes conditions expérimentales et d'inventer parfois éventuellement on donnée .suggère de nouvelles réactions. Prenons par exemple la réaction : acide carboxylique + alcool = ester + eau Peut-on la faire en milieu neutre ? Le mécanisme d'estérification indique qu'il se forme d'abord une liaison entre l'oxygène de l'alcool R' OH et le carbone de R- C-O2H. La flèche allant de O vers C signifie que les deux électrons de liaison appartenaient à l'oxygène. Après liaison, ils sont partagés entre C et O. L'oxygène ayant ainsi cédé un électron négatif va avoir une charge positive. Comme un carbone ne peut être entouré que de 8 électrons périphériques, l'arrivée des électrons de l'alcool va chasser deux électrons initialement partagés par le C et l' O de l'acide carboxylique (deuxième flèche sur la figure). Cet oxygène reçoit un électron additionnel et aura une charge négative : Il apparaît donc dans le produit d'arrivée des charges, ce qui coûte de l'énergie. Pour le montrer, Feynman donnait donner l'exemple suivant. On prend deux grains de sable de 1mm de diamètre à 30m de distance et on les ionise, l'un positivement, l'autre négativement. Ces grains vont s'attirer avec une force égale à 3 millions de tonnes ! L'estérification en milieu neutre sera par suite difficile. Est-elle plus facile en milieu basique ? L'hydrogène marqué en gras de RCO2 H est dix milliards de fois plus acide que celui de l'alcool R'O H. Une base, en faibles quantités, va réagir exclusivement avec RCO2H et le transformer en RCO2-, ion négatif peu apte à recevoir des électrons. La réaction sera plus difficile qu'en milieu neutre. Un excès de base sera encore pire. En effet, tous les protons sont alors arrachés et les réactifs transformés en RCO2- et R'O-. Deux charges de même signe se repoussant, ces espèces ne réagiront pas. Et en milieu acide ? Si un acide fort, source de proton H+, est ajouté en excès, toutes les molécules sont protonées en RCO2H2+ et R'OH2+. Ces espèces positives se repoussent et ne se combinent pas. Si maintenant l'acide est en quantités infimes, des molécules protonées et non protonées vont alors coexister. L'acide carboxylique protoné RCO2H2+ est activé. En effet, le proton soutire des électrons à l'oxygène, qui se rattrape en soutirant des électrons au carbone voisin. Ce dernier aura une charge positive et accueillera volontiers les électrons de l'alcool. La réaction se fera entre RCO2H2+ (activé) et R'OH (non désactivé). C'est la meilleure situation rencontrée jusqu'à présent. En milieu neutre, les réactifs ne sont pas activés. En milieu basique ou en présence d'un excès d'acide fort, les espèces sont désactivées. La situation est d’autant meilleure qu'il n'y a pas de création de charge comme dans la réaction en milieu neutre. Il n'est donc pas nécessaire de tout apprendre par cœur. Les raisonnements très simples précédents montrent que l'estérification ne se fait qu'en milieu acide. Mais si l'acide fort est en excès, la réaction n'aura pas lieu. Comment estérifier maintenant RCO2H si R ne résiste aux acides ? La comparaison des formules RCO2 H et RCO2 R' montre que l’estérification substitue R' à H. Une réaction de substitution n'est pas très facile et il est nécessaire d'activer RCO2H ou le donneur de R'. L'ajout d'une base active RCO2H sous forme de RCO2-. Le donneur peut être un iodure R'-I. Supposons maintenant que R ne résiste ni aux acides, ni aux bases. Comment estérifier RCO2H ? La réaction avec un alcool, qui exige un acide, est irréalisable. L'emploi d'une base étant exclu, l'estérification par substitution doit se faire par activation du donneur de R', en remplaçant I par un meilleur groupe partant, par exemple un diazo N2+. Quand RCO2H et le diazométhane CH2-N∫N sont en présence, l'acide protone son partenaire, réaction difficile car elle crée deux ions. L'équilibre est donc largement déplacé vers la gauche. L'étape suivante, qui neutralise ces ions, est par contre facile. De plus, l'azote gazeux se dégage du milieu et rend cette étape irréversible, si bien que le premier équilibre est constamment déplacé et l'estérification est complète à température ambiante en quelques minutes. Si les réactions en constituent une part importante, ce n'est pas toute la chimie. Un objectif majeur du chimiste reste la création de produits pour résoudre une question théorique ou répondre à un besoin pratique. La connaissance de la structure de la cible et la compréhension des mécanismes permettent de concevoir des plans rationnels de synthèse. Synthèse d'une molécule complexe Rauwolfia serpentina est une plante utilisée dans la médecine traditionnelle de l'Inde. Son étude chimique, faite en 1955, a permis d'isoler un principe actif, la réserpine, maintenant employée pour le traitement de l'hypertension, des troubles nerveux et mentaux. Comment synthétiser ce composé ? L'examen de sa formule montre une structure partielle connue, la méthoxytryptamine : Il paraît logique de construire la partie restante et de la coupler ensuite avec la méthoxy-tryptamine. La cible intermédiaire I est un cycle à six chaînons portant cinq substituants différents : un aldéhyde CHO (permettant de lier ensuite le carbone au NH2 de la méthoxy-tryptamine), une chaîne CH2-CO2H (la fonction CO2H permettra de relier la chaîne à NH2 et au cycle pentagonal), une fonction ester, une fonction éther et encore une fonction ester (un trait renforcé représente une liaison dirigée vers l'avant de la figure et un pointillé une liaison dirigée vers l'arrière). Chaque substituant pouvant prendre deux positions (en avant ou en arrière), il y a en tout 32 combinaisons différentes dont une seule est correcte. Toutes les difficultés sont pratiquement résolues en trois étapes, utilisant trois notions enseignées en première année de chimie :
1) La réaction de Diels-Alder ( vide infra) ;
2) Un composé «courbe» est attaqué de préférence sur la face convexe ,plus accessible :
3) L'addition de XY sur une double liaison se fait trans, c’est-à-dire l'alcène étant plan, X va arriver par une face et Y par l'autre : Pourquoi la synthèse ? Il y a plusieurs raisons de synthétiser un composé d'origine naturelle. Une première est que les ressources ne sont souvent pas suffisantes. Si l'on voulait préparer le taxol - un anticancéreux - à partir de l'écorce de l'if, tous les arbres de la Terre ne suffiraient pas. Le produit synthétique peut coûter moins cher. C'est le cas de la vitamine C. La synthèse permet également rendre le produit plus efficace ou plus facile d'emploi. Ainsi, toutes les céphalosporines (des antibiotiques) sont semi-synthétiques, les produits naturels n'étant pas assez actifs. La pénicilline G doit être injectée. Une légère modification chimique la transforme en ampicilline, utilisable par voie orale. En remplaçant le soufre de l'ypérite (un gaz de combat) par un azote portant un groupe uracile, on obtient un médicament antitumoral ! La première étape de la synthèse est une Diels-Alder, réaction découverte dans les années trente par les Allemands O. Diels et K. Alder. Cette réaction s'est avérée si utile que le prix Nobel 1950 leur fut attribué. Elle fait intervenir deux composantes : un diène, ensemble de deux doubles liaisons (notées 1-2 et 3-4 sur la figure) et une double liaison 5-6. Ces composantes s'approchent l'une de l'autre dans deux plans à peu près parallèles. Par chauffage, il se crée deux liaisons simples 1-6 et 4-5 avec disparition concomitante de deux liaisons doubles. Il est facile de vérifier par les formules développées que la double liaison restante doit se trouver en 2-3. Les liaisons 1-6 et 4-5 définissent un plan. Fait remarquable, les deux composantes se trouvent de préférence du même côté de ce plan[1]. Les Américains R. B. Woodward[2] (Prix Nobel 1965 pour ses synthèses) et R. Hoffmann (Polonais d'origine, Prix Nobel 1980) ont donné en 1965 une explication quantique de ces propriétés. Le cycle inférieur de A est le précurseur de I. Notons que trois des chaînes latérales (en 4, 5 et 6) sont déjà correctement placées. Une addition sur 2-3 permettra d'introduire les substituants restants. L'addition se faisant trans, deux produits sont concevables : Dans le bon produit, les chaînes en 2 et 7 sont du même côté. L'emploi de l'oxygène en 7 comme réactif X forcera ce résultat. Quand on réduit A, les hydrogènes arrivent par la face convexe. L'oxygène en 10, repoussé vers l'avant, réagit avec l'ester en 4 pour donner un cycle pentagonal. La molécule prend alors une forme « cage » ( B) où l'oxygène en 7, passé du côté concave, se retrouve au-dessus du carbone 2 : B est alors traité par du brome. L'addition sur 2-3 se faisant trans, la réaction fournit C. En trois étapes, les 5 chaînes latérales sont correctement placées[3] ! Il reste à transformer C en I, puis à coupler ce dernier avec la méthoxytryptamine. Ce n'est pas beaucoup plus compliqué, mais trop long à expliquer et cette suite ne fait que confirmer le point essentiel de l'exposé précédent, à savoir qu'il est possible de synthétiser une molécule, quelle que soit sa complexité, en n'utilisant que des réactions connues. Ce n'est certes pas à la portée de tout le monde, comme de courir le mile en moins de 4mn, mais ce n'est plus un exploit surhumain. Les nouvelles frontières de la chimie sont ailleurs. Deux des défis de la chimie actuelle J. M. Lehn a signalé quelques pistes : chimie prébiotique, chimie supramoléculaire biomimétique[4], électronique moléculaire. Ces études restent pour l'instant du domaine fondamental. Mais le chimiste peut aussi contribuer à relever des défis aux conséquences pratiques plus immédiates. Selon la FAO, en 2000, un enfant sur quatre ne mange pas à sa faim. Il faut trouver des engrais, insecticides… qui permettent d'augmenter la production alimentaire tout en limitant la pollution. Ce n'est pas impossible. Comparons le DDT avec la deltaméthrine, insecticide introduit en 1982. La dose normale par hectare est de 0,5-3 kg de DDT et 0,01 kg de deltaméthrine. À doses égales, cette dernière est trois fois moins toxique. Elle persiste un mois dans le sol contre un à dix ans pour le DDT. Les progrès de la chimie permettront aussi d'économiser de l'énergie. Actuellement, environ 40 % de l'énergie consommée dans l'industrie servent aux séparations et purifications. Ces opérations seront moins coûteuses si les rendements des réactions approchent des 100 %. Ce n'est pas irréaliste : une synthèse industrielle de la cortisone se faisait en une quarantaine d'étapes, avec un rendement global dépassant 90 %. La chimie «douce» consomme moins d'énergie. Traditionnellement, les verres se fabriquent à ~ 2000°C. On sait maintenant les préparer à des températures inférieures à 100°C. Ces techniques permettent de leur incorporer des molécules organiques créant des matériaux étonnants. Greffons à la surface d'un verre des molécules qui repoussent l'eau. Un pare-brise fabriqué avec un tel verre ne retient pas l'eau et permet de voir par temps de pluie, même quand l'essuie-glace fonctionne mal. Greffons à la place des molécules hydrophiles. Sur ce verre, les gouttelettes s'étalent pour donner un film transparent au lieu d'une buée opaque. Une lucarne arrière ainsi faite pourrait se passer de chauffage. Certaines voitures de rallye sont déjà équipées avec des pare-brises et lucarnes de ce type. Toujours dans le domaine de l'automobile, remarquons que le rendement de la combustion de l'essence est misérable, de l'ordre de 30 %. Une augmentation de 5 % du rendement permettrait d'économiser 15 milliards de dollars par an, rien qu'aux États-Unis. En guise de conclusion G. B. Shaw faisait dire à un personnage d'une de ses comédies à peu près ceci : « La seule personne raisonnable que je connaisse est mon tailleur : il reprend mes mesures à chaque fois. Les autres me jugent une fois pour toutes. » Je souhaite que la chimie ne soit pas, elle aussi, jugée une fois pour toutes.
[1] Si les réactifs sont superposables à leurs images spéculaires, il y a une égale probabilité pour qu'ils soient tous les deux à droite du plan 1-6-5-4 comme sur la figure, ou tous les deux à gauche. Pour la clarté de l'exposé, nous représentons un seul composé. [2] Un des plus grands chimistes aynt jamais existé, aussi brillant en théorie qu'en synthède. [3] Il se forme aussi, en quantités égales, le produit image spéculaire de C (note 1). La séquence précédente ne permet d'éliminer «que» 30 combinaisons sur les 32 possibles. Il est cependant impossible de faire mieux, si les réactifs de départ sont superposables à leurs images. Cette synthèse de la réserpine(1958) est due à Woodward. [4] La chimie est la clé de la vie. L'information génétique est stockée, lue et transcrite chimiquement. Des messagers chimiques donnent le signal de la multiplication et de la différenciation cellulaire, de la formation des organes, de l'arrêt de croissance. C'est la chimie qui permet à l'organisme de créer de nouvelles cellules et de remplacer les anciennes. L'énergie nécessaire à ces synthèses provient d'une réaction, l'oxydation lente des aliments. Les êtres «sans défense» combattent généralement leurs agresseurs par des armes chimiques. La communication chimique est très répandue et les phéromones sont utilisées par les bactéries comme par l'homme. La communication hormonale est bien conne. La propagation de l'influx nerveux nécessite des messagers chimiques, les neurotransmetteurs.

 

VIDEO                 CANAL  U                 LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
initiation musicale toulon  

NANOMACHINES

 

Paris, 5 mars 2009

Une seconde pour sonder des nanomachines moléculaires au niveau atomique
Des chercheurs de l'Institut de biologie structurale Jean-Pierre Ebel (IBS, Institut mixte CEA-CNRS-Université Joseph Fourier, Grenoble) viennent de développer une nouvelle technique, basée sur la Résonance magnétique nucléaire (RMN), permettant de réduire considérablement le temps nécessaire pour sonder, au niveau atomique, des assemblages biomoléculaires de grandes tailles. Les temps d'analyse passent ainsi de plusieurs minutes à près d'une seconde ce qui ouvre un nouveau champ de recherche dans l'étude structurale de ces assemblages. Elles devraient permettre d'observer en temps réel les changements structuraux et dynamiques au sein de nanomachines(1) moléculaires lorsqu'elles exercent leur action. Ces résultats viennent d'être publiés en ligne par la revue Journal of the American Chemical Society.
L'étude fonctionnelle et structurale des nanomachines  biologiques est une tâche difficile compte tenu de la dimension des objets étudiés, de leur flexibilité et de la complexité des substrats manipulés (protéines, peptides, ADN, ARN…). Elle nécessite la combinaison de la cristallographie aux rayons X et de méthodes à « basse » résolution telles que la microscopie électronique. Ces méthodes permettent difficilement d'obtenir des informations cinétiques pourtant nécessaires pour comprendre la dynamique fonctionnelle d'un système.
 
La spectroscopie RMN[2] est la méthode de choix pour étudier, avec une résolution atomique, les propriétés structurales et dynamiques des macromolécules biologiques en solution. Récemment, le développement de techniques de marquages isotopiques spécifiques[3] a permis de repousser les frontières de cette méthode à l'analyse des assemblages biomoléculaires pouvant atteindre 1 méga Dalton[4]. L'utilisation de spectromètres RMN opérant à des champs magnétiques élevés a, de son côté, amélioré la résolution des observations. Cependant l'étude cinétique des modifications au sein de ces assemblages restait limitée par les temps de mesure (plusieurs minutes voire plusieurs heures) nécessaires pour repérer chaque groupe d'atomes par leurs signaux RMN spécifiques. Une autre technique nouvellement mise au point, la RMN rapide[5], permet d'accélérer l'enregistrement des spectres RMN.
Pour la première fois, les chercheurs de l'IBS ont réussi à combiner ces trois techniques, et ainsi, à réduire à près d'une seconde le temps expérimental requis pour sonder par RMN des assemblages biomoléculaires de plusieurs centaines de kilo Dalton.

DOCUMENT                 CNRS                  LIEN

 
 
 
initiation musicale toulon  

LES SUPERCONDENSATEURS

 

Paris, 17 février 2013

Explorer la structure d'un supercondensateur… et l'améliorer !
En freinant, le bus le recharge et à l'arrêt, il peut fournir l'électricité permettant d'ouvrir les portes du bus : voilà une des utilisations du supercondensateur ! Bien qu'utilisé dans la vie courante, cet appareil de stockage de l'électricité a une organisation et un fonctionnement moléculaires qui n'avaient jamais été observés jusqu'à aujourd'hui. Des chercheurs du CNRS et de l'Université d'Orléans ont exploré pour la première fois les réarrangements moléculaires à l'œuvre dans des supercondensateurs commerciaux en fonctionnement. Le procédé imaginé par les scientifiques offre une nouvelle clé pour optimiser et améliorer les supercondensateurs du futur. Ces résultats sont publiés le 17 février 2013 sur le site de la revue Nature Materials.
Les supercondensateurs sont des appareils de stockage de l'électricité différents des batteries. Contrairement à ces dernières, leur charge est beaucoup plus rapide (le plus souvent en quelques secondes) et ils ne subissent pas d'usures aussi rapides liées aux charges/décharges. En revanche, à taille égale et bien qu'offrant une plus grande puissance, ils ne peuvent pas stocker autant d'énergie électrique que les batteries (les supercondensateurs à base de carbone fournissent une densité d'énergie d'environ 5 Wh/Kg et les batteries lithium-ion de l'ordre de 100 Wh/kg). On retrouve les supercondensateurs dans la récupération de l'énergie de freinage de nombreux véhicules (voitures, bus, trains), ou encore pour assurer l'ouverture d'urgence de l'avion A380.

Un supercondensateur stocke l'électricité grâce à l'interaction entre des électrodes en carbone nanoporeux et des ions, porteurs des charges positives et négatives, qui se déplacent dans un liquide appelé électrolyte (voir schéma explicatif ci-dessous). Lors de la charge, les anions (ions chargés négativement) sont remplacés par des cations (ions chargés positivement) dans l'électrode négative et inversement. Plus cet échange est important et plus la surface de carbone disponible est élevée, plus la capacité du supercondensateur grandit.

Grâce à la spectroscopie par Résonance magnétique nucléaire (RMN), les chercheurs sont allés plus loin dans cette description et chose unique, ils ont pu quantifier dans quelle proportion se font les échanges de charges sur deux supercondensateurs utilisant des carbones commerciaux. En comparant deux carbones nanoporeux, ils ont pu ainsi mettre en avant que le supercondensateur comportant le carbone avec une structure la plus désordonnée offrait une meilleure capacité et une meilleure tolérance aux tensions les plus élevées. Ceci serait dû à une meilleure répartition des charges électroniques au contact des molécules de l'électrolyte.

Ces résultats sont le fruit de la collaboration de deux équipes orléanaises : l'une au CEMHTI1 du CNRS, spécialiste de la RMN et membre du Réseau français sur le stockage électrochimique de l'énergie (www.energie-rs2e.com), l'autre au Centre de recherche sur la matière divisée (CNRS/Université d'Orléans), qui est centrée sur l'étude de nouveaux matériaux carbonés pour les supercondensateurs. Cette complémentarité permet aujourd'hui la mise au point d'une technique qui offre tant aux laboratoires de recherche qu'aux entreprises un véritable outil pour l'optimisation des matériaux du supercondensateur.

DOCUMENT              CNRS                LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 ] Précédente - Suivante
 
 
 
Google