ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

ÉTAT DE LA MATIÈRE

  initiation musicale

 

 

 

 

 

 

ÉTAT  DE  LA  MATIÈRE
(latin status, de stare, se tenir)

Consulter aussi dans le dictionnaire : état
Cet article fait partie du dossier consacré à la matière.
Nature sous laquelle se présente un corps.

PHYSIQUE
Introduction

La matière est le premier concept physique, le plus concret, et apparemment le plus simple. Pourtant, au-delà de cette apparence, les hommes se sont toujours interrogés sur la nature de la matière, et les théories les plus évoluées n'ont fait que renforcer son caractère étrange.


Parmi les descriptions de la matière, la théorie quantique est, dans l'état actuel des connaissances, l'outil le plus rigoureux pour décrire les propriétés physiques et chimiques de la matière. Elle bouleverse cependant les images intuitives à travers lesquelles nous percevons la matière. Il n'est heureusement pas nécessaire de réconcilier l'intuition avec la théorie quantique pour parvenir à décrire les différents états de la matière.
En effet, si le formalisme quantique est indispensable pour rendre compte de la structure interne des atomes, une description très simple des atomes suffit en général pour représenter les états de la matière. Ces derniers sont déterminés par deux types de propriétés : la nature des états de liaison entre les atomes constituant le matériau considéré, et le type et le degré d'organisation spatiale et temporelle des atomes entre eux.


De la notion au concept
Historiquement, les Grecs furent les premiers à tenter une classification de la multitude des objets matériels qui se présentaient à eux. Ils fondèrent cette classification sur les états dans lesquels apparaît la matière (solide, liquide, gazeux) et sur certaines de ses propriétés. Pour Aristote, il existait quatre éléments essentiels : la terre, l'eau, l'air et le feu. Les Grecs se sont interrogés également sur la nature de la matière. Est-elle indéfiniment sécable en parties qui conservent les mêmes propriétés ? Ou bien est-elle constituée de petits grains insécables, littéralement des « atomes » ? DémocriteDémocrite d'Abdère défendra, quatre siècles avant notre ère, l'image d'une matière constituée d'atomes en mouvement : selon lui, la diversité des états et des formes de la matière est simplement due à la multiplicité des combinaisons possibles de position et de mouvement de ces atomes, particules matérielles immuables et indivisibles. Cette image mécaniste du monde – selon laquelle la matière a des propriétés essentiellement géométriques et mécaniques – marquera en profondeur les sciences physiques aux xixe et xxe s.
Aristote avait proposé une autre description de la matière, dans laquelle priment les formes qui lui sont conférées… par la nature, par Dieu, ou par l'homme : une table est, par exemple, de la matière bois, sculptée ; si l'on s'intéresse au bois, il est constitué de matière cellulaire agencée sous forme de fibres agrégées, plus ou moins desséchées, etc. La notion de matière recule ainsi à l'infini, tel un ultime noyau caché à l'intérieur de formes qui s'emboîteraient indéfiniment les unes dans les autres, comme des poupées russes.

La genèse de la classification périodique
L'influence de la conception aristotélicienne de la matière va perdurer pendant deux millénaires. Cependant, les alchimistes essaieront de découvrir la matière fondamentale, celle qui serait à l'origine de tout : ils réalisent ainsi les premiers essais d'analyse et de synthèse, et certaines propriétés chimiques et physiques de différents corps sont découvertes et classées.
Les savants du xviie et du xviiie s. reprennent cet héritage, en introduisant de nouvelles méthodes de travail ; ils entreprennent une étude systématique des propriétés chimiques des différents corps, qui conduit à la notion d'élément chimique.


Antoine Laurent de Lavoisier, par exemple, montre que l'eau est composée de deux éléments, l'hydrogène et l'oxygène, impossibles à obtenir eux-mêmes par une combinaison d'autres éléments : ce sont des éléments de base. Quelques dizaines d'éléments sont ainsi identifiés, dont les propriétés chimiques peuvent être classées par référence à leur affinité pour l'oxygène : éléments oxydables, éléments oxydants.
Dimitri Ivanovitch Mendeleïev propose, en 1869, une classification systématique des éléments qui repose sur une périodicité approximative de l'affinité de certains éléments pour l'oxygène en fonction de leur masse. Le succès de cette classification est immense, car elle prévoit l'existence d'éléments, alors inconnus, de masse déterminée et devant présenter un type précis de propriétés chimiques ; ces éléments sont découverts quelques années plus tard, avec les propriétés prévues par cette classification ! Le tableau de Mendeleïev est ensuite interprété comme le reflet de la structure électronique de chaque élément : passer d'un élément à l'élément suivant signifie ajouter un électron à l'atome.

La description quantique
En 1897, sir Joseph John Thomson découvre l'électron, et Ernest Rutherford démontre en 1907 qu'un atome est constitué d'un noyau qui contient deux types de particules, les neutrons – sans charge électrique – et les protons – porteurs d'une charge opposée à celle de l'électron. Ensuite, les travaux d'Einstein sur l'émission photoélectrique et ceux de Max Planck sur le rayonnement du corps noir mettent en évidence les propriétés quantiques, c'est-à-dire particulaires, de la lumière. C'est une première grande brèche dans la physique classique, qui repose notamment sur l'image ondulatoire de la lumière, description bien assise grâce au formalisme des équations de James Clerk Maxwell.
Les physiciens découvrent que la lumière peut se comporter, suivant la situation expérimentale, soit comme une onde, soit comme un ensemble de particules. En 1927, Clinton J. Davisson et Lester H. Germer démontrent expérimentalement l'existence d'interférences dans un faisceau d'électrons réfléchi par un cristal de nickel : le comportement ondulatoire des électrons est établi sans ambiguïté, la matière – comme la lumière – se révèle tantôt particulaire, tantôt ondulatoire, suivant la situation expérimentale. Depuis, des progrès considérables ont été effectués dans la compréhension de la structure de la matière à l'échelle infra-atomique, par exemple par l'introduction des quarks, particules fondamentales constitutives du proton et du neutron. Cependant, la description des propriétés « courantes » de la matière (mécaniques, optiques, électriques…) repose sur les propriétés du cortège électronique de l'atome, elles-mêmes établies par la théorie quantique au cours du premier quart du xxe s.
La thermodynamique : « deus ex machina »
Parallèlement à ce travail sur les propriétés chimiques des éléments débutent, au cours du xixe s., des études approfondies sur les états de la matière. L'état gazeux est particulièrement bien compris, car il est le plus simple ; il devient le fondement de la science thermodynamique, qui décrit les échanges énergétiques au sein de la matière. Les travaux de Sadi Carnot, puis ceux de Ludwig Boltzmann posent les bases théoriques de la thermodynamique, et permettent ainsi de décrire les changements d'état de la matière. Au xxe s., les contributions des physiciens Lev D. Landau, Ilya Prigogine et Kenneth Wilson affinent considérablement la description des changements d'état de la matière, nommés également transitions de phase. La vision d'Aristote d'une matière informe sculptée par la nature est ainsi relayée par le deuxième principe de la thermodynamique. Selon les physiciens, le premier des mécanismes qui sculptent la matière est la tendance de l'Univers à augmenter son désordre : son entropie.

Les outils de description
La théorie quantique est le premier outil de description de la matière ; très puissant, cet outil exige cependant l'utilisation d'un formalisme pesant. Il permet un calcul rigoureux des états fondamentaux, c'est-à-dire des états au repos de systèmes microscopiques – ne comportant que quelques atomes, voire quelques dizaines d'atomes –, mais au prix d'un travail laborieux sur des ordinateurs puissants. Une telle description est rapidement impraticable si l'on s'intéresse à l'évolution de ces systèmes dans le temps et dans l'espace sous l'effet d'un apport d'énergie lumineuse, électrique, mécanique, magnétique ou chimique. Il est actuellement impensable d'effectuer le calcul rigoureux de l'état de systèmes contenant une quantité d'atomes de l'ordre du nombre d'Avogadro, c'est-à-dire de taille macroscopique, de l'ordre du centimètre cube, à partir de la théorie quantique. Fort heureusement, les résultats décisifs peuvent le plus souvent être caractérisés principalement par quelques types de liaisons interatomiques : il est alors possible d'appliquer une description classique à l'ensemble des atomes, reliés entre eux par des « liaisons » que caractérisent quelques propriétés simples.

Les différents types de liaisons chimiques
Deux atomes qui s’attirent peuvent former une liaison chimique : ils gagnent, à être proches l'un de l'autre, une quantité d'énergie potentielle. On distingue ainsi les liaisons fortes, dont l'énergie associée est de l'ordre de 1 eV ou supérieure. Dans ce cas, la paire d'atomes en interaction fait apparaître des états électroniques complètement nouveaux pour les électrons ; ainsi, dans les liaisons ioniques, un ou plusieurs électrons d'un atome sont cédés à l'autre atome. Ce type de liaison se rencontre, par exemple, dans des sels tels que le chlorure de sodium (NaCl). Un autre type de liaison forte caractéristique est la liaison covalente, dans laquelle des électrons isolés de chacun des atomes s'associent pour former des paires d'électrons fortement liées. Les liaisons covalentes, contrairement aux liaisons ioniques, sont en général anisotropes, c'est-à-dire qu'elles tendent à s'orienter dans des directions particulières de l'espace.
Par opposition, les liaisons d'énergie inférieure ou de l'ordre de 0,1 eV sont nommées liaisons faibles. Les états électroniques des atomes isolés sont peu modifiés par l'interaction. C'est le cas des forces d'attraction dites de Van der Waals, que l'on rencontre dans le processus d'adhérence des molécules en longues chaînes, les polymères, utilisés par exemple pour les rubans adhésifs.

L'organisation spatiale d'un grand nombre d'atomes : ordre et désordre
La taille du nombre d'Avogadro étant considérable, la matière semble continue à notre échelle : le déplacement d'un seul atome n'est pas perceptible. Mais elle peut prendre des formes et des textures très diverses, suivant son état ; elle peut aussi présenter des orientations préférentielles, parallèlement à une direction ou à une surface. Ces états sont généralement caractérisés par une (ou des) longueur(s) associée(s) à des propriétés bien précises.
L'utilisation des méthodes statistiques (emploi de la mécanique statistique, ou physique statistique), lorsqu'une multitude d'atomes sont mis en jeu dans une quantité macroscopique de matière, permet d'obtenir des résultats remarquables.
Cette approche de l'organisation spatiale des atomes rejoint les résultats de la thermodynamique, fondée sur les deux principes suivants : selon le premier, l'énergie de l'Univers peut changer de forme à condition de se conserver globalement ; selon le second, le désordre doit être maximal dans un système physique isolé. La thermodynamique est, en quelque sorte, une économie de l'énergie dans les systèmes physiques. Elle permet en principe de déterminer quels sont les états d'équilibre d'un système en postulant que le désordre de l'Univers entier (considéré comme un système isolé) est maximal : une quantité de matière isolée du reste de l'Univers tend ainsi vers un maximum d'entropie. Si l'on tient compte des échanges d'énergie, d'espace ou de matière avec le reste de l'Univers, la conséquence des principes de la thermodynamique est alors, en général, que le système étudié s'ordonne à basse température, et qu'il adopte un état désordonné à haute température. Ces transitions ordre/désordre apparaissent dans des systèmes physiques très variés.

L'organisation temporelle et les propriétés de transport
Les mouvements des atomes au sein de la matière peuvent être complètement désordonnés au niveau microscopique et ne correspondre à aucun mouvement à notre échelle. C'est le cas des mouvements des atomes ou des molécules dans un gaz ou dans un liquide, c'est aussi le cas des vibrations des atomes dans un solide, qui sont ordonnées à courte distance mais en général désordonnées à l'échelle macroscopique. La facilité, ou la difficulté, à faire circuler un courant électrique ou un flux de matière dépend fortement des caractéristiques de l'état dans lequel se trouve la matière. Le diamant et le graphite sont, par exemple, deux formes cristallines du carbone pur : le diamant est un très bon isolant électrique, tandis que le graphite est conducteur.

Les états structurés à courte distance
La notion d'ordre est le fil directeur de cette exploration des états de la matière. Certains états ne présentent cependant pas d'organisation régulière au-delà de l'échelle microscopique. Ce sont les états gazeux et liquide, que l'on regroupe sous le nom d'état fluide. C'est aussi le cas des solides désordonnés, dits solides amorphes. Enfin, dans l'état de plasma, où la température dépasse le million de degrés, la matière présente un comportement fort complexe.

Les fluides
Une propriété macroscopique simple caractérise l'état fluide : un fluide s'écoule et se déforme sous l'effet de forces très faibles. De façon plus précise, on dit que les fluides ne présentent pas de résistance au cisaillement.
À l'échelle microscopique, les fluides – à l'exception des cristaux liquides – ne sont pas organisés sur de grandes distances. L'agitation des atomes entraîne un brassage permanent de leurs positions. Deux états fluides qui nous sont familiers, le gaz et le liquide, se distinguent par des propriétés différentes : les gaz sont mille fois moins denses que les liquides, et sont compressibles alors que les liquides le sont très peu.
À l'échelle atomique, la différence est également remarquable. Les molécules d'un gaz ont peu d'interactions sur la plus grande partie de leur trajectoire (99,9 %), elles sont isolées dans le vide, et les collisions n'affectent que 0,1 % de celles-ci. Le désordre, c'est-à-dire l'entropie, associé à leur position est important. Les molécules d'un liquide sont, au contraire, en interaction permanente avec leurs voisines, et bénéficient ainsi de l'abaissement de leur énergie potentielle dû à l'attraction mutuelle. L'entropie associée au désordre de leur position est cependant plus faible que dans un gaz ; mais, à la température d'ébullition, les états gazeux et liquide d'un même corps coexistent en équilibre. Dans un gaz, l'énergie cinétique des molécules est élevée, et l'entropie (Sg) est également plus élevée que celle du liquide (Sl), car le désordre des positions y est plus grand. Dans un liquide, l'énergie totale des molécules est plus faible que dans un gaz, et ce en raison de l'énergie d'attraction gagnée et cédée au reste de l'Univers ; cette énergie cédée au reste de l'Univers en augmente l'entropie. L'état gazeux et l'état liquide contribuent donc tous deux à augmenter l'entropie de l'Univers. Dans les conditions de l'ébullition, le produit du gain d'entropie ΔS = Sg – Sl associé au désordre des positions atomiques par la température absolue T est juste équilibré par l'énergie potentielle liée à l'attraction mutuelle de ses molécules au sein du liquide. Ce produit L = T . ΔS est la chaleur latente qu'il faut fournir au liquide pour le vaporiser.

Au point critique, la matière hésite
L'un des résultats de la physique classique est que ΔS doit être supérieur à la constante de Boltzmann (k) pour que l'état gazeux et l'état liquide soient clairement différents. Pour un corps donné, il n'existe plus de frontière nette entre l'état liquide et l'état gazeux au-delà d'une température dite critique, telle que ΔS est de l'ordre de k. L'état du fluide hypercritique, lorsque ΔS est inférieur à k, est toujours homogène quelles que soient la pression et la densité : il n'y a plus ni gaz ni liquide mais un seul fluide qui n'est ni l'un ni l'autre.
Au point critique, c'est-à-dire au voisinage de la température critique et de la pression critique, les propriétés du fluide sont particulièrement intéressantes. En effet, le gain entropique dans le gaz équilibre exactement le gain d'énergie potentielle dans le liquide, comme au point d'ébullition, mais au point critique ces quantités sont également du même ordre que l'énergie caractéristique kT reçue de l'agitation thermique. Il en résulte un comportement d'« hésitation » de la matière entre l'état liquide et l'état gazeux, qui se traduit par l'apparition de régions très étendues de type liquide alternées avec des régions de type gaz. Ces régions, nommées fluctuations critiques, peuvent s'étendre sur plusieurs microns et produisent le phénomène bien visible et spectaculaire d'opalescence critique.
La notion de fluide est toute relative : à une échelle ou à une autre, la matière est toujours susceptible de s'écouler. Ainsi, à l'échelle de la Terre et des temps géologiques, une partie du manteau terrestre (l'asthénosphère), située entre 70 et 100 km de profondeur, se comporte comme un fluide. Ce niveau « plastique » permet à la croûte terrestre et à la partie du manteau située au-dessous (cet ensemble constitue la lithosphère), dont le comportement est plus rigide, de se déplacer par l'intermédiaire de plaques. La dérive des continents, qui renouvelle complètement la géographie continentale tous les 200 millions d'années, n'est ainsi que le fait de courants de convection dans le manteau terrestre.

Le gaz parfait, état de référence
L'état gazeux occupe une place particulière parmi les différents états de la matière en raison des faibles interactions de ses molécules. Les physiciens ont élaboré un modèle simplifié qui sert de référence, le gaz parfait. Ce modèle est très efficace, bien qu'il soit intrinsèquement contradictoire! Il suppose en effet que les atomes du gaz parfait présentent simultanément deux propriétés :
– ils n'interagissent pratiquement pas, au sens où leurs interactions représentent une énergie négligeable par rapport à leur énergie cinétique ;
– ils interagissent fortement, au sens où l'on peut considérer le gaz comme étant au point d'équilibre à chaque instant.
Moyennant cette « pirouette conceptuelle », ce modèle constitue la base de la description thermodynamique de tous les états de la matière où l'énergie associée aux interactions est faible. Dans de nombreuses situations – celles des gaz réels et des solutions diluées –, la matière se comporte presque comme le prévoit le modèle du gaz parfait.

Longueurs caractéristiques dans les fluides
Dans un assemblage désordonné d'atomes de diamètre a, deux distances caractéristiques sont importantes.
Tout d'abord la distance moyenne d entre les atomes. Il est relativement facile de la relier au nombre n de molécules par unité de volume en exprimant que chaque atome occupe en moyenne un volume d3. Une unité de volume est donc remplie par n petits volumes d3, soit n   d3 = 1. La distance moyenne d varie ainsi comme la racine cubique de l'inverse de n.
Une seconde longueur, L, nommée libre parcours moyen, est la distance moyenne que parcourt un atome sans entrer en collision avec un autre atome. On schématise une collision par le fait que la distance entre les centres de deux atomes devient égale ou inférieure à 2a. Une telle collision se produit si, durant le mouvement d'un atome le long d'une direction, le centre d'un autre atome se trouve à l'intérieur du cylindre de rayon 2a axé selon cette direction. Dans un cylindre de longueur L, un seul centre d'atome est présent en moyenne. Le volume du cylindre est donc le volume moyen occupé par un atome : π (2a)2 . L = 1/n. La longueur L est donc inversement proportionnelle au nombre n d'atomes par unité de volume.
Dans un liquide, les atomes sont au contact les uns des autres dans un assemblage mouvant mais compact. Les trois longueurs a, d et L sont du même ordre, c'est-à-dire comprises entre 0,1 et 1 nm.
Dans un gaz à la pression atmosphérique, la masse volumique typique est de 1 kg/m3, soit mille fois moins que celle des liquides. Dans un liquide, le nombre d'atomes par centimètre cube est de l'ordre de 1022, tandis que dans un gaz il est de l'ordre de 10−9. La distance moyenne d entre deux atomes dans le gaz est typiquement de 3 nm, alors que le libre parcours moyen L est cent fois plus grand, soit environ 0,3 μm.

Les solides désordonnés à l'échelle atomique
Lorsqu'un fluide est suffisamment refroidi, il se condense sous forme solide. On connaît une seule exception à cette règle, l'hélium : il reste liquide même à très basse température. Suivant la vitesse de refroidissement, les atomes et molécules du liquide ont ou n'ont pas le temps de s'organiser au moment de la solidification. Si l'on opère très rapidement, le solide peut conserver un état désordonné, dit état amorphe, qui ressemble à un liquide figé. Cependant, certains mélanges d'atomes ne cristallisent pas, même s'ils sont refroidis lentement ; ils forment alors des verres, après être passés par un état pâteux lors du refroidissement. L'étude expérimentale et théorique des solides désordonnés est plus délicate que celle des solides cristallins. Le désordre apparent de ces structures cache en général une organisation plus fine et plus difficile à évaluer, qui entraîne des propriétés subtiles. Dans certaines régions volcaniques, on trouve des verres naturels (l'obsidienne), dont la formation est due à la trempe rapide d'un magma riche en silice arrivant en surface.
Un solide dans l'état amorphe présente des propriétés particulières, souvent bien différentes de celles du solide cristallin correspondant. La tenue mécanique d'un matériau amorphe est en général meilleure que celle des cristaux, et la conductivité électrique est bien différente. Ainsi, les propriétés supraconductrices du molybdène amorphe sont bien meilleures que celles du molybdène cristallin, ce qui signifie que le désordre dans la position des noyaux atomiques favorise, paradoxalement, l'apparition de l'ordre électronique lié à l'état supraconducteur. C'est un effet indirect de la suppression de l'ordre magnétique existant dans le molybdène cristallin, qui disparaît au profit de l'ordre supraconducteur dans le molybdène amorphe : l'état magnétique est plus stable que l'état supraconducteur, mais il est moins robuste face au désordre cristallin.
Une autre différence importante entre les solides cristallisés et les solides amorphes est la faible sensibilité de ces derniers aux impuretés et aux défauts. Le silicium utilisé pour réaliser les circuits électroniques des ordinateurs, par exemple, contient des impuretés volontairement ajoutées au cristal pour ajuster sa conductivité électrique : 1 atome de bore pour 100 millions d'atomes de silicium suffit à régler la conductivité du canal du transistor. En revanche, dans le silicium amorphe, il faut une proportion relativement importante d'impuretés pour modifier sensiblement la conductivité électrique. Cette propriété caractéristique des verres est exploitée lorsque l'on souhaite réaliser des composants électroniques d'une grande robustesse pouvant résister à un rayonnement ionisant.

Un état complexe : le plasma
Un plasma est un gaz d'atomes ou de molécules partiellement ou totalement ionisés. Des plasmas se produisent dans les étincelles ou dans les éclairs d'orage ; ils sont aussi la source de lumière dans les tubes au néon. En général, ils sont composés d'un mélange d'ions positifs et d'électrons, mais il existe aussi des plasmas d'ions négatifs. Les plasmas occupent une place d'exception dans les états de la matière : ils sont éloignés de l'équilibre thermodynamique, gardent longtemps la trace de leur états successifs et présentent des évolutions difficilement prévisibles. Leur comportement irrégulier et instable s'explique par les fortes interactions à longue distance des particules chargées.
Ce sont par ailleurs des états où la température de la matière peut dépasser plusieurs millions de degrés. Lorsque cette température est de l'ordre de 100 millions de degrés, l'état de plasma est sur le chemin de la fusion nucléaire. En effet, l'énergie cinétique des ions est suffisante pour que les noyaux interagissent fortement durant les collisions et induisent des réactions nucléaires, de fission ou de fusion. Si les gaz du plasma sont des atomes légers, il peut résulter de ces réactions que les noyaux produits par la fusion développent une grande énergie cinétique : ceux-ci peuvent alors échauffer le plasma, renforcer les réactions de fusion, et ainsi de suite. La réaction est alors divergente et peut produire une explosion : c'est le principe de la bombe H (à fusion d'hydrogène). Si cette réaction est contrôlée, la fusion nucléaire peut devenir une source d'énergie exploitable à grande échelle. Pour contrôler la production d'énergie, il faut connaître le comportement des plasmas à haute température et à forte densité. L'exploration de cet état de la matière depuis plus d’un demi-siècle a révélé une grande variété d'instabilités dans les plasmas à mesure que leur température augmente.
Il faut signaler l'étude récente des microplasmas constitués de quelques centaines à quelques milliers d'ions confinés par un champ électromagnétique. La température de tels plasmas peut être abaissée au voisinage du zéro absolu. Ces plasmas se comportent comme des solides ou comme des liquides, alors que la distance entre les ions est de plusieurs dizaines de microns, soit 100 000 fois plus que dans les solides ou liquides ordinaires. À la différence des plasmas, les microplasmas n'ont pour l'instant aucune autre application que l'étude de la matière.

Les états ordonnés à grande distance
Un solide est le plus souvent cristallisé, c'est-à-dire que ses atomes sont parfaitement rangés sur de grandes distances. Il n'y a pas de frontière nette entre ordre dit à courte distance et ordre dit à grande distance : l'un s'arrête à quelques distances atomiques, tandis que l'autre peut se propager sur des millions de distances atomiques. Selon la thermodynamique, le désordre tend à augmenter, et il semble étonnant que la matière s'ordonne spontanément dans certains cas. En fait, l'ordre, qui permet de diminuer l'énergie potentielle de la matière, s'installe à basse température, là où les bénéfices thermodynamiques de l'augmentation de l'entropie sont plus faibles. Les innombrables situations physiques où la matière s'ordonne sont définies par la géométrie de l'espace occupé par la matière et par le nombre de degrés de liberté de la quantité physique qui s'ordonne. Il est ainsi possible d'appliquer la même description, dite universelle, à des situations physiques aussi différentes que les aimants, les mélanges liquide-vapeur, les supraconducteurs ou les étoiles à neutrons.

Le magnétisme, un modèle pour la matière organisée
Les aimants, ou matériaux ferromagnétiques, perdent leur aimantation lorsqu'ils sont portés à une température supérieure à la température de Curie. Cette propriété, connue depuis la Renaissance, a été étudiée en détail par Pierre Curie dans sa thèse, en 1895. Dans la première moitié du xxe s., des physiciens comme Paul Langevin, Heike Kamerlingh Onnes, Pierre Weiss, Paul Ehrenfest, Louis Néel, Ernest Ising, Lars Onsager ou encore Lev Landau ont décrit les propriétés magnétiques de la matière afin de les relier à sa structure microscopique. Il s'agissait de décrire la façon dont l'aimantation varie en fonction de la température et du champ magnétique extérieur. L'étude de ces situations a débouché sur une description beaucoup plus générale des états ordonnés de la matière.

L'ordre spatial d'un ensemble d'objets microscopiques en interaction, selon Ernest Ising
Ernest Ising propose, en 1920, un modèle simple pour décrire les mécanismes microscopiques de l'aimantation d'un solide. Selon ce modèle, l'aimantation du solide est la somme vectorielle des aimantations locales dues aux spins des électrons. Les atomes constituant le solide sont situés aux nœuds d'un réseau cristallin de dimension d : sur une ligne d = 1, dans un plan d = 2, dans l'espace d = 3. Sur chacun des sites du réseau cristallin se trouve un spin qui se comporte comme un petit aimant, ou moment magnétique. Le calcul de l'aimantation est effectué dans le cadre de deux hypothèses.
Selon la première, les moments magnétiques sont tous identiques en module et s'orientent dans des directions cristallines privilégiées. Ising suppose que les moments magnétiques sont tous parallèles à une direction et que seul leur signe les différencie d'un site à l'autre, mais on peut aussi étudier les situations où les moments magnétiques ont des composantes dans deux ou trois directions. L'aimantation ou, plus généralement, une grandeur physique nommée paramètre d'ordre, qui permet de mesurer l'ordre, présente un nombre n de composantes (n = 1, 2 ou 3).
Selon la seconde hypothèse par le calcul de l'aimantation, deux moments magnétiques Si et Sj situés sur des sites voisins présentent une énergie d'interaction proportionnelle à leur produit Si . Sj. Il faut ensuite appliquer les principes de la thermodynamique pour calculer l'état d'équilibre d'un tel système en fonction de la température et du champ magnétique. On s'attend à ce que le diagramme de phase magnétique de ce système présente des propriétés universelles dépendant essentiellement des valeurs de d et de n. On peut ainsi associer à chaque système physique une « classe d'universalité » (d, n).

L’évolution du modèle d’Ising
Le modèle d’Ising, bien qu'il corresponde à une très grande simplification de la situation physique réelle, se révèle ardu à résoudre ; des solutions rigoureuses ne sont obtenues que dans des cas très simples. C'est ainsi que Lev Landau établit qu'il ne peut apparaître un ordre à grande distance sur un réseau à une seule dimension (d = 1). Lars Onsager calcule en 1944 l'aimantation du modèle d'Ising dans un plan (d = 2 et n = 1) au moyen d'une méthode mathématique complexe ; mais une approche générale n'est proposée qu'en 1972, par Kenneth Wilson, qui obtient le prix Nobel de physique en 1982 pour son travail sur la méthode dite du « groupe de renormalisation ». Il montre que le comportement de l'ordre est le même dans des systèmes aussi différents que les matériaux magnétiques, les mélanges liquide-gaz ou les cristaux liquides. C'est une confirmation remarquable de la justesse de l'approche proposée par Ising : les objets microscopiques peuvent être décrits de façon rudimentaire, car c'est la géométrie du système qui détermine seule les propriétés essentielles du diagramme de phase.

L'ordre cristallin
La plupart des corps purs adoptent un état cristallin à basse température. Les atomes sont disposés dans le cristal en un motif qui est répété périodiquement ; cette disposition parfaitement régulière détermine des propriétés électroniques, optiques et mécaniques bien précises. En raison de la périodicité des cristaux, il est possible de prévoir ces propriétés grâce aux outils théoriques de la physique des solides, mis en œuvre dès les années 1930. De nombreuses applications en électronique sont issues de ces travaux. Un domaine particulièrement notable est celui des semi-conducteurs : une page de notre civilisation est tournée avec la publication du principe du transistor à pointes par John Bardeen et Walter H. Brattain en 1948, qui reçoivent avec William B. Shockley le prix Nobel de physique en 1956 pour la réalisation, en 1951, du premier transistor à jonctions.
Les molécules peuvent également former des cristaux moléculaires en obéissant à des règles de compacité maximale. Cette possibilité de cristalliser permet de connaître la structure des molécules biologiques : c'est, par exemple, en étudiant aux rayons X des cristaux constitués de molécules d'ADN que James D. Watson et Francis C. Crick réussissent en 1953 à déterminer la structure en double hélice de ces longues chaînes qui portent le code génétique des êtres vivants.

Les cristaux liquides
Les cristaux liquides combinent certaines propriétés des liquides et certaines propriétés des solides cristallins : ce sont des liquides constitués de molécules organiques de forme particulière et qui peuvent adopter une orientation bien précise (les mousses de savon et certaines membranes cellulaires sont des cristaux liquides). L'orientation des molécules n'est pas aussi parfaite que dans un solide cristallin, mais elle suffit pour conférer au liquide des propriétés optiques utilisables pour les affichages.
Il existe une grande variété de familles de cristaux liquides. La famille des nématiques, constitués de molécules allongées en forme de bâtonnets, est généralement utilisée pour les écrans. Le principe d'affichage repose sur la possibilité de commander par une tension électrique le passage de l'état orienté polarisant la lumière à l'état désorganisé de liquide ordinaire non polarisant. Le prix Nobel a été attribué en 1991 au physicien Pierre-Gilles de Gennes pour ses travaux sur les cristaux liquides.

Une exception : supraconductivité et superfluidité
Une magnifique exception dans cette présentation des états ordonnés est constituée par les états superfluides : la supraconductivité et la superfluidité. Il s'agit là d'une des rares manifestations d'un effet quantique à l'échelle macroscopique.

L'état supraconducteur
Les propriétés des supraconducteurs sont spectaculaires : disparition totale de la résistance au passage du courant électrique, accompagnée par une expulsion du flux magnétique, et ce au-dessous d'une température critique qui dépend du matériau. Cette propriété n'est pas exceptionnelle : depuis la découverte en 1911 de la supraconductivité du mercure par Kamerlingh Onnes et Gilles Holst, des centaines de matériaux supraconducteurs ont été synthétisés. Mais elle heurte l'intuition des physiciens, car elle semble contraire au principe d'impossibilité du mouvement perpétuel : un courant installé dans un anneau supraconducteur peut s'y maintenir pendant des milliards d'années. Aucune description du mécanisme microscopique de la supraconductivité ne fut proposée avant qu'en 1956 John Bardeen, Leon N. Cooper et John Robert Schrieffer n'élaborent enfin une théorie de la supraconductivité (nommée théorie BCS), rapidement corroborée et adoptée par la communauté des physiciens.
Selon cette théorie, certains électrons forment des paires, les paires de Cooper, sous l'effet d'une force d'attraction, laquelle correspond dans le formalisme quantique à l'émission et à l'absorption par les électrons de vibrations des ions du réseau cristallin. Les paires d'électrons, contrairement aux électrons isolés, ont la faculté de participer collectivement à une onde quantique qui peut s'étendre sur des distances macroscopiques. Cette onde, qui peut transporter un courant électrique sans qu'il rencontre de résistance, est assez robuste ; elle résiste ainsi à la chaleur, tant que la température reste inférieure à la valeur critique ; elle résiste aussi au champ magnétique et aux défauts cristallins : des matériaux amorphes ou liquides peuvent être supraconducteurs.
La théorie BCS a entraîné de nombreux progrès théoriques et expérimentaux, mais l'état supraconducteur n'était observé qu'à très basse température. Dans les années 1970, le matériau supraconducteur présentant la température critique la plus haute (23 K) était le composé Nb3Ge. L'opinion générale des physiciens était alors que, pour des raisons fondamentales, la température critique de l'état supraconducteur ne pouvait probablement pas dépasser 30 K. En 1986, Georg Bednorz et Alexander Müller atteignent précisément cette température avec le composé LaBaCuO ; un an plus tard est synthétisé YBa2Cu3O7, qui atteint 92 K ; et, en 1988, Tl2Ba2Cu3O10, un matériau de la même famille des cuprates, avec une température critique de 125 K. Actuellement, il semble que la substitution du mercure dans ce composé permettrait d'atteindre 135 K, et que des cuprates supraconducteurs fabriqués couche atomique par couche atomique pourraient atteindre – et peut-être dépasser – une température critique de 250 K.

La superfluidité
L'hélium est le seul fluide qui ne se solidifie pas à basse température. L'hélium liquide présente alors la propriété étonnante de pouvoir s'écouler sans viscosité, donc sans le moindre frottement. La superfluidité, comme la supraconductivité, semble permettre un mouvement perpétuel « interdit » par la physique. Les deux phénomènes physiques sont décrits par le même mécanisme, qui s'applique cette fois aux noyaux d'hélium et non plus aux électrons. Les analogies sont ainsi nombreuses entre supraconducteurs et superfluides.

Les défauts
Les propriétés de la matière ordonnée sont souvent déterminées par les défauts de l'ordre, dont la grande variété interdit une présentation complète de leurs effets. Les trois cas suivants montrent les effets des impuretés dans les semi-conducteurs, des lignes de dislocation dans les solides et des parois dans les matériaux magnétiques. Nous avons déjà mentionné l'effet d'une très faible concentration d'impuretés (un atome étranger pour 100 millions d'atomes) sur la conductivité d'un semi-conducteur. Un atome étranger est un défaut ponctuel, mais on peut observer également des défauts sous forme de lignes ou de parois. Une ligne de dislocation est réalisée par l'interruption brutale d'un plan atomique dans un cristal ; grâce à la présence des dislocations, les cristaux de métal sont étonnamment malléables tant qu'ils n'ont pas été fortement déformés ; au contraire, après des déformations importantes, les dislocations sont enchevêtrées et ne peuvent plus se déplacer : on dit que le matériau est écroui. De même, l'aimantation macroscopique d'un métal comme le fer peut varier très facilement par le mouvement de parois qui séparent des domaines d'aimantations opposées ; une façon d'obtenir des aimants puissants et stables est d'agréger de petits grains magnétiques ne contenant qu'un seul domaine : ces matériaux sont les ferrites, couramment utilisées pour les fermetures de portes.
Cependant, les états de la matière étendue, homogène et en équilibre thermodynamique n'ont pas la diversité des états de la matière hors de ces conditions. La matière sous la forme d'objets de petite taille présente en effet des états différents de ceux de la matière étendue : par exemple, les quasi-cristaux à symétrie pentagonale ou bien les petits grains qui sont constitués d'un seul domaine magnétique. La matière peut aussi se présenter sous la forme de minces films, comme les bulles de savon, ou de fibres aux propriétés physiques très différentes de celles qu'elle possède lorsqu'elle se présente comme un volume.

La matière hétérogène
Une infinie variété d'états naturels et artificiels
Les combinaisons de ces formes (bulle, graine, fibre, lamelle…) dans des mélanges désordonnés ou bien des structures ordonnées conduisent à une infinie variété d'états de la matière hétérogène. L'hétérogénéité peut être liée à l'histoire du matériau (roches poreuses, boues, ciments, matériaux composites…) ou à un état d'équilibre (microémulsions, supraconducteurs contenant des fluxons magnétiques…). La structure géométrique des systèmes hétérogènes est aussi importante que la structure microscopique de l'ordre dans la matière homogène. Les systèmes granulaires présentent des comportements complexes particulièrement utiles à décrire pour prévoir le comportement des sols, éventuellement des avalanches. La matière fibrée, feuilletée, poreuse, les suspensions et les gels dans les liquides… illustrent des états et des comportements qui montrent l'imagination sans mesure de la nature, ou celle des hommes lorsque ces matériaux sont artificiels.

L'état vivant : structuration spontanée de systèmes ouverts ?
La matière se trouve souvent dans un état déterminé par son histoire ou par des conditions thermodynamiques hors de l'équilibre. La dynamique des changements d'état et les mécanismes de la croissance de l'ordre cristallin conduisent à des formations caractéristiques telles que des dendrites, des précipités, des agrégats de forme fractale, etc. Une autre caractéristique des états où la matière n'est pas au point d'équilibre est qu'elle s'organise et se structure spontanément. Dans les systèmes qui consomment de l'énergie (systèmes ouverts), le deuxième principe de la thermodynamique se traduit en effet par une tendance à réduire au minimum la production de désordre (entropie) par unité de temps, comme cela a été démontré de façon générale par Ilya Prigogine. Ce mécanisme est, entre autres, à l'origine de certaines formations nuageuses que l'on peut parfois observer (rouleaux régulièrement disposés parallèlement les uns aux autres). Il résout également le paradoxe – apparent – de la possibilité que présentent les systèmes vivants d'augmenter la complexité de leur organisation au cours du temps. Le paradoxe n'en est en fait pas un : les systèmes vivants ne sont pas contraints d'augmenter leur entropie, car ils ne sont pas isolés (si on isole un système vivant, il est bien connu qu'il finit par se dégrader irréversiblement). Les organismes vivants sont des systèmes ouverts, qui consomment de l'énergie en permanence. S'ils peuvent ainsi se structurer spontanément, d'après les résultats obtenus par Ilya Prigogine, il est difficile de savoir si ce mécanisme suffit à rendre compte de l'apparition de la vie sur notre planète, comme le suggèrent certains.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

LOCALISER ET IDENTIFIER UNE MOLÉCULE

 

 

 

 

 

 

 

LOCALISER ET IDENTIFIER UNE MOLÉCULE


Au début du siècle, la caractérisation des molécules consistait essentiellement en tests chimiques donnant naissance à des précipités, des couleurs, voire des odeurs. Ces techniques ont été supplantées par des méthodes physiques, dans lesquelles les molécules, soumises à certaines stimulations fournissent, sous forme de diagramme, une réponse ou spectre. Plusieurs méthodes spectroscopiques étudient l'interaction avec la matière des ondes électromagnétiques dans divers domaines de longueur d'onde. Le domaine de l'infrarouge (IR) permet de reconnaître la présence de certaines liaisons ou groupements d'atomes et fournit une " empreinte digitale " caractéristique. Dans le domaine des ondes radio, la résonance magnétique nucléaire (RMN) s'applique en premier lieu au carbone et à l'hydrogène mais également à de nombreux autres éléments. Cette méthode a connu depuis 1960 d'extraordinaires développements. L'un des plus récents, la RMN à deux dimensions, met en évidence des connexions entre atomes d'où une véritable cartographie moléculaire. Dans le domaine de la lumière visible ou ultaviolette, les renseignements obtenus sont d'une moindre richesse, mais cette spectroscopie, avec d'ailleurs l'IR, permet l'étude de molécules hors de notre atteinte comme celles des atmosphères planétaires ou de l'espace interstellaire. Enfin la spectrométrie de masse (SM) étudie les fragmentations des molécules sous l'effet, par exemple, d'un bombardement d'électrons. Des masses de ces fragments on peut déduire leur formule chimique qui permet de reconstituer la molécule originelle. Par ailleurs, ces spectres fournissent une signature qui, traitée numériquement, permet une identification automatique si la molécule a déjà été répertoriée dans une bibliothèque. Cette technique, couplée avec une méthode de séparation telle que la chromatographie en phase gazeuse est d'une puissance inégalée pour l'analyse de mélanges complexes.

Texte de la 235e conférence de l’Université de tous les savoirs donnée le 22 août 2000.Localiser et identifier une moléculepar Patrick Chaquin Une activité essentielle de la recherche en chimie moléculaire est de découvrir ou de synthétiser des molécules nouvelles, qui pourront se retrouver dans des médicaments, des aliments, des cosmétiques, etc. Il est donc non moins essentiel de les identifier et de les décrire avec le plus de précision possible. Par ailleurs, notre désir de savoir nous pousse à connaître les molécules qui nous entourent, de notre environnement le plus immédiat aux confins de l'univers. Enfin nous avons besoin de détecter et d'identifier des poisons, des drogues, des dopants, etc. Le problème de la localisation ne se pose guère lorsque l'expérimentateur dispose de l'échantillon à étudier. Mais il est aussi possible de déceler la présence de molécules dans des endroits inaccessibles, comme les atmosphères planétaires ou l'espace interstellaire. Identifier une molécule nécessite la connaissance de la nature et du nombre des atomes qui la constituent, sa formule brute. Ceci peut suffire dans le cas de petites molécules : seule l'ozone a pour formule brute O3. En revanche plusieurs dizaines de molécules répondent à la formule brute C4H8O2. Cependant la donnée de l'enchaînement des atomes, la formule semi-développée CH3-(CO)-O-CH2CH3 définit sans ambiguïté l'acétate d'éthyle, solvant qui donne son odeur caractéristique au dissolvant de vernis à ongles. Mais il existe des molécules différentes ayant la même formule semi-développée, ainsi la (–) carvone (arôme de menthe verte) et la (+) carvone (odeur de cumin) qui sont, comme nos deux mains, l'image l'une de l'autre dans un miroir. L'identification nécessite alors la connaissance de la position relative des atomes dans l'espace, ou stéréochimie de la molécule. Lorsqu'on est en présence d'un composé inconnu, on peut tout d'abord se demander s’il n'a pas été déjà rencontré et décrit. On cherchera dans la littérature ou dans des banques de données s'il y figure une molécule possédant les mêmes caractéristiques. Cette démarche s'apparente à celle de l'enquêteur qui recherche dans un fichier de police des empreintes identiques à celles qui ont été relevées sur le lieu d'un crime, recherche pouvant être automatisée en chimie comme en criminologie. Si cette entreprise échoue, il faudra reconstituer la structure moléculaire en assemblant, comme les pièces d'un puzzle, les indications fragmentaires fournies par diverses méthodes d'investigation. L'avènement de la Spectroscopie en Chimie Ces méthodes d'investigation ont considérablement changé depuis quelques dizaines d'années. Si on ouvre une revue de chimie du début du siècle, on y voit qu'une molécule nouvelle était essentiellement identifiée au moyen de tests chimiques, réactions au résultat visuellement perceptible, avec production de couleurs, de précipités que l'on pouvait purifier et dont on déterminait le point de fusion. Les notations de texture (liquide « mobile », « huileux ») sont fréquentes, celles d'odeurs ne sont pas rares. Le pouvoir sucrant de la saccharine fut découvert en 1879, à une époque où l'on goûtait systématiquement chaque nouveau produit. Tout ceci a disparu de la littérature contemporaine, où les molécules sont généralement caractérisées par des données numériques traduisant ce qu'on appelle des spectres. Un spectre est un graphe qui visualise la réponse d'une molécule à une excitation physique, impliquant un échange d'énergie. Les méthodes spectroscopiques que nous évoquerons ici sont la spectroscopie ultraviolet (UV)-visible ou spectroscopie électronique, la spectroscopie infrarouge (IR) ou spectroscopie de vibration, la spectroscopie micro-ondes ou spectroscopie rotationnelle puis la résonance magnétique nucléaire ( RMN). Ces méthodes ont en commun d'impliquer l'interaction de la molécule avec une onde électromagnétique. Nous présenterons enfin la enfin la spectrométrie de masse (SM). Rappelons qu'une onde électromagnétique (OEM) est constituée par la variation périodique et simultanée d'un champ électrique et d'un champ magnétique. L'une de ses caractéristique est sa longueur d'onde l ou sa fréquence n exprimée en Hertz (Hz), liées par la relation n = c/l. ( c est la vitesse de la lumière : 3.108 m/s). Chaque méthode spectroscopique est associée à un domaine de longueurs d'ondes. Le premier est constitué par la lumière visible, dont la longueur d'onde va de 400 nm (1 nm = 10–9 m) pour la lumière violette à 800 nm pour la lumière rouge, complété par le proche ultraviolet (UV) de 400 à 200 nm environ ; le second se situe dans l'infrarouge (IR) avec des longueurs d'onde de l'ordre du micron, le troisième dans les micro-ondes dont la longueur est de l'ordre du cm ; le dernier se situe dans les ondes radio de longueur de l'ordre du m, ces deux derniers domaines étant d'ordinaire plutôt caractérisés par leur fréquence en GHz (109 Hz) et MHz (106 Hz) respectivement. L'interaction d'une OEM et d'une molécule peut être étudiée grâce à son spectre d'absorption. Une source de rayonnement électromagnétique, de longueur d'onde donnée et modifiable, dirige un faisceau sur l'échantillon. Un dispositif de détection détermine, à la sortie de l'échantillon, si l'onde a été plus ou moins absorbée. Le spectre obtenu porte en ordonnée une grandeur caractéristique de l'absorption et en abscisse la longueur d'onde (ou la fréquence) de l'OEM. L'apparition d'un pic ou bande à une longueur d'onde l indique que la radiation correspondante est absorbée. L'absorption correspond au transfert à la molécule d'une certaine quantité d'énergie électromagnétique. À l'échelle moléculaire, l'énergie est quantifiée, ce qui signifie qu'elle ne peut s'échanger que par « paquets », quantités indivisibles, ou quanta DE = hn où h est la constante de Planck. Spectroscopie UV-Visible ou spectroscopie électronique La Fig. 1 montre la principale zone d'absorption de l'ozone dans le domaine UV-visible. On voit que les UV sont fortement absorbés, d'où le rôle protecteur de la « couche d'ozone » de la haute atmosphère. Le quantum d'énergie absorbé sert ici à augmenter l'énergie d'un électron de la molécule qui passe d'un niveau où il occupait une certaine localisation spatiale (correspondant à sa fonction d'onde) à un autre niveau, de localisation différente, d'où le nom de spectroscopie électronique. L'ordre de grandeur de cette énergie est celui des liaisons chimiques ce qui explique l'effet néfaste des UV, susceptibles de dégrader les molécules biologiques. Fig. 1 Spectre d'absorption de l'ozone dans l'UV, entre 200 et 300 nm. Ces spectres UV-Visible peuvent suffire à l'identification de petites molécules comme les polluants NO2, SO2, O3 et certains hydrocarbures aromatiques. Cependant l'information qu'ils contiennent est insuffisante pour une identification complète de molécules tant soit peu complexes. Spectroscopie IR ou spectroscopie de vibration Le domaine de l'IR utilisée en Chimie correspond à des longueurs d'onde de 2 à 20 mm. Lorsque ces rayonnements sont absorbée par la molécule, ils sont convertis en énergie de vibration. Illustrons cette notion avec la molécule d'ozone. L'ozone possède des caractéristiques géométriques bien définies et qu'on peut déterminer avec beaucoup de précision : distance entre les noyaux des atomes (1,218 Å) et angle de liaison (116,8°). Mais il ne s'agit que de valeurs moyennes. Si on pouvait observer cette molécule, elle nous apparaîtrait comme animée de mouvements de déformations d'aspect chaotique, mais qui peuvent se décomposer en trois mouvements périodiques relativement simples représentés dans la Fig. 2, chacun s'effectuant à une fréquence bien définie n1, n2 et n3. La molécule peut absorber une OEM de l'une de ces fréquences n : elle reçoit l'énergie correspondante DE qui se transforme en énergie mécanique avec augmentation de l'amplitude de ce mouvement. Fig. 2 Les trois mouvements de déformation périodique de l'ozone. Une molécule comportant N atomes présente 3N – 6 modes de vibration. Il devient rapidement difficile d'associer à chaque bande la vibration correspondante, mais on peut reconnaître, même dans des molécules très complexes, des fréquences caractéristiques de couples ou de groupements d'atomes liés entre eux. Ainsi dans le spectre (Fig. 3) de l'acétate d'éthyle qui comporte 36 fréquences de vibration, la bande à 5,75 m est caractéristique de l'élongation périodique de la liaison C=O d'une fonction ester, confirmée par la bande à 8,05 m de vibration de C–O ; la bande à 7,3 m correspond à une déformation d'un groupement méthyle CH3. À 3,30 m on reconnaît les vibrations des liaisons C–H. Des renseignements négatifs importants apparaissent également, comme l'absence de fonction alcool ou acide (liaison OH) dans la région de 3 m. Fig. 3 Quatre spectres de l'acétate d'éthyle; de haut en bas : spectre IR et représentations de quelques vibrations caractéristiques (N.B. l'absorption croît ici de haut en bas) : spectre de RMN de l'hydrogène avec un appareil fonctionnant à 60 MHz ; spectre de RMN du carbone ; spectre de masse. On peut aussi tirer parti de la complexité même de ces spectres à des fins d'identification avec une molécule déjà connue. La région de 6 à 12 m en particulier constitue une véritable empreinte digitale de la molécule. Les rayonnements venus de l'espace Les fréquences caractéristiques de certaines molécules peuvent être détectées dans des régions qui nous sont inaccessibles, comme les atmosphères planétaires ou l'espace interstellaire. Il s'agit alors le plus souvent de rayonnements émis et non absorbés. En effet, le phénomène d'absorption d'une onde électromagnétique peut être réversible : si une molécule a subi une excitation préalable l'ayant portée à un niveau d'énergie supérieur, elle peut restituer cette énergie DE sous la forme d'une radiation de fréquence n telle que DE = hn. La Fig. 4 montre les radiations IR émises par l'atmosphère de la planète Titan (satellite de Saturne), enregistrées par la sonde IRIS. Il apparaît des pics caractéristiques d'un certain nombre de molécules, formées essentiellement des éléments C, H et N. L'intérêt suscité par cette planète provient du fait que son atmosphère est supposée assez semblable à celle de la terre, avant l'apparition d'oxygène sous l'effet de la fonction chlorophyllienne végétale. Fig. 4 Émission IR de l'atmosphère de Titan.(F. Raulin et coll. Adv. Space Res. 12(11) 181 (1992), reproduit avec la permission de Elsevier Science Ltd., Kidlington (GB) ; document fourni par M.-C. Gazeau et J.Bénilan) La région des micro-ondes n'est guère utilisée dans la chimie terrestre. Elle est cependant précieuse pour l'identification de molécules des espaces intersidéraux. Ce domaine est celui de l'énergie de rotation des molécules. Outre leurs déformations déjà évoquées, les molécules sont animés de mouvements de rotations que l'ont peut décomposer en trois rotations autour de trois axes. À chacune de ces rotations est associée une fréquence caractéristique de chaque molécule, et l'absorption d'une onde électromagnétique de même fréquence a pour effet d'augmenter l'énergie cinétique de rotation. Inversement, une molécule peut perdre une partie de son énergie de rotation en émettant une radiation. La Fig. 5 présente les émissions de micro-ondes, aux environs de 200 GHz, d'une région de l'espace, le nuage moléculaire d'Orion, montrant la présence de dioxyde de soufre SO2, de monoxyde de carbone CO, de méthanal CH2O, de méthanol CH3OH etc. ainsi que de nombreuses autres espèces non encore identifiées, dont certaines sont sans doute inconnues sur terre. Fig. 5 Émission de micro-ondes en provenance du nuage moléculaire d'Orion (reproduit avec la permission des auteurs, A. Blake et coll., Astrophys. J., 315, 621 (1987) et de The University of Chicago Press, document fourni par O. Parisel) La Résonance Magnétique Nucléaire La résonance magnétique nucléaire (RMN) est apparue vers 1960 dans les laboratoires de chimie et a connu depuis des progrès incessants qui en font est sans doute la méthode la plus puissante de détermination des structures moléculaires. Principe de la méthode Comme son nom l'indique, la RMN est fondée sur une propriété magnétique de certains noyaux atomiques, comme celui de l'hydrogène 1 (1H), le proton. Un tel noyau possède un spin non nul qui lui confère un moment magnétique. Cela signifie qu'il se comporte comme un minuscule aimant et présente donc certaines analogies avec l'aiguille aimantée d'une boussole. Cette aiguille, soumise à un champ magnétique, par exemple le champ magnétique terrestre, s'oriente dans la direction de ce champ. Si on l'écarte de sa position d'équilibre, elle oscille à une fréquence qui dépend à la fois de ses propriétés intrinsèques (son aimantation, sa forme, sa masse...) et de l'intensité du champ magnétique auquel elle est soumise. Il en va de même pour les moments magnétiques nucléaires qui, dans un champ magnétique B, adoptent un mouvement périodique de précession de fréquence n proportionnelle à B : n = (1/2p) g B (la constante g dépend de la nature du noyau : proton, 13C, 19F etc.). Ces moments magnétiques peuvent alors absorber une OEM de fréquence n dont l'énergie est convertie en énergie magnétique. Dans les appareils de RMN, le champ B est des centaines de milliers de fois plus intense que le champ terrestre. Les premiers appareils de routine apparus dans les années 60, utilisaient un champ d'environ 1,41 Tesla avec lequel la résonance du proton est observée à 60 MHz. Déplacement chimique et couplage spin-spin Un premier phénomène permettant d'obtenir par RMN des renseignement sur la structure moléculaire est le déplacement chimique. Quand une molécule est soumise à un champ magnétique, ses électrons réagissent en créant localement des champs magnétiques parasitaires. Si deux noyaux atomiques de cette molécule possèdent des environnements moléculaires différents, ils sont soumis à des champs parasitaires différents et ne résonnent donc pas exactement à la même fréquence ; c'est le déplacement chimique. On obtient un spectre de RMN, selon la technique par onde continue, en faisant varier progressivement la fréquence de l'onde électromagnétique et en détectant son éventuelle absorption. La variation de champ magnétique d'un point d'une molécule à l'autre est relativement faible, de l'ordre de quelques millionièmes du champ total : c'est pourquoi on l'exprime en ppm pour parties par million. La Fig. 3 montre le spectre de RMN du proton de l'acétate d'éthyle : on y observe trois signaux correspondant aux trois sites occupés par les hydrogènes, avec un déplacement chimique caractéristique de leur environnement, par exemple, un CH3 lié à un CO vers 2 ppm etc. On constate en outre que deux signaux sont formés d'un ensemble de plusieurs pics de forme caractéristique, présentant respectivement trois et quatre composantes. Ce phénomène est le couplage spin-spin et s'explique par une influence des protons du groupement voisin. Le CH3 qui est situé à côté d'un CH2 (deux voisins) donne 2 + 1 = 3 signaux. Inversement, le CH2, situé à côté du CH3 (trois voisins)donne 3 + 1 = 4 signaux. L'ensemble de ces signaux est caractéristique d'un groupement éthyle CH2CH3. On constate que l'autre CH3 qui n'a pas de protons voisins, reste sous la forme d'un pic unique. Progrès récents de la RMN La méthode s'est peu à peu perfectionnée, d'une part par la construction d'appareils à champs magnétiques de plus en plus élevés, et d'autre part par le développement des techniques par impulsions. Comme nous l'avons vu, il existe une proportionnalité entre la fréquence de résonance et le champ appliqué. On est passé progressivement d'appareils où le proton résonne à 60 MHz aux derniers appareils commercialisés fonctionnent à 800 MHz, ce qui correspond à un champ magnétique proche de 20 Tesla (un million de fois le champ terrestre). Il est difficile d'obtenir des champs magnétiques aussi intenses, qui doivent être en outre d'une grande homogénéité dans l'espace occupé par l'échantillon et d'une grande stabilité au cours du temps. Ceci nécessite l'utilisation d'électroaimants à bobines supraconductrices, à la température de l'hélium liquide, pour obtenir des courants d'intensité souhaitée. L'intérêt des appareils à champs magnétiques élevés est manifeste si on compare (Fig. 6) les spectres du menthol à 60 MHz et à 500 MHz dans la région de 1 à 2 ppm : dans le premier, les signaux se superposent pour donner un « massif » difficilement exploitable ; dans le deuxième, chaque proton est bien individualisé et on voit apparaître les motifs symétriques caractéristiques des couplages qui permettent l'attribution assez aisée de tous les signaux. Fig. 6. Spectres de RMN de l'hydrogène du menthol. En haut, enregistré par un appareil fonctionnant à 60 MHz ; en bas région, de 1 à 2 ppm enregistrée à 500 MHz (les documents des Fig. 6 à 8 ont été fournis par N. Goasdoué et J.-C. Belloeil). Un autre progrès décisif a été le développement de la RMN par impulsion. Si on remplace l'excitation par onde continue par une impulsion magnétique brève et intense, tous les moments magnétiques adoptent un mouvement oscillatoire, chacun à sa fréquence propre, qui s'amortit rapidement. Le signal complexe alors émis par l'ensemble ces moments restitue, après un décryptage informatique, les mêmes informations qu'un spectre « classique » par onde continue mais dans un temps environ 100 fois plus court. Cela a permis le développement de la RMN du carbone, qui concerne toute la Chimie Organique. Le carbone naturel est en effet constitué essentiellement de l'isotope 12, dont le noyau a un spin nul et ne donne donc pas de RMN, et ne contient que 1,1 % de carbone 13 (13C) qui possède un spin mais ne donne qu'un signal très faible. La RMN par impulsions permet l'accumulation de signaux en mémoire avant leur traitement, et donc l'obtention dans un temps raisonnable d'un spectre de 13C. Le 13C présente également le phénomène de déplacement chimique dans une gamme de l'ordre de 250 ppm. Le spectre de l'acétate d'éthyle (Fig. 3) montre l'existence de quatre carbones d'environnements chimiques différents. La RMN à deux dimensions Le couplage spin-spin permet d'établir la connexion de certains groupements ; en pratique il nous dit que deux protons couplés entre eux sont séparés par trois ou quatre liaisons chimiques au maximum. Mais il peut être malaisé, dans un spectre complexe, d'identifier quels couples de signaux sont liés par cette interaction. La RMN à deux dimensions (RMN 2D) répond entre autres à cette question. Sa technique repose sur l'utilisation de séquences d'impulsions magnétiques de durées et d'intervalles convenablement choisis, pilotées par informatique. Un spectre COSY (COrrelated SpectroscopY ou spectroscopie corrélée) relatif aux couplages entre protons est présenté Fig. 7. L'abscisse et l'ordonnée sont les fréquences du spectre classique (1D), spectre qui se retrouve sur la diagonale du carré. La présence d'un signal en dehors de cette diagonale (comme celui qui est entouré) au point de coordonnées n1 et n2 signifie que les spins résonnant à ces fréquences sont couplés (indiqué par la flèche à deux têtes). Fig. 7. Spectre COSY partiel de la molécule représentée en haut. D'autres types de connexions peuvent être établis par RMN 2D. L' effet Overhauser nucléaire est un phénomène qui dépend de la distance de deux noyaux et met en évidence leur proximité spatiale, indépendamment du nombre des liaisons chimiques les séparant. Étudié en 2D (spectres NOESY) il permet l’étude de propriétés structurales essentielle des molécules biologiques. Les molécules présentent une certaine plasticité et sont susceptibles de se déformer pour adopter certaines formes appelées conformations par des mouvements de torsion autour des liaisons simples. Les propriétés biologiques sont étroitement dépendantes de la conformation adoptée. Ainsi la maladie de la « vache folle » ne résulte que d'un changement de conformation , sous l'effet du prion, de certaines protéines, sans que leur nature chimique ait été véritablement altérée. La modélisation moléculaire sous contrainte spectroscopique consiste à calculer à l'aide d'un programme informatique les position relatives des atomes en tenant compte de deux types de données. D'une part un logiciel de mécanique moléculaire, intégrant les variations d'énergie liées à toute déformation de la molécule (variation de longueurs de liaison, d'angles de valence, etc.) détermine les conformations les plus stables de la molécule. D'autre part, des relations de proximité de certains couples d'atomes fournies par le spectre permettent d'opérer une sélection parmi les possibilités précédentes. La Fig. 8 montre (à gauche) le spectre NOESY partiel d'une protéine présente dans le lait, l'angiogénine bovine, avec des centaines de signaux dont chacun indique la proximité spatiale plus ou moins grande des deux protons dont les déplacements chimiques sont lus respectivement en abscisse et en ordonnée. La partie droite présente le résultat de la modélisation, dont les divers tracés traduisent une certaine incertitude, faible dans les parties centrales, plus importante à l'extrémité des chaînes. Fig. 8 Spectre NOESY partiel et modélisation sous contrainte spectroscopique de l'angiogénine bovine (Lequin et coll. Biochemistry 35 (1996), 8870). Spectrométrie de masse Présentation de la méthode La spectrométrie de masse (SM) est avec la RMN la méthode qui a connu récemment les progrès les plus spectaculaires. Nous nous contenterons d'en donner le principe et d'en évoquer quelques applications. L'excitation à laquelle la molécule M est soumise ici consiste en un apport d'énergie suffisant pour lui arracher un électron, donnant l'ion moléculaire M+. La méthode la plus classique consiste à bombarder la molécule, préalablement vaporisée, par un faisceau d'électrons (e–) accélérés par un potentiel de quelques dizaines de volts : M + e– ® M+ + 2e– Cette énergie peut entraîner la rupture de certaines molécules en divers points, donnant des fragments dont certains sont neutres et ne sont pas décelés, d'autres conservant la charge positive. L'étape suivante consiste à déterminer la masse des divers fragments chargés. Un spectre de masse présente en abscisse le nombre de masse des ions et en ordonnée leur abondance relative, en % de l'ion le plus abondant. Pour reprendre l'exemple de l'acétate d'éthyle (Fig. 3), on remarque au nombre de masse 88 l'ion moléculaire C4H8O2+. L'ion le plus abondant correspond au fragment COCH3+, et on remarque des ions CH3+ et C2H5+ résultant tous ici d'une simple coupure de liaison. Mais des réarrangements de l'ion moléculaire sont également fréquents, et constituent une chimie bien différente de celle des espèces neutres placées dans les conditions habituelles. Les fragments légers sont en général faciles à identifier grâce à leur nombre de masse. Par exemple, dans une molécule organique, un ion de 15 unités de masse ne peut être que CH3 ou NH. Mais les fragments plus lourds peuvent correspondre à un nombre élevé d'entités différentes, et la formule brute de l'ion moléculaire peut elle-même être inconnue. Ainsi le nombre de masse 88 peut-il correspondre à 21 formules brutes contenant les éléments C,H,O et N. Il y a plusieurs techniques en SM pour lever cette incertitude. L'une d'elles consiste à mesurer la masse moléculaire exacte. En effet, si la masse atomique du carbone est 12,0000 par convention, celle de l'oxygène n'est pas exactement 16, mais 15,9949, celle de l'hydrogène 1,0078 etc. La masse moléculaire exacte des molécules C4H8O2 est alors 88,0524. Si on dispose d'un appareil de SM à haute résolution, capable de déterminer les masses avec quatre décimales, il sera aisé de distinguer C4H8O2 de C3H8N2O (88,0637) et des 19 autres entités de même nombre de masse. Analyse d'un mélange : le couplage chromatographie-spectrométrie de masse Si les méthodes examinées jusqu'à présent permettent parfois l'identification des constituants d'un mélange brut, ce travail sera toujours plus aisée à partir d'un échantillon pur. Le problème de la séparation et de la purification des constituants d'un mélange est donc étroitement lié à celui de leur identification. Parmi les nombreuses méthodes de séparation, citons la chromatographie en phase gazeuse. Dans cette technique, le mélange est vaporisé et injecté à l'extrémité d'un tube de verre capillaire (d'environ 0,1 mm de diamètre), de quelques mètres de long, parcouru par un courant d'un gaz inerte (azote ou hélium). La paroi intérieure du tube est tapissée d'une substance appelée phase stationnaire. Les molécules du mélange tendent, d'une part, à être entraînées par le courant gazeux, mais, d'autre part, sont ralenties par des interactions avec la phase stationnaire. Ces interactions étant en général différentes avec des molécules différentes, les divers constituants du mélange évoluent à des vitesses différentes dans le tube et se séparent progressivement les uns des autres. Un dispositif détecte, à la sortie, la présence d'un produit qui a mis un certain temps, son temps de rétention, à parcourir la longueur du tube. Ce temps de rétention est en lui même une caractéristique de la molécule et peut suffire à son identification si on a affaire à un mélange familier comme par exemple des polluants dans l'atmosphère ou des hydrocarbures dans un carburant. La Fig. 9 présente le chromatogramme d'un extrait de l'essence de lavande. Chaque pic correspond à un constituant, avec son temps de rétention exprimé en minutes et secondes. Fig. 9 Chromatogramme de l'essence de lavande. Le couplage avec la spectrométrie de masse a permis l'identification du camphre, de l'eucalyptol, du bornéol, du butyrate de linalyle etc. (document fourni par C. Loutelier-Bourhis) Il est possible de coupler le chromatographe avec un appareil de SM. Lorsqu'un produit parvient au détecteur, il est envoyé dans la chambre d'injection du spectromètre. Le spectre de masse obtenu constitue une empreinte digitale et la molécule peut être identifiée par recherche informatisée dans une bibliothèque de spectres contenant jusqu'à des centaines de milliers de références. La légende de la Fig. 9 signale quelques uns des constituants du mélange. Conclusion L'avènement des spectroscopies a révolutionné le travail d'identification des molécules, se traduisant, au moins au niveau de la recherche, par l'abandon de méthodes chimiques au profit de méthodes physiques. Ces dernières sont pour la plupart non destructrices et ne requièrent qu'une faible quantité de matière, de l'ordre du mg en général, et jusqu'au nanogramme en spectrométrie de masse. Si les spectroscopies UV-visible, IR et de micro-ondes sont limitées à l'identification de petites molécules, elles présentent l'avantage, sous la forme de la spectroscopie d'émission, d'atteindre des régions situées hors de l'appareil de mesure, d'où leur intérêt en astrochimie. En revanche, le champ d'application de la RMN et de la spectrométrie de masse s'étend désormais aux grosses molécules de la biochimie. La RMN est aussi utilisée en médecine sous le nom d'IRM (imagerie par résonance magnétique).

 

   VIDEO       CANAL  U         LIEN

 
 
 
initiation musicale toulon  

PLANTES, ORGANISMES MARINS, MICROORGANISMES : SOURCES DE MÉDICAMENTS ANTICANCÉREUX

 

 

 

 

 

 

 

Texte de la 618e conférence de l'Université de tous les savoirs donnée le 25 juin 2006

Françoise Guéritte : « Plantes, organismes marins, micro-organismes :
Sources de médicaments anticancéreux »


Cette conférence est dédiée à la mémoire de Monsieur Pierre Potier, Membre de l'Académie des Sciences, directeur de l'Institut de Chimie des Substances Naturelles du CNRS pendant de nombreuses années, primé de nombreuses fois pour ses travaux sur l'impact des substances naturelles, notamment en chimiothérapie anticancéreuse. Pierre Potier aimait dire : « la chimie est à la biologie ce que le solfège est à la musique ». Je pense qu'il voulait dire par là que bien comprendre la biologie nécessite une connaissance intime des réactions chimiques intervenant dans les interactions entre molécules et cibles biologiques que sont les enzymes et les protéines, éléments essentiels mais quelquefois délétères, de nos cellules. Une autre maxime complétant celle de Pierre Potier est celle de Jean-Marie Lehn, prix Nobel de chimie : « la chimie forge la clé qui ouvre la porte aux merveilles ». Les clés, ce sont les « petites » molécules naturelles ou synthétiques qui se lient aux différentes cibles (enzymes, protéines), interactions qui peuvent conduire à une activité biologique et potentiellement thérapeutique.

Découvrir de nouvelles molécules qui deviendront des médicaments pour soigner telle ou telle maladie est une quête de tous les jours, effectuée par les industries pharmaceutiques et des laboratoires publics. Les substances naturelles sont une des sources majeures de médicaments. En médecine générale, environ 50% des médicaments proviennent de substances naturelles, et dans certains domaines thérapeutiques, comme en chimiothérapie anticancéreuse, près de 60% des médicaments sont d'origine naturelle. Par molécules d'origine naturelle, il faut entendre celles directement isolées de plantes, d'organismes marins ou de micro-organismes, mais aussi celles qui proviennent de modifications structurales de produits naturels et également les molécules de synthèse dont la structure est basée sur celle de produits naturels. Il y a donc là toute une richesse à exploiter, d'autant plus que très peu de plantes, organismes marins et micro-organismes ont été étudiés d'un point de vue chimique et biologique.

Depuis l'Antiquité, de nombreux extraits de plantes ont été utilisés pour soigner certaines maladies liées à une croissance cellulaire anormale (verrues, tumeurs ou carcinomes). Les tablettes d'argile de la médecine babylonienne et sumérienne (IIIe millénaire av. J.-C.), les papyrus égyptiens (papyrus Ebers 1600 ans av. J.-C.), les manuscrits de la médecine chinoise (Pen T'saos), grecque, romaine ou arabe, ainsi que ceux, plus récents, provenant de l'occident, décrivent de nombreuses espèces de plantes utilisées en médecine traditionnelle pour traiter ce type d'affections. Dans les années soixante, Jonathan L. Hartwell du National Cancer Institute répertorie environ trois mille espèces de plantes mentionnées dans différents écrits depuis le début de l'écriture, indiquant les parties utilisées pour traiter tumeurs, polypes, indurations, etc.. Certaines de ces plantes, étudiées bien plus tard pour leur activité biologique, ont montré une activité cytotoxique réelle sur des lignées de cellules cancéreuses, et leur étude chimique a conduit à l'isolement de produits antitumoraux plus ou moins performants. Par exemple, une petite plante herbacée semi-aquatique du nom d'Alisma plantago, plus connu sous le nom de plantain d'eau, a été décrite par Avicenne, Galien et Dioscoride comme étant utilisée pour soigner des tumeurs. Récemment, des terpènes inducteur d'apoptose (mort cellulaire) ont été isolés de cette plante. L'indigotier ou Indigofera tinctoria qui fournit l'indigotine, colorant bleu, et l'indirubine, colorant rouge, était utilisé en médecine chinoise pour traiter des leucémies. Cette activité antileucémique pourrait être due à l'indirubine, inhibiteur de cyclines dépendantes kinase. La « podophylline », résine obtenu par extraction des racines et rhizomes de Podophyllum peltatum, plante herbacée connue sous le nom de pomme de Mai, était utilisée en médecine traditionnelle pour soigner des verrues et excroissances. Des analogues structuraux (non naturels) de la podophyllotoxine, composé majoritaire de la podophylline, sont des antitumoraux efficaces utilisés dans certains cancers du poumon et les leucémies. On pourrait ainsi citer bon nombre de plantes ayant eu un impact direct dans le traitement d'excroissances cellulaires souvent cancéreuses. Mais l'avancée majeure dans la découverte d'anticancéreux naturels provient des recherches effectuées par le National Cancer Institute (NCI), aux Etats-Unis. Dans les années soixante et pendant une vingtaine d'années, le NCI a développé, dans le monde entier, un programme de collecte d'environ 35.000 plantes, afin d'évaluer l'activité anticancéreuse potentielle des extraits provenant de différentes parties de ces espèces. De cette première étude systématique, plusieurs extraits ont montré une activité cytotoxique sur certaines lignées cancéreuses. Certains des produits isolés à partir de ces extraits, comme le taxol ou la camptothécine, ont conduit à des médicaments efficaces.
Dans cette revue, nous présenterons les substances provenant de plantes, de micro-organismes ou du milieu marin, utilisées en clinique dans le traitement de divers types de cancers, ainsi que certaines d'entre elles étudiées pour leur potentialité anticancéreuse.

1- Composés antitumoraux à partir de plantes.
L'histoire du rôle des substances naturelles en chimiothérapie anticancéreuse débute dans les années quarante avec l'isolement de la podophyllotoxine 1, à partir des rhizomes d'une plante de la famille des Berberidaceae (Podophyllum peltatum L.). Cette espèce était utilisée, il y a plus de 100 ans, pour ses propriétés verrucides, et pour soigner les chancres vénériens. La podophyllotoxine, cytotoxique sur de nombreuses lignées cellulaires, s'est révélée trop toxique pour être utilisée directement en chimiothérapie. Mais, des études chimiques réalisées sur ce composé ont conduit plus tard à l'obtention d'analogues, le teniposide (Vehem®) et l'étoposide (VP-16®, Vépéside®), inhibiteurs de la topo-isomérase II, enzyme altérant la topologie de l'ADN et induisant de ce fait la mort cellulaire. Ces deux médicaments sont utilisés dans le traitement de certains cancers (cancer du poumon à petites cellules, cancer du sein, des testicules, de l'ovaire, maladie de Hodgkin...).

Une autre plante, Catharanthus roseus ou pervenche de Madagascar, produit une famille chimique complexe, les « vinca-alcaloïdes ». La vinblastine (Velbe®) 4 et la vincristine (Oncovin®) 5 sont isolées en faible quantité de la Pervenche de Madagascar Catharanthus roseus G. DON. Ces deux alcaloïdes, recommandés dans les cas de lymphomes et leucémies, peuvent être préparés par hémisynthèse à partir d'alcaloïdes naturels plus simples, la catharanthine 7 et la vindoline 8, présentes en quantités plus importantes dans la plante. La vinorelbine (Navelbine®) 6, analogue synthétique de la vinblastine utilisée dans le traitement des cancers du poumon et du sein, a également été obtenu à partir de catharanthine 7 et de vindoline 8.

Ces composés appartiennent à la classe des poisons du fuseau mitotique : ils inhibent l'assemblage d'une protéine, la tubuline, en microtubules. Tubuline et microtubules sont des constituants essentiels de la cellule aux fonctions variées. Notamment, ce sont sur les microtubules que les chromosomes migrent lors de la division cellulaire, conduisant ainsi à deux cellules-filles à partir de la cellule-mère. Le bon fonctionnement cellulaire est régi, entre autres, par l'équilibre existant entre tubuline et microtubules. Tout composé perturbant cet équilibre inhibera la division cellulaire, en particulier celle des cellules cancéreuses. La tubuline et les microtubules représentent ainsi une des cibles biologiques importantes de produits potentiellement anticancéreux.
- Une autre famille de composés d'origine naturelle, importants en tant qu'agents anticancéreux, agit également sur cette cible. Ce sont les taxoïdes, inhibiteurs du désassemblage des microtubules en tubuline. Le paclitaxel (Taxol®) 9 a été isolé initialement des écorces de tronc de l'if du pacifique Taxus brevifolia Nutt..

Alors que le paclitaxel était retrouvé en faible quantité dans les écorces de tronc de l'if européen, Taxus baccata L., l'examen des autres parties de cette même espèce a conduit à l'isolement de la 10-désacétylbaccatine III 11 à partir des feuilles. Ce composé, isolé en relativement grande quantité, peut être transformé en paclitaxel 9, ce qui résout ainsi le problème de son approvisionnement. Ces travaux d'hémisynthèse se sont révélés d'autant plus intéressants que l'un des intermédiaires obtenus (Taxotère® ou docetaxel 10) s'est montré deux fois plus actif sur la tubuline que le paclitaxel. Taxol® et Taxotère® sont utilisés dans le traitement du poumon non à petites cellules, de l'ovaire, du sein et de la prostate.
- Une quatrième classe de produits d'origine végétale utilisée en chimiothérapie anticancéreuse dérive de la camptothécine, alcaloïde extrait d'un arbre ornemental chinois, Camptotheca acuminata (Nyssaceae). Par hémisynthèse et synthèse totale, plusieurs analogues, inhibiteurs de topo-isomérase I, ont été préparés. Parmi ceux-ci, l'irinotecan (Camptosar®) et le topotecan (Hycamptin®) sont indiqués dans le traitement de certaines tumeurs solides.
Les podophyllotoxines, vinca-alcaloïdes, taxoïdes et camptothécines, molécules de structure complexe provenant de plantes variées, représentent les premiers anticancéreux d'origine végétale ayant montré une efficacité certaine dans le traitement de différents types de cancers. Ces produits agissent sur des cibles dites « classiques », tubuline et topo-isomérases I et II, mais ils ont malheureusement des effets néfastes sur les cellules normales entraînant des toxicités d'ordre neurologique. Pour essayer de remédier à ces problèmes, plusieurs analogues structuraux de ces composés ont été synthétisés pour obtenir des produits plus performants et moins toxiques. Une autre stratégie consiste à rechercher d'autres produits naturels d'origine végétale possédant des mécanismes d'action différents. À titre d'exemple, le flavopiridol 12, dont la structure a été imaginée à partir d'un alcaloïde naturel isolé d'une Meliaceae, Amoora rohituka, la rohitukine 13, est un inhibiteur de kinases cycline-dépendantes.

Les combrétastatines, isolées d'un arbre du bush sud-africain, Combretum caffrum (famille des Combretaceae), représentent également une famille très intéressante de molécules possédant des propriétés antimitotiques et agissant également sur la vascularisation de la tumeur. Un phosphate de combrétastatine A4 14 est actuellement en essai clinique pour ces propriétés. Une étude réalisée dans les années soixante avait montré la cytotoxicité sur cultures de cellules tumorales de l'acronycine 15, alcaloïde découvert dans une Rutaceae australienne, Acronychia baueri, arbuste nommé aujourd'hui par les botanistes, Sarcomelicope simplicifolia.

L'analyse de la composition chimique de dix autres espèces du même genre croissant en Nouvelle-Calédonie, a facilité un examen détaillé des relations entre la structure chimique de nombreuses molécules proches et de dérivés de synthèse et l'activité biologique de ceux-ci. Cette étude classique de chimie médicinale a abouti à la synthèse d'un analogue, la benzo[b] acronycine 16 qui est actuellement en étude clinique de phase I. Bien d'autres composés, actifs sur des tumeurs expérimentales, ont suscité des espoirs, comme l'harringtonine et l'homoharringtonine, alcaloïdes isolés de diverses espèces de Cephalotaxus, Cephalotaxaceae chinoises. Ces substances, qui agissent expérimentalement sur diverses leucémies, en inhibant la synthèse protéique au ribosome, font toujours l'objet d'études visant à améliorer leur potentiel antitumoral.

2- Composés antitumoraux issus de micro-organismes
Les micro-organismes présents dans le sol représentent une source importante de produits antitumoraux. L'intérêt clinique des anthracyclines a émergé dans les années soixante avec la découverte de la daunomycine puis de la doxorubicine, isolées d'Actinomycètes du genre Streptomyces. Ces composés agissent comme intercalants et interfèrent avec la topo-isomérase II. Plusieurs anthracyclines sont sur le marché, indiquées dans le traitement de leucémies, lymphomes ou tumeurs solides. Des études de vectorisation et de ciblage spécifique des tumeurs se poursuivent afin d'améliorer le profil thérapeutique de cette famille de composés et surtout de diminuer leur toxicité cardiaque.

Les bléomycines, actinomycines et mitomycines sont d'autres exemples de molécules anticancéreuses issues de souches microbiennes, mais la découverte la plus récente et spectaculaire de ce monde infiniment petit est sans doute l'isolement, en très faible quantité, des épothilones à partir d'une Mycobactérie, Sorangium cellulosum. La découverte de ces molécules de structure complexe (épothilone B 17) miment les effets du paclitaxel sur la tubuline. Quelques-unes d'entre elles, plus hydrosolubles et puissantes que les taxoïdes, sont en essai clinique pour une utilisation possible dans le traitement de tumeurs solides. Un intérêt supplémentaire réside dans le fait qu'elles agissent sur les cellules tumorales résistantes à d'autres cytotoxiques.

3- Composés antitumoraux d'origine marine
La première découverte importante d'un composé bioactif d'origine marine a été celle de la spongo-uridine extraite d'une éponge des Caraïbes, Cryptotethya crypta. Des études chimiques réalisées sur ce composé aux propriétés antivirales ont conduit au développement du cytosine arabinoside ou cytarabine 18 (Ara-C®). La cytarabine agit par inhibition des ADN-polymérases. Elle est utilisée dans le traitement de leucémies. Les études systématiques du milieu marin, délicates et difficiles pour des raisons pratiques évidentes, ont débuté dans les années soixante-dix. Les dolastatines, comme la dolastatine 10 30, ont été initialement isolées d'un mollusque de l'Océan indien, le "lièvre de mer" Dolabella auricularia (26). Ce sont des poisons du fuseau mitotique, inhibiteur de l'assemblage de la tubuline en microtubules.

L'ecteinascidine 743 20, métabolite produit par un tunicier, Ecteinascidia turbinata, est un agent alkylant sélectif des résidus guanine de l'ADN du petit sillon. La bryostatine-1, l'aplidine, la didemnine B sont d'autres exemples de substances antitumorales provenant également de sources marines. Parmi ces produits, certains sont en étude clinique et conduiront peut-être à enrichir l'arsenal thérapeutique existant.

4- Composés antitumoraux d'origines végétale-marine-microbienne
Il existe certaines substances naturelles bioactives appartenant tout à la fois aux domaines végétal, marin et microbien. De nombreux microorganismes vivent en symbiose avec les organismes marins et les plantes et représentent une source importante de molécules d'intérêt biologique. Le paclitaxel et la podophyllotoxine ont, par exemple, été décrits comme étant produit par des champignons endophytes, isolés des genres Podophyllum et Taxus, respectivement.
5- Découverte de nouvelles substances naturelles anticancéreuses
Dans les années soixantes, les premiers anticancéreux d'origine naturels ont été découverts par hasard ou par criblage systématique. C'est en étudiant les propriétés antidiabétiques potentielles de Catharanthus roseus, plante utilisée empiriquement comme coupe-faim par les navigateurs polynésiens qu'une activité antitumorale a été mise à jour. Le criblage de milliers d'extraits de plantes sur des lignées cellulaires cancéreuses ont permis la découverte de la campthothécine et du paclitaxel. Ces études ont été longues et fastidieuses, les composés recherchés étant présents dans les organismes en faible quantité. Aujourd'hui, les progrès importants réalisés en biologie moléculaire, biotechnologie, robotique et miniaturisation permettent une étude systématique des activités potentielles présentes dans les extraits de différents organismes, menant à la détection rapide des produits actifs minoritaires. L'extraction automatisée de plantes, organismes marins ou microorganismes conduisent à la constitution d'extractothèques (librairies d'extraits). La sélection des extraits actifs est réalisée par un criblage à haut débit de ces librairies sur de nouvelles cibles biologiques, enzymes ou protéines intervenant dans le phénomène de cancérisation. Après fractionnement automatisé des extraits, les fractions sont directement analysées automatiquement par chromatographie liquide haute performance combinée avec la spectrométrie de masse ou résonance magnétique nucléaire. Ces technologies permettent de déterminer les structures les plus complexes d'infime quantité de produits composants ces fractions, et conduire ainsi à la caractérisation des substances actives.

La biodiversité représente ainsi une des bases fondamentales de la découverte de nouvelles molécules de structures diverses, précurseurs potentiels d'outils biologiques et de médicaments et notamment de nouveaux composés anticancéreux. C'est pourquoi, la protection de notre environnement est d'une importance capitale. L'étude des plantes, microorganismes et organismes marins doit se faire de manière concertée, transparente et équitable avec les partenaires des différents pays possesseurs de ces richesses non encore explorées. Dans ces conditions et avec l'aide aujourd'hui des nouvelles technologies permettant la découverte et l'évaluation biologique rapide de nouvelles molécules, il est certain que de nouveaux médicaments de plus en plus spécifiques verront le jour.

Post-scriptum : Je tiens à remercier Pierre Potier, disparu trop tôt, pour m'avoir communiqué sa passion des substances naturelles. Sa façon de poser les problèmes sur la naissance de telle molécule naturelle complexe au sein de l'organisme vivant conduisait forcément à la solution. Monsieur Potier était une personne de qualité! Je tiens également à remercier Thierry Sévenet qui m'a transmis « son virus » des plantes. Grâce à lui, de nombreuses collaborations avec des pays étrangers où existe une biodiversité riche en plantes différentes de nos contrées, se sont concrétisées par des travaux de recherche sur des espèces bioactives.

 

 VIDEO       CANAL  U         LIEN

 
 
   Fichier à télécharger : CHIMIE 3
 
initiation musicale toulon  

COMBUSTION - CHIMIE

 

 

 

 

 

 

combustion

La combustion est une réaction chimique qui met en œuvre un combustible et un comburant (le premier est un corps réducteur, le second un oxydant) : elle fournit de l'énergie calorifique et émet généralement de la lumière. Sur la maîtrise de cette réaction se fondent le développement de la société industrielle et la sauvegarde de l'environnement.
Naissance de la théorie moderne sur la combustion
Les premiers « combustionnistes » sont les hommes de la préhistoire ; le feu conférait à celui qui savait le maîtriser un statut de sorcier. L'importance du culte du feu dans certaines civilisations ou l'existence de mythes comme celui de Prométhée indiquent une fascination que les flammes ont toujours exercée sur les hommes. Il faut cependant attendre la fin du xviiie s. pour que se développe une étude sérieuse des phénomènes mis en œuvre dans la combustion.
C'est en s'intéressant à ce sujet, et grâce à la découverte quasi simultanée entre 1783 et 1784 de l'oxygène par le Suédois Carl Wilhelm Scheele et le Britannique Joseph Priestley, que le Français Antoine Laurent de Lavoisier va écrire les véritables premiers bilans réactionnels et fonder la chimie moderne.


Le phlogistique
Jusqu'au xviiie s., les scientifiques admettent les conclusions de l'Allemand Georg Ernst Stahl : le feu, sous la forme du phlogistique, est contenu dans la matière elle-même, et la combustion n'en est que la libération. Cette théorie est d'autant mieux acceptée qu'elle correspond à un retour aux idées des philosophes grecs, notamment à la vision élémentaire d'Aristote sur l'Univers et ses quatre éléments : eau, terre, air et feu.
Mais la faiblesse essentielle de cette théorie était de prédire une diminution du poids de la matière après combustion (à la suite de la perte du phlogistique), alors que les produits de celle-ci sont en réalité plus lourds du poids de l'oxydant utilisé. Le flou entourant les notions de poids et de masse permettait à la théorie de rester toutefois crédible, car il suffisait de se rattacher à la vision aristotélicienne : certains éléments de ce monde vont vers le bas (c'est le principe de ce qui est lourd), d'autres, tel le feu, se dirigent vers le haut. Selon Stahl, le dégagement ou la fixation du phlogistique, agent universel, permettait d'expliquer toute la chimie – la combustion en devenant l'acte fondamental. Cette théorie, bien qu'erronée – elle fut acceptée en partie, grâce à sa simplicité, par toute la communauté scientifique durant un demi-siècle –, contribua à faire de la chimie une véritable discipline scientifique, qui se développa rapidement par la suite.
La combustion selon Lavoisier
Le phlogistique est, sous certains aspects, le précurseur de l'énergie, concept qui ne sera développé que deux siècles plus tard.

En 1772, Lavoisier dépose sous pli cacheté à l'Académie des sciences ses premiers résultats concernant l'étude de la combustion. Son mémoire présente déjà les faits essentiels suivants : le poids total du vase et de son contenu n'a pas changé après la calcination ; le métal transformé en chaux (de nos jours, on parle d'oxyde) a augmenté de poids ; le poids de l'air contenu dans le vase a diminué de la même quantité. Parmi les scientifiques qui ont, à la suite de Lavoisier, contribué aux progrès de la discipline, il faut citer l'Allemand Robert Wilhelm Bunsen, qui inventa le brûleur connu sous le nom de bec Bunsen, les Français Ernest Mallard et Henry Louis Le Chatelier, qui découvrirent le phénomène de la détonation en 1881 et développèrent une première théorie de la flamme en 1883.
Le terme de combustion avait un sens plus large que celui qui lui est aujourd'hui attribué : il désignait un ensemble de réactions d'oxydoréduction, dont la théorie complète a été élaborée postérieurement. La simple oxydation, que ce soit celle des métaux ou encore celle du glucose (qui se produit lors de la respiration), était dénommée combustion lente. La présence d'une flamme était caractéristique de la combustion vive : c'est à cette dernière que se réfère l'utilisation moderne du mot.
Aspects chimiques de la combustion
Si la combustion, dans la vie de tous les jours, nous apparaît comme une réaction très simple, ce processus étudié dans les laboratoires de recherche devient une succession complexe de réactions chimiques.
Réactions en chaîne
La réaction de combustion la plus simple est assurément celle de l'hydrogène par l'oxygène :
H2 + ½ O2 → H2O + énergie.
La simplicité de cette relation n'est cependant qu'apparente, le mécanisme réactionnel étant en réalité constitué d'une succession de réactions élémentaires.
La première réaction élémentaire est appelée réaction d'initiation. Elle permet de briser la molécule d'oxygène en deux radicaux, et ce grâce à une collision avec un partenaire quelconque, que ce soit une autre molécule ou la paroi du réacteur, afin d'obtenir le second corps de la collision :
(1) O2 + M → 2O* + M.
Le radical obtenu (O*) étant instable, il va réagir facilement, en particulier avec une molécule d'hydrogène :
(2) H2 + O* → *OH + H*,
puis les radicaux nouvellement formés vont à leur tour réagir :
(3) O2 + H* → *OH + O*
et
(4) H2 + *OH → H2O + H*.
Les réactions (2) et (3), qui permettent la diversification et l'augmentation du nombre de radicaux en présence, sont des réactions de ramification, la réaction (4), qui fournit le produit final tout en reformant un radical qui va relancer la réaction (3), est une réaction de propagation. Des réactions défavorables à la combustion sont également possibles :
(5) H* + H + M → H2 + M
(6) *OH + H* + M → H2O + M.
Très exothermiques, elles nécessitent la présence d'un partenaire de choc M quelconque. La réaction (5), qui bloque l'ensemble du mécanisme, est une réaction de rupture, alors que la réaction (6), qui crée le produit final mais ne permet pas la réinitialisation de l'ensemble, est une réaction de terminaison. L'ensemble de ces réactions élémentaires constitue un mécanisme de réactions en chaîne.


Cinétique chimique
Pour que le produit final soit obtenu, il est absolument nécessaire que la réaction (5) ne soit pas trop rapide, afin d'éviter la formation de molécules d'eau par recombinaison systématique de l'hydrogène. La vitesse d'une réaction élémentaire (la réalité étant plus complexe pour une réaction globale) est proportionnelle à la quantité de chaque réactif nécessaire à cette réaction : plus la concentration d'un corps est importante, plus les collisions entre molécules seront fréquentes. Le coefficient de proportionnalité qui en est déduit dépend également de la température : plus la température est élevée, plus l'énergie cinétique des molécules est forte. Les calculs effectués à partir des données cinétiques élémentaires permettent de juger de la bonne représentation du mécanisme réactionnel complet envisagé.


Complexité des réactions de combustion
L'étude de la combustion du propane pur (C3H8), corps plus complexe que l'hydrogène, conduit, dans le souci de bien représenter le mécanisme réel de la combustion dans l'oxygène pur, à considérer 126 réactions élémentaires; la réaction globale stœchiométrique s'écrivant :
C3H8 + 5O2 → 3CO2 + 4 H2O + énergie.
Ainsi, lors de l'utilisation du butane, dont les molécules sont plus grandes que celles du propane, on imagine difficilement la complexité du mécanisme réactionnel se produisant dans la flamme du brûleur. Aussi la combustion de produits non purs, tels que les fiouls lourds brûlés dans les centrales thermiques conventionnelles, et qui contiennent plusieurs composés carbonés, soufrés et azotés, est-elle d'une étude particulièrement difficile.
Combustion complète, combustion incomplète
Les équations globales de combustion écrites précédemment à titre d'exemple pour l'hydrogène et le propane représentent des réactions de combustion complète, car les produits obtenus (CO2, H2O) sont incombustibles : ils ne peuvent à leur tour donner naissance à des réactions de combustion.
En revanche, si la quantité d'oxygène est insuffisante au niveau de la flamme, là où la température est assez élevée pour que les réactions aient lieu, la combustion de la molécule d'oxyde de carbone, composé intermédiaire relativement stable, ne peut être entièrement réalisée. La combustion de cet oxyde est alors incomplète.
La richesse r d'un mélange permet de comparer les proportions d'oxydant et de combustible effectivement en présence dans le milieu réactif :


Si ce rapport est supérieur à l'unité, la combustion est nécessairement incomplète. Mais une richesse inférieure à 1 n'est pas une condition suffisante pour qu'une combustion soit complète : celle-ci peut être stoppée pour des raisons cinétiques (vitesse de réaction trop lente) ou mécaniques (combustible et comburant trop éloignés, par suite d'un écoulement défavorable). Les produits obtenus, tel l'oxyde de carbone (CO), étant généralement toxiques, la lutte contre la pollution doit prendre en compte l'élimination des combustions incomplètes.


Conditions d'inflammation
La présence, en un même endroit, d'un combustible et d'un comburant est requise pour la formation d'une flamme. De plus, cette dernière, qui est caractéristique de la réaction de combustion, nécessite une température – obtenue par une étincelle, par le contact d'un corps chaud ou par chauffage de l'ensemble, en au moins un endroit du mélange – qui doit être supérieure à la température d'inflammation Ti (cette température dépend du mélange considéré et de la pression à laquelle se déroule la réaction).
En outre, la proportion de combustible doit être comprise entre deux valeurs limites Li (limite inférieure au-dessous de laquelle le mélange est trop pauvre pour être inflammable) et Ls (limite supérieure au-dessus de laquelle le mélange est trop riche) ; ces grandeurs dépendent aussi de la nature des réactifs et de la pression (l'influence de la température est alors pratiquement nulle).
Par exemple, la combustion de l'hydrogène dans l'air n'est possible que si la proportion en volume de l'hydrogène est comprise entre 4 % et 75 % du mélange, et dans les conditions stœchiométriques (30 % environ d'hydrogène en volume) il faut chauffer l'ensemble jusqu'à Ti = 572 °C.
Combustion dans l'air
La combustion dans l'air diffère de celle qui s'opère dans l'oxygène pur par un effet de dilution thermique.
Ainsi, pour le méthane, la réaction globale de combustion dans l'air s'écrit :
CH4 + 2O2 + 7,52 N2 → CO2 + 2 H2O + 7,52 N2 + énergie.
Dans cette réaction, un terme supplémentaire apparaît : l'azote (3,76 molécules d'azote par molécule d'oxygène) ; les autres composants de l'air (gaz rares) étant négligeables. Rien ne semble changer, pourtant l'énergie obtenue lors de la réaction sert en partie à chauffer une masse plus importante de produits (ici, 258,56 g au lieu de 48 g par molécule de méthane). L'ensemble des produits finals est par conséquent à une température moins élevée, et cette diminution de la température peut être un facteur décisif dans la vitesse de la réaction chimique.


Aspects physiques de la combustion
La flamme, en tant que phénomène physique, est la première manifestation de la combustion. On en distingue deux sortes : les flammes de prémélange, ou de mélange préalable, obtenues lorsque le combustible et l'oxydant sont mélangés avant d'être mis en réaction ; et les flammes de diffusion, qui apparaissent à l'interface située entre les deux réactifs principaux non mélangés, ces dernières pouvant se stabiliser grâce aux processus conjugués de diffusion moléculaire et de diffusion thermique.
Les flammes de prémélange
Le bec Bunsen fournit l'exemple de flamme de prémélange, ou de mélange préalable : elle apparaît immobile (en l'absence de turbulences créées par l'air environnant), alors que du mélange combustible est consommé : cela signifie que le front de flamme se déplace à la même vitesse (mais dans le sens contraire) que l'écoulement du prémélange, et qu'elle se trouve ainsi au repos dans le repère du brûleur.


Les trois types de combustion
Ces considérations cinématiques permettent de distinguer trois types de combustion : si la vitesse du front de flamme est lente (inférieure ou égale à environ 1 m/s), c'est une déflagration ; si la vitesse est très supérieure (supersonique et de l'ordre du km/s), il se forme une onde de choc, c'est une détonation ; lorsque l'inflammation est si rapide que chaque point du milieu réactif s'enflamme spontanément au même moment, c'est une explosion. Dans ce dernier cas, il n'y a pas de propagation au sens précis du terme, mais un emballement des réactions en chaîne ; ce processus n'est plus gouverné par la mécanique, mais par la chimie.
Il n'existe pas d'intermédiaire stable entre ces trois cas de combustion. Ainsi, le confinement est une condition de la transition entre la déflagration et la détonation, et les domaines d'explosion et de détonation sont des sous-domaines de celui de l'inflammabilité. Il apparaît ainsi que le moteur à explosion, qui équipe en particulier les automobiles, devrait être appelé moteur à déflagration. Mis à part la plupart des moteurs, les flammes de prémélange sont celles des brûleurs de cuisinières à gaz, et les considérations précédentes permettent de comprendre la nécessité de l'adaptation parfaite entre le détendeur, le brûleur et le gaz pour obtenir une flamme stable et non dangereuse.
Dans un autre domaine, des recherches sont actuellement mises en œuvre pour maîtriser la combustion supersonique des superstatoréacteurs devant équiper les avions hypersoniques de demain.
Les flammes de diffusion
Deux gaz différents se mélangent grâce au mouvement d'agitation thermique qui anime leurs molécules : c'est le phénomène de diffusion. Lorsqu'un combustible et un comburant sont en contact, il va apparaître une zone où seront présentes les conditions de concentration requises pour l'inflammation. Si la température d'inflammation est atteinte dans une partie de cette zone (il suffit que les gaz soient suffisamment chauds ou qu'il y ait un apport énergétique extérieur), une flamme va apparaître.
Cas de l'inflammation spontanée
Dans le cas de l'inflammation spontanée, la flamme prend naissance à l'endroit où les proportions stœchiométriques de la réaction sont observées. Si la combustion est déclenchée par chauffage ponctuel, elle se développe en ce même point, mais la flamme va se déplacer vers sa position d'équilibre (conditions stœchiométriques).
Cas de l'allumage commandé
Dans le cas de l'inflammation commandée, pour que la réaction soit entretenue et que la flamme soit stable, il faut que se réalise un équilibre entre deux phénomènes qui se déroulent à contresens. La diffusion massique doit être suffisante pour qu'il y ait toujours, près de la flamme, de l'oxydant et du combustible en quantités requises. Aussi, la diffusion thermique, qui apparaît à cause du gradient de température consécutif au dégagement de chaleur de la réaction, ne doit pas être trop efficace, sinon la température des gaz près de la flamme risque d'être trop basse pour que la cinétique de la réaction soit bonne.


L'écoulement turbulent
Dans la réalité, deux gaz ne se trouvent pas accolés, il y a injection de l'un dans l'autre, ou, plus couramment, injection parallèle du combustible et du comburant. Les vitesses d'injection des deux gaz n'étant pas obligatoirement les mêmes, il va se produire un cisaillement mécanique à l'interface des deux fluides, et des tourbillons vont se développer : l'écoulement devient turbulent. La flamme est alors enroulée, étirée, jusqu'à l'extinction.
Une étude simultanée de la chimie (cinétique des nombreuses réactions élémentaires) et de la physique (mécanique des fluides compressibles en écoulement turbulent) doit être menée pour pouvoir prévoir les vitesses et les débits d'injection qui permettent d'assurer une combustion complète.
Pour reprendre l'exemple du bec Bunsen, en cas de débit d'air insuffisant à l'admission, du gaz combustible resterait imbrûlé s'il ne se développait une flamme de diffusion, caractérisée par le panache rougeâtre qui se développe au détriment de la zone bleue (le panache est également observé avec un débit d'air convenable, mais il est alors peu important et il est le siège de réactions de recombinaison). La combustion dans un moteur-fusée et dans un feu de bois est celle de flammes de diffusion.
Qu'elle soit de prémélange ou de diffusion, une flamme est généralement visible, car il s'y produit des émissions de lumière. La couleur permet de juger de la concentration des différents corps en présence, en particulier des radicaux chimiques intermédiaires, qui sont caractérisés par des raies d'émission très précises. Une flamme est également bruyante, car elle oscille avec une certaine fréquence. Cela se produit lorsqu'il y a résonance entre la combustion elle-même et la chambre de combustion et entre les écoulements d'injection des combustibles et des comburants. Ce bruit est une preuve d'instabilité pouvant conduire à l'extinction.


Les dangers de la combustion
Les principaux rejets polluants de la combustion sont NO, CO, SO2, SO3, C et les hydrocarbures imbrûlés. De grands espoirs sont placés dans des diagnostics optiques qui permettraient de détecter ces corps dans les fumées industrielles, en remplacement des méthodes de prélèvements actuellement employées. Les fiouls les plus polluants étant aussi les moins onéreux, une législation stricte de leur utilisation doit aller de pair avec une recherche fondamentale. S'ajoutant au risque d'explosion provoquée par une simple étincelle dans un milieu où les concentrations correspondent au domaine d'inflammabilité explosive, l'incendie est le danger essentiel encouru non seulement lors de l'utilisation du combustible, mais aussi lors de son transport et de son stockage.
La lutte contre l'incendie dépend du type de foyer rencontré. L'eau peut être employée contre des feux secs (bois, papier, tissus). Pour lutter contre les feux gras (hydrocarbures), l'eau est à proscrire, sauf éventuellement sous forme pulvérisée dans certaines conditions : il est préférable d'employer des extincteurs à carbures halogénés (CH3Br), qui étouffent les flammes grâce à l'avidité d'oxygène des molécules projetées, des mousses (émulsion de CO2 dans de l'eau) ou des poudres (NaHCO3).
Contre un feu électrique (sec ou gras à proximité d'une ligne électrique), il ne faut pas, là non plus, employer d'eau, car celle-ci a une conductivité électrique élevée.

 

 DOCUMENT   larousse.fr    LIEN

 

 
 
 
Page : [ 1 2 3 4 5 6 7 ] Précédente - Suivante
 
 
 
Google