ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

COEUR ARTIFICIEL

 


 

 

 

 

 

La longue marche vers le coeur artificiel
autre - par Florence Rosier dans mensuel n°297 daté avril 1997 à la page 72 (3374 mots)


La première implantation d'un coeur artificiel a eu lieu il y a quarante ans, sur un chien. Elle a ensuite connu une longue histoire d'échecs. Les techniques se sont cependant améliorées, et, depuis une dizaine d'années, des dispositifs bien supportés par les malades sont utilisés cliniquement. Une partie de leur appareillage, notamment la source d'énergie, reste cependant à l'extérieur du corps. L'intégration intracorporelle de cet élément se situe à un horizon encore lointain.

Lesmaladies cardio-vasculaires sont dans les pays occidentaux la cause la plus fréquente de mortalité. Au premier rang de ces décès, l'insuffisance cardiaque, c'est- à-dire l'incapacité du coeur à assurer la circulation du sang qui apporte l'oxygène à l'organisme. Cette maladie entraîne entre 10 000 et 30 000 décès par an dans notre pays. Mais les transplantations, dont les possibilités plafonnent à quelque 800 par an dans notre pays, ne peuvent couvrir tous les besoins existants, en raison du nombre limité de donneurs de coeur1. Pour remédier à cette pénurie, on étudie depuis une quarantaine d'années des substituts mécaniques du muscle cardiaque, qui commencent à être utilisés quotidiennement. Dans l'idéal, ils s'adressent aux patients âgés de moins de 65 ans ne présentant pas d'autre maladie infectieuse ou cancéreuse que leur insuffisance cardiaque.

Il existe aujourd'hui de nombreux systèmes d'assistance ou de suppléance cardiaque. Ils restent des « coeurs partiels » : les plus élaborés sont les ventricules artificiels, qui déchargent les ventricules défaillants de leur fonction. Ils sont branchés en dérivation sur le coeur malade, qui est laissé en place et conserve ainsi une chance de récupérer. Les ventricules artificiels ont été conçus pour une implantation temporaire, dans l'attente d'une transplantation. Mais comme ces attentes sont parfois très longues, on commence à les utiliser de façon plus durable. Ces systèmes constituent des modèles précieux pour la mise au point du coeur artificiel total. Celui-ci devra répondre à trois exigences : être entièrement implantable, se substituer définitivement au coeur naturel et prendre entièrement en charge la fonction des deux ventricules.

Avant de décrire ces substituts, il faut se rappeler comment fonctionne le coeur humain. Ce muscle compte quatre cavités : deux oreillettes et deux ventricules. Il a une fonction de pompe, exercée en deux temps : durant la diastole, le coeur se relâche et les valves entre les oreillettes et les ventricules s'ouvrent, laissant le sang remplir les ventricules ; durant la systole, les ventricules se contractent et chassent le sang vers les poumons et le reste du corps. Ce sont ces ventricules, principalement le gauche, qui travaillent et fatiguent le plus.

L'histoire du coeur artificiel commence en 1957, quand les chirurgiens américains Kolff et Akutsu parviennent à maintenir un chien en vie avec un coeur en plastique fonctionnant à l'air comprimé. Si l'exploit technique est considérable, la survie n'excède guère une heure. Durant la décennie suivante, plusieurs autres systèmes sont expérimentés chez l'animal. La première implantation humaine d'un appareil placé en dérivation sur le coeur malade est réalisée en 1962 par Mikaël de Bakey, à Houston. Après une assistance de huit jours, le malade survivra avec son propre coeur pendant une dizaine d'années. Le 2 avril 1969, la première implantation en substitut du coeur déficient excisé est tentée chez l'homme par Denton Cooley et Domingo Liotta à l'hôpital St Luke de Houston sur un malade dont l'état est désespéré, et qui meurt le 8 avril. Peu après, deux autres malades sont opérés et meurent peu après eux aussi.

Ces échecs freinent la recherche, et ce n'est qu'en 1982 qu'elle est vraiment relancée. A Salt Lake City, l'implan-tation effectuée sur un homme pesant 100 kg, Barney Clark, est suivie par les médias du monde entier. L'appareil implanté, conçu par William Kols et réalisé par Robert Jarvik, est un coeur mécanique à deux ventricules, branché sur les oreillettes en lieu et place des ventricules natifs. Il est activé par un système externe à air comprimé. Le malade doit être réopéré et meurt 112 jours plus tard, à l'issue de complications infectieuses. En 1984, cinq opérations similaires sont menées dans l'optique d'un remplacement définitif. La Food and Drug Administration oblige alors les chirurgiens à mettre un terme à ces essais, compte tenu de la survie trop brève des malades opérés.

« Le seul intérêt de ces tentatives a été de mettre en lumière les problèmes existants, déjà identifiés par l'expérience animale : prothèses trop volumineuses, risques d'embolie et d'infection , dit le professeur Daniel Loisance, de l'hôpital Henri- Mondor de Créteil. Les recherches se sont alors orientées dans d'autres directions , si bien que l'on dispose aujourd'hui de tout un éventail de systèmes d'assistance cardiaque qui se rapprochent progressivement du coeur artificiel idéal, tout en présentant des bénéfices thérapeutiques immédiats pour le malade. »

Ces systèmes restent réservés aux malades atteints d'insuffisance cardia-que terminale , c'est-à-dire dont la vie est menacée à court terme. Avant d'en arriver là, les médecins disposent d'un arsenal thérapeutique qui a beaucoup progressé au cours des dernières années. Ce sont avant tout les traitements médicamenteux qui retardent et parfois enrayent la progression de la maladie. Ce peut être également une nouvelle technique chirurgicale : la cardiomyoplastie. Développée dans les années 1980, principalement sous l'impulsion du professeur Carpentier, de l'hôpital Broussais, à Paris, cette méthode consiste à renforcer la contraction cardiaque en greffant sur le coeur malade un muscle squelettique* prélevé sur le patient lui-même. Cette technique n'est toutefois d'aucun secours lorsque l'insuffisance cardiaque est parvenue à un stade terminal.

Après une défaillance cardiaque aiguë, comme un infarctus ou une myocardite inflammation du coeur, il arrive dans moins de 25 % des cas que le muscle récupère une partie de ses capacités, au bout de quelques jours ou de quelques semaines. C'est pourquoi, lorsque les médecins espèrent une récupération en cas de crise aiguë, ils tentent de préserver le coeur en le déchargeant temporairement de son travail.

Les systèmes de circulation extracorporelle en sont l'instrument. Ils sont formés d'un circuit conduisant le sang du corps vers une pompe extracorporelle et, lorsque le malade est en situation d'arrêt ventilatoire, vers un oxygénateur, d'où le sang revient oxygéné dans le corps. Ce circuit est établi entre une artère et une veine périphériques par de petits tuyaux appelés « canules » qui traversent la peau. Le sang est aspiré à travers une pompe extracorporelle centrifuge : c'est un dispositif muni d'aubes radiales qui, en tournant, propulse le sang avec un débit proportionnel à la vitesse de rotation.

Cependant, ce circuit provoque un important traumatisme sanguin : éclatement des globules rouges, dû au choc mécanique, mais aussi dénaturation des protéines du sang et réaction inflammatoire liée à l'activation des globules blancs principaux effecteurs de l'immunité et des plaquettes cellules responsables de la coagulation du sang. C'est pourquoi l'assistance extracorporelle ne peut excéder quelques jours. En outre, pour pallier les risques d'embolie, le malade doit absor-ber des médicaments anticoagulants généralement de l'héparine, dont les effets secondaires, saignements ou réaction allergique, ne sont pas négligeables.

Une alternative consiste à mettre en place, au sein même du ventricule gauche, une hélice de type « vis sans fin » , qui aspire le sang dans la cavité ventriculaire et l'éjecte dans l'aorte2. Cette hélice a été conçue en 1985 par un ingénieur américain, Richard Wampler, qui s'est inspiré de l'observation en Egypte de meuniers utilisant une vis sans fin pour hisser leur grain. L'hélice environ 9 millimètres de long est introduite par l'artère fémorale au moyen d'un cathéter souple. Une fois en place, elle est entraînée à grande vitesse 25 000 tours par minute par un câble, protégé par une gaine en Téflon et mû par un moteur électrique extracorporel. Ce système, baptisé « hémopompe » , soulage notablement le ventricule défaillant. Se passant d'oxygénateur, il est adapté aux cas où la fonction pulmonaire reste assurée. Il a cependant ses limites, liées aux difficultés d'insertion, à la formation de caillots dans la cavité ventriculaire et à l'insuffisance du débit sanguin qu'il autorise : 3,5 litres de sang par minute, contre 5 à 6 pour un coeur sain. Son emploi ne peut donc excéder quelques jours.

La deuxième grande catégorie de systèmes regroupe les appareils destinés aux malades dont le coeur ne pourra pas récupérer spontanément ses fonctions, permettent une assistance cardiaque prolongée. Ainsi les « coeurs de Jarvik » du nom de leur premier concepteur, sont implantés en lieu et place du coeur natif. Le chirurgien excise les deux ventricules malades. Puis, sur les oreillettes laissées en place, il branche les substi-tuts ventriculaires implantés dans la cage thoracique. Ces substituts sont des chambres cloisonnées par une membrane en deux compartiments. L'un contient le sang, l'autre de l'air pulsé. L'air déplace la membrane à intervalles réguliers, chassant ainsi le sang vers l'artère pulmonaire ou vers l'aorte. Des canules traversent la peau au niveau du thorax, reliant le compartiment gazeux à un compresseur extracorporel, volumineux et peu mobile, qui produit l'air comprimé actionnant la membrane.

Ce dispositif, commercialisé par la société Cardiawest, de Tucson Arizona, présente de sérieux inconvénients : l'autonomie du malade, relié en permanence au compresseur, reste très limitée. De surcroît, le risque infectieux dû aux tuyaux qui traversent la peau est important. Enfin les chambres ventriculaires sont encombrantes 900 cm3 et compriment poumons et oreillettes, altérant les fonctions pulmonaire et circulatoire. Néanmoins, « ce système reste parfois la seule solution, notamment quand un infarctus provoque la rupture de la cloison entre les deux ventricules » dit Daniel Loisance.

Un autre procédé de suppléance durable consiste à laisser le coeur intact et à brancher les ventricules artificiels en dérivation sur les ventricules naturels. Ceux-ci continuent de laisser passer le sang, mais ils battent à vide, indépendamment du ou des ventricules artificiels. Les chambres ventriculaires, intra- ou extracorporelles, sont reliées au coeur natif par des tubes. Le sang est aspiré dans une des oreillettes et réinjecté dans l'artère pulmonaire ventricule droit ou dans l'aorte ventri-cule gauche. Ces ventricules artificiels sont constitués de cinq éléments. La chambre ventriculaire proprement dite contient le compartiment sanguin, où le sang est pompé grâce à divers types d'énergie : pneumatique dispositif à air pulsé, hydraulique modèle similaire, où l'air est remplacé par de l'huile, centrifuge le sang est propulsé par la rotation d'un système à aubes, électrique le compartiment sanguin est un sac que vient comprimer le déplacement d'un piston mû par énergie électrique ou électromagnétique le compartiment sanguin est comprimé par le brusque rapprochement de deux bobines de fil conducteur au passage d'un courant.

Deuxième élément : des valves qui, à l'entrée et à la sortie de la chambre ventriculaire, assurent la progression du sang dans la bonne direction.

Troisième élément : le transformateur, implanté, convertit l'énergie électrique en une forme utilisable pour le pompage du sang. Ainsi, dans le modèle électrique, la rotation du moteur électrique génère un mouvement de trans-lation alternative dans un système de cames : la pièce rotative est munie de saillies qui, à chaque tour, soulèvent un levier s'appuyant sur elles. Ce levier adopte alors un mouvement de va-et-vient qui actionne le piston comprimant le compartiment sanguin.

Quatrième élément : la source d'énergie, toujours extracorporelle dans les modèles actuels. Il s'agit d'un compresseur dans les modèles pneumatiques, d'un moteur électrique ou de batteries dans les modèles centrifuge, électrique ou électromagnétique. Enfin, un système de régulation adapte le débit du sang aux besoins de l'organisme en oxygène. Ces besoins sont évalués par la mesure du débit du sang qui revient aux ventricules.

Parmi les dispositifs que nous venons de décrire, les ventricules extracorporels assurent une assistance de quelques semaines. La plupart fonctionnent à l'énergie pneumatique. En 1983, un premier malade était équipé d'un mono-ventricule pneumatique extracorporel par les professeurs Don Hill et John Farrar, au Medical Pacific Center de San Francisco. En 1986, un premier malade français a bénéficié d'un biven-tricule extracorporel, dans l'équipe d'Alain Carpentier. Ce patient, qui a pu être transplanté ultérieurement avec succès, vit encore aujourd'hui.

Le caractère extracorporel d'une partie de ces dispositifs les rend difficiles à supporter pour le malade. Le compresseur, volumineux 1 mètre de haut sur 0,60 mètre de large et autant de profondeur, est très peu mobile. Le patient doit rester hospitalisé jusqu'à ce qu'il soit greffé. Enfin, le risque infectieux n'est pas négligeable, du fait des canules qui traversent la peau. Le coût d'un ventricule pneumatique extracorporel varie de 100 000 à 250 000 francs, à quoi il faut ajouter le coût de la surveillance du malade pendant la durée de l'assistance.

Pour se rapprocher du véritable coeur artificiel Ñ entièrement implantable, biventriculaire et quasi définitif Ñ il fallait donc réduire l'encombrement des prothèses, en s'affranchissant de l'élément le plus volumineux : le compresseur. C'est pourquoi l'on s'est progressivement tourné vers des systèmes à énergie électrique, dont la source est facilement miniaturisable sous forme de piles.

Dans ces systèmes intracorporels , le ventricule artificiel gauche, presque toujours est implanté dans la paroi abdominale, tout comme le transformateur d'énergie. Il est branché en dérivation entre la pointe du ventricule natif gauche, qui reste en place, et l'aorte. Seuls sont déportés en dehors du corps le système de régulation et la source d'énergie. Celle-ci est constituée de batteries rechargeables, d'une autonomie d'environ quatre heures. Les batteries sont portées à la ceinture ou en bandoulière. Le malade peut donc se déplacer librement, l'énergie électrique étant transmise au ventricule artificiel par un câble électrique qui traverse la peau. Ces systèmes peuvent rester implantés plusieurs mois voire plusieurs années.

Deux modèles, tous deux américains, sont utilisés en clinique humaine : le ventricule Novacor de la compagnie Baxter et le ventricule TCI de Heartmate. Le système Novacor, dans sa version actuelle, a été implanté pour la première fois chez l'homme en 1993, dans le service de Daniel Loisance. Il s'agit d'un système électromagnétique : la chambre ventriculaire comporte une bobine de fil électrique à deux bras, reliés par des ressorts au compartiment sanguin constitué d'un sac en polyuréthane. Au passage d'un courant, les deux bras se rapprochent et les ressorts viennent comprimer le compartiment sanguin, éjectant un volume de 70 millilitres de sang. L'ensemble est encapsulé dans une enceinte rigide en époxy 16 cm de long sur 13 cm de large et 6 cm d'épaisseur, qui pèse 850 grammes.

Pour permettre le remplissage et le vidage du compartiment sanguin, l'intérieur de la chambre ventriculaire est mis en communication avec l'atmosphère extérieure par un conduit contenu dans le câble d'alimentation électrique. Un filtre, placé à l'interface avec la peau, assure la stérilité de l'air ainsi introduit. Cependant, le malade ne doit prendre ni bain, ni douche, afin d'éviter la pénétration de l'eau.

Le modèle électrique TCI, plus récent que Novacor, est en cours d'évaluation depuis dix-huit mois aux Etats-Unis. Il n'est pas encore utilisé en France. Dans ce système, le compartiment sanguin est comprimé par une membrane en polyuréthane recouverte de fibres de Dacron. Cette membrane est déplacée par un piston, lui-même animé par un moteur électrique via un système de cames. Le volume de sang éjecté à chaque cycle est de 80 millilitres. La surface du compartiment sanguin est recouverte de billes de titane. « Ce revêtement rugueux pourrait diminuer le risque de thrombose et d'embolie » indique le professeur Jean-Raoul Monties, de l'hôpital de La Timone à Marseille.

Au total, plus de 600 patients dans le monde ont été équipés de ces prothèses, dont environ 500 avec le système Novacor une quarantaine en France. Dans la moitié des cas, les malades ont pu être greffés par la suite, avec un taux de succès de 90 %. Dans l'autre moitié, malheureusement, les malades sont décédés des suites de leur maladie, le plus souvent au cours du premier mois après l'opération. Ces morts sont généralement imputables à une déchéance multi-organes liée à l'insuffisance cardiaque : reins, poumons et cerveau étaient déjà sévèrement atteints au moment de l'opération.

Mais les résultats sont parfois spectaculaires : grâce à leur ventricule artificiel, certains patients, jadis en situation désespérée, ont pu retourner vivre à leur domicile et poursuivre diverses activités. Certains vivent avec leur prothèse depuis maintenant plus de deux ans, recul maximal dont on dispose aujourd'hui. « Ces systèmes permettent une attente dédramatisée de la greffe , dit Daniel Loisance. En outre, le ventricule gauche malade semble capable de récupérer, au bout de plusieurs mois, chez 10 à 15 % des insuffisants cardiaques chroni-ques. Ces patients pourraient alors être sevrés de leur prothèse. »

Pour autant, ces substituts cardiaques ne sont pas sans défaut. Si les risques d'infection, de thrombose ou d'embolie sont de mieux en mieux maîtrisés, il n'en va pas de même des problèmes techniques. Ainsi, les ventricules électromagnétiques sont relativement bruyants. Curieusement, ce problème est mieux toléré par le malade lui-même que par son entourage. Autre problème : les valves utilisées, les sacs ventriculaires en plastique et les systè-mes de cames sont soumis à une usure importante. Leur fonctionnement est garanti deux ans, ce qui correspond à la durée maximale d'implantation actuelle. Passé ce délai, comment se comporteront ces systèmes ? Faudra-t-il remplacer certaines pièces défec-tueuses ?

D'autre part, le coût de ces appareillages est important : « Environ 1,5 million de francs, si l'on inclut l'installation et la surveillance d'une prothèse implantée en permanence » estime Jean-Raoul Monties. Néanmoins, ce coût serait comparable à celui de la prise en charge médicamenteuse des insuffisants cardiaques, selon Daniel Loisance.

Un progrès technique attendu est l'affranchissement du câble électrique transcutané. L'énergie des batteries sera transmise au système à travers la peau par induction électromagnétique. Un courant électrique alternatif passera à travers une bobine placée à l'extérieur du corps dans un appareil porté à la ceinture ; il y créera un champ magnétique dont la variation induira le passage d'un courant à travers une seconde bobine implantée dans l'abdomen en prolongement de la première bobine. D'autre part, comme on supprimera le câble transcutané permettant la communication de la chambre ventriculaire avec l'atmosphère extérieure, il faudra compenser autrement les variations de volume liées à la compression du compartiment sanguin. On envisage d'implanter dans le thorax une « chambre de compensation volumétrique » remplie de gaz, qui injectera à intervalles réguliers un volume de gaz équivalent au volume comprimé dans la chambre ventriculaire. Cependant, cette chambre augmentera l'encombrement de l'appareil. De plus, les chambres actuellement étudiées ne sont pas parfaitement étanches, ni imperméables aux gaz.

Si ces dispositifs deviennent opérationnels, on aura quasiment réussi à faire un coeur artificiel total. Il faudrait alors systématiser le substitut biventriculaire, et pas seulement monoventri-culaire. Il ne resterait plus ensuite qu'à parvenir à réaliser une source d'énergie implantable pour atteindre l'objectif.

La conception d'un coeur artificiel total se heurte encore à de nombreux problèmes. Pour Daniel Loisance, le premier d'entre eux est clinique3 : les indications respectives des systèmes actuels restent à préciser, en regard des besoins potentiels en coeurs artificiels. Par ailleurs, on ne dispose pas à l'heure actuelle de biomatériaux parfaitement inertes. La mise en place d'une prothèse s'accompagne toujours d'un risque de réactions locales ou générales telles que thrombose, embolie ou réaction inflammatoire. La miniaturisation des prothèses constitue un autre obstacle technologique : les systèmes actuels sont trop volumineux la chambre ventriculaire occupe environ 1 250 cm3 et trop lourds la chambre ventriculaire pèse environ 0,8 kg, le transformateur 0,8 kg, la batterie 1,2 kg. Quant à la mise au point d'un système de régulation capable d'adapter le débit sanguin à l'effort physique, à l'émotion ou à un accident, elle reste à réaliser.

Sur un autre plan, l'acceptation par la société des coeurs artificiels reste à conquérir. Leur coût important imposera en effet des choix délicats, relevant de l'économie autant que de l'éthique : comme dans toute médecine de pointe, la question se posera de savoir jusqu'où il faut aller dans la tentative de prolonger une existence menacée, et à quel prix.

Mais arrivera-t-on vraiment à réaliser le coeur artificiel total et, si oui, dans quel délai ? Les avis des spécialistes divergent. « D'ici 2 à 50 ans » répond, énigmatique, Alain Carpentier, qui étu-die depuis sept ans un projet de coeur artificiel total en partenariat avec un industriel français. « Pas avant l'an 2000, pour un ventricule artificiel permanent, et pas avant l'an 2010 pour un coeur artificiel total » renchérit Jean-Raoul Monties qui travaille sur un autre pro-jet. Daniel Loisance est plus réservé : « A mesure que les systèmes d'assistance ou de suppléance cardiaque actuels seront de mieux en mieux maîtrisés, et leurs indications de plus en plus précises, on découvrira peut-être que les besoins en ce véritable coeur artificiel sont limités, voire exceptionnels » .

Par Florence Rosier

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LA MÉMOIRE

 

LA  MÉMOIRE

Notre mémoire se structure en sous-systèmes regroupant, chacun, des souvenirs différents. Le modèle le plus courant consiste à les distinguer en fonction de la durabilité des souvenirs.

Mémoire à court terme

Appelée également mémoire de travail, elle a une capacité limitée : elle permet de conserver un petit nombre d'items en tête pendant quelques dizaines de secondes. Cette forme de mémoire permet la répétition immédiate d'une information - un numéro de téléphone par exemple -, qui peut parfois être « manipulée », pour faire du calcul mental.

Mémoire à long terme

Elle permet de conserver durablement des informations pendant des jours, voire des années. Elle est subdivisée en quatre formes de mémoire différentes : la mémoire épisodique, sémantique, perceptive et procédurale.

1 Mémoire épisodique

Elle conserve les événements personnellement vécus par l'individu, ainsi que leur contexte date, émotions.... Elle donne au sujet l'impression de revivre l'événement initial.

2 Mémoire sémantique

Elle permet le stockage des connaissances générales sur le monde et sur soi profession, taille, âge, etc.. Elle conserve également tout ce qui se rapporte au langage.

3 Mémoire perceptive

Elle conserve les informations apportées par les sens sur la forme des objets, leur texture, leur odeur, et est souvent sollicitée à l'insu du sujet, de façon automatique.

4 Mémoire procédurale

Elle enregistre les gestes dont l'utilisation devient automatique au fil du temps faire ses lacets, conduire une voiture, etc., ainsi que les procédures mentales protocole pour résoudre un problème de mathématiques, par exemple.


  DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

CERVEAU - SOUVENIRS

 

Neuro-modelage des souvenirs


la mémoire et l'oubli - par Serge Laroche dans mensuel n°344 daté juillet 2001 à la page 20 (3412 mots) | Gratuit
Comment les neurones parviennent-ils à enregistrer nos souvenirs de façon durable ? Les controverses sont vives. Néanmoins, le puzzle se constitue peu à peu autour d'une pièce centrale : la plasticité du cerveau. Variation de l'activité de certaines synapses, croissance de nouvelles d'entre elles, et peut-être même formation de nouveaux neurones semblent impliquées dans la formation de traces mnésiques au niveau cellulaire.

Plusieurs centaines de milliards de neurones, chacun relié directement à dix ou vingt mille autres neurones par des connexions appelées synapses : voilà la formidable machine de plus d'un million de milliards de connexions qui nous permet de percevoir, de construire nos souvenirs, mais aussi de savoir, de croire, de décider et d'agir.

La clé de ses capacités réside en une propriété étonnante : celle de pouvoir remodeler, reconfigurer ses propres circuits. A cette aune, qu'est-ce que la mémoire ? Le modèle général considère qu'à chaque souvenir correspondrait une configuration unique d'activité dans de vastes réseaux neuronaux. Or, on sait depuis longtemps que cette activité est, par nature, évanescente. Elle ne peut donc constituer une trace stable à long terme, compatible avec la quasi-permanence des souvenirs. Alors, comment ceux-ci s'inscrivent-ils ? Quelle est leur trace matérielle ?

L'idée d'une reconfiguration des circuits neuronaux naît en 1894, lorsque le neuroanatomiste Santiago Ramón y Cajal propose, au cours d'une conférence à la Royal Society de Londres, une hypothèse révolutionnaire : l'apprentissage faciliterait l'expansion et la croissance de protubérances - elles allaient bientôt s'appeler les synapses - qui connectent les neurones entre eux. Cette première formulation du concept de plasticité neuronale est, à l'époque, d'autant plus frappante que les études anatomiques du cerveau et de son développement révèlent la précision et la stabilité des assemblages neuronaux. Sans arguments expérimentaux directs, les positions théoriques s'affrontent entre les tenants de l'hypothèse de la plasticité et ceux qui, comme Lorente de Nó, un élève de Cajal, et Deslisle Burns, prônent une conception plus dynamique impliquant la circulation en boucle de l'activité neuronale dans des chaînes de neurones. En 1949, le psychologue canadien Donald Hebb énonce une hypothèse forte, qui permet de concilier les deux points de vue. Hebb propose que l'activité électrique que l'on observe dans des assemblées de neurones lors d'un apprentissage persiste pendant un certain temps, comme pour frayer un chemin, et que cela entraîne des modifications cellulaires ou biochimiques des neurones activés, de sorte que la force synaptique entre eux augmente. Un demi-siècle après la publication de l'ouvrage de Hebb, le postulat selon lequel l'activité simultanée de neurones connectés modifie les connexions synaptiques entre ces neurones est devenu la pierre angulaire de notre compréhension des bases cellulaires de la mémoire.

Mais un postulat n'a pas force de théorème. Comment prouver la réalité de cette plasticité ? Un premier argument en sa faveur est venu de l'étude de formes simples d'apprentissage en l'occurrence, du conditionnement chez un mollusque marin, l'aplysie. En 1970, Eric Kandel et ses collaborateurs mettent en évidence des changements fonctionnels des synapses de l'aplysie, corrélativement à cet apprentissage1. Ces résultats ne devaient trouver leur pendant chez les mammifères qu'en 1973. Timothy Bliss et Terje Lømo démontrent alors, en travaillant sur des lapins, l'extraordinaire capacité de plasticité des synapses de l'hippocampe - structure qui joue un rôle fondamental dans de nombreux types de mémoire voir l'article de Bruno Poucet dans ce numéro. Cette plasticité est désormais connue sous le nom de potentialisation à long terme, ou LTP2. Dans leur découverte initiale, les auteurs montrent qu'une brève stimulation à haute fréquence d'une voie neuronale envoyant des informations sensorielles du cortex à l'hippocampe, induit une augmentation importante et durable de l'efficacité de la transmission synaptique : les neurones cibles de l'hippocampe acquièrent une plus grande sensibilité à toute stimulation ultérieure. Le plus remarquable dans cette forme de plasticité, induite en quelques dizaines de millisecondes, est sa persistance : les synapses restent modifiées pour des semaines, voire des mois. Cette découverte suscita un enthousiasme considérable dans la communauté scientifique. Avait-on là le mécanisme du stockage de l'information dans le cerveau, que l'on cherchait depuis l'énoncé de la théorie de Hebb ? En étudiant les mécanismes de la LTP au niveau cellulaire, allait-on découvrir les mécanismes de la mémoire ? Cela semblait plausible à de nombreux chercheurs. Dès lors, un très grand nombre d'équipes ont orienté leurs travaux vers l'étude de ce modèle de plasticité.

Mécanismes de plasticité. Un premier courant, de loin le plus important en efforts de recherche, se penchait sur les mécanismes de la LTP au niveau cellulaire et moléculaire3. Les synapses concernées par le phénomène de plasticité utilisent le glutamate comme neuromédiateur. On en trouve dans l'hippocampe, bien sûr, mais aussi dans la plupart des structures corticales et sous-corticales du cerveau. Pour que ces synapses puissent être modifiées, il est impératif qu'elles soient d'abord activées, soit, en d'autres termes, que l'influx nerveux qui arrive au niveau du neurone présynaptique se propage au neurone post-synaptique. C'est le récepteur AMPA du glutamate qui permet la propagation de cet influx nerveux fig. 1. Si le neurone post-synaptique est suffisamment activé, un second récepteur jusqu'alors inactif, le récepteur NMDA, subit une modification qui fait que sa stimulation par le glutamate entraîne l'entrée de calcium dans la cellule. En découle l'activation de nombreuses protéines, en particulier des kinases* dont la calmoduline-kinase II CaMK II et les MAP kinases. Au moins deux types de mécanismes sont alors déclenchés : la phosphorylation* des récepteurs du glutamate tant NMDA que AMPA, et l'activation de la machinerie génique. Ainsi qu'on peut le voir en microscopie électronique, ces modifications aboutissent à un profond remodelage des circuits neuronaux : changement de la forme et de la taille des synapses, insertion de récepteurs du glutamate et transformation de synapses silencieuses en synapses actives, et croissance de nouvelles synapses.

Comment mettre à jour l'hypothétique lien entre plasticité synaptique et processus d'apprentissage et de mémorisation ? Le chemin était difficile, et l'histoire, encore jeune, de ces recherches est jalonnée de constantes fluctuations entre le rejet et l'acceptation de l'hypothèse. Toutefois, les connaissances sur les mécanismes moléculaires de la mémoire ont progressé ces dix dernières années à un rythme étonnant, et de plus en plus de résultats montrent que ces mécanismes de plasticité sont un élément déterminant du stockage des souvenirs.

Dans les années 1980, plusieurs laboratoires ont étudié des formes simples d'apprentissage associatif chez le rat, comme l'association d'un son avec un léger choc électrique. Après une certaine période de conditionnement, l'animal réagit au son seul comme il réagissait au choc électrique. Parallèlement, les neurones de nombreuses structures, y compris l'hippocampe, présentent une augmentation importante et sélective de leur fréquence de décharge. De plus, l'efficacité de la transmission synaptique dans les circuits de l'hippocampe augmente parallèlement aux progrès de l'apprentissage. Mais ces données n'ont qu'une valeur de corrélation, et ne sont pas la preuve d'une relation de cause à effet. Sans compter que les variations d'efficacité synaptique pen-dant l'apprentissage sont techniquement difficiles à mettre en évidence, car la transmission synaptique moyenne sur une large population de neurones reste relativement constante. De fait, des données suggèrent que le renforcement de certaines populations de synapses s'accompagne de l'affaiblissement d'autres. Ceci n'est pas si surprenant : comment concevoir que l'efficacité de très nombreuses synapses augmente chaque fois que l'on apprend ? Un tel système serait probablement très vite saturé. La dépression à long terme LTD, un mécanisme de plasticité inverse de la LTP que l'on peut observer dans certaines conditions d'activation synaptique, interviendrait-elle à ce niveau en évitant la saturation du système d'encodage et en augmentant le contraste entre synapses potentialisées et déprimées ? Ou jouerait-elle un rôle dans l'oubli comme le prédisent certains modèles théoriques ? Si des modifications synaptiques de type LTP ou LTD ont pu être observées dans différentes structures du cerveau en fonction de l'information à mémoriser, une analyse précise nécessitera le développement de nouvelles méthodes électro-physiologiques permettant d'isoler de petites populations de synapses.

La pharmacologie et la génétique ont apporté des réponses là où l'électrophysiologie se heurtait à ses limites. Le blocage de la LTP, obtenu en faisant appel à des techniques relevant de l'un ou l'autre de ces deux domaines, modifie-t-il les capacités d'apprentissage d'un animal ? A la fin des années 1980, le groupe de Richard Morris à Edimbourg montre que l'administration à des rats d'un antagoniste* des récepteurs NMDA, qui bloque la plasticité des synapses sans perturber la transmission des messages neuronaux assurée par le récepteur AMPA, rend ces animaux incapables d'apprendre une tâche de navigation spatiale. A mesure que les doses d'antagoniste augmentent, la plasticité synaptique diminue, et les déficits mnésiques se renforcent4. De notre côté, nous constations qu'en présence d'un antagoniste des récepteurs NMDA les neurones de l'hippocampe ne modifient plus leur activité pendant un apprentissage associatif, suggérant que ces mécanismes de plasticité sont nécessaires à la construction d'une représentation neuronale de l'information à mémoriser. Et, alors que l'équipe de Bruce McNaughton à Tucson montrait que la saturation de la LTP dans l'hippocampe par de multiples stimulations électriques perturbait l'apprentissage spatial, l'enthousiasme pour considérer que la LTP représentait un modèle des mécanismes de l'apprentissage grandissait. Mais le scepticisme quant au rôle de la LTP dans la mémoire s'installa de nouveau lorsque plusieurs équipes ne purent reproduire ce résultat. Il a fallu plusieurs années pour inverser la tendance et montrer que l'on observe un réel déficit mnésique pour peu que l'on s'approche autant que possible de la saturation maximale de la LTP, saturation qui empêche les synapses d'être modifiées pendant l'apprentissage.

Une autre approche déterminante a consisté à d'abord rechercher les mécanismes biochimiques et moléculaires de la mémoire, puis à voir s'ils étaient similaires à ceux de la plasticité. Les premières études que nous avons réalisées avec Tim Bliss au milieu des années 1980 ont ainsi mis en évidence une augmentation de la capacité de libération synaptique du glutamate dans différentes régions de l'hippocampe après un apprentissage associatif, par des mécanismes neurochimiques identiques à ceux de la LTP. Ces résultats ont été confirmés lors de la réalisation d'autres tâches d'apprentissage, comme l'apprentissage spatial. Nombre d'autres études ont montré que la phosphorylation de différentes kinases ou l'augmentation de la sensibilité des récepteurs du glutamate - ainsi que d'autres mécanismes cellulaires impliqués dans la LTP - sont activées lorsqu'un animal apprend5. Et inversement le blocage de ces événements biochimiques perturbe invariablement l'apprentissage.

Apports très récents. Plus récemment, les techniques de modification génique chez la souris ont permis d'apporter des réponses encore plus démonstratives. D'un grand nombre d'études il ressort que l'inactivation génétique de molécules importantes pour la plasticité perturbe corrélativement l'apprentissage. Des souris chez lesquelles les neurones de certaines zones de l'hippocampe n'expriment pas le récepteur NMDA se sont révélées particulièrement riches en enseignements. Chez ces souris, la LTP est abolie dans la région hippocampique concernée, la stabilité des cellules de lieu est altérée voir l'article de Bruno Poucet dans ce numéro et les animaux présentent corrélativement des déficits importants de mémoire spatiale6. Inversement, en augmentant, chez d'autres souris, l'expression d'un gène qui code une protéine du récepteur NMDA, l'équipe de Joe Tsien à Princeton a observé de nettes améliorations des performances mnésiques dans de nombreuses tâches d'apprentissage7. Au vu de ces résultats, il semble indéniable que le récepteur NMDA est un acteur clé de la mémoire. Mais, de façon surprenante, les déficits mnésiques observés chez les souris dépourvues de récepteur NMDA peuvent être compensés par une période d'élevage dans un environnement riche en stimulations sensorielles8 voir l'article de Claire Rampon. S'agit-il de la compensation de mécanismes moléculaires défectueux par d'autres ? La fonction déficiente est-elle prise en charge par d'autres circuits ? Il est encore trop tôt pour le dire, mais ce type de données montre qu'on ne saurait restreindre les capacités mnésiques d'un animal à la présence du récepteur NMDA dans telle zone du cerveau.

L'idée que la mémorisation repose sur des modifications synaptiques implique que ces modifications soient stabilisées et consolidées. Comment peuvent-elles perdurer en résistant au renouvellement des molécules de la cellule ? On a constaté que l'administration d'inhibiteurs de la synthèse protéique pendant l'apprentissage perturbe la mémoire à long terme sans altérer la mémoire à court terme. Il semble donc que ces deux types de mémoires reposent sur des mécanismes biologiques distincts - la mémoire à long terme requérant la synthèse de protéines. On observe du reste une dichotomie analogue dans la plasticité synaptique, dont seule la phase durable nécessite l'apport de nouvelles protéines. Déduction logique : les mécanismes de plasticité neuronale et de consolidation mnésique impliquent très probablement des régulations de gènes. C'est au début des années 1990 que les premières évidences en la matière ont été mises à jour : l'induction de la LTP dans l'hippocampe conduit à l'activation de gènes dans le noyau des neurones activés. Ces régulations transcriptionnelles commencent par l'activation rapide en quelques dizaines de minutes et transitoire jusqu'à quelques heures d'une classe de gènes appelés « gènes précoces ». Certains d'entre eux codent des protéines qui agissent directement au niveau de la synapse. Mais une fraction importante, dont fait partie le gène zif268 , code des facteurs de transcription nucléaires modifiant l'expression d'autres gènes appelés, eux, effecteurs tardifs5,9. La réponse transcriptionnelle globale se traduit, sur plusieurs jours, par des vagues successives d'expression de différents gènes. Par exemple, l'expression des kinases est augmentée dans une fenêtre temporelle de quelques heures à un jour, alors que les récepteurs du glutamate sont, quant à eux, surexprimés entre 2 et 4 jours après l'induction de la LTP.

Commutateur moléculaire. Ce sont les kinases activées par l'entrée de calcium induite par la stimulation du récepteur NMDA, et en particulier les MAP kinases, qui sont à l'origine de l'expression des gènes précoces. Une fois phosphorylées, ces kinases activent des facteurs de transcription tels que CREB, qui se fixent sur des sites spécifiques de promoteurs de gènes dans le noyau et modifient leur expression10. Plusieurs études montrent que ces mécanismes jouent un rôle important dans la mémoire : les MAP kinases sont rapidement phosphorylées lors de l'apprentissage et le blocage de leur phosphorylation pendant l'acquisition perturbe l'apprentissage. L'activation des gènes précoces serait, quant à elle, l'étape cruciale permettant le déroulement complet du programme cellulaire de transcription génique qui entraîne une modification durable de la connectivité neuronale. Les groupes d'Alcino Silva et d'Eric Kandel ont, par exemple, montré que l'inactivation génétique de CREB chez des souris mutantes conduit à un déclin rapide de la LTP hippocampique et à des déficits de mémoire dans de nombreuses tâches11,12. En collaboration avec Tim Bliss, nous avons montré que, chez des souris mutantes chez lesquelles le gène zif268 est invalidé, les neurones de l'hippocampe conservent leurs propriétés de plasticité, mais à court terme seulement. Corrélativement, seule la mémoire à court terme des souris mutantes est intacte : elles sont incapables de retenir une information au-delà de quelques heures dans des tâches de mémorisation de l'espace, de reconnaissance d'objets familiers ou des tests de mémoire olfactive ou gustative. Ainsi, les gènes précoces tels que zif268 joueraient-ils le rôle de commutateurs moléculaires permettant d'enclencher les changements synaptiques durables nécessaires à la formation de souvenirs à long terme13.

Nouveaux neurones. Le fait que les activations de gènes, et donc la synthèse de protéines, soient d'une telle importance lors de la LTP et de l'apprentissage a soulevé un autre problème : comment les nouvelles protéines synthétisées pouvaient-elles être dirigées vers les synapses activées, et seulement elles, sans être distribuées à toutes les synapses d'un neurone ? La question paraissait si difficile qu'on était amené à penser que la plasticité ne serait peut-être qu'un mécanisme non spécifique de facilitation globale de circuits. Mais, en 1997, Uwe Frey et Richard Morris démontrent par élimination de différentes hypothèses que le seul mécanisme possible est le marquage des synapses activées, marquage qui différencierait ces synapses des synapses non activées, et leur permettrait de « capter » les protéines nouvellement synthétisées14. La nature de ce marqueur est, pour l'heure, inconnue. La découverte d'ARN messagers et de ribosomes dans les dendrites, alors qu'on les pensait cantonnés au corps cellulaire du neurone, a, elle aussi, révolutionné l'approche du mécanisme de modification des synapses. Certains ARN messagers, comme celui qui code la kinase CaMKII, ont une expression dendritique qui augmente fortement dans la demi-heure qui suit l'induction de la plasticité et l'apprentissage. Il semble que ces ARNm migrent le long des dendrites, et soient capturés par les ribosomes qui se trouvent à proximité immédiate des synapses activées - mais pas par ceux qui se trouvent à proximité des synapses inactives fig. 2. Il n'est donc pas impossible que la synthèse locale de protéines soit un mécanisme important assurant la spécificité de la plasticité synaptique et du frayage neuronal.

Qui dit souvenirs à long terme, dit stabilisation de tout un relais synaptique. La plasticité se propage-t-elle dans des réseaux de neurones interconnectés ? On relève, là encore, l'importance des régulations de gènes. Prenons l'exemple du gène de la syntaxine, une protéine qui intervient dans la libération du neuromédiateur. Nous savions déjà que, après l'induction de la LTP, son expression augmente pendant plusieurs heures dans les neurones postsynaptiques d'une zone de l'hippocampe appelée gyrus denté. Une fois synthétisée, la protéine migre vers l'extrémité axonale de ces neurones, extrémité qui se trouve dans une autre zone de l'hippocampe, la zone CA3. Là, elle favorise la libération synaptique de glutamate, donc l'activation d'autres neurones, et l'induction d'une LTP à leur niveau. Il apparaît que la régulation de l'expression de la syntaxine intervient également lors d'un apprentissage. Lors d'une tâche de mémoire spatiale, son expression augmente non seulement dans les neurones de l'hippocampe, mais aussi dans des régions du cortex préfrontal15, ce qui suggère le frayage de réseaux neuronaux, en partie par son intermédiaire, lors de la mémorisation.

Comme on l'a vu, les recherches actuelles montrent que les expériences sensorielles laissent des traces dans le cerveau en modifiant l'efficacité des synapses entre neurones et en créant de nouvelles synapses. Et si de nouveaux neurones se créaient aussi ? Impossible, aurait-on dit, il y a encore peu de temps. Nous perdons des neurones en permanence parce que les neurones qui meurent continuellement dans le cerveau adulte ne sont pas remplacés, ce qui est probablement l'une des causes majeures de nombreux désordres neurologiques. Pourtant, des travaux de Joseph Altman à la fin des années 1960 suggéraient que de nouveaux neurones étaient générés dans le gyrus denté de l'hippocampe pendant la vie postnatale et chez le jeune adulte. D'autres travaux montraient aussi une neurogenèse dans certaines régions cérébrales impliquées dans la mémoire des chants chez les canaris. Ces recherches sont longtemps restées dans l'ombre car elles semblaient n'être que des exceptions face au dogme prévalent. Mais, en 1998, Elizabeth Gould et son équipe démontrent qu'une neurogenèse se produit dans le gyrus denté chez le singe adulte et, la même année, Freg Gage au Salk Institute en Californie et ses collègues suédois de l'université de Göteborg observent le même phénomène chez l'homme en étudiant les cerveaux de patients âgés de 57 à 72 ans16I. Ces nouveaux neurones sont produits à partir d'une population de cellules progénitrices qui migrent dans le gyrus denté et se différencient en neurones. D'autres études ont montré que cette neurogenèse chez l'adulte se produit aussi dans des régions corticales. Quel pourrait être le rôle fonctionnel de ce nouveau type de plasticité ? S'agit-il d'un mécanisme de remplacement compensant partiellement les pertes neuronales ou a-t-il un rôle spécifique dans certaines fonctions cognitives ? En ce qui concerne l'apprentissage, deux études viennent de montrer, d'une part, qu'il augmente la survie des nouveaux neurones formés dans le gyrus denté17 et, d'autre part, qu'il est perturbé lorsque l'on empêche la neurogenèse chez le rat adulte18 fig. 3. Peut-on en conclure qu'apprendre, c'est aussi former de nouveaux neurones et que ces nouveaux neurones sont impliqués dans le codage de l'information qui vient d'être apprise ? Peut-on imaginer faciliter ces mécanismes de neurogenèse pour tenter de compenser les déficits mnésiques associés à certaines maladies neurodégénératives ? Il est encore beaucoup trop tôt pour le dire.

Ouverture. De tous ces résultats fondamentaux, commencent à émerger, çà et là, des embryons d'explications quant aux mécanismes cellulaires de certaines pathologies de la mémoire, comme le syndrome de l'X fragile la plus commune des formes héréditaires de retard mental ou la maladie d'Alzheimer. Par exemple, chez des souris qui surexpriment la protéine APP* et présentent des signes neuropathologiques de la maladie d'Alzheimer, on observe, associée aux déficits mnésiques, une altération de la plasticité synaptique dans l'hippocampe19. Si les connaissances qui s'accumulent sur la plasticité synaptique constituent l'une des pierres de ce qui sera, un jour, une réelle théorie de la mémoire, elles pourraient donc aussi, à échéance peut-être plus courte, favoriser l'émergence de nouvelles pistes thérapeutiques pour compenser certains dysfonctionnements de la mémoire.

Par Serge Laroche

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

UN PACEMAKER POUR LE CERVEAU

 


MÉDECINE
Un pacemaker pour le cerveau


médecine - par Émile Gillet dans mensuel n°374 daté avril 2004 à la page 42 (1820 mots) | Gratuit
En biologie, stimulation électrique égale excitation. Pourtant, il y a une quinzaine d'années, des neurochirurgiens français ont découvert qu'avec des électrodes il est possible de désactiver les zones du cerveau responsables des symptômes de la maladie de Parkinson. Quelle est l'explication du phénomène ? Chaque équipe y va de sa théorie.

Le patient est sous anesthésie locale. À l'aide d'un arsenal d'images cérébrales, les neurochirurgiens localisent l'une des zones du cerveau responsables des symptômes de sa maladie de Parkinson : les noyaux subthalamiques*. Ils percent maintenant la boîte crânienne pour y insérer des tubes. En s'aidant de ces tubes, ils placent des électrodes de 1,3 millimètre de diamètre dans une zone pas plus grande qu'un grain de riz. Il ne reste plus qu'à relier les électrodes à un stimulateur électrique semblable à un pacemaker : de la taille d'un paquet de cigarettes, il est implanté sous la peau, au niveau de la clavicule.

« Lorsque le stimulateur délivre ses impulsions électriques, l'effet est spectaculaire : les symptômes de la maladie de Parkinson disparaissent », explique Alim-Louis Benabid qui, avec Pierre Pollak et leur équipe du CHU de Grenoble, est à l'origine de la découverte. « Plus de rigidité musculaire, poursuit-il, tremblements atténués : le patient n'éprouve plus les mêmes difficultés d'exécution de mouvements. Mais si l'on débranche le stimulateur, les symptômes de la maladie réapparaissent presque immédiatement. »

À l'origine de cette spectaculaire opération, une observation, à la fin des années quatre-vingt. Lors d'une intervention en vue de faire une lésion dans le thalamus* chez un patient souffrant de tremblements, l'équipe du professeur Benabid a observé qu'une stimulation électrique à haute fréquence plus de 100 Hz, soit 100 impulsions par seconde de cette zone cérébrale avait un effet inhibiteur : les tremblements se sont immédiatement arrêtés [1]. Tout le contraire de l'effet excitateur attribué aux stimulations électriques souvenez-vous des expériences sur les muscles de grenouille, au lycée ! Cette observation a laissé penser qu'une stimulation électrique pouvait avoir les mêmes effets qu'un ancien traitement neurologique : la destruction de structures cérébrales.

L'espoir d'un traitement « miracle »

Avant 1950, en effet, la destruction des noyaux thalamiques était le traitement de référence dans la maladie de Parkinson. Mais cette technique était risquée. On pouvait craindre, par exemple, des accidents vasculaires au niveau de la lésion, avec pour conséquence pour le patient de brusques mouvements affectant une moitié du corps. Par ailleurs, les effets d'une destruction s'estompent avec le temps. « Une réorganisation des neurones peut avoir lieu à proximité de la zone cérébrale détruite, conduisant à la réapparition des symptômes », explique Yves Agid, chef du service de neurologie de l'hôpital de la Pitié-Salpêtrière. Aussi, la technique a-t-elle été abandonnée avec la découverte de la lévo-dopa au début des années soixante.

Quelle est cette molécule ? La lévo-dopa qui reste à ce jour le principal traitement de la maladie est un précurseur* de la dopamine. Elle permet de suppléer la baisse de production de ce neuromédiateur* par les neurones, l'une des caractéristiques de la maladie de Parkinson. « Mais si ce médicament contrôle de façon remarquable la triade de symptômes parkinsoniens rigidité musculaire, tremblements et difficulté d'exécution de mouvements, il a aussi, après plusieurs années, des effets secondaires chez certains malades : leurs membres sont agités par des mouvements anormaux involontaires », précise Alim-Louis Benabid. Cet effet secondaire serait dû à une modification de la sensibilité à la dopamine de certaines régions cérébrales, ce qui perturbe deux autres neuromédiateurs impliqués dans le contrôle du mouvement. Par ailleurs, l'efficacité de la lévo-dopa diminue elle aussi avec le temps. À long terme, elle n'est donc pas le traitement « miracle » de la maladie.

Revenons à la stimulation électrique : lorsque l'observation d'Alim-Louis Benabid et de Pierre Pollak a été publiée, c'est un nouvel espoir qui a conduit plusieurs équipes de neurochirurgiens à explorer cette piste.

Techniquement, peu d'obstacles se sont présentés : « Tout le matériel nécessaire avait déjà été mis au point dans le cadre du traitement expérimental de la douleur par excitation des nerfs périphériques ou de la moelle épinière », raconte Yves Agid. En revanche, la connaissance des mécanismes cérébraux de la maladie de Parkinson faisait cruellement défaut.

Au début des années quatre-vingt-dix, des études conduites à l'université Johns Hopkins, aux États-Unis, ainsi qu'à Bordeaux par Jean Feger et Abdelhamid Benazzouz, ont indiqué que la destruction des noyaux subthalamiques supprimait la triade de symptômes de Parkinson chez des singes malades [2]. Or, dans sa première expérience, l'équipe du CHU de Grenoble avait montré que la stimulation du thalamus permettait seulement de diminuer les tremblements.

En 1993, les neurochirurgiens grenoblois ont apporté la preuve qu'une stimulation à haute fréquence des noyaux subthalamiques permettait de redonner une motricité à des parkinsoniens gravement atteints [3]. En stimulant cette cible, on observe la disparition simultanée et quasi totale des symptômes. Exactement comme si la stimulation permettait de passer outre la déficience en dopamine dans cette zone du cerveau.

Plusieurs équipes ont emboîté le pas aux Grenoblois. Dès la fin des années quatre-vingt-dix, l'opération a été pratiquée expérimentalement dans une dizaine de centres en France, comme à l'hôpital Henri-Mondor de Créteil ou à celui de la Pitié-Salpêtrière à Paris, ainsi que dans deux établissements aux États-Unis.

Aujourd'hui, les neurochirurgiens maîtrisent bien cette opération. Mais la pose des électrodes n'en reste pas moins une opération longue et fastidieuse. Elle dure en général une douzaine d'heures. Le chirurgien doit positionner les électrodes selon la morphologie du cerveau de chaque patient. C'est pourquoi l'intervention se déroule sous anesthésie locale seulement : le patient peut à tout moment indiquer d'éventuels effets indésirables comme des fourmillements ou des contractions musculaires involontaires. Le chirurgien affine alors le positionnement. « Nous devons ensuite adapter l'intensité et la fréquence des impulsions électriques délivrées par le stimulateur en général autour de 130 Hz en fonction de chaque patient », précise Pierre Pollak.

Soulagement durable

À ce jour, plus de 250 patients ont été implantés par l'équipe du CHU de Grenoble. Ce sont désormais 300 patients par an qui sont opérés en France par 18 centres hospitaliers.

En novembre 2003, une étude rétrospective 49 patients suivis sur cinq ans a confirmé le bien-fondé de cette approche [4] : les symptômes restent atténués durant les périodes où la lévo-dopa ne permet plus leur maîtrise, et ce bénéfice se maintient à long terme. « La stimulation électrique a les mêmes effets que la lévo-dopa sans les effets secondaires et sans baisse d'efficacité », commente Pierre Pollak, principal auteur de cette étude. Un quart des patients a même cessé tout traitement à la lévo-dopa.

Le chercheur nuance cependant les résultats : « L'intégralité des symptômes n'a pas été améliorée. Plusieurs patients ont eu de plus en plus de mal à garder leur équilibre. Chez d'autres, ce sont des troubles de la parole ou des difficultés à marcher qui sont apparus. » Il faut l'admettre, la stimulation électrique n'empêche pas l'évolution naturelle de la maladie.

Bien que l'opération soit pratiquée de façon quasi routinière aujourd'hui, le mécanisme d'action de la stimulation électrique reste encore mal compris. Principale interrogation : pourquoi la destruction chirurgicale et la stimulation à haute fréquence des zones subthalamiques ont-elles des résultats comparables ? Les tentatives d'explication sont nombreuses. Elles reposent toutes sur des enregistrements électriques de l'activité neuronale, mais ceux-ci sont difficiles à interpréter en raison d'un bruit de fond important lors des stimulations. Sur la question de cette interprétation, chaque équipe y va de son hypothèse.

L'équipe du CHU de Grenoble pense que les messages qui sortent des noyaux subthalamiques stimulés ne seraient plus compris – ni donc pris en compte – par les autres zones cérébrales impliquées dans le contrôle des mouvements [5]. L'électrostimulation aurait donc pour effet de perturber le message électrique. Pour des physiologistes de l'université de Toronto, au Canada, la stimulation « étoufferait » au contraire le message défectueux : elle exciterait des fibres inhibitrices qui, à leur tour, empêcheraient les noyaux subthalamiques d'envoyer leurs messages [6]. Selon une troisième hypothèse, formulée par Abdelhamid Benazzouz, au-dessus d'une certaine fréquence la stimulation arrêterait directement toute production de message électrique [7].

Ces trois hypothèses semblent assez proches mais, en réalité, elles n'impliquent pas les mêmes mécanismes d'inhibition. Dernière hypothèse en date, celle de l'équipe de Constance Hammond, de l'Institut de neurobiologie de la Méditerranée à Marseille [fig.1] : il y aurait une combinaison de ces différents effets, et la stimulation permettrait de piloter l'activité des neurones subthalamiques [8]. « La stimulation électrique, à condition d'avoir une fréquence supérieure à 100 Hz, efface l'activité défectueuse des noyaux subthalamiques et la remplacerait par une activité thérapeutique », avance-t-elle.

Pour parvenir à cette explication, une équipe du CNRS de Bordeaux, en collaboration avec l'équipe marseillaise, a mis au point un système d'enregistrement in vitro de l'activité des neurones qui supprime les artefacts dus à la stimulation électrique.

Lutter contre les TOC

Comment obtenir une explication définitive ? Ce ne sera possible qu'avec un enregistrement in vivo et sans artefact de l'activité des neurones des noyaux subthalamiques. Sans attendre ce jour, et sachant que l'implantation des électrodes est réversible, les médecins ont tenté d'appliquer l'électrostimulation à haute fréquence à d'autres désordres neurologiques.

En 2002, les médias ont porté leur attention sur son application aux troubles obsessionnels compulsifs* TOC, qui avait alors enregistré deux résultats importants. À l'hôpital de la Pitié-Salpêtrière à Paris, Yves Agid et Luc Mallet ont observé par hasard, chez deux patients traités pour la maladie de Parkinson et souffrant par ailleurs de TOC, que les obsessions avaient considérablement diminué après l'opération [9]. Au même moment, Volker Sturm, neurochirurgien à l'université de Cologne, en Allemagne, a présenté des résultats préliminaires encourageants sur l'amélioration des conditions de vie de trois patients implantés pour traiter leurs TOC. En France, ces travaux ont reçu un avis favorable de la part du Comité consultatif national d'éthique, saisi en octobre 2001 par Alim-Louis Benabid. Aux États-Unis, trois équipes viennent de se lancer dans cette voie de recherche.

L'électrostimulation appliquée à d'autres structures cérébrales a aussi été envisagée contre l'épilepsie ou la migraine. L'an dernier, par exemple, l'équipe de Giovanni Broggi, de l'institut Carlo Besta de neurochirurgie, à Milan, a obtenu des résultats chez cinq patients atteints de migraines et qui ont été stimulés au niveau de l'hypothalamus postérieur [10] : ils ont vu diminuer la fréquence et l'intensité de leurs crises. Enfin, à Montpellier, l'équipe de Philippe Coubes a opéré 86 patients atteints de dystonies* : leur qualité de vie a été améliorée de façon quantifiable entre un et deux ans après l'opération [11]. E. G.

EN DEUX MOTS La stimulation électrique du cerveau permet d'obtenir une amélioration spectaculaire des symptômes chez les personnes atteintes de la maladie de Parkinson. Découverte de façon fortuite il y a une quinzaine d'années, cette technique a fait ses preuves dans le traitement des troubles du mouvement. Trois cents personnes, en France, en bénéficient maintenant chaque année. En variant les structures cérébrales stimulées, les médecins ont bon espoir de pouvoir traiter durablement d'autres affections neurologiques, comme l'épilepsie ou les troubles obsessionnels compulsifs.

Par Émile Gillet


DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 ] Précédente - Suivante
 
 
 
Google