ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

GÉNOME,POSTGÉNOME

 


Génome, postgénome


biologie - par Evelyn Fox Keller dans mensuel n°376 daté juin 2004 à la page 30 (3436 mots)
Les biologistes vivraient-ils, sous nos yeux, un changement de paradigme ? Le réductionnisme génétique qui a caractérisé la biologie du XXe siècle céderait la place à une vision plus globale de la cellule et de l'organisme. Un terrain sur lequel physiciens et informaticiens pourraient intervenir avec profit.

De nombreux pièges guettent les historiens du présent, le plus dangereux étant sans doute -et encore plus à une époque -comme la nôtre- que l'histoire avance bien plus vite qu'ils ne sont capables d'écrire. Il y a trois ans et demi, je publiais un livre où je tentais de retracer le chemin parcouru par le concept de gène, depuis l'époque de la redécouverte des lois de -Mendel, en 1900, jusqu'au séquençage du génome humain, en 2000. Le Siècle du gène célébrait la productivité du concept de gène tout au long du XXe siècle, et expliquait pourquoi il fallait poursuivre et entrer dans ce que j'appelais «le siècle au-delà du gène». J'entendais par là que, si le XXe siècle était le siècle du gène, le XXIe serait vraisemblablement celui de la génétique, ou plus exactement des systèmes génétiques.

La différence est de taille et mérite une explication. Pour moi, la génétique consiste en l'étude du fonctionnement de l'ADN dans la construction du phénotype, alors que les gènes sont les entités historiquement considérées comme porteuses de l'hérédité. Je considère la première comme les interactions biochimiques sous-tendant la construction des organismes vivants, et les seconds comme un schéma conceptuel hypothétique.

Le principal bagage historique du concept de gène -remonte à l'époque où les gènes étaient considérés comme les unités de base de la vie. Mais qu'est-ce qu'un gène? En réalité, les biologistes moléculaires emploient plusieurs définitions différentes, et de nombreuses variantes de celles-ci. Selon l'une de ces définitions, les gènes sont des parties spécifiques de l'ADN, transmis inchangés de génération en génération. Mais alors, quelles parties de l'ADN ? Celles qui codent les protéines? Ou bien aussi celles qui codent des ARN jamais traduits en protéines, mais essentiels à la régulation ?

Même si l'on considère qu'un gène est la séquence de codage correspondant à une protéine donnée, on se heurte encore à un problème: cette séquence, chez les organismes supérieurs, existe seulement sous forme d'ARN messager. Elle n'est pas présente telle quelle dans l'ADN. En effet, ce n'est que par l'épissage* correct de la molécule d'ARN dit prémessager, image de la portion d'ADN qui contient les fragments codants, qu'est construite cette molécule d'ARN messager. Plus subtil encore, le cas des protéines construites à partir d'ARN messagers spécifiquement modifiés à des stades de développement particuliers. En effet, on ne peut trouver pour ces protéines aucune séquence correspondante sur l'ADN, même en prenant en compte le phénomène d'épissage. Ainsi, quand nous demandons combien de gènes compte le génome humain, la réponse dépendra de la définition à laquelle on se réfère.

Donner vie au génome

Contrairement au gène, nous savons ce qu'est l'ADN: nous pouvons «épeler» sa séquence, et en observer la remarquable stabilité au fil des générations. Mais nous avons surtout appris que la signification de n'importe quelle séquence d'ADN est relationnelle -c'est-à-dire que, pour comprendre le développement d'une maladie, ce sont les schémas de l'expression génétique qui comptent avant tout. Or, ces schémas obéissent à un système de régulation très complexe et sont imprédictibles d'après la seule séquence.

Alors qu'il y a trois ans le nombre de généticiens moléculaires prêts à renoncer à leur paradigme de réductionnisme génétique était encore relativement restreint, les biologistes semblent aujourd'hui connaître un changement de paradigme sous nos yeux. Quasiment du jour au lendemain, les départements de biologie de par le monde se sont tournés vers la «systems biology» terme que l'on traduira ici par «biologie intégrative».

Voici quelques exemples qui illustreront mon propos, comme cette annonce faite par le nouveau Bauer Center for Genomics Research de l'université de Harvard: «La réussite du séquençage du génome humain a marqué un virage en biologie moléculaire et a suscité un intérêt indéniable pour des approches systémiques de la complexité biologique. La question essentielle n'est plus “Qui sont les acteurs?”, mais “Quel est le scénario?”, “Comment le jeu de chaque acteur détermine-t-il un comportement collectif?”» Ou, comme le propose cet article d'un numéro récent de The Scientist [1]: «Depuis cinquante ans, les biologistes cherchent à réduire la vie à ses différents composants, en partant de la cellule pour arriver au génome. Toutefois, de tels succès ont fait prendre conscience des quantités inouïes d'informations obtenues. Comme le professeur Denis Noble, de l'université -d'Oxford, le déclare: “Nous avons défait le puzzle; nous devons maintenant retrouver comment le reconstruire.”» Quant au département américain de l'Énergie DOE, où le projet de séquençage du génome humain le Projet Génome Humain a été lancé en 1990, on lui doit un nouveau programme, baptisé «Amener le génome à la vie». Il se présente ainsi: «Depuis le séquençage de tout le génome, la nouvelle biologie aspire à construire une nouvelle compréhension, complète et profonde, des systèmes vivants complexes Le paradigme actuel en biologie -indifféremment décrit comme “gène unique”, “réductionniste” ou “linéaire”- a peu de chances de réussir seul et les approches existantes de la recherche seront enrichies par une “approche des systèmes”.» À un moment, les chercheurs ont compris que le génome n'était pas doué de vie par lui-même. Que la vie, ainsi que Linus Pauling* nous le rappelait il y a longtemps, ne réside pas dans les molécules mais dans les relations entre ces dernières. Comme les responsables du nouveau programme du DOE l'écrivent: «Nous avons besoin de comprendre les interactions entre ces différents éléments.» Bref, il nous faut une «biologie intégrative».

Deux questions évidentes se posent: premièrement, comment expliquer ce nouvel engouement? Et deuxièmement, qu'entend-on par «biologie intégrative» ? La réponse à la première question est relativement facile, la réponse à la seconde l'est moins.

Commençons par la première. Il ressort clairement des citations précédentes qu'il existe un sentiment largement répandu que, grâce à l'accomplissement des premiers objectifs du Projet Génome Humain, la phase réductionniste de la recherche en génétique est désormais terminée. Sydney Brenner* se fait l'interprète de nombreux chercheurs quand il écrit: «Le séquençage du génome humain représente une sorte d'apothéose de réductionnisme chimique», et désormais «nous devons avancer». C'est que le succès de la première phase du Projet Génome Humain apporte aussi sa part de déception. En effet, comme l'énonce le DOE, nous avons listé les éléments, et nous voyons bien que la connaissance de ces éléments, et même la connaissance de leurs fonctions, ne suffit pas.

Toutefois, le Projet Génome Humain et la génétique moléculaire en général nous ont aussi fourni les outils pour aller au-delà de chaque élément, des outils pour sonder la complexité de la dynamique cellulaire. La consé-quence immédiate de ces progrès technologiques s'est manifestée par un afflux d'informations. Mais plus nous en apprenons sur le fonctionnement des éléments entre eux, plus la situation apparaît confuse, et plus le besoin de trouver de nouveaux outils et de nouvelles manières de s'exprimer se fait pressant. Selon Brenner: «Le premier défi intellectuel de l'avenir consiste à mettre en place un cadre théorique adapté pour la biologie.» J'ajouterais qu'il se révèle tout aussi pressant de créer un cadre linguistique qui nous emmène au-delà de l'assemblage du tout à partir d'éléments et qui prenne en considération la construction historique des éléments et des touts -thème si central de la biologie évolutionniste.

Les bienfaits de la sociabilité

Grâce aux extraordinaires développements techniques de ces dernières années, il est désormais possible d'explorer les interactions dynamiques, qui non seulement lient les éléments en touts, mais aussi qui révèlent de quelle manière ces interactions constituent les éléments mêmes. En conséquence, les généticiens créent une nouvelle manière d'aborder la fonction biologique, en cherchant les clés de cette fonction non seulement dans des gènes particuliers ou dans la structure de l'ADN, mais aussi dans les réseaux de communication dont l'ADN fait partie. On pourrait dire que la communication est devenue le nouveau mot à la mode, en même temps que les biologistes, réductionnistes par tradition, commencent à découvrir les bienfaits de la sociabilité.

Toutefois, avant d'embrasser un changement, les chercheurs doivent aussi avoir la certitude qu'il existe une autre voie. Cette certitude a été apportée par les développements techniques en informatique, en particulier depuis l'association des outils informatiques avec les techniques de l'analyse moléculaire. Elle découle également du rapprochement opéré ces dernières années avec l'analyse informatique computationnelle, pour traiter des quantités massives de données complexes. Mais je vois que j'ai déjà commencé à empiéter sur ma seconde question, à savoir: Qu'entendons-nous par «système» et Qu'est-ce que la «biologie intégrative»?

Pour résumer, je dirais que, jusqu'à présent, il s'agit d'un -concept en attente de définition. Le terme lui-même remonte au biologiste et psychologue autrichien Ludwig von Bertalanffy, qui écrivait dans les années -trente: «La notion de système peut être considérée simplement comme un terme générique désignant la corrélation étroite et dynamique entre les composants.» Aujourd'hui, toutefois, les défenseurs de la «biologie intégrative» ont plus de matière avec laquelle travailler, et ils sont par conséquent moins modestes. Pour beaucoup, la compréhension au niveau systémique signifie: «Comprendre les comportements du système, comprendre comment contrô-ler le système, et comment concevoir le système.»

Le concept n'en demeure pas moins extrêmement souple. Il offre des visages multiples, faisant appel à une grande variété de compétences, et promettant un éventail de résultats tout aussi vaste. Il s'agit d'un appel irrésistible pour les scientifiques issus de disciplines auxquelles la biologie expérimentale fait traditionnellement peu appel, par exemple l'ingénierie, l'informatique, la physique ou les mathématiques. Mais ce sont là des disciplines où le manque de cadre théorique commun est manifeste, et y chercher le «cadre théorique approprié» de Sydney Brenner nous rappelle quelque peu les six personnages en quête d'auteur de Pirandello. Alors, d'où peut-on espérer voir émerger un tel cadre? Et à quoi ressemblerait-il?

Je ne possède pas de boule de cristal, mais je discerne malgré tout des candidats évidents, dont l'un appartient à la discipline qui a de tout temps arbitré la théorie dans les sciences naturelles: la physique. En effet, pour de nombreux scientifiques, les termes «théorie» et «physique» sont presque synonymes, et les physiciens et les mathématiciens cherchent dans les sciences de la vie de nouveaux domaines dans lesquels appliquer leurs connais-sances. Pour certains, c'est là que se situe désormais l'action intellectuelle et scientifique: si le siècle dernier appartenait à la physique, le nouveau appartient à la biologie. À titre d'exemple, voici quelques citations tirées de la littérature récente: «La biologie aujourd'hui se trouve là où se trouvait la physique au début du XXe siècle», ou encore: «La physique nous aide à mieux comprendre, et elle peut apporter à la biologie des explications fondamentales.» D'autres y voient un but plus pragmatique: c'est là que se trouve désormais l'argent.

Mais les observateurs remarquent aussi que la transition de la physique à la biologie n'est pas aussi simple, qu'il existe un certain décalage culturel à combler entre ces disciplines, que les biologistes et les physiciens ont des buts et des traditions différents, qu'ils ne posent pas les mêmes types de questions, et ne cherchent peut-être pas le même type de réponses. En outre, il s'agit quasiment de la première fois dans l'histoire que des physiciens et des mathématiciens se tournent vers la biologie, pour y trouver de nouveaux problèmes et de nouveaux terrains à explorer. Les exemples du passé se sont soldés par des échecs, et les biologistes ont manifesté un intérêt limité dans les tentatives pour mathématiser ou théoriser leur discipline. Leur état d'esprit semble avoir évolué.

Double culture

De nos jours, biologistes expérimentaux, physiciens et mathématiciens collaborent en permanence, et le rôle des mathématiques en biologie semble être entré dans une ère nouvelle. Au cours des dernières années, aux États-Unis, la National Science Foundation NSF et les National Institutes of Health NIH ont lancé plusieurs initiatives à grande échelle, destinées plus particulièrement à rendre compte du potentiel des approches mathématiques et informatiques en biologie. Depuis 1983, la proportion du financement pour la recherche mathématique et informatique provenant de la division biologie de la NSF a été multipliée par cinquante, et l'on déplore surtout aujourd'hui le manque de candidats, plutôt que le manque de financement.

L'augmentation du financement se traduit à la fois par une croissance du nombre de publications et par la création de nouveaux cursus en mathématiques et en bio-informatique. Contrairement à leurs précurseurs, bon nombre d'entre eux sont désormais accueillis par des départements de biologie expérimentale. Les nouveaux étudiants ne se contentent pas de simplement collaborer avec des biologistes expérimentaux: ils deviennent souvent eux-mêmes biologistes. À l'inverse, les biologistes n'ont plus besoin de transmettre leurs questions et leurs données à d'autres. Grâce notamment à une meilleure connaissance de l'informatique, et aussi au développement de programmes informatiques «conviviaux» qui mettent les techniques d'analyse mathématique à la portée des béotiens en la matière, ils peuvent construire leurs propres modèles «mathématiques/théoriques». Cela se traduit par l'émergence d'une culture entièrement nouvelle, à la fois théorique et expérimentale, tout autant imprégnée d'équations différentielles que de données réelles.

Si, comme l'affirment désormais de nombreuses personnes, «une nouvelle biologie mathématique est en train de naître», elle s'accompagne non seulement de nouvelles compétences, mais aussi de nouvelles valeurs épistémiques. La discipline naissante ne présente de ce fait qu'une vague ressemblance avec les tentatives passées pour faire de la biologie une science théorique à l'instar de la physique. Cela ne promet pas tant une justification des échecs passés qu'une transformation des méthodes, des buts et des bases épistémologiques des tentatives antérieures.

Tentons de résumer les défis à venir. Tout d'abord, les efforts de modélisation les plus réussis suggèrent la nécessité de redéfinir des termes comme «essentiel» et «fondamental». L'essence d'un processus ne doit plus être recherchée dans des lois abstraites ou simples, mais dans la spécificité confuse d'adaptations particulières qui ont vu le jour au cours des processus désordonnés de l'évolution. Bien trop souvent, ce sont les particularités fortuites d'une structure biologique celle de l'ADN par exemple qui sont fondamentales. Par conséquent, si les physiciens veulent pouvoir participer à la création d'un cadre théorique approprié, ils devront repenser certaines de leurs hypothèses les plus élémentaires. Le fait est que la biologie vient bouleverser toutes nos hypothèses classiques concernant ce qui doit être considéré comme profond ou fondamental, ce qui doit être considéré comme une explication, et même ce qui doit être considéré comme un progrès.

Partenaires prometteurs ?

De plus, les systèmes biologiques sont, nous le savons, extraordinairement complexes. Mais, toujours à cause de l'évolution, leur complexité est de nature quelque peu différente de celle des systèmes physiques. Déjà, ils sont toujours et inévitablement hiérarchiques. Ainsi, les notions familières d'émergence, ancrées dans la dynamique non linéaire des systèmes uniformes gaz ou fluides, par exemple, ne conviennent pas. Les inhomogénéités et les particularités ordonnées des systèmes biologiques sont essentielles à leur fonctionnement. Les ignorer, c'est risquer le manque de pertinence biologique qui a historiquement été le destin de tant de modèles mathématiques en biologie. Par ailleurs, étant donné la nature de la complexité biologique, les modèles utiles de systèmes biologiques tendent à être informatiques plutôt que mathématiques. À la place de quelques équations différentielles simples, la nouvelle biologie théorique apparaît comme un entrelacs d'algorithmes, de vastes systèmes d'équations différentielles, d'analyses statistiques et de simulations. Qui plus est, de tels modèles ne peuvent être formulés avec succès que dans une très intime relation de va-et-vient avec l'expérimentation.

Enfin, les distinctions entre «pure» et «appliquée», entre «théorique» et «pratique» -des distinctions si basiques à notre vision contemporaine de la physique- doivent aussi disparaître. C'est en grande partie une conséquence de la technologie même qui a permis de recueillir une telle quantité de données. Les techniques de l'«ADN recombinant» permettent en effet d'intervenir directement dans la dynamique interne du développement. Elles ont transformé les marqueurs génétiques en autant d'outils pour réaliser tel ou tel changement. En résumé, la technologie qui a ouvert la voie de la biologie théorique, a aussi, et simultanément, fait du génie génétique une réalité. La biologie devient une science pratique en même temps qu'elle devient théorique.

Le deuxième candidat pour un nouveau cadre théorique et peut-être le plus prometteur est suggéré par l'engouement actuel pour la comparaison de l'organisme avec un ordinateur, et celle de la biologie avec une science numérique. Je dis «plus prometteur» à cause des riches outils pratiques que l'informatique nous a donnés pour envisager des systèmes interactifs - des outils et des métaphores qui, en bien des façons, nous rapprochent beaucoup plus de la complexité des systèmes biologiques que les modèles traditionnels de la physique théorique. Mais ce serait une grave erreur de vouloir trop se concentrer sur les aspects numériques du fonctionnement génétique, et de négliger la nature fondamentalement analogique de la chimie qui sous-tend tout ce processus.

Une parenté avec l'ingénierie?

En outre, il y a là aussi une leçon à tirer de l'histoire. En tant que scientifiques, notre manière d'envisager des phénomènes que nous ne comprenons pas est, comme elle l'a toujours été, et comme elle doit l'être par nécessité, de comparer l'inconnu au connu. Ainsi, la comparaison de l'organisme avec une machine remonte à d'anciennes théories sur la nature de la vie -la seule différence étant le type de machine que nous prenons en considération. En nous fondant sur des poulies, des pompes hydrauliques, des horloges, des moteurs à vapeur, nous avons fait preuve d'une ingéniosité extraordinaire pour construire des machines encore plus polyvalentes et enthousiasmantes. Comparer l'organisme à chacune de ces machines s'est révélé instructif dans le passé, comme comparer l'organisme à nos machines les plus modernes se montre instructif de nos jours. Mais il ne serait guère raisonnable de supposer que notre ingéniosité s'épuise, que nous ne construirons pas bientôt des machines plus proches de la vie. En fait, nos meilleurs informaticiens parient sur notre capacité à le faire, et, une fois encore, ils cherchent l'inspiration dans la biologie.

Alors, allons, et adoptons les termes et les images de l'informatique pour nous aider à penser les propriétés systémiques des cellules et des organismes. N'oublions pas, toutefois, que ces systèmes biologiques n'ont pas livré tous leurs secrets à nos ingénieurs. De nombreuses personnes avancent que la «biologie intégrative» aura plus de liens de parenté avec l'ingénierie qu'avec la physique. Elles ont peut-être raison. Toutefois, il reste à nos ingénieurs à construire un système qui soit à la fois autoconcepteur et autogénérateur, un système que nous aurions envie de qualifier de vivant. Je ne peux affirmer qu'une telle tâche est impossible, mais seulement que nos ordinateurs actuels et nos systèmes Internet de pointe n'en sont pas encore capables.

Que manque-t-il pour douer le génome de vie? Je l'ignore, mais si je devais me prononcer, je m'attacherais à observer attentivement où les limites actuelles de la conception en ingénierie et de la génomique se situent. Et je demanderais, avec nos ingénieurs les plus brillants: Avons-nous suffisamment tenu compte de la dynamique de nos systèmes? Avons-nous prêté suffisamment d'attention à leur organisation temporelle? Suffit-il de considérer que les gènes sont activés ou pas, ou les généticiens doivent-ils commencer à étudier les moments précis de passage d'un état à l'autre, à la fois les uns par rapport aux autres, et aussi par rapport à la dynamique temporelle des processus globaux dans la cellule? Je parierais que notre prochaine avancée significative se situera là.

Bien entendu, il ne s'agit que d'hypothèses -comme je l'ai dit, ma boule de cristal est trouble. Toutefois, il ne fait presque plus aucun doute aujourd'hui que la biologie moléculaire postgénomique exige de nouvelles méthodes d'analyse, et de nouveaux cadres conceptuels. Appelez cela la «biologie intégrative» si vous le souhaitez, mais ce n'est qu'en avançant que nous comprendrons exactement de quoi il s'agit.

EN DEUX MOTS : L'obtention de la séquence du génome humain signe-t-elle l'entrée de la biologie dans une ère nouvelle? Oui, selon l'historienne Evelyn Fox Keller, qui se réfère aux propos tenus par les spécialistes de la génomique. Tous soulignent la nécessité de donner un sens au génome: la question n'est plus «Qui sont les acteurs?» mais «Quel est le scénario?» Toutefois, confrontée à l'incroyable afflux de données issues du séquençage, il est peu probable que la biologie puisse élaborer seule ce scénario. Physique, mathématiques et informatique sont autant de partenaires potentiels dans cette quête de sens. Evelyn Fox Keller se risque à prédire leurs chances d'être ou non élus, tandis que trois scientifiques français réagissent au tableau qu'elle brosse.

Par Evelyn Fox Keller

 

 DOCUMENT    larecherche.fr     LIEN

 
 
 
initiation musicale toulon  

LES ABEILLES ET LE GAUCHO...

 

 

 

 

 

Le Gaucho ® est-il l'ennemi des abeilles ?


livres - par Minh-Hà Pham-Delègue dans mensuel n°347 daté novembre 2001 à la page 70 (2726 mots)
Les apiculteurs français d’un côté, l’industriel Bayer de l’autre. Au milieu, une administration, un ministre, les médias et toute une population de scientifiques. L’insecticide Gaucho® est-il ou non un danger pour les abeilles ? Quatre ans de controverses parfois houleuses et d’études scientifiques n’ont pas permis de départager les protagonistes. Est-ce un échec ?

L’affaire éclate en 1997 quand les apiculteurs français, déplorant depuis quelques années le dépeuplement massif des ruches juste au moment de la floraison du tournesol et la chute des récoltes de miel dans l’ouest de la France, désignent le Gaucho®, un insecticide, comme responsable probable et saisissent les pouvoirs publics .

Lors d’une première réunion avec les représentants de deux ministères, du groupe Bayer qui produit l’insecticide et plusieurs scientifiques, les délégués des syndicats apicoles expliquent leurs soupçons : le phénomène coïncide avec le début de l’utilisation du Gaucho® sur le tournesol en 1993. D’après leur enquête, le produit utilisé sur les semences de tournesol pour éliminer les insectes nuisibles pourrait avoir un effet inattendu sur les abeilles : ils suspectent en effet que la matière active, l’imidaclopride, un neurotoxique pour les insectes, se retrouve bien après le traitement dans le capitule des fleurs que visitent les butineuses. Bayer conteste cette hypothèse. Assez vite alerté, il avait mené des expérimentations entre en 1995 et 1997. Or, il n’avait observé, sous tunnel, aucune différence de mortalité ou d’activité de butinage entre des abeilles visitant des tournesols traités ou non. De plus, selon ses analyses, le produit ne resterait pas assez longtemps dans la plante pour entraîner une exposition des abeilles.

Un premier état des lieux sur les effets potentiels du Gaucho® réalisé par deux biologistes de l’INRA à la demande de la Commission des toxiques* du ministère de l’Agriculture paraît en décembre 19971. Au vu de ce rapport, qui n’exclut pas la responsabilité potentielle de l’insecticide, le comité d’homologation du même ministère considère : « E n l’état actuel des connaissances, le caractère toxique de ce produit sur les abeilles ne peut être ni confirmé ni infirmé. Il est nécessaire de poursuivre les études, avec notamment des zones témoins où le produit sera interdit par arrêté préfectoral. » Dans la foulée, il est convenu de suspendre l’emploi de semences de tournesol traitées avec du Gaucho® en Vendée, dans l’Indre puis dans les Deux-Sèvres, les départements les plus touchés. Des études complémentaires dans ces zones sont alors lancées, et les bases d’un programme de recherche à l’échelle nationale sont posées en janvier 1998. A l’exception des deux laboratoires de chimie CNRS Orléans et Girpa Angers, recrutés sur un appel d’offres spécifique, le ministère de l’Agriculture désigne pour ce programme des chercheurs appartenant au groupe abeille* de la Commission des toxiques. C’est a priori une garantie de leur compétence. Mais avec le recul on peut déplorer l’absence d’appel d’offres classiques qui aurait optimisé les possibilités de contribution. L’inconvénient majeur aurait sans doute été la perte de temps liée à cette procédure.

Le comité de pilotage est ainsi constitué de scientifiques équipes de l’Agence française de sécurité sanitaire des aliments - Afssa - de Sophia-Antipolis, INRA Avignon, Lusignan et Bures, CNRS Orléans et Girpa Angers, de représentants de la production agricole et d’apiculteurs, d’instituts techniques, des ministères de l’Agriculture et de l’Environnement et de Bayer. Le ministère de l’Agriculture confie la coordination administrative du programme à Gilbert Maurin de l’Association de coordination technique agricole et me demande d’assurer la coordination scientifique des expérimentations.

Méthodes inadaptées. La recherche se heurte vite à un premier écueil : pour les abeilles aucune procédure de référence adaptée à l’étude spécifique de ce type d’insecticide n’est disponible. Celles en vigueur concernent des produits de traitement aérien. Or, pour ceux utilisés en enrobage de semences comme le Gaucho®, on s’attend à une exposition plus longue des abeilles à des doses faibles, puisque le produit évolue dans la plante pendant tout ou partie de son cycle. Et surtout ces méthodes s’appuient principalement sur l’enregistrement de la mortalité, alors que ce sont des perturbations du comportement des abeilles empêchant le retour à la ruche qui sont décrites. En l’absence de méthodologie validée, chaque équipe scientifique soumet des propositions qui sont avalisées au cours de réunions pratiquement mensuelles du comité de pilotage. Les questions deviennent multiples et d’ordre plus fondamental. Peut-on mettre en évidence des disparitions d’abeilles en plaçant des colonies d’abeilles en présence de tournesols traités ? A quelles doses sont exposées les abeilles qui butinent les tournesols ? Quels comportements peuvent être perturbés, s’agit-il de capacités d’apprentissage nécessaires à l’orientation des abeilles ? Globalement, le programme se partage en expérimentations de laboratoire ou tunnels d’une part et en champ d’autre part. Les premières visent à caractériser les éventuels symptômes et les seuils de toxicité. Les secondes ont à la fois pour but de vérifier et de quantifier les effets observés par les apiculteurs en condition de terrain et de doser l’insecticide présent dans différents substrats pour déterminer si les abeilles sont réellement exposées à des doses toxiques.

Le calendrier opérationnel est serré : les essais débutent au printemps, les observations en champ et les prélèvements d’échantillons en été lors de la floraison, et les analyses chimiques au cours de l’automne. Les résultats étant attendus pour la fin de l’année, les chercheurs bouclent leurs rapports courant octobre, souvent dans l’urgence.

Après différentes discussions et présentations des résultats préliminaires à l’automne, le rapport final est clos mi-décembre 1998. Les deux chimistes ayant analysé les résidus et moi-même sommes alors chacun auditionné par la Commission des toxiques pour présenter les conclusions finales2 : quelles sont-elles ? En conditions contrôlées, sous tunnel ou au laboratoire, les essais montrent des effets sur différents aspects de la biologie et du comportement des abeilles, y compris à des doses très faibles : les premiers effets sur les performances d’apprentissage sont observés à partir de 4 ppb* voir la figure : « Résultats des études en conditions contrôlées ». Sur le terrain, les dosages de résidus dans diverses matrices indiquent la présence de faibles quantités d’imidaclopride, y compris dans certains échantillons prélevés dans des parcelles non traitées. Elles sont inférieures à 10 ppb. Ce point crucial mérite explication. En commençant les recherches, on ne pensait pas trouver des effets à de si faibles doses. Le premier cahier des charges pour l’analyse des résidus avait donc fixé la limite de quantification* à 10 ppb. Cela signifie qu’au-dessus de cette limite les mesures précises étaient possibles mais en dessous on pouvait seulement détecter leur présence. La présence en champ de doses inférieures à 10 ppb indiquait donc une exposition potentielle des abeilles à des doses affectant leur comportement. Et pourtant, les expérimentations en champ, sur sites traités et non traités, n’indiquaient aucune différence notable concernant l’activité de butinage, les mortalités, l’évolution des colonies et la récolte de miel.

Quels résultats ? La controverse rebondit : comment expliquer que les résultats de laboratoire contredisent les observations en plein champ et pourquoi détecte-t-on de l’imidaclopride dans les zones non traitées ? Pour Bayer, les résultats en champ doivent primer : il plaide pour le maintien du traitement des semences. Au contraire, pour les apiculteurs, l’existence de perturbations comportementales à très faibles doses et une exposition possible des abeilles à ces doses confirment la responsabilité du Gaucho®. Et en raison de la présence d’imidaclopride dans des zones non traitées, ils contestent la validité des zones témoins, et donc des expérimentations de terrain. Pour se faire entendre, ils manifestent en décembre 1998, à Paris, au pied de la tour Eiffel. Ils me convient à leur congrès pour présenter les résultats du programme et s’étonnent vivement que je ne prenne pas position en leur faveur, que je « reste au milieu du gué » . Après des mois de travail intense, cette prise à partie assez brutale est vécue douloureusement, d’autant que nous devons aussi défendre nos résultats face à Bayer.

Témoins gênants. Il est vrai que de l’imidaclopride a été détectée en zones non traitées, et l’hypothèse d’une rémanence du produit après un traitement antérieur ne peut être écartée. Mais cela pose aussi d’autres questions. Dans les champs traités, tous les prélèvements sont positifs alors qu’en zones témoins, il s’agit en gros d’un échantillon sur trois. On aurait donc dû observer une différence de comportement des abeilles. Par ailleurs, si l’on admet une présence du produit dans tous les essais, comment expliquer l’absence de dépeuplement des ruches ? Pour moi, il existe encore trop d’inconnues pour se prononcer, et il faut aussi étudier l’hypothèse d’une cause multifactorielle.

La Commission des toxiques conclut finalement : « Les risques encourus ne paraissent pas suffisants pour interdire l’utilisation de l’imidaclopride » . Mais elle demande des études complémentaires. Et, dans l’attente des résultats qui devront être fournis dans un délai maximal de deux ans, elle préconise la reconduite des zones d’interdiction provisoire. En janvier 1999, Jean Glavany, ministre de l’Agriculture, va au-delà : il retire « de façon provisoire l’autorisation de mise sur le marché du Gaucho ® pour le traitement de semences de tournesol dans l’attente des résultats d’études scientifiques complémentaires demandées à la société Bayer et d’une enquête épidémiologique complémentaire pour déterminer si d’autres facteurs pourraient être responsables ou coresponsables des phénomènes observés sur les abeilles » .

Cette décision est plutôt bien accueillie par les apiculteurs. C’est à leurs yeux une première étape satisfaisante, même s’ils n’obtiennent pas qu’elle s’étende à d’autres cultures sources de pollen maïs, blé et orge. L’industriel, lui, fait bonne figure, il salue la mise en place d’une enquête épidémiologique multifactorielle dont il espère qu’elle fera la preuve de l’innocuité du Gaucho®3. Malgré cette satisfaction apparente, chacun cherche à renforcer sa position. Et surtout l’organisation des recherches change : il n’y a plus de programme centralisé. Conformément à la procédure d’homologation d’un produit phytosanitaire, la responsabilité des travaux revient à Bayer. Excepté l’enquête épidémiologique dont il annonce le démarrage en juin 1999, le ministère de l’Agriculture n’est plus chargé d’études. Et de son côté, la coordination des apiculteurs, désireuse d’une contre-expertise, soutient dans le cadre du règlement européen pour l’apiculture les projets de plusieurs équipes INRA Avignon, Toulouse et Bures, CNRS d’Orléans, Afssa Sophia-Antipolis sans véritable coordination scientifique.

Qui doit financer ? Cela soulève le problème de la constitution des dossiers d’homologation dans ce genre de situation : doit-elle rester à la charge des industriels, y compris pour les aspects éco-toxicologiques, ou bien des organismes indépendants doivent-ils conduire ces études ? Dans ce cas, avec quels moyens ? En filigrane, c’est la question de l’indépendance même des scientifiques qui se pose quand on sait que déjà lors du programme de 1998, qui pouvait pourtant être considéré comme indépendant voir l’encadré ci-dessus, certains scientifiques se sont vu reprocher des liens avec Bayer.

En fin d’année 1999, Bayer, dont la demande d’annulation du retrait provisoire du Gaucho® devant le Conseil d’Etat vient d’être rejetée, présente un nouveau rapport qui confirme ses résultats précédents4. Quant à l’enquête d’épidémio-surveillance, elle ne révèle pas de problème mais est très contestée par les apiculteurs : ils reprochent de ne pas avoir été consultés pour élaborer le questionnaire, inadapté à leurs yeux.

A partir de mars 2000, les autres études commencent à donner leurs fruits. Pour notre part, nous transmettons les résultats de nouveaux tests. Ils montrent que les performances des abeilles sont affectées pour des doses ingérées plus fortes que celles indiquées par nos données de 1998. Cela vaut à la direction générale de l’INRA un courrier de la coordination des apiculteurs dénonçant nos résultats. Ceci m’amène alors à rappeler à la coordination des apiculteurs ma ligne de conduite : produire des résultats scientifiques en toute indépendance, même par rapport à une demande sociale légitime.

Nos expériences ultérieures en conditions contrôlées établissent que la sensibilité au produit varie avec la saison : les abeilles d’été réagissent à des doses plus faibles 6-12 ppb que les abeilles d’hiver 24-48 ppb. J’apprends par un article de La France Agricole que les résultats de l’équipe de l’INRA d’Avignon indiquent des seuils encore plus bas, avec des effets dès 3 ppb5. Dose susceptible d’exister sur le capitule de tournesol, comme l’indiquent les nouvelles mesures des chercheurs du CNRS d’Orléans. On peut s’étonner du fait que les résultats soient communiqués par voie de presse : c’est là une des limites d’une science « en ligne » ,où les résultats dont disposent les experts portent la seule garantie de leurs auteurs. En effet, faute de temps, tous ces travaux n’ont pas encore passé la procédure habituelle de validation nécessaire à la publication dans une revue scientifique spécialisée : l’évaluation par un comité de pairs garantissant, en principe, la qualité des résultats. Le rythme de production de résultats scientifiques s’accommode mal des urgences sociétales. De fait, les premières publications scientifiques ont commencé seulement à paraître en 20006.

Manque de consensus. On a beaucoup polémiqué sur la divergence des résultats. Mais est-ce le coeur du problème ? Les effets du produit ont été recherchés sur des comportements divers impliquant des observations et des mécanismes différents. Il n’est donc pas étonnant qu’ils soient observés pour des quantités différentes.

Moins d’un facteur dix sépare ces valeurs qui indiquent toutes une grande toxicité du produit pour l’abeille. L’absence de consensus ne vient donc pas tant des résultats eux-mêmes que de leur interprétation et de l’absence de discussions préalables entre les différents scientifiques. Mais la question centrale est évidemment de relier ces seuils aux quantités présentes sur le terrain et aux effets qui y sont observés : c’est bien là toute la difficulté !

l’automne 2000, la pression médiatique monte d’un cran avec des articles dans la presse quotidienne7. Les apiculteurs organisent plusieurs manifestations8. Considérant la responsabilité du Gaucho® avérée, ils réitèrent leur demande de retrait du produit. Et l’étendent à tous les produits d’enrobage de semences utilisés sur des plantes attirant les abeilles.

La commission des toxiques demande des précisions sur les protocoles et auditionne toutes les parties impliquées. A l’issue des consultations, la commission estime en décembre que rien ne permet d’« incriminer formellement et exclusivement la préparation Gaucho® dans l’ensemble des problèmes, au demeurant très complexes, rapportés par les apiculteurs ». Toutefois, s’appuyant sur les « altérations des performances d’apprentissage olfactif des abeilles observées en laboratoire à des concentrations proches des niveaux de résidus présents dans les parties de la plante accessibles à l’abeille », et sur « la persistance de l’imidaclopride dans les sols [...], la commission ne peut conclure à l’absence de risque pour les abeilles... ». Elle justifie cet avis pour le moins mitigé par « l’absence de coordination entre les différents protocoles, et le manque de précisions sur des données brutes rendant difficile l’interprétation des résultats ».

Le 2 février 2001, Jean Glavany prolonge « pour deux années supplémentaires la suspension de l’autorisation du Gaucho® dans le traitement des semences de tournesol » . Une décision à réviser au vu de toute avancée scientifique suffisamment convaincante. Le ministre confie également « à un comité d’experts indépendants une étude épidémiologique de grande envergure qui analysera l’ensemble des facteurs qui peuvent affecter la santé des abeilles » .

En gros, il prolonge sa décision de 1999, sans interdiction définitive et sans suspension d’autres usages. Il réitère sa demande d’une enquête épidémiologique à grande échelle et réclame des informations approfondies sur la persistance du produit dans les sols. Cette fois, comme les apiculteurs, Bayer se déclare déçu. Chacun campe sur ses positions. Quant à l’enquête, elle est soutenue par Bayer mais rejetée par la coordination des apiculteurs qui ne croit pas à son bien-fondé9. Or sans leur appui, l’entreprise semble compromise.

Au final, trois années d’études pluridisciplinaires, conduites par divers organismes publics, techniques ou privés, n’ont pas permis aux autorités de conclure. Est-ce un échec, compte tenu de l’effort engagé en termes humains et financiers ? Ou au contraire ce bilan est-il exemplaire d’une nouvelle forme d’expertise, mêlant science « à chaud » et demande sociétale, qui serait la règle à l’avenir ? Il est en tout cas un exemple emblématique de l’application du principe de précaution.

Cas d’école. On retrouve dans cette affaire, tous les acteurs que décrit Bernard Chevassus-au-Louis, président de l’Afssa, dans son analyse de l’expertise scientifique10 : le citoyen les apiculteurs et Bayer, le scientifique les chercheurs, l’expert les membres des Commissions, le décideur le ministre de l’Agriculture. Dans ce cas précis, les citoyens ont été directement impliqués puisqu’ils ont participé au débat depuis le début. Ces interactions ont certainement contribué à une perception plus complète du problème, mais il n’est pas sûr qu’elles aient facilité la décision en matière de gestion du risque...

Par Minh-Hà Pham-Delègue

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

NAISSANCE DES NEURONES ...

 

Naissance des neurones et mort d'un dogme


neurones à volonté - par Heather Cameron dans mensuel n°329 daté mars 2000 à la page 29 (4155 mots)
En quelques années, plusieurs découvertes se sont succédé qui confirment ce qui était autrefois une hérésie : des neurones continuent à naître dans le cerveau adulte des mammifères, y compris l'homme, et ce tout au long de la vie. Des perspectives thérapeutiques révolutionnaires s'ouvrent à nous. Mais de nombreux points restent à éclaircir, et notamment la relation qu'entretient cette neurogenèse avec la mémoire.

On estime généralement que tous les neurones de notre cerveau sont présents dès la naissance. Ce fait est considéré comme une caractéristique essentielle du cerveau des mammifères, et il a plusieurs conséquences importantes ; ainsi, tous les processus d'apprentissage à l'âge adulte s'organisent dans le cadre d'un cerveau anatomiquement stable, et toute mort de neurones à la suite d'une lésion ou d'une maladie entraîne un déficit permanent. Mais nous savons maintenant que ce dogme n'est pas parfaitement exact. Certains types de neurones continuent à être produits tout au long de la vie chez toutes les espèces de mammifères étudiées, y compris l'homme. L'existence de cette neurogenèse la production de nouveaux neurones pourrait modifier les théories du fonctionnement cérébral. Sa compréhension et sa maîtrise permettraient le développement d'outils thérapeutiques exceptionnels pour le traitement des lésions cérébrales ou des maladies neurodégénératives, entre autres.

La vision du cerveau adulte comme un organe anatomiquement stable trouve probablement son origine dans la différence de plasticité entre les cerveaux d'enfant et d'adulte, c'est-à-dire leurs capacités différentes à se modifier en réponse à des perturbations de l'environnement. Cliniquement, on sait depuis longtemps que le cerveau humain en développement, pendant l'enfance, se révèle beaucoup plus capable que le cerveau adulte de récupérer après une lésion. Expérimentalement, on avait constaté que les hormones ont sur le cerveau et sur le comportement des effets anatomiques permanents - des effets dits d'organisation - lorsque l'exposition a lieu pendant le développement, alors qu'elles n'exercent à l'âge adulte qu'une action réversible. Un phénomène similaire avait été observé dans le système visuel : si les signaux visuels reçus pendant la période de développement sont anormaux, le système visuel cérébral est altéré de manière définitive, alors que ces anomalies des stimuli visuels n'ont pas d'effet durable à l'âge adulte. Cette phase du développement caractérisée par une grande plasticité anatomique et comportementale est appelée période critique. Les études sur la prolifération cellulaire confortèrent cette idée d'une différence radicale entre le cerveau en développement et le cerveau adulte : il était facile d'observer des neurones en division dans le cerveau embryonnaire ou à la période postnatale précoce, mais il était extrêmement difficile d'en trouver à l'âge adulte. De plus, on pensait, sur la base de critères morphologiques, que les cellules en division que l'on parvenait à découvrir étaient des précurseurs de cellules gliales* et non de neurones.

Cette différence - qualitative en apparence - de plasticité entre le cerveau en développement et le cerveau adulte a été introduite dans les théories sur le fonctionnement du cerveau. Alors que la capacité à réparer les lésions par la régénération des cellules perdues semble comporter d'énormes avantages et que le phénomène s'observe dans de nombreux tissus, il devait exister une raison extrêmement importante pour que les neurones cérébraux ne se renouvellent pas. Les théories sur la nécessité de la stabilité du cerveau pour que les pensées et les souvenirs puissent se conserver sur toute la durée de vie se fondent sur cette idée que les neurones du cerveau adulte ne se renouvellent pas ; à l'inverse, ces théories ont renforcé la conviction selon laquelle le cerveau adulte est structurellement stable1.

C'est dans les années 1960 que l'on s'aperçut pour la première fois que de nouveaux neurones apparaissent dans le cerveau des mammifères adultes. Cette découverte est due à Joseph Altman, qui s'intéressait alors à la prolifération cellulaire induite par des lésions, dans le cerveau du rat. A l'époque, on pensait que, dans le système nerveux, seules les cellules gliales pouvaient se régénérer. Ainsi, après une lésion du cerveau, on peut observer « une cicatrice gliale ». Comme une cicatrice sur la peau, elle est due à la régénération de cellules, en l'occurrence des astrocytes*. Cependant, outre ce renouvellement glial, Altman observa d'autres cellules nouvelles qui ressemblaient davantage à des neurones. Cette observation était très surprenante car elle contredisait la théorie en vigueur depuis des dizaines d'années et selon laquelle les neurones ne sont produits que pendant une période limitée du développement.

C'est par une caractérisation morphologique que les nouvelles cellules furent identifiées comme neurones. Ceux-ci sont en effet plutôt plus volumineux que les cellules gliales, et apparaissent plus clairs qu'elles avec les colorants classiques. Ce type d'argument, bien qu'évocateur, n'est pas considéré comme concluant, surtout lorsqu'il s'agit d'une question aussi controversée que la neurogenèse chez l'adulte. Pourtant, il y avait effectivement naissance de nouveaux neurones dans le cerveau des mammifères adultes. C'était seulement difficile à prouver. Vers la fin des années 1970 et dans les années 1980, les chercheurs purent montrer que des cellules nées dans le cerveau du rat adulte possédaient des synapses, ces connexions spécialisées qui n'existent qu'entre neurones. C'était la preuve de la naissance de nouveaux neurones, mais la technique de recherche des synapses sur les cellules nouvellement apparues prenait un temps considérable, et le nombre de nouveaux neurones identifiés était extrêmement faible, à peine deux ou trois cellules par cerveau. Du coup, il était facile de considérer la neurogenèse chez l'adulte comme un phénomène négligeable, peut-être un processus ancestral hérité du cerveau des lézards ou des oiseaux, chez lesquels la neurogenèse à l'âge adulte est relativement abondante. Ces dernières années, néanmoins, les techniques immunohistochimiques ont révolutionné de nombreux domaines de la biologie. Elles permettent l'identification de centaines de types cellulaires, y compris les neurones et les cellules gliales, en fonction des protéines particulières qu'ils expriment, au moyen d'anticorps auxquels sont fixés un marqueur visible, par exemple une molécule fluorescente. Avec des marqueurs spécifiques, on a pu observer au début des années 1990 de très nombreux neurones nouveau-nés dans le cerveau adulte. Cette technique a permis une analyse quantitative du nombre de ces nouveaux neurones, et on a ainsi pu étudier les modifications de la production neuronale en réponse à divers traitements expérimentaux.

Nier la neurogenèse devenait impossible. Depuis, elle a été décrite chez toutes les espèces de mammifères étudiées, et notamment chez le rat, la souris, la musaraigne, les primates du Nouveau Monde et ceux de l'Ancien Monde, dont l'homme2, 3. Il apparaît également que cette neurogenèse concerne des zones cérébrales plus étendues qu'on ne le pensait encore très récemment. En effet, on crut tout d'abord que les seuls neurones dotés de cette capacité de renouvellement étaient les cellules granulaires ou simplement « grains » du bulbe olfactif et de la région du g yrus dentatus ou corps godronné de l'hippocampe p. 33. Mais Elizabeth Gould, de l'université de Princeton, a mis en évidence dans un article publié en octobre dernier une production de nouveaux neurones dans certaines régions précises du cortex des primates4. Cette découverte est extrêmement intéressante, non seulement parce que le cortex intervient dans les processus cognitifs dits de haut niveau, bien développés chez l'homme et les autres primates, mais aussi parce qu'elle donne à penser que de nouveaux neurones pourraient apparaître dans d'autres régions du cerveau des mammifères qui n'ont pas encore été examinées d'assez près.

Malgré tout, le vieux dogme n'est pas entièrement faux. Il semble bien que, dans leur grande majorité, les neurones du cerveau adulte aient été produits aux alentours de la naissance. Et, s'il n'est pas actuellement possible d'exclure une poursuite de la neurogenèse dans d'autres régions cérébrales, il ne semble pas que ce renouvellement tout au long de la vie puisse concerner tous les types de neurones. Dans l'hippocampe, qui a été étudié de manière très approfondie, il paraît clair que si les cellules granulaires se reproduisent à l'âge adulte, ce n'est pas le cas des autres populations neuronales de la région. Il en va de même du bulbe olfactif. D'après les connaissances actuelles, il semble donc que seuls certains sous-types de neurones se régénèrent à l'âge adulte, même dans les régions dites neurogènes. Aujourd'hui encore, on ne sait pratiquement rien de l'identité des nouveaux neurones corticaux, on ignore notamment s'ils appartiennent ou non à un seul sous-type neuronal.

Il semble également probable qu'on ne découvrira pas de neurogenèse dans toutes les régions cérébrales. La récente étude sur le néocortex des primates a mis en évidence des neurones nouveaux dans trois régions du cortex associatif les zones préfrontale, temporale inférieure et pariétale postérieure ; en revanche, malgré un examen attentif, il n'a été observé aucun renouvellement dans le cortex strié. Ce résultat est particulièrement intéressant, car le cortex associatif joue un rôle important dans les fonctions cognitives de haut niveau, alors que le cortex strié intervient dans le traitement des informations d'origine visuelle. Cette différence donne à penser que la neurogenèse pourrait jouer un rôle clé dans des fonctions plastiques par essence, alors qu'elle serait sans objet pour des fonctions de bas niveau comme le traitement des données sensorielles, qui sont en général stables tout au long de la vie. Cette idée cadre bien avec ce que l'on sait de la neurogenèse dans le reste du cerveau. Ainsi, il a récemment été démontré que l'apprentissage olfactif a lieu au sein du bulbe olfactif et fait intervenir les neurones granulaires, et on sait par ailleurs depuis longtemps que l'hippocampe est une région importante pour l'apprentissage et la mémoire. On notera néanmoins que si leur localisation incite à penser que les neurones apparus à l'âge adulte peuvent jouer un rôle dans les processus d'apprentissage et de mémoire, rien n'indique qu'ils aient effectivement une fonction. Cela ne veut pas dire qu'ils ne soient pas fonctionnels ; cela traduit seulement les difficultés techniques qui empêchent de recueillir les informations nécessaires. En effet, il est difficile de caractériser les neurones nouveau-nés par l'électrophysiologie, car celle-ci ne permet absolument pas de déterminer l'âge d'une cellule vivante. Les études comportementales sur la neurogenèse à l'âge adulte sont également délicates parce que les manipulations utilisées pour inhiber la neurogenèse perturbent aussi le fonctionnement des autres neurones et des cellules gliales, et qu'il est donc impossible d'établir le lien direct qu'elle pourrait avoir avec une modification comportementale. Surmonter ces obstacles techniques est un enjeu essentiel, car la fonction de la neurogenèse à l'âge adulte est certainement la question qui suscite le plus d'intérêt.

Bien qu'on ne sache pas grand-chose de la fonction des neurones apparus à l'âge adulte, de nombreux travaux ont permis d'élucider plusieurs aspects de leur prolifération, de leur différenciation et de leur survie. C'est dans le gyrus dentatus que la neurogenèse à l'âge adulte est la mieux connue ; jusqu'à présent, cette région est aussi la seule où une neurogenèse ait été observée chez l'homme adulte. Le nombre des neurones qui y apparaissent est loin d'être négligeable, puisqu'il suffit à renouveler plusieurs fois toute la population des neurones granulaires au cours de la vie d'un rongeur. Cependant, cette production de nouveaux neurones ne paraît pas répondre à un modèle de simple renouvellement, dans lequel des cellules neuves viendraient remplacer les neurones qui meurent. Ainsi, certains neurones granulaires persistent pendant toute la vie de l'animal, alors que d'autres n'ont qu'une brève durée de vie. Les nouveaux neurones pourraient augmenter l'effectif de la population totale, ou bien remplacer les cellules qui meurent sans modifier l'effectif total, et la neurogenèse pourrait donc avoir pour objet de modifier soit l'effectif de cette population, soit l'âge moyen des neurones qui la constituent. Par ailleurs, le rythme de production des neurones n'est pas constant, mais modulé en permanence par des signaux provenant des milieux interne et externe. Peut-être sera-t-il possible de se faire une idée de la fonction des nouveaux neurones à partir de la compréhension des facteurs qui contrôlent la neurogenèse. En ce qui nous concerne, nous avons découvert que deux facteurs contrôlant la neurogenèse dans le gyrus dentatus chez l'adulte jouent tous deux un rôle important dans les processus hippocampiques d'apprentissage et de mémoire, une relation que nous allons détailler maintenant.

Le premier de ces facteurs est le stress, qui réduit la production de nouveaux neurones granulaires5. Le fait a été démontré par deux tests classiques, chez des primates installés dans la cage d'un mâle qui ne leur était pas familier et chez des rats exposés à l'odeur d'un prédateur. Ces effets du stress sur la prolifération cellulaire sont dus à la modification de la concentration d'hormones : les corticoïdes6. Cette observation a été confirmée par l'ablation des glandes surrénales situées au-dessus des reins, comme leur nom l'indique, elles produisent la principale de ces hormones. Elle entraîne une augmentation de la production de nouveaux neurones. Comme les concentrations d'hormones corticoïdes évoluent selon un cycle diurne, la production de nouveaux neurones varie sans doute au cours de la journée, passant par un minimum au réveil et par un maximum douze heures plus tard. Il est probable que des facteurs de stress mineurs et de courte durée ralentissent la neurogenèse pendant plusieurs heures, alors que le stress chronique pourrait la bloquer pendant plusieurs semaines ou plusieurs mois. Quel sens donner à ces résultats ? On considère souvent le stress comme quelque chose de négatif. Cependant, toute expérience nouvelle s'accompagne d'une élévation des concentrations d'hormones corticoïdes et d'autres signes de stress léger, phénomènes qui sont en fait importants pour l'apprentissage qu'impliquent ces situations nouvelles. Pourquoi ralentir la production de nouveaux neurones dans l'hippocampe pendant ce genre de situations ? Il semble que la survie des nouveaux neurones soit meilleure pendant les phases d'apprentissage. Il est donc possible qu'un ralentissement de leur production soit nécessaire pour éviter toute surpopulation.

Dans les processus hippocampiques d'apprentissage, un autre signal important est la liaison d'un neurotransmetteur, le glutamate, à un récepteur appelé NMDA7. Si les récepteurs NMDA sont bloqués, les rats sont incapables d'améliorer leurs performances aux tests de mémoire spatiale faisant intervenir l'hippocampe, comme la classique localisation d'une plate-forme immergée dans une piscine. Le blocage des récepteurs NMDA accroît la production de neurones granulaires et, à l'inverse, une activation de ces récepteurs réduit la production de ces neurones. Paradoxalement, les cellules en cours de division ne portent pas de récepteurs NMDA. Comment le glutamate exerce-t-il son action ? Il pourrait contrôler indirectement la prolifération par l'intermédiaire de signaux provenant des neurones granulaires matures. Ceux-ci émettraient en fait des signaux différents commandant aux cellules précurseurs de se diviser, lorsque leurs récepteurs NMDA sont inactifs. Par ailleurs, de nouvelles données montrent que d'autres neurotransmetteurs, comme la sérotonine et les opiacés, contrôlent eux aussi la prolifération des précurseurs des neurones granulaires ; on est donc conduit à penser que le niveau global d'activité des neurones granulaires matures pourrait contrôler la production des nouvelles cellules. Il existe un autre argument allant dans ce sens : la destruction d'un petit nombre de neurones granulaires matures active aussi la prolifération de leurs précurseurs8. Or les neurones granulaires morts sont inactifs, extrêmement, ce qui cadre avec l'idée selon laquelle une baisse d'activité de ces neurones serait le signal d'une augmentation de la production de nouveaux neurones. On aboutit à un modèle dans lequel les neurones granulaires actifs, dont on peut supposer qu'ils fonctionnent correctement, s'opposent à la production de nouveaux neurones, alors que les neurones silencieux parce qu'ils sont malades ou parce qu'ils ne participent pas à des circuits utiles ou importants déclenchent la production de nouveaux neurones destinés à prendre leur place.

La mise en évidence de la neurogenèse chez l'être humain adulte a suscité des espoirs considérables. La perspective de réparer le cerveau, ou de lui offrir des cures de rajeunissement a été évoquée à de multiples reprises. Qu'en est-il aujourd'hui ?

On a trouvé des neurones nouveau-nés dans l'hippocampe chez les plus âgés des rats et des singes étudiés, et chez des êtres humains jusqu'à l'âge de 72 ans. Mais le nombre de ces nouveaux neurones chute jusqu'à 10 % à peine de la production qu'on observe chez l'adulte jeune. Cette baisse liée à l'âge pourrait s'expliquer par le fait que les précurseurs immatures dotés de la capacité de division et de production de nouveaux neurones persisteraient plus longtemps dans cette région que dans la plupart des autres, mais finiraient malgré tout par mourir. Toutefois, nous avons récemment découvert que, si l'on supprime les corticoïdes surrénaliens chez des rats âgés, la prolifération retrouve le même niveau que chez les adultes jeunes9. Or, les concentrations de corticoïdes sont élevées chez les rats âgés. Ces hormones paraissent donc être responsables de la baisse de la neurogenèse avec l'âge. Fait intéressant, on observe chez certains êtres humains âgés un niveau élevé ou croissant d'hormones corticoïdes, et ce groupe de personnes est beaucoup plus affecté par ce qu'on appelle les pertes de mémoire bénignes de la sénescence liées au vieillissement normal qui diffèrent de celles liées, par exemple, à la maladie d'Alzheimer10. On pense que les pertes de mémoire en question sont liées à la formation hippocampique, où justement la production de neurones granulaires diminue11. Il est donc possible qu'elles soient liées à la diminution de la neurogenèse. A l'heure actuelle, cette relation n'est qu'une corrélation, mais la possibilité - fascinante - existe qu'un abaissement des taux de corticoïdes chez les personnes âgées puisse relancer la neurogenèse et corriger leurs troubles de la mémoire.

Des modifications de la neurogenèse interviennent peut-être aussi dans d'autres troubles hippocampiques comme la maladie d'Alzheimer, les pertes de mémoire consécutives aux accidents vasculaires cérébraux, ou l'épilepsie12 . Si ces hypothèses se vérifiaient, une normalisation de la prolifération des neurones granulaires pourrait contribuer à guérir ces différentes maladies cérébrales. Mais il y a plus encore : on saura peut-être un jour provoquer une régénération dans des populations neuronales qui ne se renouvellent pas normalement, ce qui permettrait de remplacer dans l'ensemble du cerveau les cellules perdues à la suite de lésions ou de maladies. Cependant, rien n'indique encore qu'il soit possible de forcer à se renouveler des neurones qui ne le font pas normalement chez l'adulte. A cette fin, il faudrait tout d'abord comprendre pourquoi la plupart des neurones ne se reproduisent pas à l'âge adulte. On pourrait ainsi se demander quelles sont les caractéristiques communes à ceux qui conservent au contraire cette capacité. A plusieurs égards, ces sous-types de neurones sont très différents les uns des autres. Les neurones granulaires du bulbe olfactif sont inhibiteurs, alors que ceux de l'hippocampe sont excitateurs. Dans le bulbe olfactif, ce sont des interneurones, renvoyant des signaux aux cellules qui leur ont adressé des messages, alors que les grains du gyrus dentatus sont des neurones projectifs, qui envoient des axones véhiculant le principal signal d'entrée des neurones pyramidaux de l'hippocampe. Les neurones corticaux nouveau-nés ont un axone, mais on ne sait pas encore s'ils sont excitateurs ou inhibiteurs, ou s'il en existe des deux types. Néanmoins, ces deux populations possèdent des points communs, le plus manifeste étant bien entendu leur dénomination : cellules granulaires, ou grains. Dans les deux cas, ils furent baptisés par les anciens anatomistes en raison de leur corps cellulaire arrondi et très petit. En outre, ces deux types cellulaires ont tous les deux un arbre dendritique relativement simple, peu ramifié, c'est-à-dire une structure probablement plus facile à produire dans le cerveau mature où l'espace libre est bien moins abondant que dans le cerveau en développement.

Il est possible que les précurseurs neuronaux persistant dans le cerveau adulte n'aient que des possibilités limitées et ne puissent se différencier que pour donner des neurones dotés seulement de ces structures élémentaires. Pourtant, même des cellules immatures transplantées à partir d'un cerveau embryonnaire se révèlent incapables de produire des neurones dans des régions du cerveau adulte où il n'y a pas normalement de neurogenèse. Il existerait donc, dans ces régions particulières, des signaux contrôlant quels types de neurones pourront, ou non, se régénérer à l'âge adulte. De tels signaux existent pendant le développement. Produits au moment voulu et provenant de diverses localisations, ils sont essentiels au développement morphologique des neurones et à l'établissement de leurs connexions, mais ils sont presque certainement absents dans la plus grande part du cerveau adulte. En effet, avec la maturation du système nerveux, les neurotransmetteurs de l'embryogenèse et de l'enfance sont remplacés par ceux de l'âge adulte. Point intéressant, le développement des deux populations de neurones qui se régénèrent à l'âge adulte commence très tard ; les premiers neurones granulaires des deux types apparaissent deux jours avant la naissance chez le rat, à un moment où cesse la production de la plupart des autres neurones. Ce détail est peut-être important, parce que cela signifie que les signaux nécessaires au développement de ces cellules proviennent probablement de neurones relativement matures, qui pourraient persister à l'âge adulte.

Malheureusement, on sait actuellement très peu de chose sur les signaux qui commandent normalement la différenciation et l'intégration en réseaux de la plupart des neurones. Dans le gyrus dentatus adulte, les nouveaux neurones granulaires envoient leur axone en direction des bonnes cellules cibles les cellules pyramidales CA3, et les connexions s'établissent assez rapidement - dans les quatre à dix jours après la fin de la division cellulaire13. Il ressort par ailleurs que cette intégration en circuits est essentielle à la survie des nouveaux neurones ; chez le rat de laboratoire normal, la moitié environ des neurones granulaires nouveau-nés meurent entre une et deux semaines après leur apparition, mais le taux de survie est beaucoup plus élevé si on soumet les rats à des tâches d'apprentissage. Cet effet ne s'observe que si les tâches en question font intervenir l'hippocampe, et s'il y a apprentissage véritable, et non pas seulement activation hippocampique. Peu après la connexion des nouvelles cellules à d'autres neurones, une activation spécifique des circuits ainsi établis est donc probablement nécessaire pour que les nouveaux neurones survivent. Comme l'activation des récepteurs NMDA est un élément essentiel de l'apprentissage hippocampique, il est probable que ces récepteurs sont importants pour la survie et pour la production de nouveaux neurones granulaires dans le gyrus dentatus . Serait-ce l'un des signaux recherchés ? Quoi qu'il en soit, pour remplacer les neurones disparus partout dans le cerveau, il faudra résoudre le problème complexe consistant à fournir tous les signaux nécessaires à leur bonne maturation morphologique et à leur intégration spatiale et temporelle.

Outre le fait qu'elle ouvre des perspectives en matière de réparation du cerveau, la neurogenèse à l'âge adulte modifie la manière dont il faut envisager le fonctionnement normal du cerveau. Depuis quelques années, on observe de plus en plus de signes de plasticité anatomique du cerveau adulte, à plusieurs niveaux, et notamment en ce qui concerne la forme et le nombre des synapses. Cependant, certains scientifiques tiennent encore pour une forme très rigoureuse d'hypothèse du cerveau stable, selon laquelle il n'y aurait aucune plasticité anatomique du cerveau adulte, et notamment du cortex ; ils estiment que la plasticité fonctionnelle qui sous-tend les mécanismes d'apprentissage suppose des modifications de la force des synapses, produites par une modification des récepteurs ou de l'environnement intracellulaire des neurones, au niveau moléculaire. Mais on sait désormais que certains neurones de régions importantes dans les processus d'apprentissage se renouvellent continuellement - ce qui constitue une modification anatomique relativement importante. Les populations de neurones où persiste une neurogenèse échangent toutes des informations avec d'autres populations considérées comme stables pendant toute la vie. Le remplacement de ces sous-populations disséminées signifie que des populations neuronales stables interagissent continuellement avec des populations qui ne cessent de changer, et que les neurones à longue durée de vie doivent établir de nouvelles synapses, ce qui modifie probablement la forme de leur arborescence dendritique. On a observé une formation et une disparition rapide des synapses au niveau des cellules pyramidales de l'hippocampe, mais il est probable que le même phénomène se produise aussi dans d'autres régions cérébrales. Même les populations non neurogènes pourraient donc être moins fixes morphologiquement qu'on ne le pensait auparavant. On est donc conduit à imaginer un modèle complexe de la plasticité cérébrale, dans lequel différentes sous-populations neuronales interagissent et font intervenir des types de plasticité différents, concernant l'expression des protéines, la morphologie cellulaire ou le renouvellement des neurones.

Ce modèle s'oppose à l'hypothèse d'un cerveau anatomiquement stable, mais il n'entre pas forcément en contradiction avec l'idée selon laquelle une population stable de neurones serait nécessaire à la conservation des souvenirs à long terme. Après tout, l'expérience nous apprend que le cerveau est performant pour garder des souvenirs sur des dizaines d'années, mais qu'il sait aussi bien oublier. Notre cerveau reçoit chaque jour tant d'informations nouvelles qu'il est absolument essentiel de les trier et d'éliminer des données sans importance ou dont nous n'avons plus besoin. On ne sait pratiquement rien de la manière dont s'effectuent ces processus, mais il est intéressant de rappeler que l'une des fonctions attribuées à l'hippocampe serait celle de transformer les souvenirs à court terme en souvenirs durables. Il est possible que les neurones à longue durée de vie, peu plastiques, soient essentiels pour la mémoire à long terme, ainsi que pour des fonctions sensitives et motrices qui n'ont pas besoin de changer beaucoup à l'âge adulte, alors que les neurones qui régénèrent interviendraient dans les processus rapides d'apprentissage et de mémoire à court terme.

Par Heather Cameron

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
initiation musicale toulon  

LE CERVEAU DES DYSLEXIQUES

 


Le singulier cerveau des dyslexiques

 

 


voir dans le cerveau - par Michel Habib, Fabrice Robichon et Jean-François
© Yacobchuk / Big Stock Photos

Voilà plus de dix ans que les neurologues se penchent sur le cerveau des dyslexiques. L’imagerie cérébrale a permis de confirmer les particularités anatomiques découvertes chez certains d’entre eux : défaut d’asymétrie des hémisphères cérébraux, taille anormalement grande de la masse de substance blanche qui relie les deux hémisphères. L’imagerie fonctionnelle, en visualisant ce cerveau singulier au travail, aide à comprendre pourquoi il peine à la lecture.

Quelle que soit leur appartenance géographique ou ethnique, 8 à 10 % des enfants d’âge scolaire souffrent de dyslexie. Ils éprouvent des difficultés à apprendre à lire et à écrire qui ne sont dues ni à un retard mental, ni à un trouble psychiatrique ou neurologique, ni à une carence socio-éducative majeure. Ils inversent et confondent les lettres ou les syllabes d’un mot, mais le langage oral peut aussi être plus ou moins perturbé, du simple retard chez l’enfant aux troubles de l’expression chez l’adulte. Dans la grande majorité des cas, la rééducation orthophonique permet à l’enfant d’accomplir sa scolarité, souvent au prix d’efforts considérables. Et les problèmes d’orthographe persistent fréquemment à l’âge adulte.

Depuis quelques années, ce trouble, dont l’origine génétique est fortement suspectée, a pu être relié à une anomalie de la maturation du cerveau. L’imagerie permet aujourd’hui d’en visualiser les conséquences sur l’anatomie cérébrale et d’en discuter les mécanismes. Il devient aussi possible de voir comment ce cerveau singulier, parfois capable de performances hors du commun, traite l’information et se réorganise sous l’effet de la rééducation.

Entre 1979 et 1985, Albert M. Galaburda et ses collaborateurs du Beth Israel Hospital de Boston ont été les premiers à examiner au microscope le cerveau de huit personnes décédées, tous anciens dyslexiques1. Ils ont alors découvert de multiples petites malformations, dont les plus flagrantes sont des « ectopies ». Une ectopie est une véritable verrue à la surface du cerveau, un amas de plusieurs milliers de neurones en position aberrante sur le cortex. Le cerveau des dyslexiques examinés présentait des dizaines de ces amas, témoins d’un défaut survenu au cours de la maturation du cerveau. Ils traduisent en effet une migration anormale des neurones dans la couche la plus superficielle du cortex, normalement très pauvre en cellules. L’anomalie s’est sûrement mise en place chez le foetus, à la fin du deuxième trimestre de la grossesse, lorsque les futurs neurones traversent l’épaisseur du cerveau pour atteindre leur position définitive.

Ces amas de neurones ne sont pas distribués au hasard sur la surface du cerveau : ils sont nettement plus nombreux dans l’hémisphère gauche. De plus, ils prédominent autour d’un des replis du cerveau la scissure de Sylvius, justement dans ce que les neurologues dénomment l’« aire du langage » car chez l’adulte sa lésion entraîne des troubles du langage aphasie.

Il est surprenant que ces malformations microscopiques soient distribuées dans toute la zone du langage. D’abord, on aurait pu s’attendre à ce qu’elles prédominent dans la partie postérieure de l’aire du langage, puisque chez l’adulte, ce sont les lésions de cette zone qui provoquent des troubles spécifiques de la lecture. Ensuite, on peut s’étonner que des malformations dans une vaste zone dévolue au langage en général ne perturbent pratiquement que le langage écrit.

Une explication possible est que le mauvais développement des régions de l’hémisphère gauche affecterait peu la compréhension et l’articulation du langage. Il compromettrait une caractéristique sans doute très élémentaire du traitement des sons qui serait, elle, indispensable à l’apprentissage du langage écrit. Il y a plus de vingt ans, Paula Tallal, de l’université Rutgers à Newark New Jersey, a démontré une caractéristique frappante du fonctionnement cérébral du dyslexique. Souvent celui-ci a particulièrement du mal à distinguer deux sons présentés de manière rapprochée : alors qu’un enfant est généralement capable de discriminer deux sons distants de moins de 20 millisecondes ms, la majorité des dyslexiques ne peuvent le faire que si l’intervalle mesure plus de 300 ms2. Une telle anomalie peut modifier considérablement la perception auditive des dyslexiques, qui seraient alors véritablement « sourds » à certains sons du langage. Par exemple au passage consonne/voyelle dans des syllabes comme /pa/ ou /ba/, dont la différence, du point de vue des caractéristiques acoustiques, se joue à une vingtaine de millisecondes près. On comprend dès lors que l’apprentissage de la lecture, qui consiste fondamentalement à associer un son à une lettre et vice versa , puisse être compromis. Ceci reste cependant à confirmer, d’autant que ce trouble de la discrimination des sons est absent chez environ un tiers des enfants dyslexiques dans ces cas, l’élément déterminant pourrait être d’ordre visuel plutôt qu’auditif.

Selon une autre hypothèse plus ancienne, la dyslexie est la conséquence d’un défaut de latéralisation du langage qui prédomine dans l’hémisphère gauche chez les droitiers ; chez les gauchers et les ambidextres, cette latéralisation est moins prononcée, voire inversée. Déjà, des cliniciens du début du siècle avaient remarqué que les enfants dyslexiques sont souvent ambidextres, mal latéralisés, écrivent parfois en miroir et font des erreurs d’inversions droite/gauche lorsqu’ils lisent ou écrivent. A la fin des années 1960, Norman Geschwind et Walter Levitsky ont suggéré le rôle déterminant de l’asymétrie d’une région du cortex dévolue au traitement des informations auditives et située dans le lobe temporal, le planum temporale . Ils ont mesuré la taille de cette aire sur cent cerveaux de cadavres et démontré qu’elle est nettement plus grande du côté gauche chez environ les deux tiers des individus ; chez le tiers restant, planums droit et gauche sont dans la majorité à peu près de la même taille3. Le groupe de Galaburda a réalisé la même mesure sur les cerveaux de dyslexiques et trouvé un aspect symétrique du planum sur la totalité des huit cerveaux examinés. Nécessairement, ce type de constatation réalisée post mortem repose sur un nombre limité de cerveaux. Cependant, elle pourrait s’avérer un précieux indice pour répondre à de nombreuses questions sur le cerveau du dyslexique. Pouvait-on la vérifier à plus large échelle et chez des personnes vivantes, grâce à l’imagerie ?

Parmi les outils disponibles, la meilleure méthode pour visualiser la morphologie du cortex cérébral est l’imagerie par résonance magnétique IRM. Dès la généralisation de cette technique, vers la fin des années 1980, diverses équipes ont tenté de répliquer sur de plus larges populations les données de Galaburda sur le planum temporale . Elles se sont alors heurtées à de nouvelles difficultés inhérentes à la méthode. Par exemple, il n’est pas aisé de repérer avec précision les limites du planum . Et comme les groupes de chercheurs ont utilisé des méthodes de mesure différentes, les résultats ne sont pas nécessairement comparables.

Une des premières études a été celle de George Hynd et ses collaborateurs, à l’université de Géorgie. Le but principal était de savoir si l’anomalie d’asymétrie est spécifique de la dyslexie, ou si elle se retrouve dans d’autres troubles. Pour ce faire, ils ont mesuré la taille du planum temporale chez dix enfants dyslexiques et l’ont comparée aux mesures chez dix enfants souffrant de « syndrome d’hyperactivité », une affection qui se caractérise par un trouble du développement des aptitudes liées à l’attention : défaut de concentration, distractivité importante, impossibilité à rester en place et impulsivité. Alors que 70 % des hyperactifs présentaient l’asymétrie habituelle en faveur de l’hémisphère gauche, celle-ci était absente chez 90 % des dyslexiques. Ce résultat suggérait que le planum temporale joue un rôle particulier dans le trouble du dyslexique4. L’équipe norvégienne de Jan Peter Larsen a obtenu des résultats similaires. Sur dix-neuf dyslexiques et dix-sept témoins, elle a retrouvé un aspect symétrique du planum chez 70 % des dyslexiques et 30 % seulement des témoins5. En outre, ces chercheurs sont allés plus loin, en essayant de mettre en relation les singularités anatomiques du cerveau dyslexique avec ses caractéristiques fonctionnelles. Ils n’ont observé de symétrie du planum que chez les dyslexiques ayant d’importantes difficultés à convertir des graphèmes, unités du langage écrit, en phonèmes, unités du langage oral par exemple le mot « chapeau » comporte sept graphèmes, c-h-a-p-e-a-u, transformés en quatre phonèmes, /º/ /a/, /p/, /o/. Ainsi, la prédominance du planum gauche semble liée à l’aptitude des sujets à traiter les sons du langage.

Lors d’une étude plus récente6, Christina Leonard, de l’université de Floride, n’a pas retrouvé cette différence entre neuf dyslexiques et douze témoins soigneusement sélectionnés. En revanche, elle conclut à l’existence d’un défaut d’asymétrie dans une autre partie de la zone du langage, située cette fois dans le lobe pariétal, le cortex pariétal inférieur. Cette région est placée juste au-dessus du planumtemporale : les anomalies constatées dans les études précédentes étaient peut-être des artefacts liés à une précision insuffisante des repérages anatomiques en IRM.

De fait, la région pariétale, qui est aussi plus développée à gauche chez la majorité des personnes7, est connue pour abriter certains aspects, en particulier phonologiques, du traitement du langage. Chez l’adulte, sa lésion à la suite d’un accident vasculaire cérébral provoque des troubles de l’ordonnancement des sons du langage et des syllabes. De même, en anatomie fonctionnelle, cette région s’active lorsque le sujet doit stocker quelques secondes une information auditive mémoire « de travail ». Or les dyslexiques sont justement en grande difficulté lorsqu’ils doivent dans le même temps traiter un son du langage et le maintenir quelques secondes en mémoire épreuves de « conscience phonologique ». Par exemple, un enfant dyslexique, et même un adulte ayant apparemment complètement récupéré d’une dyslexie de l’enfance, seront mis en défaut lorsqu’on leur demande de segmenter un mot en ses constituants sonores, ou encore de décider si deux mots entendus riment ou non. L’une de ces épreuves illustre parfaitement la nature du trouble. Le sujet doit trouver l’« intrus » parmi quatre mots qui lui sont prononcés exemple : « blé » ; « blanc » ; « bras» ; « bleu ». Pour réaliser une telle épreuve, il faut à la fois segmenter chaque mot en sons, en particulier séparer les consonnes doubles, étape la plus délicate pour un dyslexique, et garder le résultat en mémoire auditive pendant quelques secondes. On pouvait donc supposer que, plutôt que le lobe temporal, c’est le lobe pariétal qui est impliqué dans ce traitement complexe permettant de « jouer » avec les sons du langage.

Existe-t-il une relation entre le défaut d’asymétrie du lobe pariétal et le trouble de la « conscience phonologique » que présentent si souvent les dyslexiques ? Pour le savoir, nous avons proposé le même type d’épreuves à seize jeunes adultes anciens dyslexiques et à autant de sujets témoins. Tous ont subi un examen du cerveau par IRM pour mesurer l’asymétrie à la fois du planum temporale et de la région pariétale inférieure voir figure ci-dessous.

Plusieurs études ont associé la dyslexie à une mauvaise latéralisation des aires du langage, qui d’habitude prédominent dans l’hémisphère gauche. Ici, l’une de ces aires, la région pariétale inférieure, est visualisée en IRM chez un ancien dyslexique en bleu dans les deux hémisphères. Chez un sujet normal, elle est nettement plus grande à gauche. Ici, elle est presque symétrique. Nombre d’adultes ayant été dyslexiques pendant l’enfance présentent cette particularité. Clichés auteurs

Laissez le curseur sur les images pour accéder aux légendes.

Plusieurs études ont associé la dyslexie à une mauvaise latéralisation des aires du langage, qui d’habitude prédominent dans l’hémisphère gauche. Ici, l’une de ces aires, la région pariétale inférieure, est visualisée en IRM chez un ancien dyslexique en bleu. Chez un sujet normal, elle est nettement plus grande dans l’hémisphère gauche. Ici, elle est presque symétrique. Nombre d’adultes ayant été dyslexiques pendant l’enfance présentent cette particularité. Cliché auteurs" alt="Plusieurs études ont associé la dyslexie à une mauvaise latéralisation des aires du langage, qui d’habitude prédominent dans l’hémisphère gauche. Ici, l’une de ces aires, la région pariétale inférieure, est visualisée en IRM chez un ancien dyslexique en bleu. Chez un sujet normal, elle est nettement plus grande dans l’hémisphère gauche. Ici, elle est presque symétrique. Nombre d’adultes ayant été dyslexiques pendant l’enfance présentent cette particularité. Cliché auteurs" src="http://www.larecherche.fr/content/system/media/0/289/02890801_1.gif" />

Les dyslexiques, qui ont pourtant atteint, grâce à une rééducation adéquate, un niveau de lecture quasiment normal, réalisent une performance très inférieure à celle des témoins en moyenne 40 % d’erreurs contre moins de 5 % chez les non-dyslexiques. Surtout, les difficultés qu’ils éprouvent sont proportionnelles au degré de symétrie de l’aire pariétale inférieure. Elles s’avèrent en revanche indépendantes du degré de symétrie du planum temporale . Ainsi, l’imagerie anatomique montre que la particularité du cerveau du dyslexique doit bien se trouver au niveau pariétal, et non au niveau temporal comme cela était suspecté jusqu’alors. Mieux, cette particularité paraît étroitement liée à l’intensité du trouble du dyslexique, auquel elle doit nécessairement contribuer.

Quelle peut être la nature de ce lien ? On suppose que l’asymétrie est indispensable à l’installation et à la spécialisation des circuits de l’hémisphère gauche essentiels à l’apprentissage de la lecture. Chez le dyslexique, une asymétrie insuffisante de la région pariétale inférieure pourrait expliquer en partie que ces circuits hémisphériques gauches ne puissent assumer pleinement leur rôle. Mais cette explication ne peut être que partielle, puisque bon nombre de sujets sans cette asymétrie 30 à 35 % des témoins ne sont pas pour autant dyslexiques. Une autre théorie, proche et complémentaire, fait intervenir dans la dyslexie un trouble du transfert d’informations entre les deux hémisphères. Les psychologues du développement ont en effet retrouvé chez les dyslexiques les signes d’une mauvaise maturation des relations interhémisphériques. Ils présentent souvent des symptômes très similaires à ceux d’adultes dont les connexions entre hémisphères ont été coupées : défaut de coordination des deux mains, mauvaise identification des stimuli tactiles sur la main gauche, « extinction » de l’oreille gauche lorsqu’on leur présente simultanément un mot dans chaque oreille. Dans tous les cas, ces symptômes s’expliquent par le fait que l’information parvenue à un hémisphère ne peut atteindre l’hémisphère opposé.

Autre singularité anatomique relevée chez des dyslexiques : le corps calleux, cette volumineuse masse de fibres qui relient les deux hémisphères, visible ici en IRM flèche. A gauche, le cerveau d’un ancien dyslexique ; à droite, celui d’un témoin. Chez le dyslexique, le corps calleux est plus gros et de forme différente. L’origine d’une telle singularité pourrait remonter aux premières semaines après la naissance, lorsque le corps calleux prend sa forme définitive. Mais elle pourrait aussi traduire les effets de la rééducation. Clichés auteurs

Le transfert des informations entre les deux hémisphères du cerveau se fait grâce à une structure cérébrale, le corps calleux. C’est une masse de substance blanche faite de millions de fibres nerveuses, issues des neurones d’un hémisphère et aboutissant dans la zone symétrique de l’hémisphère opposé. Le corps calleux apparaît de façon évidente sur une coupe médiane du cerveau en IRM voir figure ci-dessus, ce qui permet d’analyser sa forme et de mesurer sa taille avec précision.

Bien que ce type d’analyse soit facile, peu de travaux ont examiné le corps calleux des dyslexiques. En outre, les quelques études réalisées ont donné des résultats contradictoires. C’est sans doute, en grande partie, parce que l’apparence du corps calleux change avec l’âge et le sexe. Sa taille croît progressivement pendant l’enfance, jusqu’à l’âge de 16 ans environ. De sorte que toute étude chez des enfants d’âges différents s’expose à un biais méthodologique évident. De plus, les hommes en particulier les gauchers ont un corps calleux proportionnellement plus étendu que celui des femmes8,9. Les dyslexiques que nous avons étudiés sont tous des jeunes hommes âgés de 18 à 24 ans. La mesure de leur corps calleux a montré qu’il est plus gros que chez les témoins, et que sa forme même est différente.

Le cerveau des dyslexiques présente ainsi deux traits d’anatomie singuliers : un défaut d’asymétrie des lobes temporaux et pariétaux, et un corps calleux anormalement gros, ce qui indique qu’un plus grand nombre de fibres nerveuses relient les deux hémisphères.

Quelle est l’origine de ces particularités ? Sont-elles liées à un défaut du développement du cerveau ? Galaburda10 a montré que chez les dyslexiques la symétrie du planum temporale est due à un développement excessif du côté droit et non pas à un planum gauche trop petit. Les raisons n’en sont pas encore élucidées. Mais il est possible que des phénomènes de mort de neurones, qui ont normalement lieu lors de la maturation du cerveau au troisième semestre de la grossesse, ne puissent pour une raison encore inconnue s’opérer pleinement chez le dyslexique. Chez la majorité des individus, une plus grande quantité de neurones seraient perdus à droite qu’à gauche ; pas chez le dyslexique, ce qui aboutirait à un cerveau anormalement symétrique11.

Si deux régions analogues des hémisphères droit et gauche comportent globalement plus de neurones, on peut concevoir que les fibres qui en sont issues doivent être plus nombreuses. Ce qui pourrait expliquer la plus grande taille du corps calleux chez les dyslexiques. Toutefois, le corps calleux n’acquiert sa forme définitive que plus tard, au cours de la petite enfance. Giorgio Innocenti et son équipe de l’université de Lausanne12 ont montré en particulier que l’amincissement de sa partie arrière l’isthme apparaît huit à dix semaines après la naissance. Au cours de cette période, des millions de fibres du corps calleux sont alors éliminées.

Les singularités anatomiques du cerveau dyslexique pourraient donc avoir une origine très précoce, remontant à la vie foetale pour les ectopies et les asymétries des hémisphères, et aux tout premières semaines de vie dans le cas du corps calleux. De façon intéressante, l’anomalie correspondrait à chaque fois à un défaut de phénomènes régressifs au cours de la maturation cérébrale, avec pour résultat un excès de neurones et de connexions.

Jusqu’à présent, l’idée dominante était que ces anomalies sont fixées très tôt après la naissance. Mais depuis peu, on envisage le rôle possible de l’apprentissage sur l’anatomie macroscopique du cerveau. C’est ce qu’indiquent les travaux de l’équipe de Helmuth Steinmetz, à Düsseldorf, sur une population très particulière et riche d’enseignements, les musiciens professionnels. Ces chercheurs ont étudié trente témoins et trente musiciens ayant bénéficié d’un apprentissage intensif durant l’enfance. Chez les musiciens, la partie antérieure du corps calleux est significativement plus volumineuse voir figure ci-dessous13.

Apprendre à jouer un instrument de musique pendant l’enfance semble modifier la forme du corps calleux. Celui d’un musicien professionnel, à gauche, est comparé à celui d’un témoin, à droite. L’hypertrophie de la partie antérieure chez le musicien serait liée à une plus grande quantité de fibres reliant les aires motrices droite et gauche. Par analogie, on peut supposer que la rééducation active d’un enfant dyslexique modifie l’état des connexions entre hémisphères. Schlaug et al., Düsseldorf

Qui plus est, l’asymétrie du planum en faveur de l’hémisphère gauche serait plus marquée chez ceux qui jouissent de l’oreille absolue14. La morphologie du cerveau peut donc encore se sculpter longtemps après la naissance, sous l’effet de l’apprentissage voir l’article de Thomas Elbert et Brigitte Rockstroh dans ce numéro. Par analogie, les caractéristiques anatomiques du cerveau du dyslexique pourraient refléter non seulement des particularités du développement prénatal, mais aussi l’influence de la rééducation intensive.

Aujourd’hui, la possibilité d’explorer le cerveau au travail, grâce aux méthodes d’imagerie fonctionnelle, permet d’aller plus loin que la simple anatomie. Comment le cerveau « singulier » du dyslexique traite-t-il les messages qui lui parviennent ? A quel niveau de traitement se situent les déficits entravant l’apprentissage normal de la lecture ?

Les troubles du dyslexique erreurs de transcription des graphèmes en phonèmes ne sont pas seulement dus à un déficit de traitement des sons du langage. Ils sont aussi, au moins en partie, liés à un défaut de la perception visuelle. La lecture des mots a d’abord été étudiée par la méthode des potentiels évoqués. Si on enregistre l’activité électrique du cerveau d’une personne en train de lire le dernier mot d’une phrase, une onde négative apparaît 400 millisecondes après la présentation du mot onde dite N400. Cette onde est d’autant plus ample que le mot a un sens incongru par rapport au début de la phrase par exemple : « L a mère tient son enfant dans ses narines » . Si le dernier mot est plausible « la mère tient son enfant dans ses bras » , l’onde est très faible ou disparaît. On admet ainsi que l’onde N400 reflète l’effort conscient produit pour tenter d’intégrer un mot dans le sens général d’une phrase. Helen Neville, de l’université de Californie à San Diego, a montré que les personnes dyslexiques présentent, sur les phrases « incon-grues », des ondes N400 plus amples que celles des témoins.

Qui plus est, les ondes N400 apparaissent chez les dyslexiques même pour les phrases plausibles15. Ainsi, un dyslexique semble se comporter devant tous les mots comme un lecteur normal devant un mot incongru. Ses troubles de lecture pourraient donc résulter, au moins en partie, de l’incapacité à intégrer un mot dans le sens de la phrase.

Mais on pense que ce déficit n’est que la conséquence d’un trouble plus élémentaire, touchant des étapes très précoces du traitement des mots écrits. En effet, un dyslexique obtient des performances plus faibles que la moyenne s’il doit analyser les caractéristiques visuelles élémentaires de certains objets. Une spécialiste américaine de ce domaine, Margaret Livingstone, a par exemple présenté à des témoins et à des dyslexiques un damier noir et blanc dont on inverse rapidement les cases et dont on fait varier le contraste. Dans le même temps, l’activité électrique du cortex est mesurée par la méthode des potentiels évoqués. Résultat : quel que soit le contraste du damier, les témoins présentent des ondes précoces 50 millisecondes après la présentation du stimulus. En revanche, chez les dyslexiques, ces ondes n’apparaissent que pour les forts contrastes16. La perception de ce type d’objet dépend de voies visuelles distinctes de celles chargées de la vision d’objets colorés ou plus contrastés. Et c’est justement ce système « à faible contraste » qui intervient lorsqu’un mot est présenté très brièvement.

Qu’en est-il lors de la perception visuelle de mots ? Chez les personnes témoins, la lecture d’un mot suscite des ondes précoces entre 30 et 100 millisecondes, qui reflètent ses caractéristiques visuelles forme générale du mot, hauteur des lettres, etc.. Avec Mireille Besson, du laboratoire de neurosciences cognitives, à Marseille, nous avons montré que chez les dyslexiques ces ondes sont altérées. Elles diminuent d’amplitude, voire disparaissent, en corrélation avec la difficulté du dyslexique à lire des non-mots des alignements de lettres ou de syllabes dépourvus de sens17.

Les méthodes de potentiels évoquées restent toutefois très imprécises quant à la topographie des zones cérébrales impliquées. D’où l’intérêt de se tourner vers l’imagerie fonctionnelle avec la caméra à positons ou TEP pour tenter de comprendre quelles régions du cerveau fonctionnent différemment chez un dyslexique. La méthode a d’abord été utilisée pour étudier le traitement sonore des mots.

Les premiers travaux, à la fin des années 1980, n’obtenaient qu’une résolution spatiale faible, de l’ordre d’un centimètre cube. Ils semblaient montrer qu’à la lecture de mots, certaines régions de l’hémisphère droit normalement silencieuses s’activent chez les dyslexiques18. En utilisant la méthode plus précise à l’oxygène 15, Judith Rumsey, du NIH à Bethesda, a étayé ces résultats. Dans son expérience, les sujets - dyslexiques ou non - doivent déterminer si deux mots entendus riment19. Cette tâche est plus difficile pour les dyslexiques. Judith Rumsey s’est concentrée en imagerie sur des « régions d’intérêt », situées dans les lobes temporal et pariétal de l’hémisphère gauche. Ces régions sont, à l’échelle macroscopique, d’anatomie normale chez le dyslexique. Mais leur activité est plus faible que chez les témoins. Certaines zones du cerveau du dyslexique ne semblent donc pas pouvoir entrer en action lorsqu’il doit effectuer un traitement pourtant simple du contenu sonore de deux mots. Cependant, cette étude avait l’inconvénient de ne visualiser qu’une petite partie des hémisphères cérébraux.

Aujourd’hui, l’imagerie permet de réaliser de véritables cartes fonctionnelles de l’ensemble du cerveau. Cette année, Eraldo Paulesu et ses collaborateurs, à Milan et à Londres, ont ainsi pu visualiser pour la première fois un cerveau entier de dyslexique « en action20 ». Ils ont proposé à cinq anciens dyslexiques deux tâches phonologiques, l’une de jugement de rimes, l’autre de mémoire à court terme retenir une série de lettres. Chez les non-dyslexiques, ces deux tâches activent la totalité de l’aire du langage cortex pariétal inférieur, aire de Broca et aire de Wernicke, cette dernière incluant le planum temporale . A l’inverse, les dyslexiques n’en utilisent qu’une partie : la tâche de jugement de rimes n’active que l’aire de Broca, celle de mémoire à court terme n’active que l’aire de Wernicke. Paulesu et ses collègues ont proposé que ces deux aires du langage sont déconnectées chez les dyslexiques, et ne peuvent être activées simultanément.

L’activité cérébrale est ici visualisée en TEP pendant la lecture passive d’un mot. En haut, une personne témoin, en bas, deux dyslexiques. Chez le témoin, la vision du mot active une vaste zone de l’hémisphère gauche, qui correspond aux aires du langage. L’hémisphère droit reste presque silencieux. En revanche, chez les deux dyslexiques, les aires du langage restent silencieuses et l’activation est très forte dans l’hémisphère droit. Notons que les zones actives ne sont pas strictement superposables chez les deux dyslexiques. On suppose qu’un mauvais établissement des connexions entre les aires du langage empêche, chez les dyslexiques, le traitement automatique des aspects linguistiques des mots. Clichés auteurs

Avec Richard Frackowiak, à Londres, nous nous sommes récemment penchés sur le traitement des mots écrits. Nous avons placé douze volontaires six dyslexiques et six témoins dans deux situations distinctes. Dans l’une, le sujet doit lire passivement des mots voir figure ci-dessus. Dans l’autre, il écoute un mot et doit juger de son orthographe voir figure ci-dessous. Dans les deux cas, le dyslexique n’active qu’incomplètement, par rapport au témoin, la zone du langage gauche. En outre, alors que le lecteur normal témoin active de manière presque exclusive son hémisphère gauche, chez le dyslexique, les deux tâches provoquent une activation anormalement importante de l’hémisphère droit. Le fonctionnement du cerveau des dyslexiques présente donc deux caractéristiques singulières. D’une part, une moindre activation des régions normalement impliquées dans les tâches de traitement sonore ou visuel des mots. D’autre part, une activation anormale d’autres régions, en particulier dans l’hémisphère droit, ce qui peut être rapproché du défaut d’asymétrie souvent observé. Il faut cependant nuancer ces conclusions au vu de l’importance des variations entre individus, maintenant révélées par l’étude séparée en imagerie de chaque sujet. Les premiers travaux d’imagerie fonctionnelle masquaient ces différences, car les images étaient réalisées par moyennage de plusieurs sujets afin d’obtenir un contraste suffisant.

L’activité cérébrale d’un dyslexique et d’un témoin est ici comparée pendant une épreuve où ils doivent, à partir d’un mot entendu, décider de son orthographe. Chez les deux sujets, le cortex auditif est actif dans les deux hémisphères. Mais l’activation est nettement plus importante à gauche chez le témoin, à droite chez le dyslexique. De plus, une grande partie des aires du langage zones pariétale et frontale inférieures gauches ne sont que peu ou pas activées chez le dyslexique. Même lorsqu’un effort cognitif lui est demandé, le dyslexique semble donc incapable de mettre convenablement en jeu la totalité des aires du langage. Clichés auteur

Les anomalies d’activation observées chez le dyslexique témoignent probablement du défaut de mise en place, au cours du développement, des connexions qui, entre hémisphères et au sein de chaque hémisphère, relient les zones impliquées dans un même aspect du traitement du langage. Visualiser le cerveau du dyslexique au travail trahit déjà, même si les données sont préliminaires, une mauvaise connexion des différentes aires du langage. La mise en activité, lorsque l’enfant apprend à lire, de circuits improprement connectés, pourrait jouer un rôle déterminant dans la stabilisation de ces connexions aberrantes. Et, par là même, dans la pérennisation des difficultés d’apprentissage. Une rééducation précoce des aptitudes de l’enfant à la segmentation du langage est actuellement proposée, avant même le début de l’apprentissage de la lecture. Les capacités d’un enfant de 5 ans à segmenter le langage oral permettent en effet de prédire de façon excellente ces futures aptitudes en lecture. On conçoit que plus l’entraînement est précoce, plus grandes sont les chances de récupérer un niveau d’efficacité suffisant, ou du moins de limiter les conséquences de l’anomalie de la morphologie du cerveau.

Récemment, la neuropsychologue Paula Tallal, en collaboration avec Michael Merzenich, de l’université de Californie à San Francisco, a d’ailleurs montré qu’une rééducation intensive centrée sur la discrimination temporelle des sons du langage déficiente chez au moins une partie des dyslexiques peut améliorer de façon durable non seulement les performances auditives des enfants, mais aussi leur compréhension du langage21.

Il faudra patienter encore quelques années avant de penser à intégrer l’imagerie dans la prise en charge des dyslexiques

La découverte d’une possible influence de l’apprentissage précoce sur la morphologie même du cerveau laisse entrevoir le rôle considérable que pourrait jouer, dans le futur, l’imagerie cérébrale dans la prise en charge de la dyslexie. On peut imaginer qu’elle permettra d’analyser avec précision la morphologie du cerveau d’un enfant, pour choisir par exemple la méthode de rééducation en fonction du degré d’asymétrie des aires du langage. Eventuellement, on pourrait évaluer les effets de cette rééducation sur les caractéristiques anatomiques et fonctionnelles mesurées. A cet égard, l’introduction récente de l’IRM fonctionnelle sera d’un intérêt tout particulier, en raison de sa parfaite innocuité qui permet des examens répétés contrairement à la TEP, qui demande l’injection d’un produit radioactif. L’application de ces méthodes à la pratique clinique devra encore attendre quelques années de validation expérimentale.

Michel Habib, Fabrice Robichon et Jean-François Démonet 1996

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 ] Précédente - Suivante
 
 
 
Google