ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
initiation musicale toulon  

INTELLIGENCE ARTIFICIELLE

 

 

 

 

 

 

 

intelligence artificielle

Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.

Intelligence artificielle et sciences cognitives
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.


Les sciences cognitives
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.

Le projet et son développement
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.

Les précurseurs
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.

Naissance et essor de l'informatique
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.

Le fondateur
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.

Mise en forme de l'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.

Les critiques du projet
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.

Objection logique
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.

Objection épistémologique
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.

Objection philosophique
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.

Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.

La résolution de problèmes
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.

Algorithmes et heuristique
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.

Le cas exemplaire du jeu d'échecs
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.

Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).

Les réseaux neuronaux
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.

Une première tentative infructeuse
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.

Les réseaux actuels
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.

Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.

Quelques applications
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.

Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.

Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !

Intelligence artificielle et éducation
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.

Perspectives
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.

L'IA sans représentation de connaissance
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.

L'« artificial life »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.

Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.

 

DOCUMENT   larousse.fr    LIEN

 
 
 
initiation musicale toulon  

Les glaces polaires fondent de plus en plus

 

 

 

 

 

 

 

Les glaces polaires fondent de plus en plus
Frédérique Rémy dans dlr 51
daté octobre 2012 -  Réservé aux abonnés du site


De la grande calotte du Groenland aux petits glaciers, toutes les régions de l'Arctique fondent. Mais pas toutes au même rythme. Le plus inquiétant est que, dans certaines zones, la fonte s'accélère.
Le 12 juillet 2012, pour la première fois depuis trente ans que des satellites sont en orbite pour surveiller les régions polaires, la fonte des glaces a été observée sur la totalité de la surface du Groenland. Victime spectaculaire du réchauffement dans l'Arctique, la banquise* n'est donc pas, loin s'en faut, l'unique sujet de préoccupation des climatologues. Un autre élément joue un rôle déterminant dans le réchauffement : ce sont les quantités considérables de glace qui recouvrent les terres émergées de l'Arctique, comme le Groenland ou le nord du Canada. Elles subissent de plein fouet l'effet du réchauffement dans la région, qui est deux fois plus rapide que dans le reste du globe. C'est leur fonte, et non celle de la banquise (lire « La banquise a un effet protecteur sur le réchauffement », p. 20), qui est l'une des principales sources de l'élévation actuelle du niveau de la mer.

Or les glaces des terres arctiques existent sous des formes très diverses : les calottes* et les inlandsis - vastes plateaux de glace en forme de dôme -, les glaciers - masses de glace des zones montagneuses qui glissent lentement vers le fond des vallées -, le sol gelé ou pergélisol... Tous réagissent différemment au réchauffement. Aujourd'hui, la multiplication des études de télédétection satellitaire permet de mieux cerner les effets de ce phénomène sur chacune des composantes des glaces arctiques. Et de préciser leurs rôles dans le système climatique.

UNE FONTE DES GLACES ALARMANTE AU GROENLAND
Globalement, la fonte des glaces de l'Arctique, si on y inclut l'ensemble du Groenland, contribue à hauteur de 25 % à 40 % à l'élévation du niveau de la mer. La contribution de l'Antarctique reste débattue, mais inférieure à 15 %. Quant au reste, il est causé par la fonte de l'ensemble des glaciers présents ailleurs sur la Terre, comme ceux de l'Himalaya ou de la Patagonie, et par la dilatation de l'océan due à l'élévation de température.

De toutes les régions arctiques, le Groenland est de loin celle dont la situation est la plus préoccupante. Malgré l'inertie thermique de cette calotte gigantesque, qui représente 1,7 million de kilomètres carrés et un volume de 3 millions de kilomètres cubes, ses glaces sont particulièrement touchées par le réchauffement.

Au Groenland, tous les voyants climatiques sont au rouge. Ainsi, chaque année, la portion de la calotte groenlandaise dont la surface fond en été est de plus en plus importante. Sa superficie a augmenté de 40 % en vingt-cinq ans. Cette tendance est constante depuis le début des observations des radiomètres satellites en 1979. Cette augmentation est clairement corrélée à l'élévation des températures au Groenland, estimée à 2,4 °C durant la même période. Au départ, la fonte était confinée dans les régions les moins froides, au sud du Groenland, et à basse altitude. Aujourd'hui, elle atteint le nord et se produit au-delà de 1 500 mètres d'altitude, y compris dans les zones les plus proches du pôle. Elle a même atteint toute la calotte l'été dernier.

DES GLACIERS QUI BOUGENT DE PLUS EN PLUS VITE
Autre indicateur clair de la diminution de la calotte groenlandaise, l'accélération des glaciers émissaires. Il s'agit de langues de glace présentes au pourtour d'une calotte. Ces glaciers ont pour effet, en quelque sorte, d'évacuer le contenu de cette dernière. Car ils s'écoulent vers le fond des vallées, voire vers la mer, où ils rencontrent des températures plus chaudes. Plus ils vont vite, plus ils libèrent des icebergs dans la mer. La vitesse de ces glaciers a été mesurée en comparant des images radar ou optique, prises à quelques semaines d'écart. Résultat : la majorité d'entre eux ont vu leur vitesse augmenter de quelques dizaines de pour cent pendant la dernière décennie. Ainsi, la vitesse du plus emblématique glacier du Groenland, le Jakobshavn Isbræ, classé au patrimoine mondial de l'Unesco, a fait plus que doubler depuis 1995, passant de 20 mètres par jour à plus de 40. Cette tendance est confirmée par les mesures d'épaisseur des ces glaciers, qui ont tendance à s'amincir quand ils vont plus vite.

Plusieurs phénomènes peuvent expliquer l'accélération de ces glaciers. En général, le déplacement du glacier sur son socle rocheux est lubrifié par un mince film d'eau, très discontinu, qui est situé entre les deux. Ce film est en partie alimenté par l'eau provenant de la glace fondue en surface qui s'infiltre jusqu'au socle rocheux. Le glacier glisse donc d'autant plus vite que la fonte est élevée. Toutefois, l'accélération vient surtout de la lubrification par l'eau de mer. Elle s'infiltre sous le glacier, à l'endroit où celui-ci atteint le rivage. Plus le réchauffement est important, plus l'eau de mer fait fondre le glacier, et mieux elle s'infiltre en dessous de lui.

Globalement, toutes les études confirment aujourd'hui que la calotte groenlandaise perd plus de masse en fondant qu'elle n'en reçoit sous forme de neige. Bilan : entre 100 et 250 milliards de tonnes en moins tous les ans. Les glaciologues obtiennent ces estimations en observant par satellite les variations de l'épaisseur de la calotte, mais également en analysant de fines variations de la gravité terrestre, mesurées là aussi par satellite. Et toutes les régions du Groenland sans exception perdent aujourd'hui de la masse. Bien que le réchauffement accélère le cycle de l'eau et provoque ainsi des neiges plus abondantes dans le centre du territoire, ces dernières ne compensent plus l'importante fonte des glaces des régions côtières. Pendant longtemps, jusqu'en 2005, le nord de la calotte recevait encore suffisamment de neige pour compenser la fonte accrue. Actuellement, même cette région perd de la masse.

LES CONSÉQUENCES SUR LA MONTÉE DES OCÉANS
Cette perte annuelle de masse de glace contribue à élever le niveau de la mer de 0,3 à 0,7 millimètre par an, selon les estimations. Cela représente de 10 % à 20 % environ de l'augmentation annuelle du niveau de la mer. En outre, la plupart des climatologues estiment aujourd'hui que l'on est en présence d'une vraie tendance de fond et non de fluctuations d'une année sur l'autre. Depuis au moins quelques décennies, les pertes de masse de la calotte groenlandaise s'accélèrent.

D'autres calottes et glaciers de l'Arctique connaissent une évolution inquiétante. C'est le cas du nord du Canada et de l'Alaska, qui constituent les deux plus vastes terres recouvertes de glace dans l'Arctique après le Groenland. L'Alaska, en particulier, semble particulièrement vulnérable au réchauffement de la région. Car il comporte de nombreuses langues de glace assez étendues. Or ces dernières sont situées à basse altitude, leurs extrémités étant souvent en contact direct avec l'océan. Comme celui-ci, tout comme l'atmosphère, se réchauffe, elles ont tendance à fondre rapidement.

Pour ces raisons, la seconde partie du XXe siècle a été très destructrice pour les glaces de l'Alaska. Alors qu'elles ne représentent que 5 % de la surface du Groenland, elles ont contribué à près de 10 % de la hausse totale du niveau de la mer pendant cette période. La fonte, qui s'était accélérée pendant la décennie 1990, s'est un tout petit peu ralentie lors de la décennie suivante. Elle s'est aujourd'hui stabilisée à un rythme qui reste très important : elle contribue à élever le niveau de la mer de 0,22 millimètre par an, soit environ 7 % de l'augmentation annuelle.

L'ARCTIQUE CONNAÎT DES SITUATIONS CONTRASTÉES
Longtemps assez épargné, le Canada semble désormais suivre la voie de l'Alaska. Jusqu'à la fin du XXe siècle, les glaciers et les calottes qui recouvrent les îles du nord du pays résistaient plutôt bien au réchauffement des régions arctiques. Mais des travaux récents viennent de montrer que leur fonte s'est accentuée brutalement depuis 2004. Entre 2007 et 2009, la contribution de ces glaces à l'élévation du niveau de la mer a même dépassé celle de l'Alaska, atteignant 0,25 millimètre par an. Toutefois, cette forte hausse n'a été observée que sur une courte période. Elle peut être due à la variabilité du climat. Les prochaines années confirmeront ou non s'il s'agit d'une tendance de fond.

Le cas de l'Islande se révèle tout aussi inquiétant. La fonte y est la plus rapide de tout l'Arctique. Depuis le milieu des années 1990, les calottes de glace islandaises perdent, en moyenne, un peu plus d'un mètre d'épaisseur chaque année, contre 90 centimètres pour l'Alaska et 10 centimètres pour le Groenland. Leur impact sur l'élévation du niveau de la mer s'avère toutefois très faible, dans la mesure où elles couvrent une surface réduite.

Dans le reste de l'Arctique, les glaces contribuent très peu à l'élévation du niveau de la mer. Bien qu'elles occupent des surfaces relativement conséquentes, la fonte y est encore modérée. C'est le cas des îles du Spitzberg, au nord de la Norvège, ou de la Nouvelle-Zemble et de Severnaïa Zemlia, au nord de la Russie.

Pourquoi cette fonte modérée ? D'abord parce que ces petites calottes ne sont pas ou très peu en contact avec la mer. C'est donc principalement l'atmosphère qui peut les réchauffer. Or ces calottes sont, en général, relativement proches du pôle, à seulement 1 000 kilomètres, par exemple, pour le Spitzberg. À ces latitudes, les températures sont encore assez froides durant une grande partie de l'année et largement au-dessous de 0 °C. La fonte reste donc modeste et l'effet du réchauffement également. Mais pour combien de temps encore ? Si les températures continuent d'augmenter, notamment en été, ces calottes devraient, elles aussi, perdre de plus en plus de masse.

La conclusion est sans appel : de la grande calotte du Groenland aux petits glaciers, quelles que soient leur taille ou leur nature, tous les objets glaciaires de l'Arctique fondent. Que des objets constitués de glace soient particulièrement sensibles au réchauffement n'est pas en soi une surprise. En revanche, l'accélération de ce processus pose question. Pour l'expliquer, les climatologues avancent plusieurs hypothèses. Ils invoquent des phénomènes d'emballement, appelés aussi rétroactions positives, qui accentuent les effets du réchauffement.

QUAND LES GLACIERS FONDENT, ILS S'AMINCISSENT
L'un de ces phénomènes est le fait qu'un glacier qui fond s'amincit. Par conséquent, son altitude moyenne baisse. Les températures auxquelles il est soumis en haut, près du sommet, sont donc légèrement moins froides. En moyenne, il se réchauffe un petit peu plus. Donc il fond un petit peu plus vite. Donc il s'amincit encore plus, et ainsi de suite. Cet emballement est toutefois en partie freiné. Car, en s'amincissant, le glacier se rétracte : son extrémité la plus basse remonte légèrement, passant dans une atmosphère un peu plus froide, donc moins propice à la fonte. À cause de ces deux effets antagonistes, l'amincissement des glaciers peut donc accélérer la fonte, ou la freiner, ou n'avoir pratiquement pas d'effet.

Un autre facteur d'accélération vient des poussières déposées par le vent, année après année, sur la surface de la glace. Chaque été où la fonte est forte, ces particules sombres réapparaissent en surface des glaciers. Elles sont à chaque fois plus nombreuses. Or, un glacier moins blanc absorbe beaucoup plus la chaleur du soleil, donc fond plus vite. L'impact de ces poussières sur la fonte peut être massif, comme l'a montré l'éruption du volcan Eyjafjallajökull en avril 2010 (lire « 3 mètres d'épaisseur en moins en quelques mois », p. 21 ). Ces poussières peuvent être des cendres de volcans, s'il y en a à proximité. Mais elles peuvent aussi être produites par le déplacement du glacier, qui érode les roches en dessous de lui, transporte et repousse des amas de pierres et de terre sur les côtés. Il peut également s'agir de suies présentes dans l'atmosphère, issues, par exemple, d'incendies ailleurs sur la Terre. L'impact de ce phénomène sur la fonte des glaces en Arctique n'est toutefois pas encore très bien quantifié pour l'instant.

Cependant, nous ne savons pas vraiment comment ces mécanismes se combinent entre eux. Ainsi, au nord du Groenland, la fonte en surface est apparue relativement récemment. Et alors que, partout ailleurs, une telle fonte provoque une accélération de l'écoulement des glaciers, au nord du Groenland, ce n'est pas le cas. Pour le moment, nous essayons de comprendre pourquoi.

Dans ce contexte, l'avenir des diverses calottes et glaciers des terres arctiques demeure difficile à prédire. Beaucoup de travail reste à mener pour comprendre la réaction de ces objets au réchauffement. D'autres phénomènes doivent être pris en compte, comme la modification de la circulation océanique.
* La banquise est la glace de mer.

* La calotte glaciaire est de la glace de terre constituée d'eau douce ; elle se forme par l'accumulation de neige en surface, son tassement et sa transformation progressive en glace.
L'ESSENTIEL
- La fonte des glaces de terre de l'Arctique, et non celle de la banquise, est la principale cause de l'élévation actuelle du niveau de la mer.

- La zone la plus touchée est la calotte glaciaire du Groenland, dont la surface diminue de plus en plus chaque année en été.

- La banquise fond, elle aussi, ce qui contribue à augmenter le réchauffement climatique.
DAVID SALAS Y MÉLIA EST CHERCHEUR EN CLIMATOLOGIE AU CENTRE NATIONAL DE RECHERCHES MÉTÉOROLOGIQUES DE MÉTÉO-FRANCE À TOULOUSE.« LA BANQUISE A UN EFFET PROTECTEUR DANS LE RÉCHAUFFEMENT »
Quel est le rôle joué par la banquise vis-à-vis du réchauffement ?

Cette fine couche de mer gelée tend à protéger la Terre du réchauffement. Elle est en effet très blanche, notamment quand elle est recouverte de neige fraîche, alors que l'océan est plutôt sombre. La banquise renvoie donc dans l'espace 50 % à 85 % de la lumière du soleil qu'elle reçoit, alors que l'océan en absorbe, lui, plus de 90 %. Il s'échauffe donc beaucoup plus facilement que la banquise. Et plus celle-ci fond, à cause du réchauffement, plus l'océan se réchauffe lui aussi. Car la surface qu'il occupe s'étend. Ce qui augmente à nouveau le réchauffement. En revanche, la fonte de la banquise ne participe en rien à l'élévation du niveau de la mer, de même que le niveau de l'eau dans un verre ne monte pas quand les glaçons fondent.

La fonte de la banquise augmente-t-elle ?

En Arctique, la banquise décroît continûment. Elle a même atteint un record de rétraction, début septembre 2012, couvrant moins de 4 millions de kilomètres carrés, quand son précédent record de 2007 s'établissait à 4,5 millions. En revanche, la banquise antarctique ne diminue pas, voire augmente légèrement.

Pourquoi cette différence ?

En Antarctique, la banquise peut s'étendre beaucoup plus facilement. Car elle n'est pas limitée, comme dans l'Arctique, par la présence de plusieurs continents tout autour du pôle Nord : nord du Canada, Groenland, nord de la Russie, etc.

Et d'autres phénomènes entrent en jeu, comme la fonte des glaces des continents, qui apporte de l'eau douce près de la surface. Devenue moins salée, l'eau proche de la surface se mélange peu avec les eaux plus profondes, car leurs températures s'homogénéisent moins. Or, l'impact de cet effet diffère selon les saisons et le lieu. En Antarctique, il a plutôt tendance à protéger la banquise, tandis qu'en Arctique, il a plutôt tendance à la faire fondre.

Propos recueillis par Nicolas Constans
3 MÈTRES D'ÉPAISSEUR EN MOINS EN QUELQUES MOIS
L'éruption du volcan Eyjafjallajökull en avril 2010, qui paralysa le trafic aérien européen, a eu un impact très fort sur les glaces islandaises. Au cours de l'été suivant, celles-ci ont fondu trois fois plus vite que les années précédentes, perdant 3 mètres d'épaisseur en seulement quelques mois ! En effet, la fine couche de cendres volcaniques qui a alors recouvert toutes les calottes islandaises les a noircies, ce qui a absorbé très efficacement le rayonnement solaire. Heureusement, cette éruption n'a eu qu'un effet transitoire. Au cours du même été, la fonte a été forte dans la moitié basse des glaciers. En conséquence, l'eau qui en a résulté a emporté les cendres. Quant à celles qui recouvraient le haut des glaciers, elles ont été ensevelies par d'importantes chutes de neige lors de l'hiver suivant. Redevenus blancs, les glaciers se sont remis à fondre à un rythme plus lent, comme avant.
L'ANTARCTIQUE, UN BILAN PLUS CONTRASTÉ
L'ANTARCTIQUE, lui aussi, perd de la masse. Les chiffres exacts font toujours débat, mais ils sont de l'ordre de plusieurs dizaines à plusieurs centaines de milliards de tonnes chaque année. En outre, ces pertes s'accélèrent : d'une année sur l'autre, elles augmentent d'environ 15 milliards de tonnes en moyenne.

LES CLIMATOLOGUES ont pourtant longtemps pensé que l'Antarctique subissait moins les effets du réchauffement que l'Arctique. D'une part, parce qu'il a une grande inertie thermique : l'essentiel de sa glace forme une vaste calotte de 2 000 mètres d'épaisseur en moyenne, qui occupe des millions de kilomètres carrés. Ensuite, parce qu'il est relativement isolé du climat du reste du globe. Enfin, parce que, contrairement au Groenland, il ne fond quasiment pas au contact de l'atmosphère, car la température n'atteint que rarement 0 °C.

DES OBSERVATIONS PAR SATELLITE, menées depuis une quinzaine d'années, indiquent néanmoins que certains glaciers antarctiques s'écoulent de plus en plus vite. De ce fait, ils évacuent de plus en plus de glace vers la mer. Une partie de cette glace fond au contact de l'eau, le reste est libéré sous forme d'icebergs. Les chutes de neige de l'intérieur des terres, même si elles augmentent à cause du réchauffement, ne compensent pas cette perte de glace. La calotte « puise dans ses réserves », elle perd de la masse.

CES PERTES AFFECTENT surtout la partie ouest du continent, pour le moment. Les plus grosses contributions viennent du glacier appelé Pine Island et de ses voisins de la mer d'Amundsen, ainsi que d'autres situés dans la longue péninsule Antarctique. À l'est de l'Antarctique, en revanche, rien n'est encore vraiment tranché.

Thomas Flament, Legos

 

  DOCUMENT   larecherche.fr    LIEN

 
 
 
initiation musicale toulon  

Darwin revisité par la sélection artificielle

 

 

 

 

 

 

 

Darwin revisité par la sélection artificielle
Dario Floreano dans mensuel 350
daté février 2002 -  Réservé aux abonnés du site


Un robot peut-il évoluer de manière autonome ? Tel est le champ d'étude de la robotique évolutionniste, qui s'attache à mettre au point des robots capables de s'adapter à leur environnement. Aujourd'hui, les performances de certains types de réseaux de neurones artificiels résultent effectivement d'un processus de sélection darwinien.
En dépit des progrès immenses que la robotique a connus au XXe siècle grâce aux développements de l'électronique, de l'informatique et des capteurs artificiels, la plupart des robots actuellement en fonction dans les usines ne diffèrent pas beaucoup des anciens automates. Ils sont toujours programmés pour accomplir exactement des séries d'actions prédéfinies. Peut-on dire de ces machines qu'elles sont intelligentes ? Pas vraiment : elles se bornent à traduire l'intelligence des ingénieurs qui les ont conçues et programmées. Dans son passionnant petit ouvrage intitulé Véhicules. Expériences de psychologie de synthèse , le neurophysiologiste Valentino Braitenberg envisageait a contrario , dès 1984, la possibilité d'aboutir à des robots « intelligents » par l'intermédiaire d'un processus évolutionniste voir l'encadré : « A l'origine de la robotique révolutionnaire ». Il voulait ainsi appliquer à la robotique l'idée de Darwin selon laquelle l'évolution de la vie biologique sur Terre résulte d'un processus de copie sélective avec erreurs aléatoires, sans participation d'un créateur conscient. C'est ce concept de robotique évolutionniste que certains chercheurs ingénieurs, biologistes et spécialistes des sciences cognitives tentent depuis quelques années de développer, en essayant de mettre au point des formes de vie robotique capables de s'adapter de manière autonome à leur environnement.

Au printemps 1994, deux équipes de chercheurs -la nôtre à l'Ecole polytechnique fédérale de Lausanne EPFL et celle dirigée par Inman Harvey à l'université du Sussex, à Brighton1 - ont réalisé les premiers robots ayant développé, par simulation mais sans intervention humaine, divers types de circuits neuronaux leur permettant de se déplacer de manière autonome dans des environnements réels. A la base de ces réalisations, deux postulats communs. Premièrement, la conception planifiée d'un robot ne permet pas de faire face à la complexité des interactions entre le robot et son environnement physique, ni d'élaborer les circuits neuronaux nécessaires à ces interactions. Au lieu de tenter de formaliser ces interactions pour ensuite structurer le cerveau du robot, pourquoi ne pas les laisser, sous la pression de certains critères de sélection, guider elles-mêmes l'évolution de ce dernier ? Deuxièmement, le processus évolutionniste appliqué aux robots est susceptible d'aboutir à des circuits neuronaux beaucoup plus simples que ceux en général dessinés par les ingénieurs appliquant des méthodes d'analyse formelle. La nature n'est-elle pas riche en exemples de circuits nerveux simples et pourtant responsables de comportements apparemment très complexes ?

Réseaux de neurones. Pour expérimenter l'évolution sans intervention humaine, notre équipe de l'EPFL a créé un robot mobile miniature baptisé Khepera à présent distribué par la société K-Team SA. Doté d'un corps circulaire de 6 centimètres de diamètre pour un poids de 70 grammes, il est équipé de deux roues et de huit capteurs lumineux simples répartis autour de son corps six à l'avant et deux à l'arrière fig. 1. Khepera est relié à un ordinateur par l'intermédiaire d'un câble suspendu au plafond et de contacteurs rotatifs spécialement conçus pour assurer sans rupture son alimentation électrique. L'enregistrement permanent de tous les mouvements du robot et de la structure de ses circuits neuronaux au cours de l'évolution permet d'analyser a posteriori le processus évolutionniste.

Par circuits neuronaux, il faut bien sûr comprendre « réseaux de neurones artificiels ». Ces derniers sont soit matérialisés sous forme de composants électroniques, soit, comme c'est le cas ici, simulés par informatique. Comme dans le monde du vivant, ces circuits sont composés d'un certain nombre de neurones interconnectés de façons diverses. Ce sont du reste ce nombre et la nature des interconnexions qui définissent la structure d'un circuit neuronal. L'analogie ne s'arrête pas là, puisque chaque neurone reçoit des signaux des neurones voisins via la propagation unidirectionnelle des signaux en question dans ses dendrites, et envoie ensuite son propre signal à d'autres neurones, via son unique axone.

Certains neurones sont activateurs - ils émettent un signal positif - tandis que d'autres sont inhibiteurs - ils émettent un signal négatif. Quelle que soit sa nature, ce signal de sortie est construit par comparaison entre la somme de signaux reçus par un neurone, et la valeur seuil qui a été attribuée à ce dernier pour qu'il réponde. Enfin, un « poids » est attribué à chaque point de connexion synapse entre un axone et une dendrite, poids qui selon les cas amplifie ou diminue le signal transitant à cet endroit. Le nombre et le type de neurones valeur seuil, nature du signal engendré, le profil des connexions et le poids attribué à chaque synapse sont codés informatiquement dans ce que l'on appelle le chromosome du robot - seconde analogie avec le monde du vivant. Ce chromosome est une chaîne de bits se succédant en séquences dénommées « gènes », dont chacune représente une propriété du circuit de neurones. Le premier gène, composé, par exemple, de 8 bits, code la présence et la connectivité d'un neurone donné dans le circuit. Le second gène, composé, par exemple, de 20 bits, code le poids attribué à chacune des connexions synaptiques au niveau des dendrites de ce même neurone. C'est l'ordinateur lui-même qui produit, de façon aléatoire, une première population de ces chromosomes artificiels. Chacun d'eux sert ensuite à programmer le réseau de neurones qui est relié, en entrée, aux capteurs sensoriels du robot, et en sortie, à ses roues, de façon à en gérer la vitesse de rotation. Chaque configuration est ensuite testée sur le robot pendant quelques minutes, au cours desquelles l'ordinateur évalue ses performances.

Sélection et reproduction. Dans une première expérience2, nous avons voulu développer la capacité du robot à avancer en ligne droite et à éviter les obstacles. Nous avons donc demandé à l'ordinateur de sélectionner, pour reproduction, les individus dont les roues tournaient à peu près dans la même direction mouvement en ligne droite et dont les capteurs étaient peu activés ce qui reflète l'éloignement du robot par rapport aux obstacles. Ces paramètres sont du reste les seules données injectées par la main humaine : tout le processus ultérieur est autogéré par un algorithme. Après avoir testé le chromosome de chaque individu de la population initiale sur un robot physique, les chromosomes les plus performants sont sélectionnés, puis reproduits de façon à obtenir une population de même taille que la population initiale. Ces copies sont alors, au hasard, agencées par paires : le chromosome de l'individu 8 est par exemple apparié au chromosome de l'individu 67. Un point est aléatoirement fixé le long de ces deux chromosomes, autour duquel ont lieu des échanges de séquence, sorte d'équivalent des mutations par recombinaison du monde vivant. De plus, la valeur des bits de chaque chromosome est basculée de 0 à 1 ou inversement suivant une probabilité très faible, créant ainsi des mutations ponctuelles. On obtient alors une nouvelle génération de chromosomes, à son tour testée et reproduite plusieurs fois fig. 2.

Premiers cas d'adaptation. Au bout de 50 générations ce qui correspondait à environ deux jours d'activité en continu, nous avons observé un robot capable de faire le tour complet du labyrinthe-test sans jamais heurter un obstacle. Le circuit obtenu par ce processus d'évolution s'est révélé être relativement simple, mais malgré tout plus complexe que les circuits conçus à la main pour accomplir des tâches similai-res : il mettait en effet à profit des connexions non linéaires entre les neurones moteurs pour empêcher le robot de se retrouver bloqué dans les coins. De plus, ce Khepera parfaitement circulaire comme tous ses confrères se déplaçait toujours dans la direction correspondant au plus grand nombre de capteurs. Pourtant, les premières générations étaient capables de se déplacer dans les deux sens. Mais les individus roulant avec la majeure partie des capteurs à l'arrière ont eu tendance à rester bloqués dans des coins parce qu'ils ne les percevaient pas bien : ils ont donc disparu de la population. Ce résultat a représenté un premier cas d'adaptation d'un réseau de neurones artificiels à la morphologie d'un robot dans un environnement donné.

Etait-il possible, par la voie de l'évolution, de développer des aptitudes cognitives plus complexes en exposant simplement les robots à des environnements plus stimulants ? Pour tenter de répondre à cette question, nous avons mis Khepera dans une enceinte où un chargeur de batterie est placé dans un coin, sous une source lumineuse2 ; nous l'avons ensuite laissé évoluer jusqu'à déchargement de ses batteries. Pour accélérer l'obtention des résultats du processus évolutif, nous avons procédé par simulation tant des batteries et de leur durée de charge seulement 20 secondes, que du chargeur, figuré quant à lui par une zone peinte en noir. Lorsque le robot y passait, ses batteries se rechargeaient automatiquement. Le critère d'adaptation était le même que dans l'expérience de navigation en ligne droite : rester en mouvement le plus possible tout en évitant les obstacles. Les robots qui parvenaient à trouver le chargeur de batterie vivaient plus longtemps et accumulaient donc davantage de capacités adaptatives. Au départ, la « rencontre » avec le chargeur de batterie découlait du hasard. Mais au bout de 240 générations, soit une semaine d'activité en continu, nous avons trouvé un robot capable de rejoindre le poste de charge deux secondes seulement avant le déchargement complet de ses batteries, puis de retourner immédiatement vers la partie centrale de l'enceinte, éloignée des parois. En analysant l'activité du circuit neuronal de ce robot lors de ses déplacements, nous avons observé que l'un de ses neurones, et un seul, présentait une caractéristique très particulière : son activation dépendait de la position et de l'orientation du robot dans l'environnement. Il ne dépendait pas, en revanche, du niveau de charge de la batterie. Autrement dit, ce neurone codait une représentation spatiale de l'environnement ce que les psychologues appellent parfois une « carte cognitive », tout comme certains neurones découverts par les neurophysiologistes dans le cerveau des rats qui explorent leur milieu. Dans un cas comme dans l'autre, il est tout aussi difficile d'expliquer pourquoi une telle évolution a eu lieu...

Encouragés par ces expériences, nous avons décidé de rendre l'environnement encore plus complexe en faisant évoluer simultanément deux robots en compétition l'un avec l'autre. Le groupe du Sussex avait déjà commencé à étudier, en simulation, la coévolution de prédateurs et de proies afin de voir s'il apparaissait dans les deux espèces des comportements de plus en plus complexes. Il avait ainsi montré que cette coévolution de deux populations en compétition modifie massivement le processus d'évolution, mais n'avait pu observer de résultats vraiment marquants quant au stade évolutif final. De notre côté, nous avons choisi de travailler en grandeur nature sur des robots morphologiquement différents3 : le robot prédateur est doté d'un champ visuel de 36 degrés et le robot proie, s'il est seulement muni de capteurs simples capables de déceler un objet distant de 2 centimètres, peut se déplacer deux fois plus vite que le prédateur. Ces robots sont mis à « coévoluer » dans une enceinte carrée, chaque paire proie-prédateur se déplaçant librement pendant deux minutes ou moins si le prédateur parvient à atteindre son but, le critère de sélection étant le délai précédant la collision fig. 1. Les résultats sont très surprenants. Au bout de 20 générations, le prédateur a acquis la capacité de rechercher la proie et de la poursuivre pendant que celle-ci s'échappe en se déplaçant dans toute l'enceinte. Cependant, comme la proie est plus rapide que lui, cette stratégie n'est pas toujours payante. Après 25 générations supplémentaires, il repère la proie à distance, puis finit par l'attaquer en anticipant sur sa trajectoire. Dès lors, la proie se met à se déplacer si vite le long des parois que le prédateur la manque souvent et va s'écraser sur une paroi. Encore 25 générations plus tard, le prédateur a mis au point la « stratégie de l'araignée ». Il se déplace lentement jusqu'à une paroi et attend la proie, qui bouge trop vite pour déceler à temps le prédateur et donc pour l'éviter !

Cependant, lorsque nous avons laissé coévoluer les deux espèces de robots encore plus longtemps, nous avons constaté qu'elles redécouvraient de vieilles stratégies qui se révélaient efficaces contre celles utilisées au même moment par l'opposant. Ce constat n'est pas surprenant : étant donné la simplicité de l'environnement, le nombre des stratégies possibles pour les deux espèces de robots est en effet limité. Même dans la nature, on observe que des hôtes et des parasites évoluant ensemble par ex-emple, des plantes et des insectes recyclent au fil des générations de vieilles stratégies. Stefano Nolfi, qui a travaillé avec nous sur ces expériences, a remarqué qu'en rendant l'environnement plus complexe par exemple, en ajoutant des objets dans l'enceinte, la diversité des stratégies mises au point par les robots était beaucoup plus grande et qu'il fallait plus longtemps avant que les deux espèces en reviennent à des stratégies anciennes. Des équipes de plus en plus nombreuses travaillent aujourd'hui sur les systèmes de coévolution, et je pense que c'est une voie très prometteuse d'une part pour développer l'intelligence du comportement chez les robots et d'autre part pour comprendre comment les espèces biologiques ont évolué jusqu'à leur stade actuel ou ont disparu au cours de l'histoire de la Terre.

Autres supports d'évolution. Dans les expériences décrites jusqu'ici, le processus d'évolution s'exerçait sur les caractéristiques du logiciel de commande du robot. Mais de fait, on peut envisager d'appliquer aux circuits électroniques eux-mêmes le processus évolutionniste permettant d'obtenir des comportements intéressants. Malheureusement, les électroniciens ont plutôt tendance à éviter les circuits trop complexes, fortement non linéaires et au comportement difficilement prévisible, alors que c'est justement de ce type de circuits dont une machine capable de comportements autonomes aurait sans doute besoin !

A l'université du Sussex, Adrian Thompson a développé des systèmes affranchis des contraintes usuelles de structure4. Il a utilisé un nouveau type de circuit électronique, le FPGA Field Programmable Gate Array, dont l'architecture des connexions internes peut être entièrement modifiée en quelques nanosecondes, en jouant sur le voltage traversant le circuit. La configuration d'un FPGA étant une chaîne binaire de 0 et de 1, A. Thompson a considéré cette chaîne comme un chromosome et l'a fait évoluer pour diverses applications, telles la discrimination des sons et même la commande de robots. Les circuits obtenus grâce à ce processus d'évolution demandent cent fois moins de composants que les circuits électroniques classiques conçus pour des tâches similaires, et font intervenir de nouveaux types de connexions. De plus, ces circuits sont sensibles à certains paramètres environnementaux tels que la température. Cette caractéristique, défavorable en électronique classique, constitue par contre un atout dans une optique évolutionniste, puisque cette sensibilité est une caractéristique de tous les organismes vivants. Le domaine de l'électronique évolutionniste était né et plusieurs chercheurs à travers le monde utilisent aujourd'hui l'évolution artificielle pour découvrir de nouveaux types de circuits, ou laissent les circuits évoluer vers de nouvelles conditions de fonctionnement.

Nous avons, jusqu'à présent, essentiellement traité de l'évolution du « système nerveux » des robots. Or, dans la nature, la forme du corps et la configuration sensori-motrice sont, elles aussi, soumises à évolution. Est-il possible que la répartition des capteurs d'un robot s'adapte à un circuit neuronal fixe et relativement simple ? L'équipe de Rolf Pfeifer a créé, au laboratoire d'intelligence artificielle de Zurich, le robot Eyebot dont l'oeil peut changer de configuration5. Le système visuel d'Eyebot, analogue dans son principe à celui de la mouche, est composé de plusieurs photorécepteurs directionnels dont l'angle peut être modifié par des moteurs fig. 3. Une fois Eyebot implémenté avec un circuit neuronal fixe et simple, les auteurs ont observé l'évolution de la position relative de ses capteurs dans une situation où le critère de sélection était de se maintenir à une distance donnée d'un obstacle. Les résultats expérimentaux ont confirmé les prédictions théoriques : l'évolution a conduit à une distribution des photorécepteurs plus dense vers l'avant du robot que sur les côtés. Les enseignements de cette expérience sont très importants : d'une part, la forme du corps joue un rôle majeur dans le comportement d'un système autonome, et il faut lui permettre d'évoluer en même temps que d'autres caractéristique du système ; d'autre part, une morphologie adaptée à l'environnement et aux comportements du robot permet d'alléger la complexité des calculs.

L'idée de faire évoluer simultanément la morphologie et les circuits neuronaux d'un robot autonome avait, elle, déjà été explorée en 1994 par Karl Sims, par simulation. Il n'y a pas longtemps qu'elle a été concrétisée sous forme matérielle6. Jordan Pollack et son équipe de Brandeis University ont fait coévoluer la morphologie et le circuit de neurones moteurs de robots composés de tiges de longueur variable, dont le critère d'adaptation est d'avancer le plus loin possible. Les chromosomes de ces robots contiennent les paramètres de commande d'une « imprimante » en trois dimensions, laquelle fabrique des corps de robots à partir d'un matériau thermoplastique. Ces derniers sont alors équipés de moteurs, et on les laisse évoluer librement tout en mesurant leur taux d'adaptation. L'évolution artificielle a produit des formes extérieures souvent innovantes qui évoquent des morphologies biologiques comme celles de poissons fig. 3.

Conditions d'amélioration. Quels que soient les progrès décrits ci-dessus, ils ne valent pourtant que dans un environnement assez simple. Si ce dernier ou les aptitudes requises pour y évoluer sont trop complexes, de telle sorte que tous les individus de la première génération ont une adaptation nulle, l'évolution ne peut pas sélectionner les bons éléments et donc accomplir le moindre progrès. L'une des solutions possibles consisterait à travailler avec des environnements et des critères d'adaptation initialement simples, mais se complexifiant au fil du temps. Cette solution suppose toutefois de consacrer davantage d'efforts à la mise au point de méthodes incrémentales d'évolution par étapes, méthodes qui seraient, dans une certaine mesure, capables de préserver les premières solutions découvertes et de bâtir à partir d'elles. Cela implique que nous sachions déterminer les paramètres initiaux convenables et le codage génétique à partir duquel l'évolution artificielle pourra produire des structures plus complexes. Un autre défi est, on l'a entrevu, celui de la fabrication matérielle. Malgré les résultats encourageants obtenus dans le domaine de l'évolution des circuits électroniques, nous sommes nombreux à considérer qu'il faut repenser radicalement le type de composants sur lesquels faire agir l'évolution artificielle. Dans cette optique, un renforcement des efforts de développement de circuits auto-assembleurs, qui imposent moins de contraintes au système en évolution, pourrait accélérer les progrès de la robotique évolutionniste.
1 I. Harvey et al., Robotics and Autonomous Systems, 20 2-4, 205, 1997.

2 F. Mondada et D. Floreano, Robotics and Autonomous Systems, 16, 183, 1995.

3 S. Nolfi, S. et D. Floreano, Artificial Life, 4 4, 311, 1998.

4 A. Thompson, « Hardware evolution : automatic design of electronic circuits in reconfigurable hardware by artificial evolution », Distinguished Dissertations Series, ISBN 3-540-76253-1, Springer-Verlag, 1998.

5 L. Lichtensteiger et P. Eggenberger, « Evolving the morphology of a compound eye on a robot », Proceedings of the Third European Workshop on Advanced Mobile Robots Eurobot '99, Cat. No.99EX355. IEEE, Piscataway, NJ, USA, p.127-134, 1999.

6 H. Lipson et J. B. Pollack, Nature, 406, 974, 2000.
NOTES
Ce texte a été traduit par Philippe Brenier.

Les expériences menées à l'EPFL ont été rendues possibles grâce à la collaboration de Francesco Mondada, Stefano Nolfi, Joseba Urzelai, Jean-Daniel Nicoud et André Guignard. L'auteur exprime sa reconnaissance à la Fondation nationale suisse pour la science pour le soutien permanent qu'elle a apporté au projet.
A L'ORIGINE DE LA ROBOTIQUE ÉVOLUTIONNISTE
En 1984, Valentino Braitenberg imagine une expérience qui, à l'époque, reste fictive. Plusieurs robots simples, montés sur roues et équipés de différents capteurs connectés par des fils électriques et autres circuits électroniques aux moteurs commandant les roues, sont posés sur une table. Ils vont bien sûr avoir des comportements divers aller tout droit, s'approcher de sources de lumière, s'arrêter un moment, puis s'éloigner rapidement, etc.. La tâche de l'ingénieur consistera à prélever de temps à autre l'un des robots, à le recopier et à poser la copie sur la table ; il devra aussi remplacer par l'une de ces copies les robots tombés par terre, pour que le nombre de robots en présence demeure constant. Or, lors de la construction de la copie, il se produira inévitablement de petites erreurs, comme l'inversion de la polarité d'une connexion électrique ou la pose d'une résistance différente. Certaines de ces erreurs induiront des comportements nouveaux grâce auxquels un robot restera plus longtemps sur la table. Selon le principe de « sélection naturelle », les copies modifiées qui parviendront à rester longtemps sur la table auront un grand nombre de descendants, alors que celles qui tomberont disparaîtront pour toujours de la population.
SAVOIR
:

-S. Nolfi et D. Floreano, Evolutionary Robotics. The Biology, Intelligence and Technology of Self-Organizing Machines, MIT Press, 2000.

-V. Braitenberg, Vehicles. Experiments in Synthetic Psychology, MIT Press, 1984.

-R. Pfeifer et C. Scheier, Understanding Intelligence, MIT Press, 1999.

 

    DOCUMENT       la recherche.fr      LIEN

 
 
 
initiation musicale toulon  

LE BIG-BANG

 

 

 

 

 

 

 

Texte de la 186e conférence de l'Université de tous les savoirs donnée le 4 juillet 2000.


Le Big-bang


par Marc Lachièze-Rey

Si les modèles de Big-bang sont l'expression de notre cosmologie contemporaine, la discipline est loin d'être nouvelle : aussi loin que l'on remonte dans l'Antiquité, les regards et les pensées sont tournés vers le Ciel, le Monde, le Cosmos, l'Univers,... Concernée par l'Univers dans son ensemble, la cosmologie nous indique sans doute quelque chose sur la place que nous y occupons. Aujourd'hui, la cosmologie est devenue une science.

On fait le plus souvent remonter l'origine de la science moderne à l'époque de Galilée et Newton. La cosmologie scientifique prend naissance au même moment. Le vingtième siècle bouleversera cette cosmologie scientifique en lui conférant un caractère relativiste, et en la concrétisant sous forme de modèles, en particulier la famille des modèles de Big-bang. Il ne s'agit pas d'un modèle unique, d'une vision totalement figée de l'Univers et de son évolution, mais plutôt d'un ensemble de descriptions possibles, partageant des caractéristiques communes, mais aussi des différences. Une grande part du travail actuel des astrophysiciens et des cosmologues consiste, précisément, à examiner, au sein de la classe des modèles de Big-bang, lesquels semblent décrire le mieux notre Univers. Ils vérifient également sans cesse, avec jusqu'à présent des succès toujours grandissants, la validité de cette classe de modèles.

L'Univers

Le concept d'univers, tel que nous le concevons aujourd'hui, constitue l'objet même de la cosmologie. Mais il ne remonte pas plus tôt que le XVIIe siècle, le moment où l'unité du Monde fut reconnue et admise. Deux millénaires plus tôt, Platon qualifiait le Monde de Cosmos, insistant ainsi sur son harmonie (à la source étymologique du terme grec). L'Antiquité décrivait un monde très différent du nôtre : hiérarchisé plutôt que unifié, d'extension très petite et bien moindre que ce que nous concevons aujourd'hui puisque limitée au système solaire. Ce monde se constituait d'un emboîtement hiérarchique de sphères, centrées sur la Terre située au centre du monde : sphères de la Lune, du Soleil, des planètes, jusqu'à la Sphère des Fixes, portant les étoiles (fixes). Celle-ci constituait la frontière du Monde, fini, borné.

Ces idées, développées essentiellement par Platon et Aristote et mises en Suvre par de nombreux mathématiciens, géomètres et astronomes, ont régné pendant près de deux millénaires. D'origine pythagoricienne, l'idée de la prééminence du cercle et de la sphère fut reprise et promue par Platon. Ces figures hautement symétriques ont joué un rôle déterminant, conforme à la nécessité de décrire le monde harmonieux de manière harmonieuse. Le dogme a tenu deux mille ans, tous les mouvements célestes devant être décrits par des combinaisons de sphères et de cercles en rotation, jusqu'à ce que Johannes Kepler découvre la nature elliptique des orbites planétaires. L'événement, à la charnière des XVIe et XVIIe, constitue l'un des ingrédients essentiels d'une première révolution cosmologique. Cet ample mouvement débute après la Renaissance (avec de nombreux précurseurs comme Nicole Oresme, Nicolas de Cuse...) et se poursuit jusqu'à la fin du XVIIe siècle. Newton y porte la touche finale avec ses Principia qui synthétisent les travaux de nombreux précurseurs (Giordano Bruno, Nicolas Copernic, Tycho Brahe, Johannes Kepler, Galilée...). Il établit ainsi les bases de la mécanique, de l'astronomie, de la cosmologie, et fonde la physique moderne.

L'univers du XVIIe est devenu beaucoup plus vaste que celui de l'antiquité. Il ne s'arrête pas à la Sphère des Fixes, ne se réduit pas au système solaire : les étoiles ne sont pas toutes à la même distance de nous mais se répartissent dans tout l'espace. Copernic déplace le centre du Monde de la Terre vers le Soleil, mais Newton niera l'idée même d'un centre du Monde. Telle est notre conviction actuelle : dans le Monde dépourvu de tout centre, tous les points sont équivalents, aucun n'est particulier. Le Monde - l'Univers en tant que Monde unifié - est homogène. Cela signifie que tous les points sont équivalents dans un Univers, et que les lois physiques sont donc partout et toujours identiques. Cette idée d'universalité (des lois physiques, des mouvements, de la composition de la matière) rend tout simplement possible la physique, et l'astrophysique. L'universalité, le concept d'univers, garantit que le résultat d'une expérience menée là-bas est identique à celui d'une expérience menée ici ; que les résultats seront encore les mêmes si je mène l'expérience demain. Une telle reproductibilité fonde la possibilité de faire de la physique.

L'idée d'univers, comme tant d'autres idées nouvelles émises à cette époque, va à l'encontre des conceptions aristotéliciennes : plus de centre du Monde, plus de position privilégiée de la terre, plus d'espace borné, clos, plus de mouvements circulaires. L'Univers n'est plus constitué de quatre éléments (la terre, l'eau, l'air et le feu) mais de petites particules (retour à l'atomisme). Sa composition est universelle comme le vérifieront les astrophysiciens au XIXe : l'Univers est bien ... un univers. La matière est la même sur terre, dans les étoiles, dans les galaxies, dans le vide interstellaire, etc. Les lois de la gravitation, l'électromagnétisme, la physique quantique, la relativité, s'y appliquent pareillement.

Espace, temps, espace-temps

Newton énonce, et c'est essentiel, les propriétés de l'espace et du temps. Ce cadre immuable de la physique est identifié à l'Univers vu d'un point de vue géométrique. La physique newtonienne ira de succès en succès pendant trois siècles, et reste encore aujourd'hui très efficace pour de très nombreux problèmes. Ce sont des difficultés purement conceptuelles, et non pas observationnelles ou expérimentales - rien ne remet en cause la pertinence de cette théorie pour prédire ou interpréter tous les résultats observés -, qui conduisent à sa remise en cause au début du XXe siècle, et à l'introduction des théories relativistes. En 1917, la Relativité Générale renouvelle fondamentalement la cosmologie. Quelques décennies plus tard, se mettra en place la physique quantique, volet complémentaire de la physique du XXe siècle.

Ce début de XXe siècle voit donc un renouveau total de la physique, qui provoquera une seconde révolution cosmologique fondée à la fois sur la nouvelle théorie de la Relativité générale et sur de nouveaux résultats observationnels. La cosmologie moderne, relativiste, et en particulier les modèles de Big-bang, n'auraient pas vu le jour sans cette conjonction remarquable entre nouvelles théories (introduites, j'insiste, pour des raisons purement conceptuelles) et nouveaux résultats d'observations dus à l'introduction de grands télescopes, l'utilisation de la photographie et de la spectroscopie (ceci permettant d'étudier des objets très peu lumineux, et donc très éloignées tels que galaxies, quasars,...). Cette convergence entre théorie et observations permit le développement d'une nouvelle cosmologie, aboutissant à la construction des modèles de Big-bang.

Le grand Univers

Depuis la fin du XIXe siècle, un Grand Débat occupait la communauté astrophysique, à propos de l'extension de notre Univers. Après la Renaissance, les philosophes de la nature avaient compris qu'il s'étendait beaucoup plus loin que le système solaire, les étoiles se répartissant à des éloignements divers et très importants. Il devenait possible d'envisager un univers très grand, voire même infini comme l'avaient imaginé quelques précurseurs dont Giordano Bruno. à la fin du XIXe siècle, de nombreux dénombrements d'étoiles font comprendre aux astronomes que notre système solaire (l'étoile Soleil entourée de ses planètes) n'est qu'une zone minuscule au sein d'un rassemblement d'étoiles beaucoup plus vaste : notre galaxie, la Voie Lactée, comprend des dizaines ou des centaines de milliards d'étoiles. Les astronomes en dessinent les contours, y situent notre système solaire. La plupart estiment, à l'époque, que notre galaxie constitue la totalité de l'Univers. Au-delà de notre galaxie, il n'y aurait rien : du vide mais pas de matière, pas d'étoiles. Pourtant, certains avaient déjà soupçonné qu'il y avait peut-être autre chose, bien au-delà. Parmi eux, le philosophe Emmanuel Kant avait par exemple suggéré, dès la fin du XVIIIe siècle, l'existence d'autres univers-îles. En visionnaire, il anticipait notre vision d'un Univers constitué d'un rassemblement de galaxies, semblables en effet aux îles d'un archipel au milieu de l'océan.

Ces questions suscitèrent des débats de plus en plus virulents à la charnière des deux siècles. Les arguments présentés par les opposants aux univers-îles semblaient très convaincants, mais il apparut par la suite qu'ils reposaient sur des résultats d'observations erronés. Le débat fut définitivement tranché en 1924 grâce aux observations menées par l'astronome américain Edwin Hubble. Utilisant les grands télescopes à sa disposition, il réussit à montrer qu'un objet céleste, appelé à cette époque la Grande Nébuleuse d'Andromède, se situait en dehors de notre propre Galaxie, et même très loin d'elle : il devenait évident que l'Univers s'étendait bien au-delà de notre Galaxie, qu'il était immense, beaucoup plus grand que la Voie Lactée. Et il se révélait peuplé d'innombrables galaxies : la nébuleuse d'Andromède (appelée aujourd'hui galaxie d'Andromède) est l'une d'elles, à-peu-près analogue à la nôtre mais située à des millions d'années-lumière. Par la suite, les astronomes en ont découvert des milliers, des millions, peut-être bientôt des milliards. Ainsi, en 1924, l'Univers est brusquement devenu extrêmement grand, nous ne savons toujours pas aujourd'hui jusqu'à quel point. Nous ne savons même pas si l'espace est fini ou infini. La Relativité Générale, fondée sur une géométrie nouvelle particulière, dite non euclidienne, permet un univers de volume et de circonférence finis, mais dépourvu de toute limite.

Expansion relativiste

L'Univers est donc immense, constitué d'innombrables galaxies. Mais ce n'est qu'un premier aspect de la révolution cosmologique en cours. Toute une série d'observations remontant à la fin du XIXe siècle, effectuées essentiellement par l'astronome américain Vesto Slipher, suggèrent un mouvement apparent et global de toutes les galaxies. Bien plus, des régularités surprenantes se manifestent : toutes s'éloignent, aucune ne se rapproche (les très rares exceptions n'ont guère d'importance dans ce schéma). Enfin, moins les galaxies sont lumineuses (et donc, plus elles sont lointaines), plus elles semblent s'éloigner rapidement. Cela dévoile une sorte de mouvement d'expansion, dont l'extension, la régularité et les propriétés, dépassent de loin l'échelle des galaxies. Les astronomes comprennent rapidement qu'il s'agit d'un phénomène d'échelle cosmologique (impliquant l'Univers dans son ensemble et non pas telle ou telle de ses parties) mais ils ne savent pas l'interpréter. Découverte de manière empirique, cette expansion restait encore en 1929 un mystère complet pour les astronomes, lorsque Hubble énonça sa fameuse loi de Hubble qui déclare que la vitesse d'expansion d'une galaxie est proportionnelle à son éloignement. La solution avait en fait déjà été trouvée en 1927 par le physicien belge Georges Lemaître (qui avait énoncée la loi de Hubble)mais elle ne fut portée à la connaissance de la communauté astronomique qu'en 1930 (voir xxx). Lemaître avait trouvé la solution du problème cosmologique, en montrant que les équations de la Relativité Générale impliquent que l'Univers doit être en expansion ou en contraction. Ayant eu connaissance des premiers résultats observationnels de Slipher, il les avait interprétés comme une manifestation de cette expansion de l'Univers comprise dans un cadre relativiste.

Les résultat initiaux de Lemaître, publiés en 1927 dans une revue belge, n'ayant eu quasiment aucun écho, les cosmologues se demandaient encore, en 1930, comment interpréter les résultats de Slipher et de Hubble. En 1931, Georges Lemaître envoya une copie de son article à son ancien professeur Arthur Eddington. Ce dernier, le publiant de nouveau, lui donna la publicité qu'il méritait. L'expansion de l'Univers fut alors comprise et admise par la majorité de la communauté astronomique (il est à signaler que le physicien soviétique Alexandre Friedmann avait trouvé dès 1922 les mêmes solutions de la relativité générale, néanmoins sans les relier aux résultats observationnels) : le mouvement observé des galaxies, si régulier, d'extension si grande, est bien de nature cosmique, et relativiste. Il est impossible de l'imputer à une cause locale : ce sont ne sont pas les galaxies qui s'attirent ou se repoussent par leurs interactions. Il s'agit d'une propriété de l'Univers lui-même, parfaitement comprise et interprétée dans le cadre de la Relativité Générale.

Cette théorie énonce essentiellement deux points extrêmement nouveaux. Le premier (déjà présent en relativité restreinte) implique de mêler l'espace et le temps dans une entité plus globale que l'on appelle l'espace-temps. Deuxième point, la géométrie de cet espace-temps peut être déformée, posséder une courbure, une topologie, et elle peut varier dans le temps. En fait, la nouvelle géométrie spatio-temporelle fait apparaître toute modification des propriétés de l'espace dans le temps comme une courbure de l'espace-temps. C'est un avantage de cette approche : ce que l'on considérait comme une variation dans le temps, est maintenant considéré comme un pur effet géométrique, dans la géométrie étendue incluant la dimension temporelle. Parler de la géométrie de l'espace-temps, c'est donc parler à la fois de la géométrie de l'espace et de son évolution dans le temps. Dans ce cadre, l'expansion cosmique (de l'espace) apparaît comme un aspect géométrique de la géométrie de l'espace-temps.

Les galaxies ne sont pas en mouvement dans l'espace. Mais l'espace lui-même est en expansion, entraînant les galaxies comme le courant d'une rivière peut entraîner des bateaux dont les moteurs sont à l'arrêt. Ces derniers sont immobiles par rapport à l'eau ; de même, les galaxies sont immobiles, ou plutôt comobiles, par rapport à l'espace qui les entraîne. Si l'on ne peut voir directement un tel courant d'espace, la Relativité prévoit un tel phénomène et lui donne un sens : l'espace est en expansion, la découverte observationnelle a coïncidé avec l'invention de la Relativité qui offre un cadre théorique pour l'interpréter.

Une fois l'expansion reconnue, il reste à en tirer les conséquences physiques. Là encore, Georges Lemaître fut un précurseur, avec son modèle de l'atome primitif (1931) qui en tire les conséquences physiques sur l'histoire de l'Univers. On ne connaissait encore, à l'époque, ni la physique nucléaire ni la physique des particules, et à peine la physique quantique, aussi ces idées restaient encore vagues. Mais ces modèles, retravaillés, réajustés, sont finalement devenus les modèles de Big-bang. À l'époque, les idées de Lemaître, impossibles à tester, ne suscitèrent que très peu d'intérêt. Dès le début, elles suscitèrent même une certaine hostilité. Le recul historique montre aujourd'hui l'aspect dogmatique (encore parfois présent) d'une bonne part des critiques contre le Big-bang, résultant de la difficulté de remettre en cause une idée établie depuis des siècles, quasiment mythique : celle d'un monde éternellement identique à lui-même, sans évolution. Des opposants aux Big-bang ont tenté de soutenir, sans doute au-delà du raisonnable, un modèle cosmologique selon lequel l'Univers resterait toujours identique à lui-même (état stationnaire), alors que les observations nous montrent de plus en plus clairement l'expansion et l'évolution des galaxies. Ces modèles, originellement intéressants et astucieux, ne purent résister à la confrontation aux observations. D'autres esprits critiques, parfois les mêmes, soulignaient une ressemblance entre les idées de Lemaître et le Fiat Lux des Écritures. De ce fait, ils accusaient Georges Lemaître, simultanément physicien et prêtre catholique, de concordisme : n'aurait-il pas introduit ses convictions religieuses dans la physique ? Il faut pourtant rendre justice à Lemaître qui s'est constamment défendu de cette accusation. Les bases scientifiques des modèles de Big-bang ont été affermies d'autant plus soigneusement qu'elles ont été fortement critiquées.

L'intérêt pour les modèles de Big-bang renaît dans les années 1940, avec le début du développement de la physique nucléaire. Les physiciens nucléaires comprennent que, selon ces modèles, l'Univers a dû passer par un état très dense, très chaud et très concentré, idéal pour le déroulement de réactions nucléaires. Puisque ces dernières fabriquent des éléments chimiques, ne serait-il pas possible que tous les éléments chimiques que l'on rencontre dans l'Univers - fer, azote, oxygène, carbone, etc... - aient été fabriqués durant les instants très reculés de l'Univers, selon le modèle du Big-bang chaud ? La réponse est en fait négative, nous le savons maintenant, car ces éléments n'ont pas eu le temps de se former. Cependant, les plus légers d'entre eux (le deutérium, l'hélium et le lithium en partie), ont sans doute bien été fabriqués de cette manière, lors d'un épisode de nucléosynthèse primordiale caractéristique des modèles de Big-bang. Nous en avons aujourd'hui la conviction car les distributions universelles de ces éléments sont en accord avec les prédictions de ces modèles.

L'intérêt pour ces modèles a repris de nouveau dans les années 1960. Effectuant de nouveaux calculs de réactions nucléaires, quelques physiciens de Princeton ont pu prédire que, si l'histoire de l'Univers s'est effectivement déroulée conformément aux modèles de Big-bang, il doit subsister aujourd'hui des vestiges d'un passé très reculé - l'époque où l'Univers était très chaud et très condensé - sous la forme d'un rayonnement « fossile » observable. Ce rayonnement électromagnétique devrait baigner tout l'Univers d'ondes radio. En 1964, alors que ces physiciens de Princeton commençaient à construire un appareillage pour tenter de le détecter, deux collègues radioastronomes de la compagnie Bell Telephone (Penzias et Wilson, qui reçurent pour cela le prix Nobel) le découvrent fortuitement en testant une antenne destinée à la radioastronomie. L'ayant tout d'abord interprété comme un parasite gênant à éliminer, ils conclurent finalement à l'existence d'un rayonnement omniprésent. Ses propriétés, rapidement mesurées, se révélèrent en accord avec les prédictions des modèles de Big-bang. Ces derniers furent alors acceptés par une large fraction (mais pas la totalité) de la communauté scientifique.

Les fondements du Big-bang

Les modèles de Big-bang sont quasiment inévitables. Les observations astronomiques et les lois physiques que nous connaissons nous y mènent de manière quasiment inéluctable. Il s'agit en premier lieu de la constatation de l'immensité de l'Univers fait de galaxies, confirmée depuis 1924 par d'innombrables observations de galaxies lointaines, avec des télescopes toujours plus puissants.

Les cosmologues énoncent un principe fondamental, le principe cosmologique. Exprimant l'abandon définitif des conceptions pré-coperniciennes, il énonce l'équivalence de tous les points : pas de centre, pas de bords. L'Univers est homogène, d'une homogénéité qui prend son sens à l'échelle cosmologique : il peut y avoir une galaxie ici, et pas à côté. Mais aux très grandes échelles, dépassant celles des amas ou des superamas de galaxies (soit plusieurs dizaines de millions d'années-lumière, mais ceci est bien inférieur aux échelles cosmologiques) il n'y a pas de zone où les galaxies soient plus ou moins nombreuses, ou différentes. Ce principe s'oppose à toute conception « anthropique » ou géocentrique. Il énonce également que l'Univers est isotrope : non seulement il n'y a aucun point particulier, mais aucune direction particulière non plus : pas de haut et de bas, pas de centre de l'Univers, donc pas de direction vers un centre, pas d'axe de rotation. En l'absence d'indices suggérant le contraire, ce principe est adopté pour construire les modèles cosmologiques.

Cependant, le fondement essentiel des modèles de Big-bang reste l'expansion de l'Univers. Elle se fonde sur ce que l'on appelle l'effet Doppler : lorsqu'un objet (une source) émet un rayonnement, nous voyons ce rayonnement « resserré »(c'est-à-dire avec une fréquence plus grande) si l'objet se rapproche, ou « desserré » (avec une fréquence inférieure) si la source s'éloigne. Lorsqu'une étoile ou une galaxie émet de la lumière (un type particulier de rayonnement, dans le domaine électromagnétique) qui parvient jusqu'à nous, cette lumière est décalée à une longueur d'onde plus petite ou plus grande (vers le bleu ou vers le rouge) si la source se rapproche ou s'éloigne de nous. C'est exactement ce que l'on observe : un décalage vers le rouge d'autant plus prononcé que la galaxie est éloignée. Dans le spectre d'une galaxie, c'est-à-dire dans la décomposition de la lumière qu'elle a émise, les astronomes savent parfaitement reconnaître un éventuel décalage, vers le rouge ou vers le bleu (on le mesure à partir de certaines « raies » présentes à des longueurs d'onde bien définies). C'est ainsi que, depuis Vesto Slipher, les astronomes mesurent les vitesses des galaxies et établissent l'expansion de l'Univers. Quelques physiciens et astrophysiciens ont contesté cette interprétation, mais ils n'ont pas réussi à proposer d'autre explication satisfaisante. L'expansion de l'Univers est donc très fermement établie.

D'autres ont suggéré que l'évolution de l'Univers pourrait être gouvernée par autre chose que la gravitation. Pourtant, toutes les autres interactions connues, par exemple électromagnétiques, sont de portée très limitée. L'univers semble donc bien gouverné par la gravitation, elle-même décrite par la théorie de la relativité générale (cette dernière hypothèse est aujourd'hui discutée : même si les analyses du système solaire et de certains systèmes astrophysiques la confirment[1], il n'est pas définitivement prouvé qu'elle s'applique à l'échelle de l'Univers entier. Mais aucune autre théorie n'existe actuellement et il reste raisonnable d'admettre sa validité. Au demeurant, l'adoption d'une théorie concurrente ne modifierait sans doute pas les caractéristiques essentielles des modèles de Big-bang).

La relativité générale décrit l'Univers comme un espace-temps, muni de propriétés géométriques (courbure en particulier) qui incluent l'évolution temporelle. Selon la relativité générale, ces propriétés géométriques dépendent, par les équations d'Einstein, du contenu en énergie de l'Univers. Par exemple, la matière massive contribue à ralentir l'expansion. Selon que l'Univers en contient plus ou moins (en moyenne), c'est-à-dire qu'il est plus ou moins dense, l'expansion se ralentira plus ou moins (il est même possible d'envisager qu'elle s'accélère).

Admettant la Relativité Générale et la physique bien établie (électromagnétisme, physique atomique, thermodynamique, physique nucléaire, astronomie etc.) on est inévitablement conduit aux modèles de Big-bang. Pour les contester, et décrire l'Univers par un autre modèle (qui resterait à trouver), il faudrait remettre en cause des pans entiers de notre physique d'aujourd'hui. Par exemple, les partisans des « modèles stationnaires » avaient dû supposer des phénomènes physiques nouveaux : présence de particules de masses négatives, création spontanée de matière (à partir de rien). Aujourd'hui, seuls les modèles de Big-bang réussissent à décrire ce que nous observons, toutes les propositions de modèles concurrents ayant été démenties par l'expérience. Mais peut-être un jour ...

Les modèles de Big-bang

Ces modèles disent en premier lieu que l'Univers est homogène et isotrope, en expansion. Calculs et observations concordent pour établir que cette expansion de déroule sans changement notable depuis une certaine durée tU, que l'on appelle âge de l'Univers, actuellement estimé à 15 milliards d'années environ (compte tenu des incertitudes, il vaut mieux dire entre 10 et 25 milliards d'années). Cela implique, conséquence immédiate, que rien dans l'Univers ne peut être plus âgé que tU. Or, les estimations d'âges de planètes, étoiles, galaxies, donnent à peu près toutes les valeurs possibles entre 0 et 15 milliards d'années. Un succès pour le Big-bang ! En effet, si l'Univers n'est pas est lui-même âgé de quinze milliards d'années, comment comprendre que nous n'observons aucune étoile ou galaxies d'un âge supérieur ?

À cause de l'expansion, la matière cosmique se trouve dans des volumes de plus en plus grands. Autrement dit, elle se dilue et donc, en conformité avec les lois de la physique, se refroidit. En même temps, dilution et refroidissement sont accompagnés d'une lente structuration. Ainsi, les modèles de Big-bang énoncent l'histoire d'un Univers en expansion depuis quinze milliards d'années, en dilution, en refroidissement et qui se structure.

Plus on remonte dans le passé, plus l'Univers était concentré et chaud, moins il était structuré. Il est aujourd'hui peuplé d'objets structurés, aussi bien au niveau microscopique - atomes, molécules, cristaux - qu'au niveau astronomique: des étoiles, des galaxies, des planètes. Rien de tout cela n'existait dans l'Univers primordial. Les modèles de Big-bang permettent de reconstituer l'évolution passée de l'Univers par l'application des lois de la physique. Cela conduit à distinguer deux époques : l'Univers primordial correspond au premier million d'années ; l'ère de la matière qui suit est beaucoup plus longue et dure à-peu-près quinze milliards d'années. Bien que beaucoup plus court, l'Univers primordial fut le siège de nombreux phénomènes d'importance cosmique.

La limite entre ces deux périodes est marquée par une transition, évènement très important appelé recombinaison. L'Univers primordial (premier million d'années) était opaque au rayonnement électromagnétique : on ne pourra jamais rien observer directement de cette période. On ne peut que le reconstituer en appliquant les lois de la physique, ce que font les modèles de Big-bang. C'est durant l'Univers primordial que furent fabriqués d'abord les particules élémentaires, puis les noyaux atomiques les plus légers. à la fin, précisément au moment de la recombinaison, furent fabriqués les premiers atomes proprement dits. L'Univers primordial était baigné de rayonnement électromagnétique, dont l'énergie dépassait alors de beaucoup celle de la matière (alors qu'aujourd'hui l'énergie du rayonnement est mille fois inférieure à celle de la matière). Les atomes n'étant pas encore formés, il n'existait dans l'Univers primordial aucune structure, hormis quelques noyaux d'atomes.

La recombinaison marque le moment où l'Univers devient transparent. Tout ce que les astronomes sont capables d'observer se situe donc plus tardivement. La recombinaison est elle-même un évènement très intéressant car c'est à ce moment-là que fut émis le fameux rayonnement diffus cosmologique, que nous observons tout autour de nous, dans toutes les directions : nous avons l'impression d'être au centre d'une gigantesque sphère brillante de luminosité (en ondes radio) uniforme. Au-delà de cette surface, réside l'Univers opaque inobservable (à cause de la vitesse finie de la lumière, cet « au-delà » possède une signification à la fois spatiale et temporelle). Les plus récentes observations ont montré que l'intensité de ce rayonnement est parfaitement identique dans toutes les directions du ciel, à quelques millionièmes près. C'est l'un des arguments forts qui montre qu'il ne peut avoir été engendré que dans le cadre des modèles de Big-bang. En plus de cette remarquable uniformité, il se caractérise par une répartition en énergie extrêmement particulière : un spectre de corps noir, bien connu des physiciens, qui manifeste une situation d'équilibre thermique. L'observation du fonds diffus cosmologique indique donc que l'Univers dans son ensemble devait être en équilibre thermique dans un passé très reculé, exactement ce que prédisent les modèles de Big-bang. Les très nombreux résultats d'observation du fonds diffus cosmologique (dont les plus fameux par le satellite COBE) confirment de mieux en mieux l'accord exceptionnel entre la réalité et les prédictions théoriques des modèles de Big-bang.

Après la recombinaison, l'Univers entre dans l'ère de la matière, où il commence à ressembler à ce qu'il est aujourd'hui. Le rayonnement électromagnétique perd son influence au profit de la matière. Celle-ci, continuant à se diluer et à se refroidir, commence à s'organiser. Aux petites échelles spatiales, se forment des atomes (à la recombinaison), des molécules, des cristaux, des poussières... Une partie de ces objets, avec le gaz omniprésent (essentiellement de l'hydrogène) s'agglomèrent et donnent naissance aux galaxies, aux étoiles, aux planètes, aux amas de galaxies ... à tous les objets que les astronomes observent dans l'Univers.

Géométrie cosmique

Telle est l'histoire de l'Univers du point de vue de la physique. Cependant, il n'y a pas un seul modèle de Big-bang, mais toute une famille dont les membres se distinguent par certaines caractéristiques de leur géométrie. D'une part l'aspect spatial de cette géométrie conduit à distinguer trois familles selon la courbure spatiale négative, nulle ou positive. Un espace à courbure positive généralise, à trois dimensions, la surface d'une sphère. Un espace à courbure nulle généralise à trois dimensions la surface d'un plan. Il existe en outre des espaces à courbure négative, moins familiers. Les trois versions sont possibles, seules les observations permettent de trancher. Les affirmations récentes selon lesquelles « l'Univers serait plat » correspondent à la version intermédiaire où l'espace est plat (les modèles de Big-bang se distinguent également, en principe, par leur topologie spatiale). Par ailleurs, la loi d'expansion cosmique constitue la partie temporelle de la géométrie de l'espace-temps. L'expansion indique que l'espace-temps ne peut être plat, même si l'espace peut l'être.

La relativité générale permet aussi, en principe, de prévoir le destin de l'Univers. Deux possibilités se présentent, dont nous ne savons pas encore laquelle est la bonne. Ou bien la phase d'expansion continuera indéfiniment. Ou bien elle se terminera et l'Univers débutera une phase de recontraction sur lui-même, processus inverse de l'expansion, qui mènera à une fin grosso modo symétrique au Big-bang, appelée le big crunch. Nul ne sait ce qui se passera alors, pas plus que l'on ne sait ce qui s'est passé aux tous premiers instants de l'Univers primordial. Peut-être que l'Univers rebondira pour amorcer une nouvelle phase d'expansion. Peut-être sera-ce la fin de tout, ou ...

Aujourd'hui, certains indices suggèrent que l'expansion pourrait continuer éternellement, voire s'accélérer. Mais tout ceci est à prendre avec de grandes précautions car nous ne savons pas encore précisément lesquels, dans la famille des modèles de Big-bang, conviennent le mieux pour décrire notre Univers. Astrophysiciens et cosmologues s'interrogent sur la courbure et la topologie de la géométrie spatiale, sur la valeur de la constante de Hubble qui mesure le taux actuel de l'expansion, sur la forme précise de la loi d'expansion, accélérée ou décélérée, sur son futur, éternel ou débouchant sur un big crunch.

Le plus surprenant est la simplicité, notamment géométrique, de ces modèles cosmologiques fondés sur la relativité générale. Comment se fait-il que des modèles aussi simples décrivent si bien quelque chose d'aussi compliqué que l'Univers dans sa globalité ? Bien entendu, ce n'est pas aux modèles eux-mêmes qu'il faut demander la réponse à cette question. Certains l'oublient un peu facilement et critiquent les modèles à ce propos, mais il faudrait critiquer de même l'ensemble de la physique, sinon de la science. À vrai dire, tenter de comprendre pourquoi un modèle fonctionne exige de se placer dans un cadre plus général, une sorte de super-modèle, de super-théorie. Nous avons d'ailleurs d'autres motivations à cela car aujourd'hui, les deux théories physiques de base, relativité générale et (physique) quantique, sont incompatibles. Outre le malaise que cela suscite d'un point de vue conceptuel, cela interdit de décrire les trous noirs, ou l'Univers primordial. La recherche est extrêmement active, en vue d'une théorie plus fondamentale que la Relativité Générale ou la physique quantique, qui les engloberait chacune comme une approximation (tout comme la relativité générale englobe la physique newtonienne). Cela pourrait mener à une cosmologie (quantique ?) plus globale qui permettrait peut-être de comprendre l'origine du bien fondé des modèles de Big-bang. Cette nouvelle théorie reste encore inconnue même si des pistes intéressantes (cosmologie quantique, supercordes, supersymétrie,...) sont explorées.

L'origine du monde ?

Je ne puis terminer sans évoquer la question de l'Origine de l'Univers, que beaucoup associent au Big-bang. Le lien n'est cependant pas si clair. L'Univers étant en expansion, toutes les dimensions cosmiques augmentent avec le temps (on repère augmentation par l'évolution temporelle d'un facteur d'échelle : toute longueur cosmique augmente avec le temps proportionnellement à ce facteur). Vers le passé primordial, ce facteur d'échelle devient de plus en plus petit, tellement qu'il semble naturel de penser qu'il y eut un moment où il était nul. Ce moment est parfois assimilé à « l'origine de tout », quelquefois appelé Big-bang. À vrai dire, la physique et la cosmologie ne prédisent nullement un tel instant. Elles impliquent certes que le facteur d'échelle et toutes les longueurs cosmiques ont été très petites (en comparaison d'aujourd'hui), mais non pas nulles. On ne peut décrire aucun événement qui correspondrait à une explosion cosmique. La reconstitution vers le passé ne peut être menée jusqu'à un hypothétique instant zéro car les densité, énergie, température, très élevées de l'Univers primordial sortent du cadre de notre physique : elles impliquent qu'effets quantiques et relativistes devraient opérer simultanément, une situation que la physique actuelle est impuissante à traiter (à cause de l'incompatibilité mentionnée). Il est impossible de prolonger la reconstitution vers le passé au-delà d'une « barrière de non-connaissance » (aucun événement cosmique spécial identifié, mais la limite de notre ignorance). Elle est baptisée barrière de Planck, en référence à la constante de Planck qui caractérise les phénomènes quantiques.

La physique quantique implique que toute grandeur dynamique doit fluctuer. La relativité générale implique que l'espace et le temps sont des grandeurs dynamiques. Espace et temps devraient donc tous deux fluctuer, y compris à l'échelle de l'Univers entier (très ramassé à cette époque). Cela interdit par exemple de savoir si deux événements se déroulent en un même point ou non, à un même instant ou non, si l'un précède l'autre ou si c'est l'opposé. Ces questions perdent même leur sens, ce qui empêche toute approche physique. Sans espace et temps bien définis, on ne peut faire de physique. Peut-être un cadre complètement différent, encore à trouver, permettra-t-il d'opérer sans temps ni espace.

Toujours est-il que la reconstitution du passé de l'Univers ne mène à aucune origine, à aucune création. La simple logique devrait d'ailleurs nous mettre en garde contre une assimilation entre la création de l'Univers et son début temporel. Selon nos conceptions, le temps est partie constituante de l'Univers, si bien que la création de ce dernier (pour autant que ceci ait un sens) intègre la création du temps. Or le temps ne peut être créé au sein d'un temps déjà existant !

Une création de l'Univers, si l'on tient absolument à l'envisager, ce serait la création de l'espace-temps, donc de l'espace et aussi du temps. Elle ne peut pas procéder dans le temps, et ne peut donc qu'être atemporelle. Rien dans la physique ou dans la cosmologie ne permet de parler d'un instant de Création !

Malgré les immenses succès des modèles de Big-bang, il nous faut rester modestes : la cosmologie, et la science en général, ne nous fournira jamais l'explication du monde, et de la place que nous y occupons.

Bibliographie

- Figures du ciel, J.-P. Luminet et M. Lachièze-Rey, Seuil - BnF, 1998.

- Initiation à la cosmologie, M. Lachièze-Rey, Dunod, 1999.

- Du monde clos à l'univers infini, Alexandre Koyré, Gallimard 1973.

- Le rayonnement cosmologique, M. Lachièze-Rey et E. Gunzig, Masson 1995.

- Alexandre Friedmann et Georges Lemaître, Essais de cosmologie, l'invention du Big-bang, Seuil - Sources 1997.

- Connaissance du Cosmos, Marc Lachièze-Rey, Albin Michel , 1987.

- Gravitation and cosmology, Steven Weinberg, 1980, John Wiley and Sons, New York.

- Univers, J. Demaret, Le Mail 1991.

- À la poursuite du Big-bang, J Gribbin, Éditions du Rocher, 1991.

- Chronique de l'espace-temps, A. Mazure, G. Mathez et Y. Mellier, Masson 1994.

- Cosmologies du XXème siècle. Etude Epistémologique et historique des théories de la Cosmologie contemporaine, J. Merleau-Ponty, Gallimard, Paris, 1965.

- Le Big-bang en questions, Science et Vie Hors série n° 189, décembre 1994.

[1] Voir la 183e conférence de l'Université de tous les savoirs donnée par T. Damour.

 

 DOCUMENT       canal-u.tv     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 ] Précédente - Suivante
 
 
 
Google