VOUS AVEZ DIT ”PRINCIPE” ANTHROPIQUE ?
Gilles Cohen-Tannoudji
To cite this version:
Gilles Cohen-Tannoudji. VOUS AVEZ DIT ”PRINCIPE” ANTHROPIQUE ?. 1993. �hal-03539803�
HAL Id: hal-03539803
[Link]
Submitted on 22 Jan 2022
HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est
archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
1
VOUS AVEZ DIT "PRINCIPE" ANTHROPIQUE ?
Gilles Cohen-Tannoudji
Service de Physique des Particules
DAPNIA CE Saclay, 91191 Gif sur Yvette Cedex
Résumé
On montre que la cosmologie peut sans dommage se passer du "principe"
anthropique.
Les controverses continuent au sein de la communauté scientifique à propos du
"principe" anthropique, qui avait été évoqué dans le dossier sur la cosmologie paru dans
La Pensée en 1986. Je voudrais, dans le présent article, faire le point des débats actuels à
propos de cette question et exprimer ma position personnelle.
Le temps des modèles standards
On sait qu'une des avancées les plus spectaculaires de la physique
contemporaine réside dans le rapprochement de la physique des particules et de la
cosmologie qui conjuguent désormais leurs efforts pour décrire l'évolution de l'Univers,
depuis une phase primordiale ultra dense et ultra chaude, le "big bang", jusqu'à l'état dans
lequel il se laisse observer aujourd'hui.
La physique des particules s'est dotée de son "modèle standard", fruit du mariage
réussi de la théorie de la relativité restreinte et de la théorie des quanta. Ce modèle rend
compte, sans aucune contradiction avec les données expérimentales, des propriétés des
particules élémentaires, constituants ultimes de la matière, et de leur comportement dans
trois des interactions fondamentales (électromagnétique et nucléaires forte et faible),
jusqu'à des énergies de l'ordre de la centaine de GeV.
Le modèle cosmologique standard, dit du "big bang", rend compte des données
observationnelles sur la fuite des galaxies à une vitesse proportionnelle à leur
éloignement et sur le rayonnement de fond cosmologique ; il permet de rendre compte
de l'abondance relative des noyaux légers observée dans l’univers, à partir d'une théorie
de la nucléosynthèse primordiale. Ce modèle cosmologique s'appuie sur la relativité
générale d'Einstein qui fournit à la quatrième interaction fondamentale, la gravitation
universelle, une théorie qui généralise et englobe celle de Newton.
Le rapprochement des deux modèles standards tient au fait qu'ils comportent
tous deux une relation "temps-énergie". Comme relevant de la théorie des quanta, la
physique des particules est soumise à l'inégalité de Heisenberg,
E T h
2
où h désigne le quantum d'action, égal à la constante de Planck divisée par 2p, qui
implique qu'à moins de faire une expérience durant un temps infini (DT très grand), il est
impossible d'observer une particule élémentaire sans modifier un tant soit peu son énergie
(DE très petit), et réciproquement que si l'on veut observer une particule avec une grande
précision spatio-temporelle (DT très petit), il faut lui communiquer beaucoup d'énergie
(DE très grand). De plus, cette énergie élevée qu'il est nécessaire de communiquer aux
particules pour les observer ou pour les faire interagir, peut, en vertu de la fameuse
équation d'Einstein,
E = mc 2
se transformer en production de nouvelle particules. Le monde des particules est donc un
monde ouvert, où la quête de l'élémentarité est un processus sans fin.
Dans le modèle cosmologique standard, le "big bang " est une singularité, c'est-
à-dire un instant où la théorie de la relativité générale est en défaut car la densité de
l'Univers et sa température sont infinies. Le "big bang" proprement dit est donc hors du
modèle cosmologique qui ne dit rien sur les causes de cette singularité, ni sur ce "qu'il y
avait avant", puisque, par définition, l'existence d'une singularité traduit la limite
d'applicabilité de la théorie sur laquelle s'appuie le modèle. Le modèle du "big bang" ne
s'applique qu'après le "big bang". Nous reviendrons plus loin sur le temps, infinitésimal,
à partir duquel le modèle a des chances d'être fiable. Toujours est-il qu'après ce temps, la
température de l'Univers et sa densité sont des fonctions décroissantes du temps. Comme
cette température et cette densité sont proportionnelles à l'énergie moyenne par particule,
on comprend que le modèle cosmologique standard comporte lui aussi une relation
temps-énergie : plus on s'approche (par la théorie, dans le cadre par exemple d'une
simulation informatique) de la singularité plus l'énergie par particule est élevée. On peut
donc dire qu'explorer le monde des particules avec une sonde d'une certaine énergie,
revient à simuler, en laboratoire, les conditions de l'Univers primordial, à un temps après
le "big bang" où l'énergie moyenne par particule correspondait à l'énergie de la sonde.
Ainsi, l'énergie de 100 GeV (fournie par le collisionneur LEP du CERN à Genève), qui
est celle jusqu'à laquelle fonctionne le modèle standard de la physique des particules,
correspond, dans le modèle cosmologique standard, à environ un milliardième de seconde
après le "big bang". Ainsi voyons nous la physique des particules, censée ne s'intéresser
qu'au puzzle de la structure microscopique de la matière, et la cosmologie, initialement
limitée à la contemplation des confins de l'espace, acquérir toutes les deux une fascinante
dimension temporelle et tenter de relever le défi d'une cosmogonie scientifique.
Le réglage fin des paramètres
Pour comprendre la problématique du "principe" anthropique, il convient de faire un
certain détour sur la structuration des théories et modèles physiques. Les deux modèles
standards que nous avons évoqués s'appuient, avons nous dit, sur des théories physiques.
Nous voulons distinguer ainsi des cadres théoriques généraux, comme la théorie de la
relativité restreinte et générale ou la théorie des quanta, de leur contenu
phénoménologique. Cette distinction contenu/cadre, ou modèle/théorie se traduit de
manière subtile dans leur expression mathématique. Le cadre théorique est
mathématiquement déterminé par des constantes universelles de la physique, comme la
vitesse de la lumière dans le vide, notée c, ou la constante de Planck, notée h. De son
côté, le contenu est mathématiquement déterminé par des paramètres
phénoménologiques, comme le rapport des masses de l'électron et du proton, ou la
3
constante fixant l'intensité de l'interaction électromagnétique, ou la constante de Hubble.
Les constantes universelles traduisent des contraintes gnoséologiques, c'est-à-dire des
limitations de principe qui s'imposent à l'homme dans son rapport cognitif avec le monde.
Ainsi la vitesse indépassable de la lumière traduit-elle la contrainte, qu'il serait
déraisonnable de ne pas admettre, de l'impossibilité d'action instantanée à distance. Ainsi
aussi la constante de Planck traduit-elle l'impossibilité d'observer une particule
microscopique sans interagir un tant soit peu avec elle. Accepter ces contraintes revient
à considérer comme intangibles les constantes universelles qui les traduisent et à adapter
tout l'appareil conceptuel de la physique à leur prise en compte. C'est ainsi qu'avec la
relativité et les quanta, le 20ème siècle aura vu une restructuration de fond en comble de
l'ensemble de la physique.
Les paramètres phénoménologiques dont dépendent les modèles ont un tout
autre statut. Il s'agit de constantes, dont la valeur numérique est déterminée par
l'expérience ou l'observation, qui contrôlent l'évolution du système physique décrit par le
modèle au travers des équations dans lesquelles elles interviennent. Ces paramètres ne
sont pas aussi intangibles que les constantes universelles, et la sensibilité du modèle par
rapport à une variation de leurs valeurs est une question théorique essentielle. C'est à
propos de cette question qu'a surgi la problématique du "principe" anthropique. En
rassemblant les connaissances acquises en physique des particules, en cosmologie, en
physique nucléaire, en thermodynamique statistique, il devient possible de décrire avec
une certaine prédictivité quantitative, certaines des phases de l'évolution de l'Univers,
comme la brisure de la symétrie électrofaible, le confinement des quarks et des gluons,
la nucléosynthèse, l'évolution stellaire ou la formation des galaxies. Les programmes
informatiques permettant cette description comportent comme données initiales les
fameux paramètres phénoménologiques que nous venons d'évoquer. Rien n'empêche de
faire varier la valeur numérique de ces paramètres et d'étudier l'impact de cette variation
sur l'évolution du modèle informatique d'Univers que l'on a élaboré. Or, et c'est là que
surgit l'éventualité d'un "principe" anthropique, il semble que pour certains phénomènes
et certains paramètres, une variation même faible des paramètres suffit a déstabiliser les
phénomènes et à conduire, au bout de l'évolution, à un Univers tellement différent du
nôtre que la vie n'aurait même pas pu s'y développer. On pourrait dès lors imaginer que,
nos théories s'affinant, la simple existence de l'Univers actuel qui a rendu possible le
développement de la vie sur la planète Terre, pourrait restreindre la plage de variation
possible des paramètres phénoménologiques qui accéderaient alors au rang de nouvelles
constantes universelles. Je veux dire d'emblée qu'une telle approche me semble tout à fait
légitime et respectable sur le plan de la méthodologie scientifique. Après tout, lorsque
l'on a à sa disposition un modèle qui dépend de paramètres phénoménologiques, tout
argument permettant soit de déduire la valeur de ces paramètres, soit d'établir des
relations entre certains d'entre eux, soit de restreindre leur plage de variation possible, est
évidemment bon à prendre.
Le "principe" anthropique et ses variantes.
Si l'on s'en était tenu là, on n'aurait certainement pas éprouvé le besoin
d'invoquer un "principe" anthropique et il n'y aurait rien d'autre à en dire. Oui mais voilà,
on ne s'en est pas tenu là. Le livre de John D. Barrow et Frank J. Tipler, The Anthropic
Cosmological Principle, paru en 1986 brosse en près de 700 pages un vaste panorama de
ce "principe" et de ses diverses variantes. Même si a quelques reprises les auteurs mettent
en garde le lecteur sur le caractère très spéculatif de certaines formulations, il est clair
4
qu'ils adhèrent largement aux thèses qu'ils présentent, des thèses qui, à mon avis
traduisent une dérive intellectuelle vers une idéologie antiscientifique.
Le point de départ de cette construction est l'interprétation du phénomène de
"réglage fin" des paramètres du modèle standard, en terme de contradiction avec le
principe cosmologique. Ce principe (sans guillemets!) est la marque de la révolution
copernicienne qui refuse l'anthropocentrisme ; il affirme que les observateurs humains
n'ont aucune raison d'occuper une place privilégiée dans l'Univers. Comme de très
nombreux scientifiques, j'ai tendance à considérer ce principe comme un véritable
préalable à toute pensée scientifique. Ce principe est, selon moi, totalement incompatible
avec toute visée anthropocentriste, et lorsqu'il semble mis en défaut par la découverte de
tel ou tel phénomène, je pense qu'il convient de remettre en cause nos modèles ou nos
théories pour lever le paradoxe et restaurer la rationalité scientifique dans ses droits. Tel
n'est pas le point de vue de Barrow et Tipler. Le point crucial de toute leur argumentation
est présenté dès le début de l'ouvrage: (j'essaie de traduire le plus fidèlement possible)
« L'expulsion de l'Homme de sa position auto-affirmée au centre de la Nature doit
beaucoup au principe Copernicien selon lequel nous n'occupons pas une position
privilégiée dans l'Univers. Cette hypothèse Copernicienne serait à considérer comme
axiomatique au départ de la plupart des investigations scientifiques. Cependant, comme
la plupart des généralisations, elle doit être utilisée avec précaution. Bien que nous ne
considérions pas notre position dans l'Univers comme centrale ou spéciale dans chaque
circonstance, cela ne signifie pas qu'elle ne puisse être spéciale dans aucune
circonstance. Cette possibilité a conduit Brandon Carter à limiter le dogme Copernicien
par un "prinicpe anthropique" selon lequel "notre position dans l'Univers est
nécessairement privilégiée dans la mesure où elle est compatible avec notre existence
comme observateurs" » A partir de cet accomodement avec le principe cosmologique
(d'abord qualifié de principe puis d'hypothèse et enfin de dogme!) tout devient possible :
le "principe anthropique cosmologique" (remarquer l'antinomie logique que comporte
cette expression) et ses diverse formes ("faible", "forte" et "finale") et, en fin de compte,
la tentative de réhabilitation de la pensée téléologique. Les glissements successifs dans
les différentes formes du "principe" anthropique sont significatifs. Le Principe
Anthropique Faible est ainsi formulé : <<Les valeurs observées de toutes les quantités
physiques et cosmologiques ne sont pas également probables, mais elles prennent les
valeurs restreintes par l'exigence qu'il existe des sites où la vie fondée sur le carbone ait
pu évoluer et par l'exigence que l'Univers ait un âge suffisant pour qu'elle ait pu le
faire.>> C'est la forme la moins critiquable du "principe", encore que, comme je le
montrerai plus bas, elle comporte une grave ambiguïté qui ouvre la porte aux dérives qui
suivent. Le Principe Anthropique Fort devient : <<L'Univers doit avoir les propriétés qui
permettent à la vie de se développer à quelque étape de son histoire.>> Il a trois
interprétations possibles,
« (A) Il existe un Univers possible "conçu avec le dessein" ('designed') d'engendrer et
soutenir des "observateurs". »
« (B) Des observateurs sont nécessaires pour amener l'Univers à l'existence. »
« (C) Un ensemble d'univers différents est nécessaire à l'existence de notre Univers. »
Quant au Principe Anthropique Final, il a vraiment de quoi faire rêver : « Le
traitement intelligent de l'information doit venir à l'existence dans l'Univers, et, une fois
qu'il est venu à l'existence, il ne mourra jamais. »
5
L'univers visible et l'Univers
Le raisonnement esquissé plus haut comporte, à mon avis, au moins un
contresens de nature épistémologique qui concerne l'interprétation du principe
cosmologique de Copernic : c'est au nom de la prudence que Barrow et Tipler proposent
de ne pas l'appliquer en toute circonstance. Mais si, comme je le pense, le principe
cosmologique est une contrainte de principe, qui nous impose de ne jamais nous
considérer en position privilégiée, y renoncer ne relève pas de la prudence mais de la
démission intellectuelle.
Jusqu'à la naissance de la cosmologie moderne, il semblait inimaginable que
l'Univers pût ne pas être statique. Le moins conformiste des théoriciens, Einstein lui-
même, ne s'était pas affranchi de ce préjugé. Après avoir découvert la théorie de la
relativité générale, il s'était essayé à appliquer sa théorie à l'Univers livré à sa propre
gravitation. Ses équations n'aboutissant pas naturellement à un Univers statique, il
introduisit un paramètre ad hoc, pour stabiliser son modèle d'Univers, la constante
cosmologique. A cause de cet avatar, il passa à côté de la découverte du modèle du "big
bang" qui, en faisant l'économie de ce paramètre ad hoc, rend compte de l'expansion de
l'Univers. D'ailleurs Einstein avait alors reconnu que l'introduction de la constante
cosmologique avait été la plus grande erreur de sa vie... Or le phénomène, maintenant
avéré, de l'expansion de l'Univers, a une implication gnoséologique de portée
considérable : s'il y a expansion, l'univers visible ne coïncide pas avec l'Univers entier.
A cause de l'expansion, on peut dire avec certitude qu'il y a des galaxies (en nombre
indéterminé, voire peut-être infini) qui nous sont invisibles, car leur lumière n'a pas
encore eu le temps de nous parvenir. On sait d'ailleurs que c'est cette circonstance qui
permet de lever le "paradoxe de la nuit noire" : si l'Univers était statique et infini, dans
toute direction, une droite partant de notre œil finirait par rencontrer une étoile ou une
galaxie visible, et, même la nuit, le ciel serait aussi lumineux que la surface du Soleil.
En tous les cas, la distinction entre l'univers visible et l'Univers entier permet de
lever complètement le paradoxe de l'apparente violation du principe cosmologique
inscrite dans le principe anthropique faible : nous occupons une position éminemment
privilégiée dans l'univers visible - on peut même dire que nous en sommes le centre -,
l'univers visible n’obéit donc pas au principe cosmologique, mais on peut continuer à
considérer le principe cosmologique de Copernic comme un préalable à toute cosmologie
scientifique, tout simplement parce que l'univers visible n'est pas l'Univers. Ici se situe la
critique que je fais à la formulation de Barow et Tipler du principe anthropique faible :
si, au lieu de « ...l'exigence que l'Univers ait un age ... » ils avaient écrit « ...l'exigence
que l'univers visible ait un age... », le "principe anthropique faible" ne serait qu'une façon
(un peu pédante) d'exprimer le caractère anthropocentré de l'univers visible. Mais,
appliqué à l'Univers entier, ce "principe" anthropique, même faible, contredit le principe
cosmologique : par exemple, que l'univers visible ait un âge, n'autorise pas à attribuer un
âge à l'Univers entier.
Le paradigme quantique
Grâce à une telle clarification, nous sommes maintenant ramenés à une
problématique strictement scientifique qui peut être très féconde : comment penser de
manière non anthropocentriste un Univers qui ne nous est pas entièrement visible alors
que nos observations ne nous révèlent qu'un univers visible nécessairement
anthropocentré ?
6
Fondamentalement cette problématique est la même que celle qui a surgi de la
découverte du quantum d'action, et la réponse que lui a apporté la théorie quantique peut
nous être d'un très grand secours. De l'impossibilité d'observer une particule
microscopique sans interagir un tant soit peu avec elle, on peut déduire la nécessité de
tenir compte, dans le cadre conceptuel lui même, des conditions de l'observation lorsque
l'on veut en décrire les propriétés ou le comportement. Dans l'univers quantique,
l'objectivité scientifique n'est donc pas accessible directement : les concepts quantiques
ont un certain contenu subjectif inaliénable. Devrions nous pour autant renoncer à
l'objectivité comme nous y invitent les idéologies parascientifiques qui voient dans la
physique quantique, quand elle est sommairement vulgarisée, les brèches dans lesquelles
elles veulent s'engouffrer ? Tous les succès de la théorie quantique, dans ses applications
scientifiques et technologiques, après ses presque cent ans d'existence, nous amènent à
ne pas céder à ces tentations.
Le retravail des concepts de la physique théorique impliqué par la prise en
compte du quantum d'action a été extrêmement difficile. La difficulté réside dans le fait
que la prise en compte des conditions de l'observation ne doit pas nuire à la maniabilité
des concepts : si pour rendre compte par exemple du comportement de particules
élémentaires il fallait inclure dans les concepts une description explicite du détecteur à
l'aide duquel elles sont observées, il est évident que ces concepts deviendraient
absolument inutilisables. Une première grande avancée a été réalisée lorsque l'on a
renoncé à une description déterministe du monde quantique : puisque les conditions de
l'observation que l'on doit prendre en compte ne peuvent pas être mieux déterminées que
statistiquement (car les appareils de mesure comportent des nombres énormes de
particules de la même taille que les objets microscopiques qu'il s'agit d'observer) autant
utiliser des concepts probabilistes pour décrire des phénomènes quantiques.
La seconde avancée cruciale réside dans la prise en compte de ce que l'on appelle
l'indiscernabilité quantique. Deux processus ou phénomènes sont dit quantiquement
indiscernables si pour les distinguer, il faut faire une expérience mettant en jeu au moins
un quantum d'action. L'exemple paradigmatique de cette propriété est fourni par la
fameuse expérience d'Young avec des électrons : on fait passer des électrons émis par
une source quasi ponctuelle au travers d'un cache percé de deux trous et on enregistre les
impacts de ces électrons sur un détecteur plan situé à quelque distance du cache. L'effet
spectaculaire, prédit par la théorie quantique et observé expérimentalement consiste en
l'apparition d'une figure d'interférence (typique d'une dynamique ondulatoire)
progressivement construite par les impacts des électrons. Les deux voies de passage des
électrons, soit par un trou soit par l'autre sont des voies quantiquement indiscernables.
Un des grands paradoxes de la théorie quantique réside dans le fait que si l'on veut lever
l'indiscernabilité, c'est-à-dire déterminer par quel trou passent les électrons, on détruit
inévitablement la figure d'interférence. L'aptitude à produire des effets d'interférences,
associée à l'indiscernabilité et détruite par la levée de cette indiscernabilité est appelée la
cohérence quantique. Pour en rendre compte on a forgé le concept essentiel de toute la
théorie quantique, le concept d'amplitude de probabilité. Une amplitude probabilité est
un nombre complexe (défini par un module et une phase, ou par une partie réelle et une
partie imaginaire) dont le carré du module est une probabilité. Par son module, une
amplitude de probabilité rend compte du caractère probabiliste de la prédictibilité
quantique, et pas sa phase elle rend compte de l'indiscernabilité cohérente pouvant donner
lieu à des effets d'interférence.
7
Pour caractériser cette ambivalence du concept d'amplitude de probabilité j'ai
utilisé1 la notion d'horizontalité. Je veux dire par là que le quantum d'action traduit
l'existence d'une limitation de la connaissance pratique du monde microscopique, mais
que cette limitation n'est pas un mur infranchissable, qu'il faut plutôt la considérer comme
un horizon, certes inéliminable, mais déplaçable à volonté. Quand je dis d'un concept
quantique qu'il est horizontal, je veux caractériser sa capacité à décrire non pas la réalité
mais la ligne d'horizon que délimite sur cette réalité le quantum d'action.
Réfléchissons aux propriétés de l'horizon. Au sens classique du terme, l'horizon
d'un observateur situé à une certaine altitude est la partie du monde qui lui est visible. La
ligne d'horizon est la ligne de contact d'un cône dont l'œil de l'observateur est le sommet
et qui est tangent à la terre. Cette ligne d'horizon n'est pas réelle. On peut dire qu'elle est
immatérielle. Elle n'existe que par rapport à l'observateur. Elle est mobile et son
mouvement obéit à celui de l'observateur. Elle est inaccessible; elle fuit toujours devant
l'observateur qui voudrait s'en approcher. On peut dire que la ligne d'horizon est au
carrefour de nombreuses dialectiques : objectif/subjectif, actuel/potentiel,
limite/ouverture. Mais aussi immatérielle que soit la ligne d'horizon, nous avons à son
propos au moins une certitude : c'est sur le monde réel que nous la traçons. A partir de
cette certitude, nous pouvons élaborer une nouvelle pensée du monde : le monde réel ne
nous est pas accessible immédiatement dans sa totalité (ce qui est au delà de l'horizon
n'est pas visible) ; mais nous pouvons penser le monde réel comme le lieu de toutes les
lignes d'horizons possibles.
Si nous revenons à la physique quantique, nous dirons que l'amplitude de
probabilité décrit la ligne d'horizon de l'horizon de prédictibilité/discernabilité délimité
par le quantum d'action. Du fait de son caractère horizontal, l'amplitude de probabilité n'a
pas de contenu de réalité, elle est au contact de la réalité. Un concept horizontal répond
donc à la double exigence de la physique quantique : englober la prise en compte des
conditions de l'observation (l'horizon en dépend de manière essentielle), et rester
suffisamment malléable pour permettre une mathématisation de la physique (quoi de plus
mathématisable que le mouvement d'une ligne d'horizon?). On voit donc se dessiner une
conception dialectique de l'objectivité en physique quantique :
1/ Les limitations pratiques de la connaissance du monde microscopique, qui se
traduisent par l'existence du quantum d'action imposent la prise en compte, dans le
formalisme même, des conditions de l'observation.
2/ Cette prise en compte s'effectue en reconnaissant le caractère horizontal des
concepts quantiques. Ce faisant, on vide les concepts de leur contenu de réalité, mais on
les maintient au contact de cette réalité : la fameuse fonction d'onde de l'équation de
Schrödinger, qui est une amplitude de probabilité, ne prétend pas décrire immédiatement
et directement le comportement de l'électron "en soi", mais de rendre compte
d'expériences effectuées dans des conditions bien déterminées.
3/ L'horizontalité permet alors le moment théorique de la reconstruction de
l'objectivité, la pensée du monde comme lieu de toutes les lignes d'horizon possibles :
1Les Constantes Universelles , Hachette, Paris 1991
La pertinence du concept d'horizon de réalité en physique théorique contemporaine, Dialectica, Vol. 44,
n° 3-4, p. 324, (1990)
8
pour tout processus ou transition, on déterminera l'ensemble des voies quantiquement
indiscernables que peut emprunter le processus, on attachera à chacune de ces voies une
amplitude de probabilité de transition, on sommera de façon cohérente (c'est-à-dire avec
la possibilité d'interférences) toutes ces amplitudes pour construire l'amplitude totale du
processus, dont le carré du module donnera la probabilité. Ce programme rapidement
décrit est celui de l'intégrale de chemins de Feynman, qui a abouti aux spectaculaires
avancées récentes de la physique des particules.
4/ La boucle est alors bouclée par le retour au critère de la pratique: la sommation
de toutes les amplitudes de probabilité associées aux voies indiscernables peut permettre
de prédire des effets nouveaux, comme par exemple des figures d'interférences, ou leur
disparition dans certaines conditions, tous effets directement vérifiables ou réfutables
expérimentalement.
Scénarios d'inflation et cosmologie quantique
On peut d'autant plus facilement transposer à la cosmologie le raisonnement
quantique que nous venons d'esquisser que, selon les développements théoriques les plus
récents, la réponse à la question posée plus haut par l'univers visible anthropocentré, est
vraisemblablement à rechercher dans le domaine de la cosmologie quantique. On désigne
ainsi le domaine de la cosmologie dans lequel on ne peut plus négliger les effets
quantiques. En fait ce domaine comprend deux sous-domaines : le plus tardif (après le
big bang) est accessible avec les énergies actuellement disponibles dans les accélérateurs
; les interactions électromagnétique et nucléaires y relèvent de la physique quantique,
alors que la gravitation peut encore y être traitée classiquement ; le modèle cosmologique
standard y est encore en principe applicable. L'autre domaine, beaucoup plus proche du
big bang, est marqué par l'apparition d'effets quantique dans la gravitation. On appelle
énergie de Planck, longueur de Planck et temps de Planck les échelles d'énergie, de
longueur et de temps auxquelles les effets quantiques ne peuvent plus être négligés dans
la gravitation. Ces trois valeurs s'obtiennent à partir de combinaisons des trois constantes
universelles de la mécanique, la constante de la gravitation G, la constante de Planck h,
et la vitesse de la lumière c. Elles délimitent un domaine qu'il est totalement exclu
d'explorer expérimentalement : ainsi l'énergie de Planck vaut 1019 GeV, soit l'énergie
cinétique d'un avion de transport ! Si l'on voulait explorer ce domaine avec un
accélérateur délivrant un nombre modeste de particules, il devrait consommer l'énergie
de dix mille milliards d'avions de transport ! Mais les particules accélérées par cet
accélérateur auraient une interaction gravitationnelle aussi forte que l'interaction
nucléaire forte. La température de l'univers primordial correspondait, selon le modèle
cosmologique standard, à l'énergie de Planck, à un temps après le big bang égal au temps
de Planck, soit 10-43 seconde. Pendant ce temps de Planck, le modèle cosmologique
standard qui néglige les effets quantiques dans le traitement de la gravitation est
certainement faux. Le temps de Planck représente donc la limite d'applicabilité du modèle
cosmologique standard que nous évoquions plus haut.
Il me semble que l'horizontalité quantique peut nous permettre de penser l'au
delà de l'univers visible et de restaurer, pour l'Univers entier, le principe cosmologique
de Copernic. Si l'on utilise pour l'extrapolation dans le passé de l'univers visible, un
concept horizontal comme celui de fonction d'onde, ou plutôt de matrice densité, il
devient possible, en principe, de bâtir une théorie quantique de l'Univers. Certes une
théorie de la gravitation quantique se heurte à des difficultés considérables, qui sont
9
encore très loin d'être toutes résolues. Mais au moins s'agit-il d'une question scientifique
parfaitement bien posée, dont la résolution a d'ailleurs fait récemment d'intéressants
progrès (en particulier avec les théories dites de supercordes).
On commence donc à voir apparaître des tentatives de dépassement du modèle
cosmologique standard, qui en intègrent tous les acquis, et permettent de fournir une
explication scientifique au phénomène du réglage fin des paramètres qui a servi
d'argument au prétendu "principe" anthropique. Ainsi le scénario de l'inflation chaotique
du cosmologiste russe Andreï Linde brosse-t-il le tableau d'un Univers inflationnaire
(c'est-à-dire connaissant ailleurs ou ayant connu dans le passé des phases d'expansion
exponentielle, beaucoup plus rapide que l'expansion actuellement constatée), éternel,
s'auto-reproduisant et compatible, dans sa partie visible, avec le modèle cosmologique
standard. Mais un tel scénario n'est pas une pure spéculation théorique ; il comporte une
implication réfutable expérimentalement. Un des paramètres cruciaux du modèle
cosmologique standard est la densité de matière. Selon que cette densité est inférieure,
égale ou supérieure à une certaine valeur, dite critique, le devenir de l'univers visible sera
l'expansion, la stationnarité asymptotique ou la recontraction. La valeur de cette densité
est très mal déterminée, elle semble comprise entre un centième et un dixième de la valeur
critique. Or d'après le modèle standard, la valeur critique est instable : pour que la densité
actuelle soit un dixième de la valeur critique, il a fallu que cette densité soit, au temps de
Planck, incroyablement proche de la valeur critique, un vrai "miracle" s'exclament les
tenants du "principe" anthropique. Le scénario de l'inflation permet de prédire au
contraire que la densité de l'univers visible est égale à la valeur critique. Or les données
astrophysiques actuelles suggèrent fortement que la densité mesurée de l'univers est sous-
évaluée : les courbes de rotation des galaxies et des amas de galaxies ne sont pas
compatibles avec la densité mesurée de matière ; on a donné le nom de matière noire à
la matière non encore observée qui permettrait de comprendre ces courbes de rotation.
La matière noire pourrait parfaitement représenter 90 ou 99% de la matière de l'univers,
qui pourrait donc avoir exactement la densité critique! Autant dire que la recherche de
cette matière noire est devenue un des enjeux fondamentaux de la physique expérimentale
des particules et de l'astrophysique. Mais il s'agit là d'un test critique de la théorie de
l'inflation : aux dires d'Andreï Linde lui-même, si l'on peut établir que la densité de
l'univers n'est pas égale à la densité critique, alors il lui faudra reconnaître que son modèle
est invalidé et doit être rejeté.
Une autre approche, que je trouve personnellement très séduisante, est celle de
R. Brout, F. Englert et E. Gunzig. Elle a été décrite par Ilya Prigogine et Isabelle Stengers
dans Entre le Temps et l'Eternité. Dans cette approche le big bang n'est plus une
singularité mais une instabilité quantique de l'espace-temps. Au temps de Planck,
l'espace-temps plat, vide de toute matière (qui est une solution possible des équations
d'Einstein) est quantiquement instable. Il se serait effondré spontanément en se courbant
et en produisant toute la matière qui porte l'entropie primordiale, sous forme de trous
noirs quantiques. D'autres instabilités, en nombre indéterminé, voire infini ont pu se
produire dans le passé lointain, d'autres encore pourront se produire dans le futur. D'après
ce scénario, l'Univers serait éternel, il n'aurait pas d'âge, et bien évidemment, nous n'y
occuperions aucune position privilégiée. Tout comme celui d'Andreï Linde, ce scénario
comporte une implication phénoménologique en accord avec l'observation : le rapport
entre le nombre de baryons et le nombre de photons par unité de volume.
10
Les résultats observationnels récents contribuent aussi à dissiper les illusions
attachées au "principe" anthropique. C'est le cas des données obtenues avec le satellite
COBE. Ces données concernent une mesure du rayonnement de fond cosmologique. Ce
rayonnement apparaît comme un rayonnement de corps noir à une température de 2,735
Kelvin. Il est intéressant de rappeler que la découverte fondatrice de la théorie quantique
concerne précisément le rayonnement du corps noir, décrit par Planck à l'aide de la
formule qui faisait intervenir la fameuse constante de Planck. Les observations du
satellite COBE confirment avec une précision époustouflante la formule de Planck,
mieux même que beaucoup d'expériences en laboratoire! Mais justement, cet accord est
trop bon, car il implique une homogénéité de la température dont le modèle cosmologique
standard ne peut pas rendre compte. Le défi qui a été relevé par COBE a consisté à
explorer l'au-delà du modèle cosmologique standard et à rechercher dans le rayonnement
de fond, les infimes inhomogénéités qui seraient les germes des galaxies et amas de
galaxies de l'univers visible actuel. Les résultats obtenus semblent compatibles avec les
scénarios d'inflation sans que l'on puisse dire qu'ils en apportent la preuve définitive.
Ainsi la cosmologie moderne est-elle en train de surmonter ses maladies
infantiles et de maîtriser ses fantasmes.