0% ont trouvé ce document utile (0 vote)
88 vues565 pages

Determinism e

Transféré par

Abdeslam Chiha
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
88 vues565 pages

Determinism e

Transféré par

Abdeslam Chiha
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Le déterminisme étendu

pour mieux comprendre et prévoir


Une contribution à la pensée rationnelle
entre science et philosophie
Cinquième édition, mise à jour le 20/08/2016

Daniel MARTIN
http://www.danielmartin.eu/contact.htm

1
Remerciements

A Renée Bouveresse, dont la remarquable synthèse de l'œuvre de Karl Popper sur


le rationalisme critique m'a fait gagner un temps précieux, et dont la sympathie m'a
soutenu dans les périodes de doute.

A Hervé Barreau, dont les critiques et suggestions m'ont permis d'éviter bien des
erreurs.

A André Comte-Sponville, dont les textes et les objections m'ont beaucoup fait
réfléchir.

2
Objectifs de ce texte
Ce livre montre d’abord que le déterminisme philosophique ne tient pas ses promesses
lorsqu’il affirme la possibilité de prédire l’avenir et de reconstituer en pensée le passé.

Il montre ensuite comment les principes de causalité et du déterminisme scientifique


se déduisent par induction de propriétés fondamentales de l’Univers.

Il précise ensuite ces principes, et en étend la définition pour qu’ils régissent les
propriétés d’évolution de toutes les lois de la physique. Ces lois relèvent alors du
déterminisme étendu, que sa définition constructive structure comme une axiomatique.

Le livre montre, après, comment le hasard et le chaos n’interviennent dans la nature


que dans des cas précis, tous pris en compte dans le déterminisme étendu, et
comment les limites de prédictibilité proviennent aussi d’imprécisions, de complexités,
d'indéterminations, d'instabilités et de refus de précision de la nature.

La pensée rationnelle ayant besoin de comprendre et de prévoir pour décider, a donc


besoin de connaître le déterminisme étendu. A partir d’avancées scientifiques récentes
en physique quantique et en génétique, le livre montre alors les limites de la possibilité
de prédire des résultats d’évolution et d’obtenir la précision souhaitée.

Le livre définit ensuite le déterminisme humain à partir des connaissances récentes de


psychologie cognitive comme la Théorie informationnelle du psychisme. La pensée
rationnelle est décrite à l'aide des principes de l'axiomatique, les comportements
irrationnels à partir des processus de l'inconscient. Malgré son libre arbitre, l’homme
reste dominé par des désirs imposés par son inné, son acquis et son contexte de vie.
Le texte montre aussi l’absurdité des démonstrations logiques de l'existence de Dieu,
notamment celle basée sur le « principe anthropique ».

Le texte présente aussi deux solutions au vieux problème philosophique de la « cause


première ». L'une basée sur le Big Bang, l'autre sur une conjecture restreignant des
contraintes des définitions du déterminisme et de la causalité.
Ce livre est une contribution à la pensée rationnelle qui se veut aussi facile à lire que
possible. Il est destiné aux intellectuels de culture scientifique ou littéraire qui
souhaitent profiter de connaissances à jour en matière de physique quantique, de
cosmologie, d’informatique, de psychologie cognitive et de génétique.

Le texte complet étant long, environ 570 pages [Livre], il est conseillé de lire d’abord
le texte d'introduction "Principes de logique", repris au début de la 3e partie et qu'on
pourra alors sauter.

Livre : "Le déterminisme étendu pour mieux comprendre et prévoir


Une contribution à la pensée rationnelle entre science et philosophie " (564 pages)
http://www.danielmartin.eu/Philo/Determinisme.pdf (gratuit)

Introduction :"Principes de logique : causalité, homogénéité, raison suffisante, etc."


(25 pages + références) http://www.danielmartin.eu/Philo/CausalitePPS.pdf (gratuit)

3
Conseils de lecture

Sur les formules mathématiques


Ce texte contient beaucoup de formules mathématiques pour être aussi précis que
possible ; le lecteur qui a les connaissances scientifiques nécessaires y trouvera les
justifications de certaines affirmations concernant le déterminisme. Mais la lecture et la
compréhension de ces formules ne sont pas indispensables à celle du texte ; le lecteur
qui n'a pas les connaissances nécessaires ou simplement pas envie de lire ces formules
peut les ignorer.

Sur le style du texte et sa structure


Les textes philosophiques sont souvent structurés comme un roman, avec peu de sous-
titres intermédiaires, laissant au lecteur le soin de comprendre où il en est dans
l'enchaînement des idées. Ce texte-ci, au contraire, est fait de paragraphes courts ; il est
fortement structuré sous forme de hiérarchie de titres et sous-titres, comme un rapport ou
un cours. Cela permet au lecteur de bien comprendre le sujet d'un paragraphe donné et
de retrouver rapidement un passage déjà lu.

Sur la lecture à l'écran


En format PDF, ce texte est fait pour pouvoir aussi être lu sur un écran d'ordinateur en
profitant des nombreux hyperliens donnant accès par simple clic à une explication de
terme, un complément d'information ou une référence bibliographique sur Internet ; un
autre clic permettra ensuite de revenir au point de départ. La table des matières elle-même
est un ensemble d'hyperliens permettant d'atteindre directement un paragraphe. Enfin, la
recherche d'un mot sur écran est bien plus facile et rapide que sur du papier, et l'extraction
de passages du texte pour insertion dans un autre texte est possible, alors qu'un texte sur
papier exige un recopiage ou une numérisation.
Les références dont le nom commence par un D comme [D1] sont à la fin de la 1re partie ;
celles dont le nom commence par un M comme [M4] sont à la fin de la 2e partie ; celles
qui sont des nombres entiers comme [5] sont à la fin de la 3e partie.

Pour éviter de lire ce que vous savez déjà


Le déterminisme étendu sujet de ce livre fait l'objet de la 3 e partie de l'ouvrage. Comme le
déterminisme s'appuie sur la doctrine matérialiste, la définition et les implications du
matérialisme et de son opposé, l'idéalisme, sont résumées dans la 2 e partie. Et comme le
débat entre matérialistes et idéalistes aborde l'existence de Dieu, les 3 types d'arguments
logiques en faveur de cette existence apportés au cours des siècles sont dans la 1 re partie.
Donc :
 Si vous connaissez les 3 types d'arguments logiques invoqués au cours des siècles
pour prouver l'existence de Dieu - ou simplement si ce problème ne vous intéresse
pas - sautez sans hésiter la 1re partie de l'ouvrage ; elle ne fait que rappeler ces
« preuves » et en montrer l'absence de valeur.
 Si vous connaissez les définitions du matérialisme et de l'idéalisme, ainsi que les
arguments invoqués par les partisans de chacune de ces deux doctrines, sautez
sans hésiter la 2e partie de l'ouvrage, qui ne fait que rappeler ces définitions et
arguments avant d'introduire le déterminisme.

4
Table des matières
1. Où en sont les preuves de l'existence de Dieu ? ......................... 16
1.1 Définitions de Dieu et de la religion ................................................................16
1.2 Raisons psychologiques de croire en Dieu, science et laïcité .....................17
1.3 L'homme conçoit Dieu à son image ................................................................19
1.4 Comment prouver l'existence de Dieu ? .........................................................20
1.5 Les preuves logiques de l'existence de Dieu .................................................21
1.5.1 Croire en Dieu ou en la science : il faut choisir ! ............................................... 21
1.5.1.1 Définitions : Univers, phénomène, représentation, Monde ....................21
1.5.1.2 Critique scientifique du concept de créateur de l'Univers ......................24
1.5.1.3 Critique de Kant de la possibilité de création transcendante .................24
1.5.1.4 Conclusion logique : il ne peut exister de Dieu physique ......................25
1.5.1.5 Théologie proposée par Kant ................................................................25
1.5.2 Les 3 preuves possibles de l'existence de Dieu ................................................ 26
1.5.2.1 Preuve ontologique de l'existence de Dieu............................................27
1.5.2.2 Preuve cosmologique de l'existence de Dieu ........................................28
1.5.2.3 Preuve physico-théologique de l'existence de Dieu ..............................29
1.5.3 Raisons de croire en un Dieu transcendantal.................................................... 31
1.6 Compléments philosophiques des tentatives de prouver Dieu ....................31
1.6.1 La notion d'un Dieu créateur intelligent est contradictoire .............................. 31
1.6.2 Reproche idéaliste de contredire le 2e principe de la thermodynamique ........ 33
1.6.2.1 Notion d'entropie ...................................................................................33
1.6.2.2 Entropie de Boltzmann, entropie statistique et entropie d'information ...34
1.6.2.3 Comprendre le deuxième principe de la thermodynamique ..................36
1.6.2.4 Etre vivant et thermodynamique ............................................................37
1.6.2.5 L'objection thermodynamique des idéalistes et la réponse de
Prigogine ...............................................................................................37
1.6.3 Agnosticisme et athéisme ................................................................................... 39
1.6.3.1 Le malheureux pari de Pascal ...............................................................39
1.6.3.2 Athéisme, positivisme et altruisme ........................................................40
1.6.3.3 Existe, n'existe pas ou existe autrement ? ............................................40
1.7 Conclusions sur les preuves logiques de l'existence de Dieu .....................41
1.8 Références ........................................................................................................41
2. Matérialisme et idéalisme ............................................................... 44
2.1 Matérialisme et idéalisme : définitions ...........................................................44
2.1.1 Définition succincte du matérialisme ................................................................. 44
2.1.2 Définition succincte de l'idéalisme ..................................................................... 45
2.1.3 Ce qui oppose matérialistes et idéalistes .......................................................... 45
2.1.4 Qu'est-ce qui précède l'autre : l'esprit ou la matière ? ...................................... 47

5
2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni infirmés ...........48
2.3 La critique nietzschéenne ................................................................................48
2.4 Références ........................................................................................................51
3. Le déterminisme étendu - une contribution pour la pensée
rationnelle ......................................................................................... 53
3.1 Prédictions d'évolutions ..................................................................................53
3.1.1 Première définition du déterminisme ................................................................. 54
3.1.2 Définition, promesses et critique du déterminisme philosophique ................. 55
3.1.2.1 Le déterminisme philosophique est contredit par des faits ....................55
3.1.2.2 Définition succincte du déterminisme scientifique .................................57
3.1.3 Le postulat de causalité ...................................................................................... 58
3.1.3.1 Définition du postulat de causalité .........................................................58
3.1.3.1.1 Causalité étendue 58
3.1.3.1.2 Principe de la conservation de l'information dans l'Univers 59
3.1.3.2 Causalité, réalisme et idéalisme ............................................................61
3.1.3.3 Causalité, nécessité et explication du monde........................................61
3.1.4 Principe de raison suffisante .............................................................................. 62
3.1.4.1 Les 4 domaines régis par le principe de raison suffisante .....................63
3.1.4.2 Principe de raison suffisante du devenir - Déterminisme ......................64
3.1.4.3 Principe de raison suffisante du connaître ............................................64
3.1.4.4 Principe de raison suffisante de l'être (possibilité de représentation) ....65
3.1.4.5 Principe de raison suffisante de vouloir, ou loi de la motivation ............66
3.1.4.6 Réciproques d'une raison suffisante d'évolution....................................66
3.1.4.7 Raison suffisante et chaîne de causalité ...............................................67
3.1.5 Principe d'homogénéité ...................................................................................... 67
3.1.5.1 Seul l'esprit humain peut ignorer le principe d'homogénéité..................68
3.1.5.2 Déterminisme et principe d'homogénéité ..............................................69
3.1.5.3 Domaine de vérité d'une science et principe d'homogénéité .................70
3.1.6 Le déterminisme scientifique .............................................................................. 70
3.1.6.1 Règle de stabilité ...................................................................................70
3.1.6.2 Importance de la vitesse et de l'amplitude d'une évolution ....................71
3.1.6.3 Définition du déterminisme scientifique .................................................72
3.1.6.3.1 Déterminisme des évolutions régies par des équations différentielles 73
3.1.6.3.2 Déterminisme des formules, algorithmes et logiciels 73
3.1.6.4 Déterminisme scientifique et obstacles à la prédiction ..........................74
3.1.6.4.1 L'ignorance de la loi d'évolution 75
3.1.6.4.2 L'imprécision 75
3.1.6.4.3 Le caractère stochastique - Déterminisme statistique 77
3.1.6.4.4 La complexité 80
3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire 87
3.1.7 Déterminisme statistique de l'échelle macroscopique...................................... 88
3.1.8 Ensemble de définition d'une loi déterministe .................................................. 88
3.1.8.1 Structure................................................................................................88
3.1.8.2 Ensemble de définition d'une loi déterministe .......................................91
3.1.8.3 Une erreur de certains philosophes.......................................................92
3.1.9 Hasard .................................................................................................................. 92
3.1.9.1 Le hasard dans l'évolution selon une loi de la nature ............................92
3.1.9.2 Prédictibilité statistique d'une évolution .................................................93
3.1.9.3 Définition de René Thom .......................................................................94

6
3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes -
Hasard par ignorance ............................................................................94
3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes 95
3.1.9.4.2 Rencontre imprévisible de chaînes de causalité distinctes 95
3.1.9.5 Définition par la quantité d'information ..................................................96
3.1.9.6 Des suites ou des ensembles de nombres sont-ils aléatoires ? ............96
3.1.9.7 Hasard postulé et hasard prouvé ..........................................................96
3.1.9.8 Différences entre déterminisme statistique, fluctuations quantiques et
hasard ...................................................................................................98
3.1.9.9 Hasard et niveau de détail d'une prédiction ...........................................99
3.1.9.10 Premières conclusions sur le hasard et la prédictibilité ....................... 100
3.1.9.11 Différences entre hasard, imprécision et indétermination en Mécanique
quantique ............................................................................................ 100
3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle ....... 101
3.1.9.13 Evolutions attribuées à tort au hasard ................................................. 101
3.1.9.14 Conséquences multiples d'une situation donnée - Décohérence ........ 102
3.1.9.15 Il faut admettre les dualités de comportement ..................................... 103
3.1.10 Chaos.................................................................................................................. 104
3.1.10.1 Définition ............................................................................................. 104
3.1.10.2 Prédictibilité des phénomènes chaotiques – Chaos déterministe........ 104
3.1.10.3 Conditions d'apparition d'une évolution chaotique – Série de Fourier . 105
3.1.10.4 Fluctuations faussement aléatoires d'un phénomène apériodique ...... 106
3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg .. 108
3.1.10.6 Fluctuations de variables macroscopiques dues à des variations
microscopiques ................................................................................... 108
3.1.10.7 Amplification génétique et évolution du vivant vers la complexité ....... 109
3.1.10.8 Domaines où on connaît des évolutions chaotiques ........................... 110
3.1.10.9 Exemples de phénomènes chaotiques................................................ 110
3.1.10.9.1 Problème des 3 corps 110
3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe 112
3.1.11 Turbulence ......................................................................................................... 113
3.1.12 Le déterminisme étendu .................................................................................... 114
3.1.12.1 Propriétés des lois de l'Univers ........................................................... 114
3.1.12.1.1 Uniformité des lois de la nature 114
3.1.12.1.2 Postulat de causalité 116
3.1.12.2 Définition du déterminisme étendu ...................................................... 116
3.1.12.2.1 Définition constructive du déterminisme étendu 117
3.1.12.2.2 Validité de cette approche 117
3.1.12.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme 118
3.1.12.2.4 Limites de la règle de stabilité du déterminisme 118
3.1.12.3 Stabilité des lois d'évolution et situations nouvelles ............................ 120
3.1.12.3.1 Apparition d'une loi d'évolution 120
3.1.12.3.2 Restriction du postulat de causalité 120
3.1.12.3.3 Exemples d'apparitions 121
3.1.12.3.4 Conséquences philosophiques de la possibilité d'apparitions 122
3.1.12.4 Conclusions sur le déterminisme étendu et la causalité ...................... 122
3.1.12.4.1 Déterminisme étendu : un principe et un objectif 122
3.1.12.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique 123
3.2 Imprédictibilité de la pensée humaine .......................................................... 126
3.2.1 La barrière de complexité .................................................................................. 127
3.2.2 Rigueur des raisonnements déductifs ............................................................. 128
3.2.3 Champ d'application du déterminisme et de la causalité ............................... 129

7
3.3 Compléments philosophiques sur le déterminisme physique ................... 129
3.3.1 Trois cas particuliers de déterminisme de la nature ....................................... 129
3.3.2 Symétrie temporelle et réversibilité du déterminisme traditionnel ................ 130
3.3.2.1 Différence entre symétrie temporelle et réversibilité ............................ 131
3.3.2.2 Phénomène irréversible ...................................................................... 132
3.3.2.3 Exemple de loi symétrique par rapport au temps et réversible ............ 133
3.3.2.4 Système conservatif ou dissipatif – Force conservative ou
dissipative............................................................................................ 134
3.3.3 Portée du déterminisme : locale ou globale .................................................... 134
3.3.3.1 Principe de moindre action de Maupertuis .......................................... 135
3.3.3.2 Principe de Fermat (plus court chemin de la lumière) ......................... 135
3.3.3.3 Quasi-cristaux ..................................................................................... 135
3.3.3.4 Variables complémentaires ................................................................. 136
3.3.3.5 Conclusion sur le déterminisme global ................................................ 136
3.3.3.6 Caractère humain, artificiel, de la notion d'échelle .............................. 137
3.3.3.7 Déterminisme des algorithmes et calculabilité..................................... 137
3.3.4 Compléments sur le déterminisme philosophique .......................................... 137
3.3.4.1 Critique de l'enchaînement des causes et des conséquences ............ 138
3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution 138
3.3.4.1.2 Les transformations irréversibles contredisent aussi le déterminisme
philosophique 139
3.3.4.2 Déterminisme, mesures et objectivité.................................................. 139
3.3.4.3 Déterminisme et libre arbitre de l'homme ............................................ 140
3.3.4.4 Conclusions critiques sur le déterminisme traditionnel ........................ 140
3.4 Pourquoi ce texte et les efforts qu'il suppose .............................................. 141
3.4.1 Inconvénients de l'ignorance, avantages de la connaissance ....................... 141
3.4.2 Ambition limitée de ce texte .............................................................................. 143
3.5 Le déterminisme en physique ....................................................................... 144
3.5.1 Système et état .................................................................................................. 144
3.5.1.1 Degrés de liberté d'un système ........................................................... 144
3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté 145
3.5.2 Espace des phases – Stabilité des lois physiques d'évolution ...................... 146
3.5.2.1 Représentation de l'évolution d'un système ........................................ 148
3.5.2.1.1 Evolution d'un système représentée par des équations différentielles 149
3.5.2.2 Lignes de force d'un espace des phases et unicité de l'évolution ....... 149
3.5.2.3 Stabilité de l'évolution d'un système conservatif .................................. 151
3.5.2.4 Considérations sur la prévisibilité de l'évolution d'un système ............ 151
3.5.2.5 Système dissipatif par frottements - Attracteur .................................... 152
3.5.2.6 Système dissipatif périodique avec échange d'énergie – Cycle limite . 152
3.5.2.7 Système à évolution quasi périodique ................................................. 153
3.5.2.8 Déterminisme et prédictibilité des systèmes – Autocorrélation............ 154
3.5.2.9 Imprédictibilité et hasard ..................................................................... 154
3.5.2.10 Systèmes apériodiques – Attracteurs étranges ................................... 155
3.5.2.11 Changement de loi d'évolution par bifurcation – Valeur critique .......... 156
3.5.3 Etat quantique d'un système ............................................................................ 158
3.5.3.1 Vecteur d'état ...................................................................................... 158
3.5.3.2 Espace des états ................................................................................. 158
3.5.3.3 Réalité physique et représentation dans l'espace des états ................ 158
3.5.3.4 Espace des phases d'un champ et espace des états associé ............. 159
3.5.3.5 Equipartition de l'énergie dans un champ – Stabilité des atomes ....... 160
3.5.4 Les contradictions de la physique traditionnelle et de son déterminisme .... 160

8
3.5.5 Des forces physiques étonnantes .................................................................... 161
3.5.6 L'évolution nécessite une interaction avec échange d'énergie ...................... 162
3.5.7 1ère extension du déterminisme : fonctions d'onde et pluralité des états ...... 163
3.5.7.1 Notions de Mécanique quantique ........................................................ 163
3.5.7.2 De la contingence à la probabilité ....................................................... 164
3.5.7.3 Extension du déterminisme aux résultats imprécis et probabilistes ..... 165
3.5.7.3.1 Le déterminisme statistique, complément du déterminisme scientifique 165
3.5.7.3.2 Différence entre déterminisme statistique et hasard pur 166
3.5.7.3.3 Dualité onde-particule, déterminisme dual et ondes de matière 167
3.5.7.3.4 Trajectoire d'un corpuscule 168
3.5.7.3.5 Théorie de la résonance chimique 172
3.5.7.3.6 Conséquences pour le déterminisme 172
3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger) ..... 174
3.5.7.4.1 Impossibilité de décrire des phénomènes sans symétrie temporelle 175
3.5.7.4.2 Inadaptation à la gravitation et à son espace courbe relativiste 176
3.5.7.5 Etats finaux d'un système macroscopique .......................................... 176
3.5.8 2e extension du déterminisme : superpositions et décohérence ................... 177
3.5.8.1 Superposition d'états et décohérence ................................................. 177
3.5.8.2 Superposition de trajectoires ............................................................... 178
3.5.8.3 Conclusions sur la superposition d'états ou de trajectoires ................. 179
3.5.8.4 Déterminisme arborescent à univers parallèles de Hugh Everett III .... 180
3.5.9 3e extension du déterminisme : quantification et principe d'incertitude ....... 184
3.5.9.1 Quantification des niveaux d'énergie et des échanges d'énergie ........ 184
3.5.9.2 Les trois constantes les plus fondamentales de l'Univers ................... 184
3.5.9.3 Position et vitesse d'une particule ....................................................... 184
3.5.9.4 Paquet d'ondes et étalement dans le temps ........................................ 184
3.5.9.4.1 Description d'un paquet d'ondes de probabilité 184
3.5.9.4.2 Etalement du paquet d'ondes de position d'une particule 186
3.5.9.4.3 Cas d'une onde de photon 187
3.5.9.5 Incertitude sur la détermination simultanée de 2 variables
(Heisenberg)........................................................................................ 187
3.5.9.6 Remarques sur l'incertitude et l'imprécision ........................................ 189
3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure 190
3.5.9.7 Incertitude contextuelle ....................................................................... 190
3.5.9.8 Incertitude due à l'effet Compton ......................................................... 191
3.5.9.9 Mesures, incertitude et objectivité ....................................................... 192
3.5.9.9.1 Toute mesure de physique quantique modifie la valeur mesurée 192
3.5.9.9.2 Mesure souhaitée et mesure effectuée : exemple 192
3.5.9.9.3 Copie d'un état quantique. Clonage par copie moléculaire 193
3.5.9.9.4 Mesure grâce à un grand nombre de particules 194
3.5.9.9.5 Conclusions sur la réalité objective et la réalité mesurable en physique
quantique 194
3.5.9.9.6 Contraintes de non-indépendance de variables 195
3.5.9.9.7 Objectivité des mesures 196
3.5.9.9.8 La « mathématicophobie » et l'ignorance 197
3.5.9.10 Quantification des interactions et conséquences sur le déterminisme 198
3.5.9.10.1 Différence entre quantification et imprécision 199
3.5.9.10.2 Echanges quantifiés d'énergie et conservation de l'énergie 199
3.5.9.10.3 Conséquences de la quantification des interactions : extension du
déterminisme 200
3.5.9.10.4 Quantification des vibrations - Phonons et frottements 200
3.5.9.10.5 Effets mécaniques et thermiques de la lumière 201
3.5.9.10.6 Effets photoélectriques 202

9
3.5.9.11 Conséquences des diverses imprécisions sur le déterminisme .......... 202
3.5.10 4e extension du déterminisme : lois de conservation et symétries ................ 205
3.5.10.1 Invariance de valeurs, invariance de lois physiques ............................ 205
3.5.10.2 Invariance de lois physiques par rapport à l'espace et au temps ........ 205
3.5.10.3 Invariances et lois de conservation (lois fondamentales de la
physique) ............................................................................................. 208
3.5.10.4 Un vide plein d'énergie ........................................................................ 209
3.5.10.4.1 Le vide de la physique quantique 209
3.5.10.4.2 Champ et boson de Higgs 211
3.5.10.4.3 Distance, temps, densité et masse de Planck 212
3.5.10.4.4 Le vide de l'espace cosmique 213
3.5.10.4.5 Expansion de l'Univers visible 214
3.5.10.5 Conclusions sur les symétries et lois de conservation ........................ 216
3.5.11 5e extension du déterminisme : complexité, imprévisibilité, calculabilité ..... 217
3.5.11.1 Combinaison de nombreux phénomènes déterministes ...................... 218
3.5.11.1.1 Mécanique statistique 219
3.5.11.2 Déterminisme + complexité = imprévisibilité........................................ 219
3.5.11.3 Modélisation des systèmes complexes, notamment ceux du vivant.... 220
3.5.11.3.1 Des avancées très prometteuses en matière de modélisation 221
3.5.11.4 Analyse statistique de systèmes complexes ....................................... 222
3.5.11.5 Complexité et décisions médicales ..................................................... 223
3.5.11.6 Résultats remarquables de certains processus calculables ................ 225
3.5.11.6.1 Algorithme de calcul de Pi - Suite pseudo-aléatoire de nombres entiers 225
3.5.11.6.2 Dynamique des populations 226
3.5.11.7 Déterminisme et durée ........................................................................ 228
3.5.11.7.1 Nombres réels et problèmes non calculables 229
3.5.11.7.2 Il y a infiniment plus de réels non calculables que de réels calculables 231
3.5.11.7.3 Propositions indécidables 232
3.5.11.8 Calculabilité, déterminisme et prévisibilité ........................................... 233
3.5.11.8.1 Calculabilité d'une prédiction 235
3.5.11.8.2 Phénomènes déterministes à conséquences imprévisibles et erreurs
philosophiques 236
3.5.11.8.3 Calculabilité par limitations et approximations 237
3.5.11.9 Déterminisme et convergence des processus et théories ................... 238
3.5.11.10 Logique formelle. Calcul des propositions. Calcul des prédicats ......... 239
3.5.11.10.1 Logique formelle et logique symbolique 239
3.5.11.10.2 Calcul des propositions 240
3.5.11.10.3 Calcul des prédicats 241
3.5.11.11 Problèmes insolubles. Théorème de Fermat. Equations
diophantiennes .................................................................................... 242
3.5.11.12 Certitude de l'existence d'une démonstration dans une axiomatique .. 243
3.5.11.13 Génération de nombres "aléatoires" avec une formule déterministe ... 243
3.5.11.14 Attracteurs multiples ............................................................................ 244
3.5.11.15 « Accidents » de la réplication du génome et évolution vers la
complexité ........................................................................................... 245
3.5.11.16 Approche heuristique du déterminisme ............................................... 247
3.5.12 6e extension du déterminisme : irréversibilité thermodynamique .................. 248
3.5.12.1 Evolution unidirectionnelle du temps ................................................... 248
3.5.12.2 Radioactivité naturelle et stabilité des particules atomiques ou
nucléaires ............................................................................................ 249
3.5.12.3 L'irréversibilité est une réalité, pas une apparence ............................. 251

10
3.5.12.4 Décroissance de l'entropie. Structures dissipatives. Auto-
organisation ......................................................................................... 251
3.5.12.5 Programme génétique et déterminisme .............................................. 253
3.5.12.5.1 Gènes et comportement humain 254
3.5.12.5.2 Renouvellement biologique et persistance de la personnalité 255
3.5.12.5.3 Evolution du programme génétique 256
3.5.12.5.4 Evolution d'une population 257
3.5.12.5.5 Evolution due à une modification de l'expression de gènes 258
3.5.12.5.6 Conclusion sur le déterminisme génétique 259
3.5.12.6 Vie, organisation, complexité et entropie ............................................. 260
3.5.12.6.1 Apparition de la vie et évolution des espèces 260
3.5.12.6.2 Preuves de l'évolution darwinienne des espèces 261
3.5.12.6.3 L'obstination des tenants du créationnisme 262
3.5.12.7 Effondrement gravitationnel et irréversibilité. Trous noirs .................... 262
3.5.12.7.1 Principe d'exclusion de Pauli 263
3.5.12.7.2 La masse limite de Chandrasekhar - Supernova 264
3.5.12.7.3 Les étoiles à neutrons 265
3.5.12.7.4 Les trous noirs 266
3.5.12.7.5 Masses et dimensions dans l'Univers 267
3.5.12.7.6 Attraction gravitationnelle au voisinage d'une étoile effondrée 268
3.5.12.7.7 Déroulement dans le temps de la chute d'un corps vers un trou noir 271
3.5.12.7.8 Irréversibilité des fusions stellaires et d'un effondrement gravitationnel 271
3.5.12.7.9 Caractéristiques d'un trou noir 272
3.5.12.7.10 Et en plus, un trou noir s'évapore ! 274
3.5.12.7.11 Quantité d'information dans un volume délimité par une surface 275
3.5.12.7.12 Surface nécessaire pour décrire une évolution - Principe holographique 276
3.5.12.8 Le Big Bang, phénomène irréversible ................................................. 276
3.5.12.9 Univers à plus de 4 dimensions........................................................... 277
3.5.13 7e extension du déterminisme : Relativité, écoulement du temps ................. 278
3.5.13.1 Relativité et irréversibilité .................................................................... 280
3.5.13.2 Particules virtuelles. Electrodynamique quantique .............................. 280
3.5.14 Attitude face au déterminisme .......................................................................... 281
3.5.14.1 Conséquences des lois de la nature sur le déterminisme ................... 282
3.5.14.1.1 Validité des lois de la Mécanique quantique à l'échelle macroscopique 282
3.5.14.1.2 Le déterminisme étendu peut abolir les distances et les durées 285
3.5.14.1.3 Multiplicité des conséquences possibles 286
3.5.14.1.4 Imprévisibilité de l'évolution et de l'état final 287
3.5.14.1.5 Difficulté de préciser la situation de départ ou le processus 287
3.5.14.1.6 Impossibilité de remonter l'arborescence de causalité 288
3.5.14.1.7 Irréversibilité 288
3.5.14.1.8 Relativité 289
3.5.14.1.9 Matérialisme et déterminisme des lois du vivant 289
3.5.14.2 Attitude recommandée face au déterminisme ..................................... 289
3.5.14.2.1 Critique des méthodes de réflexion de quelques philosophes français 290
3.5.14.2.2 La liberté d'esprit et d'expression 291
3.5.14.2.3 L'ouverture d'esprit 292
3.5.14.2.4 Une loi est toujours vraie, elle ne peut être probable 293
3.5.14.2.5 Le « principe anthropique » 294
3.6 Le déterminisme humain ................................................................................ 297
3.6.1 Niveaux d'abstraction et déterminisme ............................................................ 298
3.6.1.1 Définition d'une représentation - Différences avec une essence ........ 298
3.6.1.2 Définition d'un concept ........................................................................ 299
3.6.1.3 Densité et profondeur d'abstraction ..................................................... 300

11
3.6.1.4 Compréhension par niveaux d'abstraction .......................................... 303
3.6.1.5 Penser par niveaux d'abstraction ........................................................ 304
3.6.1.6 Introduction à la Théorie informationnelle du psychisme ..................... 304
3.6.1.6.1 La machine de Turing 304
3.6.1.6.2 Hiérarchie des langages de l'informatique 305
3.6.1.6.3 Penser la complexité par niveaux hiérarchiques 306
3.6.1.6.4 Processus d'abstraction et de mémorisation 307
3.6.1.7 Niveaux d'information biologique et déterminisme génétique .............. 308
3.6.1.7.1 L'information du logiciel génétique 309
3.6.1.7.2 Etres vivants artificiels définis à partir de leur seul code génétique 310
3.6.1.8 Objections idéalistes et leur réfutation................................................. 310
3.6.1.8.1 Un vieux débat : la conscience est-elle transcendante ? 311
3.6.1.9 Les pensées ne sont que des interprétations de l'état du cerveau ...... 312
3.6.1.10 A chaque niveau fonctionnel son niveau logiciel ................................. 313
3.6.1.11 Critères de valeur et d'efficacité, et mécanismes d'évaluation ............ 314
3.6.1.12 Une signalisation permanente dans le cerveau ................................... 315
3.6.1.13 Hiérarchie logicielle de la pensée - Modélisation informationnelle ...... 316
3.6.1.14 Reconnaissance de formes, structures, processus et intentions ......... 317
3.6.1.15 Intuition d'abord, justification après ..................................................... 318
3.6.1.16 Evaluation permanente parallèle de situations hypothétiques ............. 319
3.6.1.17 "Le monde comme volonté et représentation" de Schopenhauer........ 319
3.6.1.18 Mémorisation et acquisition d'expérience - Déterminisme culturel ...... 320
3.6.1.18.1 Mécanismes physiologiques de la mémoire 320
3.6.1.18.2 Acquisition d'expérience 321
3.6.1.18.3 La mémoire sélective 323
3.6.1.19 Désirs et satisfaction artificiels. Drogues ............................................. 323
3.6.1.20 Des pensées peuvent aussi se comporter comme des drogues ......... 324
3.6.2 Mécanismes psychiques non algorithmiques ou imprévisibles .................... 325
3.6.2.1 Définitions............................................................................................ 325
3.6.2.1.1 Mécanisme psychique algorithmique 325
3.6.2.1.2 Mécanisme psychique déterministe 326
3.6.3 La conscience .................................................................................................... 326
3.6.3.1 Conscience morale.............................................................................. 327
3.6.3.2 Conscience de..................................................................................... 327
3.6.3.2.1 La conscience de, ETAT du psychisme 327
3.6.3.2.2 La prise de conscience de, ACTION du psychisme 328
3.6.3.2.3 La conscience de est un couple {Objet + Schéma d'attention} 331
3.6.3.2.4 Le champ d'attention 332
3.6.3.2.5 La conscience de soi 333
3.6.3.2.6 Conscience d'un objet quelconque 333
3.6.3.2.7 Modèle prévisionnel de l'évolution d'un objet - Intention d'agir 334
3.6.3.2.8 Conscience d'autrui - La Théorie de l'esprit 334
3.6.3.3 Conscience.......................................................................................... 334
3.6.3.4 Conclusion sur la conscience .............................................................. 336
3.6.3.5 Théorie informationnelle du psychisme ............................................... 336
3.6.3.6 Considérations philosophiques sur la conscience ............................... 337
3.6.3.6.1 Conscience et pensée non algorithmique 339
3.6.3.6.2 Conclusion sur le caractère non-algorithmique et non-déterministe de la
pensée 343
3.6.3.6.3 La pensée naît-elle du corps avec son cerveau ? 343
3.6.4 Le modèle informatique de l'homme ................................................................ 344
3.6.4.1 La pensée en tant que processus d'interprétation ............................... 344

12
3.6.4.2 Modèle logiciel à couches du psychisme ............................................ 345
3.6.4.3 Le fonctionnement du psychisme n'est pas souvent déterministe ....... 345
3.6.4.4 Autres raisonnements humains inaccessibles à un ordinateur ............ 346
3.6.5 Libre arbitre, imprévisibilité et transgressions ................................................ 346
3.6.6 Différences entre représentations mentales de personnes différentes ......... 348
3.6.7 Déterminisme des évolutions ou décisions selon le niveau ou l'échelle....... 350
3.6.7.1 Difficulté d'expliquer un comportement macroscopique à partir de
phénomènes au niveau atomique ....................................................... 350
3.6.7.2 Niveau des phénomènes naturels ....................................................... 351
3.6.7.3 Niveau des phénomènes sociétaux..................................................... 351
3.6.7.4 Autonomie des niveaux et compréhension holistique .......................... 352
3.6.7.5 Holisme ............................................................................................... 353
3.6.8 Complexité, ouverture d'esprit et causes occultes : discussion polémique . 354
3.6.9 Etre intelligent, déterminisme et prévisibilité .................................................. 357
3.6.9.1 Equité, confiance, coopération et déterminisme psychologique .......... 359
3.6.9.1.1 Le jeu "Prends ou laisse" 359
3.6.9.1.2 Le point de vue de Kant 360
3.6.10 Le besoin de tromper ses adversaires. Les deux types d'incertitude ............ 360
3.6.10.1 Recherches sur les stratégies de bluff et décision en ambiance
d'incertitude ......................................................................................... 362
3.6.10.2 Concurrence entre raison et affects. Connaissances cachées ............ 362
3.6.10.2.1 Importance des automatismes dans la pensée humaine 365
3.6.10.2.2 Coup de foudre 366
3.6.10.2.3 Connaissances cachées 366
3.6.11 Mécanismes de l'intuition.................................................................................. 367
3.6.11.1 La concurrence entre raison et intuition .............................................. 368
3.6.11.1.1 Le jeu du "Dilemme des voyageurs" 368
3.6.11.1.2 L'homme ne suit que les conclusions conformes à ses valeurs 369
3.6.11.1.3 Un raisonnement critiquable 370
3.6.11.1.4 La science économique est basée sur un postulat contestable 370
3.6.12 Ordinateur et compréhension humaine ........................................................... 371
3.6.13 Compréhension, imagination et certitude ........................................................ 373
3.6.14 Les deux étapes d'une décision consciente .................................................... 374
3.7 Le déterminisme dans notre société - La mondialisation ........................... 374
3.7.1 Théories utilitaires des XVIIe et XVIIIe siècles .................................................. 375
3.7.2 Craintes et regrets d'aujourd'hui ...................................................................... 376
3.7.3 Une analogie entre évolution darwinienne et économie de marché .............. 377
3.7.4 La mondialisation, résultat de la concurrence et des communications ........ 378
3.7.4.1 Lois de la physique et lois de l'économie ............................................ 379
3.7.4.2 Conséquences économiques de la mondialisation.............................. 379
3.7.4.3 Mondialisation : causes et inconvénients pour l'homme ...................... 382
3.7.4.3.1 L'homme, perpétuel insatisfait qui accuse parfois la mondialisation 383
3.7.4.3.2 Frustration due aux désirs insatisfaits et réactions 384
3.7.4.4 Accepter donc la mondialisation .......................................................... 384
3.8 Le déterminisme du vivant ............................................................................. 385
3.8.1 Définitions du vivant .......................................................................................... 385
3.8.2 Etres vivants et déterminisme .......................................................................... 385
3.8.3 Possibilité thermodynamique d'une complexification naturelle .................... 386
3.8.4 Possibilité de créer artificiellement un comportement vivant ........................ 386
3.8.4.1 Synthèse d'acides aminés ................................................................... 386
3.8.4.2 Génie génétique .................................................................................. 387
3.8.5 Modélisation informatique/neuropsychique du vivant .................................... 387

13
3.8.5.1 Transmission nerveuse : un mécanisme tout-ou-rien .......................... 387
3.8.5.2 Organisation architecturale et organisation fonctionnelle .................... 389
3.8.5.3 Algorithmes d'action et algorithmes d'évaluation ................................. 390
3.8.5.4 Modèle informatique et fonctions de base de la vie............................. 390
3.8.6 Conclusions sur le déterminisme du vivant et sa prévisibilité ....................... 391
3.9 Critique du déterminisme ............................................................................... 392
3.9.1 Conditions de prise en défaut du déterminisme .............................................. 392
3.9.2 Conclusion : il faut postuler le déterminisme .................................................. 394
3.9.3 La causalité elle-même peut-elle être remise en question ? ........................... 394
3.9.3.1 Objections à la causalité contestant la méthode scientifique .............. 394
3.9.3.2 Causalité et théorie de la Relativité ..................................................... 396
3.9.3.3 Définitions approfondies d'une cause et de la causalité ...................... 397
3.9.3.4 Horizon de prédiction ou de reconstitution du passé ........................... 398
3.9.3.5 Critique de la notion de cause première (cause ultime) ...................... 400
3.9.3.5.1 Définition et problématique 400
3.9.3.5.2 Un temps cyclique, pure spéculation 402
3.9.3.5.3 Théorie cosmologique de la gravitation quantique 402
3.9.3.5.4 Conséquences de la cosmologie sur le « début de la causalité » 402
3.9.3.5.5 Conséquences de la Relativité sur l'unicité de la cause première 403
3.9.3.6 Autres problèmes de la notion de causalité ......................................... 404
3.9.3.6.1 Objections de multiplicité 404
3.9.3.6.2 Objections de complexité et de chaos 404
3.9.3.6.3 Objection de séparabilité 404
3.9.3.6.4 Légitimité d'une recherche de causalité 404
3.9.4 Critique de la méthode scientifique et de la vérité scientifique ...................... 405
3.9.4.1 Les formalistes .................................................................................... 405
3.9.4.2 Les intuitionnistes ................................................................................ 405
3.9.4.3 Les platoniciens................................................................................... 406
3.9.4.4 Les rationalistes du XVIIIe siècle......................................................... 406
3.9.4.5 Les empiristes ..................................................................................... 407
3.9.4.6 Le rationalisme critique de Karl Popper ............................................... 407
3.9.4.6.1 Définition d'une vérité scientifique 408
3.9.4.6.2 Définition d'une théorie appliquée à un domaine pratique 409
3.9.4.6.3 Critères à respecter pour qu'une théorie scientifique soit acceptable 410
3.9.4.6.4 Risques et inconvénients d'une vérité scientifique par consensus 411
3.9.4.6.5 Une théorie peut-elle être probable ? 412
3.9.4.6.6 Définition d'une théorie scientifique objective 412
3.9.4.6.7 Comparaison du rationalisme critique avec l'empirisme 412
3.9.4.6.8 Polémique entre le rationalisme critique et le conventionalisme 413
3.9.4.6.9 Objection holistique à la falsifiabilité 414
3.9.4.6.10 Les systèmes interprétatifs 414
3.9.4.6.11 Sciences dures et sciences molles 415
3.9.4.6.12 Evolution d'une vérité, de la science et du monde selon Popper 416
3.9.4.6.13 Critique de la position de Popper sur le déterminisme 417
3.9.4.7 Dogmatisme de ma méthode de travail ............................................... 418
3.10 L'homme est-il libre malgré le déterminisme ? ..................................... 418
3.10.1 L'homme est toujours insatisfait ...................................................................... 418
3.10.2 Les 3 déterminants de la conscience et l'imprévisibilité de l'homme ............ 418
3.10.3 Désirs conscients de l'homme et critères d'appréciation ............................... 419
3.10.4 L'homme ne maîtrise ni ses valeurs, ni ses désirs.......................................... 419
3.10.5 Définitions du libre arbitre et de la liberté ........................................................ 420
3.10.6 Exclusions de la discussion qui suit sur le libre arbitre ................................. 421

14
3.10.7 Le libre arbitre selon Sartre .............................................................................. 424
3.10.8 Conclusion sur le libre arbitre .......................................................................... 424
3.10.9 Libre arbitre, déterminisme et responsabilité .................................................. 425
3.10.9.1 Point de vue idéaliste .......................................................................... 425
3.10.9.2 Point de vue matérialiste ..................................................................... 426
3.10.9.3 La société passe avant l'individu ......................................................... 426
3.10.9.4 Pas de tyrannie de la majorité ............................................................. 427
3.10.9.5 Morale naturelle, morale acquise et responsabilité de l'homme .......... 427
3.11 Conclusions et recommandations pratiques......................................... 428
3.12 Références et compléments.................................................................... 430
3.13 Annexe : l'espace-temps de Minkowski ................................................. 547
3.13.1 La Relativité Restreinte ..................................................................................... 547
3.13.2 L'espace-temps .................................................................................................. 547
3.13.3 Diagramme d'espace-temps.............................................................................. 547
3.13.4 Intervalle d'espace-temps ................................................................................. 551
3.13.5 Condition de causalité entre deux événements............................................... 552
3.13.6 Indépendance entre deux événements et relation de causalité ..................... 553
3.13.7 Conclusions sur la causalité ............................................................................. 556
3.13.8 Remarque sur la simultanéité ........................................................................... 556
3.13.9 Ligne d'univers .................................................................................................. 557
3.13.10 Relativité Générale. Mouvement accéléré. Inclinaison du cône de lumière .. 557
3.13.11 Paradoxe du voyageur de Langevin ................................................................. 558
3.13.12 Quadrivecteur énergie-impulsion ..................................................................... 559
3.14 Scientifiques et philosophes cités ......................................................... 561
3.15 Résumé des cas d'imprédictibilité.......................................................... 565

15
Première partie

1. Où en sont les preuves de l'existence de Dieu ?


1.1 Définitions de Dieu et de la religion
Le philosophe athée André Comte-Sponville écrit dans [5], pages 80 et 16 :
"J'entends par « Dieu » un être éternel spirituel et transcendant (à la fois extérieur
et supérieur à la nature), qui aurait consciemment et volontairement créé
l'univers. Il est supposé parfait et bienheureux, omniscient et omnipotent. C'est
l'être suprême, créateur et incréé (il est cause de soi), infiniment bon et juste,
dont tout dépend et qui ne dépend de rien. C'est l'absolu en acte et en personne."
"J'appelle « religion » tout ensemble organisé de croyances et de rites portant
sur des choses sacrées, surnaturelles ou transcendantes, et spécialement sur
un ou plusieurs dieux, croyances et rites qui unissent en une même
communauté morale ou spirituelle ceux qui s'y reconnaissent ou les pratiquent."

Avant André Comte-Sponville, le sociologue Durkheim avait donné en 1912 [5-a] une
définition un peu différente de la religion, dont André Comte-Sponville s'est inspiré :
"La religion est « un système solidaire de croyances et de pratiques relatives à
des choses sacrées (c’est-à-dire séparées, interdites), croyances et pratiques qui
unissent en une même communauté morale, appelée Eglise, tous ceux qui y
adhèrent »."

Ces deux définitions de la religion ne font pas référence à un dieu mais à des choses
sacrées, ce qui permet de prendre en compte les religions animistes et de classer le
bouddhisme (croyance sans dieu) parmi les religions.
En outre, la définition de Durkheim a l'avantage de rappeler le nom donné à une
« communauté morale ou spirituelle » : une Eglise.

En tant que système de croyances, une religion fait partie d'une culture.

Compte tenu de ces définitions, voyons quelles sont les raisons psychologiques de
croire en Dieu de certains hommes.

16
1.2 Raisons psychologiques de croire en Dieu, science et laïcité

Prééminence des émotions sur la raison


Les connaissances actuelles, issues des neurosciences et de la psychologie,
permettent d'affirmer ce qui suit.
 L'esprit humain ne déclenche une action, geste ou pensée, que pour satisfaire
un besoin psychologique, résultant d'une perception physique, d'une émotion
inconsciente ou d'une pensée ayant produit un affect. J'agis ou je réfléchis parce
que j'ai faim, j'ai peur, je suis amoureux, j'ai soif de justice, j'ai besoin d'être
apprécié, j'espère une récompense, etc.
 Un processus de raisonnement est accompagné de jugements de valeur à
chaque étape, avec les affects qui en résultent. De même que chaque
perception, chaque pensée est automatiquement et immédiatement jugée en
fonction de ses conséquences prévisibles, dont chacune est associée à une ou
plusieurs valeurs. C'est ainsi que notre cerveau fonctionne, c'est automatique et
impossible à empêcher.
 La conclusion logique d'un raisonnement ne cause jamais une action ou une
inaction ; elle ne peut que faire craindre ou espérer un résultat, dont
l'appréciation produira un affect qui justifiera une action. La raison de l'homme
est un outil au service de ses affects, un outil au même titre que sa force
physique, et pas plus qu'elle.
Les philosophes qui pensent, comme Descartes, que la raison est toute-puissante
pour faire faire à l'homme des choix contraires à ses désirs profonds se trompent,
les neurosciences l'ont bien démontré aujourd'hui. L'homme a bien un libre arbitre,
mais toutes les décisions qu'il croit prendre librement sont soumises à un
ensemble hiérarchisé de valeurs associées à des émotions, valeurs et émotions
dont il n'est pas maître : l'homme peut faire ce qu'il veut, il ne peut pas vouloir ce
qu'il veut.

Pourquoi certains croient en Dieu


Compte tenu de ce qui précède, je ne vois que deux raisons psychologiques qui font
que certains hommes croient en Dieu :
 Le besoin que le monde ait un sens, c'est-à-dire qu'on ait une réponse à des
questions comme :
 « Pourquoi y a-t-il quelque chose plutôt que rien ? » ;
 « Comment l'Univers est-il né ? » ou (plus moderne) « Qu'y avait-il avant le
Big Bang ? » ;
 « Pourquoi l'Univers est-il si complexe et si beau ? » ;
 « Comment se fait-il que l'évolution ait abouti à ces merveilles de complexité
que sont l'homme et l'environnement qui lui permet de vivre, et n'est-ce pas
là une preuve qu'elle a été guidée par une volonté délibérée au lieu d'être le
fait d'un hasard aveugle ? ».
Croire que la réponse à cette dernière question est nécessairement « Parce
qu'il y a un Dieu » s'appelle poser le principe anthropique. J'explique l'erreur

17
de raisonnement à la base de ce postulat au paragraphe « Le principe
anthropique ».
L'homme a un besoin instinctif de relier entre eux des faits, des événements ou
des pensées diverses, pour les comprendre, c'est-à-dire leur donner une structure
et situer celle-ci par rapport à d'autres connaissances qu'il a déjà. L'absence de
structure ou de lien avec des connaissances préexistantes induit instinctivement
dans son esprit une crainte de l'inconnu et des dangers éventuels qu'il peut
comporter. Tous les hommes sont ainsi, depuis des milliers d'années que leur
esprit pense : il a besoin de sens. [D10]
Expliquer ce qu'on ne comprend pas par l'existence et la volonté de Dieu évite de
continuer à chercher une réponse en restant dans l'incertitude. Et lorsque des
hommes influents, prêtres ou rois, disent croire à l'explication divine, lorsqu'autour
de soi tout le monde y croit comme au Moyen Age, l'existence du Dieu créateur
devient une évidence.
 Le besoin de valeurs bien définies [70], comme le Bien et le Mal, le Sacré et le
Profane, le Juste et l'Injuste, la Charité et l'Indifférence, etc. Dans un monde où
le mal est inévitable et source de tant de souffrances, l'homme peut se consoler
en pensant que Dieu lui apportera le bonheur dans l'au-delà. Face à l'injustice,
l'homme peut espérer la justice divine. Le pauvre peut espérer la charité, etc.
On prête à Dieu la défense des valeurs positives auxquelles on veut croire et qui
consolent. Les textes sacrés définissent des règles de morale [70] et des principes
de justice grâce auxquels les sociétés ont pu se donner des règles vie en commun
acceptables et les hommes ont pu créer du lien social.
Il est important de savoir que le besoin psychologique de valeurs de certaines
personnes peut être satisfait sans religion ni foi en Dieu, comme le montre [5].

Vérités et valeurs révélées contre science et laïcité


Au fur et à mesure que le progrès des connaissances rationnelles, c'est-à-dire la
science, faisait reculer l'ignorance, le besoin d'explication divine du monde diminuait.
Peu à peu, l'homme a remplacé les vérités révélées, éternelles et infalsifiables [203],
par des vérités démontrées. Celles-ci sont vérifiables même si chaque connaissance
peut un jour être remplacée par une connaissance plus approfondie. La science
explique ce qu'elle peut du monde sans jamais invoquer Dieu.

Au fur et à mesure du progrès des sociétés, c'est-à-dire de leurs institutions et des


règles de vie admises par leurs citoyens, le besoin de valeurs et règles d'inspiration
divine a diminué. Dans une démocratie moderne, on a remplacé les lois provenant de
textes sacrés par des lois imaginées et votées par des hommes. On a remplacé des
règles de morale [70] issues de lois religieuses (comme l'abstinence de relations
sexuelles hors mariage) par une tolérance limitée seulement par le respect d'autrui.
On a remplacé des tyrans « Roi par la grâce de Dieu » par des gouvernements issus
d'élections libres. On a remplacé des sociétés à classes privilégiées (comme la
noblesse et le clergé) par des sociétés d'hommes égaux en droits et en devoirs. La
laïcité [336] n'est pas seulement une tolérance, une neutralité vis-à-vis de croyances
et pratiques religieuses diverses, c'est aussi et surtout, depuis les Lumières [47], le
remplacement de valeurs révélées et imposées par des valeurs négociées et votées.

18
Historiquement, les grandes religions monothéistes ont eu deux rôles importants dans
les sociétés humaines : un apport culturel et moral et un lien social entre les croyants,
qui étaient la grande majorité. Ces deux influences ont beaucoup diminué dans
certaines sociétés : c'est le cas notamment de la France, et les retombées
sociologiques constatées sont graves [D6].

1.3 L'homme conçoit Dieu à son image


Je ne blasphème pas, je constate : les hommes prêtent à Dieu les qualités qu'ils n'ont
pas assez ou pas du tout, mais qu'ils désirent. Leur conception de Dieu est si
anthropomorphique qu'elle est parfois naïve ; on voit bien qu'elle résulte de leur
entendement [337], qu'elle reflète leurs problèmes. Tout à la fois, ils conçoivent Dieu
comme antérieur à l'homme, Sa créature ; extérieur à lui lorsqu'Il l'a créé, l'aide, le juge
ou le punit ; et si semblable à lui lorsqu'Il est jaloux de l'adoration d'autres dieux [D1].
Et la multiplicité des religions qui durent depuis des siècles montre que la même quête
des hommes a eu des réponses religieuses diverses, adaptées à des lieux et des
habitudes de vie divers. Nous compléterons ce point de vue ci-dessous.

Une contradiction fondamentale qui explique la volonté de prouver l'existence


de Dieu : le Problème du Mal
Il y a une contradiction fondamentale dans la définition même d'un Dieu infiniment bon,
avec Sa Providence qui intervient dans les situations graves où le mal pourrait
prévaloir : comment se fait-il, alors, que l'on constate depuis toujours dans le monde
autant de souffrances et d'injustices, et pourquoi Dieu laisse-t-il l'homme faire autant
de mal ? Les croyants ont une réponse à cette contradiction : « Dieu laisse à l'homme
son libre arbitre ». Cette réponse a été conçue, à l'évidence, pour innocenter Dieu.
Comme elle est contraire au bon sens, les croyants nous demandent de renoncer à
être logiques et à chercher à comprendre lorsqu'il s'agit de Dieu : « Les voies du
Seigneur sont impénétrables » [D3]. En somme, la religion est révélée et cette
révélation doit être acceptée sans être soumise à critique rationnelle.

Les grandes religions sont donc des religions révélées, c'est-à-dire présentées comme
vérités a priori, à accepter telles quelles sans démonstration. Pour elles, la recherche
de preuves logiques de l'existence de Dieu - que nous allons aborder ci-dessous - n'a
donc pas de raison d'être. Si tant de religieux et de philosophes croyants y ont travaillé,
c'était seulement pour convaincre les non-croyants de croire. En France, par exemple,
Pascal et Descartes ont milité en ce sens.

Alors que des parents cherchent à protéger leur enfant (qui risque de faire des bêtises
parce qu'il n'a pas encore l'âge de raison) en l'empêchant de les faire, Dieu, notre
Père, nous laisse les faire, quitte à nous punir ensuite : incohérence !

La contradiction (appelée traditionnellement « le problème du mal ») est même plus


grave que ci-dessus. Dans [5] page 122, André Comte-Sponville rapporte quatre
hypothèses attribuées à Epicure :
"« Ou bien Dieu veut éliminer le mal et ne le peut ; ou il le peut et ne le veut ; ou
il ne le veut ni ne le peut ; ou il le veut et le peut. S'il le veut et ne le peut, il est
impuissant, ce qui ne convient pas à Dieu ; s'il le peut et ne le veut, il est
méchant, ce qui est étranger à Dieu. S'il ne le peut ni le veut, il est à la fois
impuissant et méchant, il n'est donc pas Dieu. S'il le veut et le peut, ce qui

19
convient seul à Dieu, d'où vient donc le mal, ou pourquoi Dieu ne le supprime-t-il
pas ? »
La quatrième hypothèse, la seule qui soit conforme à notre idée de Dieu, est
donc réfutée par le réel même (l'existence du mal). Il faut en conclure qu'aucun
Dieu n'a créé le monde, ni ne le gouverne, soit parce qu'il n'y a pas de Dieu, soit
parce que les dieux (telle était l'opinion d'Épicure) ne s'occupent pas de nous, ni
de l'ordre ou du désordre du monde, qu'ils n'ont pas créé et qu'ils ne gouvernent
en rien..."

Compte tenu de la contradiction fondamentale qui apparaît avec le problème du mal,


il a paru essentiel à certains penseurs de vérifier en raisonnant que Dieu existe, ou de
prouver aux autres que c'est le cas.

1.4 Comment prouver l'existence de Dieu ?


L'homme se fait de Dieu une image très humaine, et pourtant si abstraite qu'il ne peut
en vérifier la validité et qu'il ne peut faire d'expérience qui prouve l'existence de Dieu
ou son intervention. Un croyant sait que Dieu ne relève pas les défis des hommes. La
proposition "Dieu existe" est infalsifiable et indécidable.
C'est pourquoi, depuis des millénaires, l'homme se demande comment se prouver
rationnellement à lui-même et à ses semblables que Dieu existe.

Le judaïsme, puis le christianisme et enfin l'islam sont des religions révélées. Chacune
affirme l'existence de Dieu et précise ses commandements en demandant à l'homme
de les croire sans démonstration ou preuve expérimentale. Chacune a des textes
sacrés qui citent la parole de Dieu sans preuve factuelle ou rationnelle, en demandant
à l'homme de faire acte de foi pour les croire.

Avant le siècle des Lumières [47] (qui a pris fin avec le décès de Kant, en 1804) seuls
quelques philosophes et quelques saints se sont préoccupés de convaincre leurs
semblables de croire en Dieu en apportant des preuves logiques - ou ce qu'ils
croyaient être des preuves logiques. Constatant l'absence de valeur de ces preuves,
point sur lequel nous revenons plus bas, Kant a voulu reprendre à zéro l'étude du sujet
et soumettre l'existence de Dieu - en même temps que le reste de notre savoir - au
« tribunal de la raison ». Il a écrit en 1781 dans la préface de la Critique de la raison
pure [M3] :
"Notre siècle est particulièrement le siècle de la critique à laquelle il faut que tout
se soumette. La religion, alléguant sa sainteté et la législation sa majesté,
veulent d'ordinaire y échapper ; mais alors elles excitent contre elles de justes
soupçons et ne peuvent prétendre à cette sincère estime que la raison accorde
seulement à ce qui a pu soutenir son libre et public examen."

On appelle "théodicée" la partie de la métaphysique [371] qui traite de l'existence et


de la nature de Dieu d'après les seules lumières de l'expérience et de la raison ;
théodicée est synonyme de théologie rationnelle.

Le texte suivant aborde la théodicée. C'est une copie du texte "Les preuves logiques
de l'existence de Dieu" http://www.danielmartin.eu/Philo/Dieu-Preuves.pdf.

20
1.5 Les preuves logiques de l'existence de Dieu
Ce texte présente les trois types d'arguments cités au cours des siècles pour prouver
l'existence de Dieu avec un raisonnement logique. Les personnes ayant une culture
philosophique n'y trouveront rien de neuf.

Il résume la démonstration de Kant (Critique de la raison pure, 1781) qui a mis un


terme au débat sur ce sujet en prouvant qu'une telle preuve n'existe pas.

Ce texte précise aussi quelques détails d'une telle preuve à la lumière des
connaissances cosmologiques actuelles.

Les termes philosophiques et scientifiques de ce texte sont expliqués dans le


Dictionnaire des idées de Kant – Vocabulaire de la Critique de la raison pure
http://www.danielmartin.eu/Philo/Vocabulaire.pdf

1.5.1 Croire en Dieu ou en la science : il faut choisir !

1.5.1.1 Définitions : Univers, phénomène, représentation, Monde

Univers

Selon le dictionnaire
 (Philosophie et langage courant) : ensemble de tout ce qui existe, la totalité des
êtres et des choses.
 (Univers physique, sensible) : ensemble des choses et des phénomènes
physiques perçus par l'homme et objets de la science.
 (Astronomie – Univers avec une majuscule) : ensemble des galaxies,
considérées dans leur évolution dans l'espace et dans le temps.
 (Physique de la Relativité générale) : tout ce qui a existé, existe et existera dans
le même espace-temps (continuum quadridimensionnel) que la Terre.

Connaissances scientifiques
 Naissance : notre Univers est né d'une explosion colossale, le Big Bang, il y a
13.8 milliards d'années.
Nous ne savons pas s'il a existé quelque chose (espace-temps ou matière-
énergie) avant ce Big Bang, nous n'avons à ce sujet que des conjectures. Nous
ne savons même pas si l'espace-temps n'est pas apparu en même temps que la
matière-énergie de l'Univers lors du Big Bang.
 Structure : La Relativité générale d'Einstein nous apprend que l'Univers est un
continuum (espace continu) quadridimensionnel : 3 dimensions d'espace + 1
dimension de temps, le tout formant l'espace-temps. Le temps est une
dimension nécessaire de cet espace-temps, dont on ne peut concevoir un
espace réel sans temps ou un temps réel sans espace.
 Dimension : l'Univers observable depuis la Terre est l'intérieur d'une sphère de la
surface de laquelle la lumière a mis 13.8 milliards d'années pour nous parvenir

21
depuis le Big Bang : son rayon est défini par un temps de parcours, pas par une
distance.
 Expansion : l'Univers est en expansion depuis le Big Bang : les galaxies
lointaines s'éloignent de nous d'autant plus vite qu'elles sont loin [111].
La vitesse d'expansion de l'Univers a varié depuis le Big Bang, décroissant
pendant les 8 à 9 premiers milliards d'années, puis croissant depuis.
Du fait de cette vitesse d'expansion variable, les galaxies les plus lointaines jamais
créées depuis le Big Bang sont à une distance de 47 milliards d'années-lumière,
à la surface d'une sphère appelée Univers physique actuel. Cet Univers contient
environ 1011 galaxies, 1023 étoiles.
On appelle Volume de Hubble l'intérieur de la sphère à la surface de laquelle les
galaxies s'éloignent de nous à la vitesse de la lumière. Les galaxies situées au-
delà émettent une lumière qui ne nous atteindra jamais, car elle se propage moins
vite que l'Univers ne se dilate.
La surface de l'Univers observable s'éloigne de nous environ 6 fois plus vite que
la vitesse de la lumière c = 299 792 458 m/s (un peu moins de 300 000 km/s). Une
telle vitesse ne contredit pas la Relativité Générale, car celle-ci ne limite à c que
les vitesses de ce qui est matière ou rayonnement, pas celle de l'expansion.

Phénomène
 1er sens (scientifique) : fait objectif, observé, susceptible de se reproduire.
C'est une réalité extérieure perçue par l'homme.
Un type de phénomènes est un concept, classe dont les membres partagent les
propriétés.
Exemple : phénomènes de propagation de la lumière, d'attraction universelle.
Les phénomènes physiques sont régis par des lois déterministes ; exemple :
la chute d'une pierre est un phénomène de la classe des effets de la pesanteur.
 2ème sens (philosophique) : une situation dont on prend conscience, qui peut se
reproduire, acquérir une valeur objective et faire l'objet d'une connaissance.

En pratique, le mot phénomène désigne :


 Tantôt une situation (l'état d'un système perçu à un instant donné) ;
 Tantôt une évolution dans le temps et/ou l'espace, tous deux observables et
susceptibles de se reproduire :

Représentation
Le mot représentation a deux significations :
 Acte par lequel l'esprit du sujet se représente quelque chose (son objet, par
exemple un phénomène) tel qu'il est à un instant donné. C'est une mise en
relation de l'objet avec l'ensemble de données mentales qui le représentent dans
l'esprit du sujet. L'objet peut être externe (empirique) ou interne (a priori).
L'objet qu'un sujet se représente est présent à son esprit.
 Résultat de cet acte : l'ensemble de données mentales précédent traitées par le
sens interne, donc ordonnées, connectées et mises en rapport ; physiquement,

22
c'est un état de certains neurones et de leurs interconnexions. Cet ensemble
(état cérébral interprété par les fonctions psychiques) décrit l'objet d'une manière
synthétique, schématique.

L'esprit de l'homme ne peut accéder à un objet physique lui-même, il n'accède qu'à la


représentation qu'il en a construit, dont la signification (description matérielle et sens
psychologique) devient celle de l'objet, de l'objet entier et seulement de cet objet. Pour
l'esprit, la représentation (et elle seule) EST l'objet réel. Kant écrit :
 "Nous n'avons affaire, en tout état de cause, qu'à nos représentations ; ce qu'il
peut en être de choses en soi (sans égard aux représentations par lesquelles
elles nous affectent), cela tombe entièrement en dehors de notre sphère de
connaissance."
 "Si l'on considère les phénomènes extérieurs [à notre esprit] comme des
représentations qui sont produites en nous par leurs objets [extérieurs eux
aussi], on ne parvient pas à apercevoir comment l'on pourrait connaître leur
existence autrement que par le raisonnement inférant, à partir de l'effet, la cause
- raisonnement dans lequel il ne peut que rester toujours douteux de savoir si
cette dernière est en nous ou hors de nous [c'est-à-dire si les représentations ne
sont pas dues à l'imagination]. […]
Les représentations ne sont que des phénomènes, […] qui se trouvent toujours
uniquement en nous et dont la réalité repose sur la conscience immédiate,
[spontanée, irréfléchie] tout aussi bien que la conscience de mes propres
pensées."

Monde
Kant distingue l'Univers défini plus haut, espace réel contenant tous les objets
existants, et le Monde, dont voici les définitions.

Le monde sensible
Le monde sensible (celui que perçoit notre sens externe à l'instant présent) est défini
comme la totalité des phénomènes (tout ce qui existe sous forme perceptible). Kant
écrit :
"Le monde sensible ne contient rien d'autre que des phénomènes, mais ceux-ci
sont de simples représentations…"

Différences entre Monde et Nature définis tous deux comme totalité des
phénomènes
Monde : totalité des phénomènes de l'Univers, résultant d'une synthèse par réunion
de ses parties ou de la décomposition d'un phénomène en ses parties. Kant écrit :
 "Par monde, se trouve compris l'ensemble global de tous les phénomènes"
 "Le terme de monde […] signifie l'absolue totalité de l'ensemble global des
choses existantes"

Nature : totalité des phénomènes dont la succession par causalité a produit l'ensemble
unifié de tout ce qui existe aujourd'hui. Nature a deux sens :
 Un sens déterministe indiquant la succession des déterminations d'une chose
due aux évolutions physiques, toujours conformes au principe de causalité.

23
 Un sens d'ensemble global des phénomènes "en tant qu'ils forment un ensemble
systématique [organisé] complet en vertu d'un principe interne de la causalité."

Résumé de ces définitions


L'Univers physique est perçu par l'homme sous forme de phénomènes, présents à son
esprit sous forme de représentations dont l'ensemble constitue, selon le point de vue,
le Monde ou la Nature.

1.5.1.2 Critique scientifique du concept de créateur de l'Univers


Un dieu qui aurait créé l'Univers aurait été externe à l'Univers, pour ne pas se créer
lui-même, et il aurait existé avant sa création de l'Univers. Or chacune de ces deux
conditions est contradictoire :
 D'après la définition de l'Univers il n'y a pas et il n'y a jamais eu d'extérieur de
l'Univers : la notion de Dieu extérieur est donc contradictoire.
Nous avons la certitude scientifique que notre Univers est né d'une explosion
colossale, le Big Bang, il y a 13.8 milliards d'années [313]. Nous ne savons pas
s'il a existé quelque chose (espace-temps ou matière-énergie) avant ce Big Bang,
nous n'avons à ce sujet que des conjectures. Nous ne savons même pas si
l'espace-temps n'est pas apparu en même temps que la matière-énergie de
l'Univers lors du Big Bang.
La Relativité générale d'Einstein nous apprend que le temps est une dimension
nécessaire de l'espace-temps quadridimensionnel de l'Univers, dont on ne peut
concevoir un espace réel sans temps ou un temps réel sans espace.
 D'après la définition de l'Univers il n'y a pas et il n'y a jamais eu d'avant
l'Univers : la notion de Dieu existant avant l'Univers est donc contradictoire.
Nous n'avons pas la certitude qu'il n'y a pas et qu'il n'y a jamais eu d'espace-temps
extérieur et/ou antérieur à notre Univers [313]. Nous savons seulement qu'un tel
espace-temps sera toujours hors de portée de nos instruments, et qu'aucune
théorie sur ses limites spatio-temporelles ne pourra être confirmée par
l'expérience.
C'est pourquoi nous pouvons faire comme si l'Univers est, et a toujours été, tout
ce qui existe en tant que matière-énergie, que temps et qu'espace.

1.5.1.3 Critique de Kant de la possibilité de création transcendante


Kant ne connaissait pas ces arguments scientifiques modernes de l'impossibilité d'un
dieu créateur de l'Univers, mais il en a cité un qui se suffit à lui-même. Le voici.
Les lois de la nature, conçues par l'homme dans l'Univers et pour décrire les
phénomènes de l'Univers, excluent la possibilité qu'une action physique franchisse la
limite de l'Univers. Aucune création de l'Univers depuis l'extérieur n'est possible,
aucune action causée de l'extérieur ne peut atteindre l'intérieur, et aucune action de
l'intérieur ne peut atteindre l'extérieur : l'Univers est un système fermé et les lois de la
nature excluent la transcendance (action qui franchit les limites de l'Univers).
(Ces règles régissant les lois de la nature sont confirmées par notre science
actuelle, et toute action transcendante est pure spéculation.)

24
La Relativité générale exclut la possibilité d'une interaction transcendante
La Relativité générale exclut la possibilité d'un déplacement de matière-énergie plus
vite que la lumière. C'est pourquoi, par exemple, un voyage vers l'étoile la plus proche,
Proxima Centauri, située à 4.2 années-lumière du Soleil, prendra toujours plus de 4.2
années, quels que soient les progrès scientifiques futurs.

En outre, l'Univers est en expansion, les galaxies lointaines s'éloignant de nous


d'autant plus vite qu'elles sont loin : celles situées sur la sphère enveloppant le Volume
de Hubble [111] s'éloignent de nous à la vitesse de la lumière, et celles situées plus
loin sont à jamais invisibles, leur lumière n'allant pas assez vite pour nous parvenir [2].
Donc aucune interaction entre la Terre et un point extérieur à cette sphère n'est
possible, ni partant de la Terre ni arrivant sur elle. Cette remarque précise la notion
d'extérieur à notre Univers.

Nos lois physiques sont vérifiables et excluent le hasard


Nos lois de la nature ont été imaginées d'après les phénomènes constatés, et vérifiées
sans exception depuis leur acceptation par les scientifiques. Kant affirme qu'il n'y a
pas de hasard dans les situations et les évolutions de la nature, nécessairement régies
par des lois valables partout et toujours, c'est-à-dire dans tout l'espace-temps. La
nature ne fait jamais n'importe quoi et respecte ces lois.
Le hasard (décrit et discuté dans le Vocabulaire) est une notion scientifique
précise, dont l'affirmation par une personne résulte en général de son ignorance.
Affirmer qu'un phénomène est « dû au hasard » ou « agit selon le hasard » exige
une preuve aussi sérieuse qu'affirmer qu'il est régi par telle loi naturelle. Même la
Mécanique quantique, avec ses résultats probabilistes décrivant une forme contre-
intuitive de réalité et la possibilité de variables indéterminées, n'a que des
évolutions régies par l'équation de Schrödinger, parfaitement déterministe donc
sans hasard.

1.5.1.4 Conclusion logique : il ne peut exister de Dieu physique


Une création transcendante de l'Univers irait donc contre nos lois physiques, qu'il
faudrait renier pour croire à une telle création. Chacun de nous doit donc choisir entre
croire à l'universalité scientifique vérifiable de nos lois naturelles ou à la création divine
dogmatique du monde, chacun des choix excluant l'autre.

Position officielle de l'Eglise catholique sur l'origine du monde


Pour l'Eglise catholique, dont le pape a rappelé en 2007 le dogme théologique [D7] :
 Le monde a été créé par Dieu ;
 L'existence de chaque homme est précédée par une Idée, conformément à
l'idéalisme de Platon. Elle a un sens attribué par Dieu, conformément à la
doctrine téléologique de l'Eglise, sens dont les valeurs doivent guider sa vie.

1.5.1.5 Théologie proposée par Kant


Puisqu'un Dieu créateur de l'Univers est physiquement impossible, Kant a proposé un
Dieu transcendantal, notion décrite dans le Vocabulaire. Cette notion fait de Dieu une
abstraction pure, imaginée par l'homme pour que ses connaissances de l'Univers
présentent une unité d'attribution et de finalité en tant que système, unité
psychologiquement plus satisfaisante que des lois naturelles vraies mais disparates.

25
Tout en affirmant clairement l'impossibilité physique de ce Dieu (qualifié à l'occasion
d'Intelligence suprême, d'Etre originaire ou d'Etre suprême) Kant encourage ses
lecteurs à lui attribuer des propriétés anthropologiques, c'est-à-dire à « concevoir Dieu
à l'image de l'homme qui le conçoit », avec des valeurs et des sentiments – à condition
de ne pas oublier que c'est une idée transcendantale régnant seulement sur un
système unifié de concepts.

L'homme n'a pas accès à la réalité physique, dont il perçoit seulement des
phénomènes que son esprit transforme en représentations mentales. Tout se passe
comme si ces représentations sont la réalité et leurs lois d'évolution sont celles de
l'Univers physique.
Il n'y a donc pas d'inconvénient à imaginer que toutes ces représentations et
toutes les lois naturelles d'évolution proviennent d'un Dieu transcendantal, être parfait.
Ce paradigme ne contredit nullement la causalité matérielle de l'Univers réel
inaccessible, les lois naturelles déduites par l'homme des phénomènes perçus lui
permettant bien d'en prévoir l'évolution.

Si on interprète donc la théologie des juifs, chrétiens et musulmans comme affirmant


une création divine selon des finalités à découvrir [D7], on a un système de concepts
cohérent et psychologiquement satisfaisant puisqu'il donne un sens au monde. Mais
comme Kant le rappelle à plusieurs reprises, ce n'est là qu'un paradigme, un modèle
conçu pour des raisons de cohérence causale et d'apaisement psychologique.

Interaction entre pensée et matière


Un cerveau peut penser des concepts et raisonner sur eux. On peut considérer cela
comme une action de la matière (le cerveau pensant) sur une abstraction. Mais
réciproquement, une abstraction ne peut agir sur de la matière que par l'intermédiaire
du cerveau qui l'héberge et commande au corps d'agir.

Aucune action directe de la pensée sur la matière n'est possible : ainsi, la


psychokinèse est impossible. C'est là une conséquence de la thermodynamique :
toute action physique exige un échange d'énergie, et une abstraction n'a pas d'énergie,
ne peut en donner et ne peut en recevoir.
Si par action de la pensée sur la matière on entend action des ondes cérébrales
(enregistrables par électroencéphalographe) sur de la matière, c'est possible et utilisé
par exemple pour aider des handicapés moteurs.

Un objet transcendantal comme l'Idée de Dieu ne peut donc agir physiquement.

1.5.2 Les 3 preuves possibles de l'existence de Dieu


Dans l'excellente traduction [D2] utilisée pour étudier la Critique de la raison pure, Kant
écrit (citation de la page 529) :
"Il n'y a, procédant de la raison spéculative, que trois types de preuves possibles de
l'existence de Dieu. Toutes les voies que l'on peut tenter de suivre dans ce but partent :
 [Preuve physico-théologique]
ou bien de l'expérience déterminée et de la nature particulière de notre monde
sensible, telle que cette expérience nous la fait connaître, et elles s'élèvent à
partir de celle-ci, en suivant les lois de la causalité, jusqu'à la cause suprême
située en dehors du monde ;

26
 [Preuve cosmologique]
ou bien elles ne prennent empiriquement pour fondement qu'une expérience
indéterminée, c'est-à-dire une existence quelconque ;
 [Preuve ontologique]
ou bien enfin elles font abstraction de toute expérience et concluent entièrement
a priori, à partir de simples concepts, à l'existence d'une cause suprême.

La première preuve est la preuve physico-théologique, la deuxième la preuve


cosmologique, la troisième la preuve ontologique. Il n'y en a pas davantage, et il ne
peut pas non plus y en avoir davantage.

Je démontrerai que la raison parvient à tout aussi peu de résultats sur l'une de ces
voies (la voie empirique) que sur l'autre (la voie transcendantale), et que c'est en vain
qu'elle déploie ses ailes pour s'élever au-delà du monde sensible par la seule force de
la spéculation."
(Fin de citation)

Le premier mérite de Kant est d'avoir ainsi classé les preuves spéculatives (c'est-à-
dire purement déductives) possibles en 3 catégories :
 Une preuve dite physico-théologique basée sur une expérience déterminée,
c'est-à-dire une constatation qu'un homme peut faire en considérant un
phénomène particulier (une vision de ce qui l'entoure à un instant donné) ;
 Une preuve dite cosmologique, basée sur ce qu'un homme peut voir en général
quand il considère un phénomène comme le précédent (la cosmologie est
l'étude de l'ensemble de tous les phénomènes du monde) ;
 Une preuve dite ontologique, basée sur la logique a priori du raisonnement
humain, donc ignorant tout phénomène possible.
(L'ontologie est la partie de la philosophie qui a pour objet l'étude des propriétés
les plus générales de l'être, telles que l'existence, la possibilité, la durée, le
devenir ; synonyme : philosophie première.
Pour Kant, l'ontologie est une science qui prétend connaître Dieu par son concept,
sans passer par l'expérience, et qui tombe sous le coup de la critique de la preuve
ontologique. Il écrit :
"…la malheureuse preuve ontologique, qui ne véhicule avec elle rien qui pût
satisfaire ni l'entendement naturel et sain ni l'examen méthodique.")

1.5.2.1 Preuve ontologique de l'existence de Dieu


Une telle preuve cherche à établir par raisonnement logique que l'existence de Dieu
résulte nécessairement de sa définition.

Quelle que soit la définition de Dieu, elle ne peut être basée que sur des jugements lui
attribuant des qualités, pouvoirs et actes ; mais un tel jugement est une opinion, pas
un phénomène constaté. Il n'a donc pas valeur probante, il peut avoir été pensé par
erreur. Kant écrit :
"Tous les exemples avancés [pour montrer l'existence d'un être absolument
nécessaire] sont, sans exception, tirés uniquement de jugements, et non pas de

27
choses et de leur existence. Mais la nécessité inconditionnée des jugements
[simple opinion] n'est pas une nécessité absolue des choses."

En outre, ce n'est pas parce qu'un homme a pensé la description de quelque chose
qu'elle existe. Une même description (ensemble d'informations) pouvant correspondre
à zéro, une ou plusieurs occurrences d'un objet, l'existence éventuelle de cet objet est
une information séparée ; elle ne peut donc être déduite de la description. Kant écrit :
"La détermination est un prédicat qui s'ajoute au concept du sujet et l'accroît. Il
faut donc qu'elle ne s'y trouve point déjà contenue."

Conclusion
Il n'existe pas de preuve ontologique de l'existence de Dieu. Kant écrit :
"C'était une démarche totalement contre nature, et qui constituait un simple
renouvellement de l'esprit scolastique, que de vouloir tirer d'une idée forgée de
façon entièrement arbitraire l'existence de l'objet correspondant à cette idée."

Exemple d'erreur ontologique d'un philosophe


Exemple d'erreur par inclusion d'un prédicat d'existence dans une définition :
Dans l'Ethique de Spinoza, la première partie, De Dieu, a une première définition
logiquement impossible :
« I. J'entends par cause de soi ce dont l'essence enveloppe [inclut] l'existence, ou
ce dont la nature ne peut être conçue que comme existante. »

1.5.2.2 Preuve cosmologique de l'existence de Dieu

La contingence du monde, base de la preuve cosmologique


La preuve cosmologique repose sur une hypothèse de contingence du monde, « qui
existe, mais aurait pu ne pas exister » ; et puisqu'il existe, c'est qu'il a été créé, donc il
y a un Créateur.
 L'hypothèse de contingence de l'Univers est pure conjecture : la science a
seulement la certitude qu'il existe depuis le Big Bang, il y a 13.8 milliards
d'années.
Les lois de la physique nous interdisant à jamais de voir ce qu'il y avait avant – s'il
y avait quelque chose, car rien ne prouve que le temps et l'espace existaient avant
- la création de l'Univers restera toujours un mystère.
 Du point de vue philosophique, l'hypothèse de contingence de l'Univers contredit
le postulat de causalité que nous considérons comme un postulat de la
nécessité des choses, et dont résulte le principe de fatalisme. Kant écrit :
(Citation de la page 286 de la Critique de la raison pure [D2])
"La nécessité ne concerne […] que les rapports entre les phénomènes, d'après
la loi dynamique de la causalité. [Cette loi permet] de conclure a priori, à partir
d'une quelconque existence donnée (à partir d'une cause) à une autre existence
(à l'effet).
[Principe de fatalisme : ce qui arrive devait arriver]
Tout ce qui arrive est hypothétiquement nécessaire [devait arriver] : c'est là un
principe fondamental qui soumet dans le monde le changement à une loi, c'est-

28
à-dire à une règle s'appliquant à l'existence nécessaire, sans laquelle règle il n'y
aurait pas même de nature.
[Soit S une situation d'un objet précédée d'une situation P, qui en est la
cause d'après une loi de la nature. Si S était contingente, la situation P
aurait pu ne pas avoir pour conséquence S, ce qui contredit l'exigence de
causalité qui rend la conséquence S certaine après P pour respecter la loi
de la nature. Donc ce qui arrive (ici : S) devait arriver.]
Par conséquent, le principe : rien n'arrive par un hasard aveugle est une loi a
priori de la nature ; de même : aucune nécessité intervenant dans la nature n'est
une nécessité aveugle…".
(Fin de citation)
 Du point de vue logique (en ignorant le Big Bang), notre Univers a peut-être
toujours existé, sans avoir été créé. Mais du point de vue scientifique, sa
création a peut-être eu lieu dans un autre Univers : nous avons des théories
possibles mais non prouvées (les théories des Multivers) qui le supposent.

Kant écrit dans la Critique de la raison pure [D2], page 540 :


"Dans cet argument cosmologique, se [tient] dissimulée toute une nichée de
prétentions […] que la critique transcendantale peut découvrir et détruire. […]
Se trouvent donc ici, par exemple :
1. Le principe transcendantal qui consiste à conclure du contingent à une cause,
lequel principe n'a de signification que dans le monde sensible, mais en dehors
de lui n'a plus du tout de sens. Car le concept purement intellectuel du contingent
ne peut produire aucune proposition synthétique telle que celle de causalité, et le
principe de cette dernière n'a aucune signification ni aucun critère réglant son
usage, si ce n'est uniquement dans le monde sensible ; or, ici, il devrait servir
précisément à sortir du monde sensible et à le dépasser.
2. Le principe qui conduit à conclure de l'impossibilité d'une série infinie de causes
données s'étageant les unes au-dessus des autres dans le monde sensible à une
cause première - conclusion à laquelle les principes de l'usage de la raison,
même dans l'expérience, ne nous autorisent pas, bien loin donc qu'ils nous
donnent la capacité d'étendre ce principe au-delà de l'expérience (où cette chaîne
ne peut pas du tout être prolongée)."

Conclusion
Il n'existe pas de preuve cosmologique de l'existence de Dieu.

1.5.2.3 Preuve physico-théologique de l'existence de Dieu

Problème posé
Dans sa Critique de la raison pure [D2], Kant définit le problème de cette preuve :
"Chercher si une expérience déterminée, par conséquent celle des choses
appartenant au monde présent autour de nous, si la façon dont elle est constituée et
structurée ne fournissent pas un argument probant qui pût nous procurer avec sûreté
la conviction de l'existence d'un être suprême. Une telle preuve, nous l'appellerions
physico-théologique.

29
Si elle devait elle aussi être impossible, il n'y aurait jamais aucune preuve
suffisante qui fût possible, à partir de la raison simplement spéculative, pour démontrer
l'existence d'un être correspondant à notre Idée [de Dieu]."

Il s'agit donc de trouver un raisonnement qui pourrait déduire d'une éventuelle


expérience (un phénomène constatable, indépendamment de son contexte c'est-à-
dire du reste du Monde), la présence nécessaire d'un être suffisant pour l'existence du
Monde entier.

Solution de Kant
Une expérience déterminée (un phénomène) a nécessairement une cause, d'après le
postulat de causalité. Toute conclusion (et notamment une existence nécessaire)
qu'on pourrait déduire d'un phénomène donné résulterait d'informations de ce
phénomène et/ou de ceux dont il est le résultat, et seulement de ces phénomènes. Or
tous ces phénomènes appartiennent à la chaîne de causalité du phénomène de
l'expérience (sa cause, la cause de cette cause, etc.)

En remontant la chaîne de causalité, on parcourt une série de causes qui sont toutes
des phénomènes du Monde. Or nous avons vu à l'occasion de la preuve ontologique
qu'aucun phénomène du Monde ne peut avoir créé le Monde, et ce pour deux raisons :
 Il ne peut être transcendant (situé en dehors du Monde pour éviter
l'autocréation) ;
 Il ne peut préexister au Monde.

Conclusion : on ne peut déduire d'une expérience déterminée quoi que ce soit qui soit
transcendant et préexistant au Monde ; il n'y a donc pas de preuve physico-
théologique de l'existence de Dieu.

Comme on ne trouvera pas de phénomène transcendant, on ne trouvera pas d'être


ayant une volonté téléologique
Puisque d'un phénomène déterminé on ne peut aboutir qu'à des phénomènes du
Monde, on ne voit pas pourquoi on trouverait la nécessité d'un être muni d'une volonté
téléologique. Kant écrit :

(Citation de la page 547 de la Critique de la raison pure [D2])


"Comment une expérience peut-elle jamais être donnée qui soit adéquate à une Idée
[comme l'Idée de la raison pure qui décrit Dieu] ? C'est justement le propre des Idées
que nulle expérience ne puisse jamais leur correspondre.

L'Idée transcendantale d'un être originaire qui soit nécessaire et totalement suffisant
est si démesurément grande, elle dépasse de si haut tout ce qui est empirique et se
trouve toujours conditionné, que
 d'une part on ne peut jamais dégager de l'expérience assez de matière
[d'informations] pour remplir un tel concept,
 et que d'autre part on tâtonne toujours au milieu du conditionné [des
circonstances] en ne cessant de chercher en vain l'inconditionné [les
circonstances absolues à l'origine du Monde entier], dont aucune loi de quelque

30
synthèse empirique que ce soit ne nous fournit un exemple ou ne procure le
moindre indice."
(Fin de citation)

Kant conclut page 549 :


"Je soutiens donc que la preuve physico-théologique ne saurait jamais à elle seule
démontrer l'existence d'un être suprême…"

1.5.3 Raisons de croire en un Dieu transcendantal


Après avoir démontré qu'il n'existe pas de preuve déductive d'existence d'un Créateur
du Monde, Kant plaide pour qu'on adopte la croyance en un Dieu transcendantal, tout
en sachant qu'il n'est qu'un produit de l'imagination humaine. Les arguments qu'il
invoque à l'appui de cette proposition sont ceux de toute doctrine téléologique,
notamment ceux de l'Eglise catholique [D7].

(Citation de la Critique de la raison pure [D2] pages 549 et 550)


1. "Dans le monde se découvrent partout des signes transparents d'une mise en
ordre conforme à une intention déterminée, opérée avec une grande sagesse et
constituant un tout aussi indescriptible dans la diversité de son contenu qu'il peut
être illimité quant à la grandeur de son étendue.
2. Cette mise en ordre finalisée est totalement étrangère aux choses du monde, et
elle ne leur est attachée que de façon contingente — autrement dit : la nature de
cette diversité de choses n'aurait pas pu d'elle-même, par des moyens
convergents de tant de sortes, s'accorder à des intentions finales, si ces moyens
n'avaient été choisis tout exprès pour cela et disposés à cette fin par un principe
organisateur doué de raison prenant pour fondement des Idées et intervenant
d'après elles.
3. Il existe donc une (ou plusieurs) cause sublime et sage qui doit être la cause du
monde, non pas simplement par fécondité, comme une nature toute-puissante
agissant de manière aveugle, mais par liberté, comme une intelligence.
4. On peut conclure à l'unité de cette cause à partir de l'unité de la relation
réciproque des parties du monde considérées comme les éléments d'une
construction, cela avec certitude pour ce que notre observation atteint, mais pour
le reste avec vraisemblance, en suivant tous les principes de l'analogie."
(Fin de citation)

1.6 Compléments philosophiques des tentatives de prouver Dieu


Les deux paragraphes suivants sont assez abstraits, demandant une lecture attentive.
N'étant pas indispensables au reste de l'ouvrage, on peut se dispenser de les lire.

1.6.1 La notion d'un Dieu créateur intelligent est contradictoire


Un Dieu qui sait tout ne pense pas, car Il n'a pas de problème à résoudre. Il ne peut
donc avoir d'intention, car une intention est une pensée et suppose un projet précédant
sa réalisation. Si Dieu concevait un projet, il existerait pour Lui une possibilité qui ne
serait pas encore réalisée et Il serait alors fini, ce qui est contradictoire avec son
caractère infini. En somme, on ne peut attribuer à Dieu une séparation de la pensée
et de l'existence, séparation qui impliquerait la finitude.

31
Ce raisonnement a été fait par Spinoza, qui en a conclu que l'existence d'un Dieu
créateur intelligent est une absurdité, ce qui rend également absurde la notion de
finalité divine gouvernant le monde, donc aussi celle de Divine providence.

La contradiction inhérente à la notion de Dieu créateur intelligent s'ajoute à celle déjà


constatée plus haut concernant le problème du mal, contradiction qui a obligé les
croyants à déclarer que « Dieu laisse à l'homme son libre arbitre », et qu'il faut en
matière divine renoncer à la rationalité car que « les voies du Seigneur sont
impénétrables ».

Ces deux exemples de contradiction incitent à la prudence : penser l'infini, quand on


est un homme qui ne dispose que de concepts et de mécanismes de pensée logique
adaptés à son univers limité, risque de mener à des contradictions.

Comme certains philosophes l'ont remarqué, Dieu est donc une illusion, une projection
irrationnelle de nos désirs, de nos peurs et de nos espoirs : l'homme a conçu Dieu à
son image, et celle-ci est pleine de contradictions.

Il faut veiller à ne manipuler que des concepts représentables


Nous allons voir dans ce paragraphe que même si on imagine un concept non
contradictoire d'infini (comme un Dieu tout-puissant mais ne créant pas et ne faisant
pas de projet), on risque de ne pouvoir s'en servir pour réfléchir sur notre monde, faute
de pouvoir se le représenter clairement ; si on réfléchit avec, on risque de manipuler
des mots creux au lieu de garder ses deux pieds sur terre. Rappelons que pour qu'un
concept ait un sens dans notre conscience, il doit pouvoir provenir d'une perception
sensible ou se déduire d'un concept transcendantal. Exemples :
 Pour que le concept de "cercle" ait assez de sens pour que je puisse m'en servir
pour réfléchir, je dois pouvoir l'associer à quelque chose de concret, comme le
dessin d'un rond sur une feuille de papier.
 Dans ce texte sur le déterminisme il nous faudra étendre le domaine des
perceptions sensibles à l'interprétation des phénomènes décrits par des
équations et des fonctions, seule manière de les représenter à l'échelle
atomique, trop petite pour nos sens. Nous arriverons à nous représenter
mentalement ces équations et fonctions en songeant à des images de courbes
ou de surfaces auxquelles chacun peut s'habituer peu à peu.

Hélas, il n'est pas possible de représenter l'infinité de Dieu à l'aide d'une image, d'un
schéma ou d'une équation ; on ne peut le définir qu'avec des règles comme "Il est plus
grand que tout", "Il sait tout" ou "la divine Providence est infiniment secourable", et ces
règles ne sont pas représentables de manière sensible.

Si je reprends alors, par exemple, la notion de "Providence infiniment secourable" que


j'ai acceptée sans me la représenter, et que je l'applique au monde dans lequel je vis,
avec ses guerres et ses souffrances, la contradiction saute aux yeux : la notion
contredit la réalité dans de nombreux cas. En fait, c'est l'application même de la notion
de Providence au monde concret qui en construit des représentations, et ce sont
celles-ci qui montrent son caractère contradictoire. On voit sur cet exemple à quel point
il est indispensable de valider un concept au moyen de représentations sensibles de
ce qu'il implique.

32
Exemple : si on me propose un emploi d'un type nouveau pour moi, avant de
l'accepter ou de le refuser je dois me représenter concrètement, au moyen
d'exemples, mon activité dans le cadre de cet emploi. Que ferai-je chaque jour, en
serai-je capable, serai-je heureux de le faire, etc.

On trouvera une discussion plus approfondie de ce sujet dans l'ouvrage de Luc Ferry
[7], qui résume bien le problème, et notamment la citation [D9].

1.6.2 Reproche idéaliste de contredire le 2e principe de la thermodynamique


Contre le matérialisme, les idéalistes invoquent parfois un argument basé sur la
violation de la loi thermodynamique de l'entropie toujours croissante. Ils prétendent
que le phénomène de la vie ne peut s'expliquer par les seules lois physiques
déterministes du matérialisme, car celles-ci impliquent l'exigence thermodynamique
de croissance du désordre dans toute évolution. Pour eux, « puisqu'un être vivant est
hautement organisé, et que son corps s'organise à partir de nourriture qui est moins
organisée, la vie apporte quelque chose qui contredit la thermodynamique, qui la
soumet à un principe qui dépasse la physique et son matérialisme sous-jacent. »

Nous montrerons plus bas que ce raisonnement est faux, car le principe
thermodynamique de l'entropie toujours croissante ne s'applique qu'aux systèmes en
équilibre, qui n'échangent pas d'énergie avec leur environnement. Or le métabolisme
d'un être vivant échange l'énergie contenue dans sa nourriture avec de la production
de chaleur, de mouvement et de cellules nouvelles. Voyons ce que dit la
thermodynamique.

1.6.2.1 Notion d'entropie

Définition thermodynamique
L'entropie d'un système matériel est sa quantité d'énergie thermique par degré de
température qu'on ne peut transformer en travail utile. L'entropie mesure le
mouvement désordonné (l'agitation thermique) de ses molécules, donc l'inorganisation
du système qu'elles constituent, ce qu'on ignore sur lui.

Soit un système matériel que l'on met en contact avec plusieurs sources de chaleur,
de températures absolues T 1, T2, etc. Il échange alors avec ces sources des quantités
de chaleur respectives Q1, Q2, etc. Chacune de ces quantités peut être positive ou
négative, selon le sens du transfert de chaleur. Nous supposerons que l'échange de
chaleur du système se fait de manière réversible : à tout moment le système est si
près de l'équilibre thermique qu'un faible changement de sens de la différence de
température entre lui-même et l'extérieur inverserait le sens de l'échange de chaleur.

On définit alors la variation d'entropie ΔS du système par la somme des rapports :

ΔS = Q1/T1 + Q2/T2 + … en joules par degré Kelvin.

Dans les transformations réelles, c'est-à-dire non réversibles, l'égalité précédente


devient une inégalité :

ΔS  Q1/T1 + Q2/T2 + …

33
Cette inégalité, due au physicien Clausius, exprime le deuxième principe de la
thermodynamique : l'entropie d'un système isolé qui subit des transformations est
toujours croissante. En particulier, on peut affirmer que l'énergie convertissable en
travail de l'Univers s'épuise peu à peu. (Définitions de la thermodynamique : [25])

1.6.2.2 Entropie de Boltzmann, entropie statistique et entropie d'information


Au XIXe siècle, les physiciens Maxwell et Boltzmann inventèrent la Mécanique
statistique, science qui déduit les propriétés macroscopiques d'un système (propriétés
mesurables à l'échelle humaine comme la température, la pression et la viscosité) de
celles de ses molécules ou atomes. La loi qu'ils établirent exprime de manière simple
l'entropie S d'un système macroscopique en équilibre thermodynamique à partir du
nombre d'agencements W de l'ensemble de ses molécules qui conduisent à une
énergie macroscopique donnée. Expliquons cela.

Mouvement brownien - Relation entre température absolue et énergie cinétique


Chaque molécule du système a une certaine énergie. Si le système est un liquide, de
l'eau à 27 degrés C par exemple, cette énergie est l'énergie cinétique de chaque
molécule d'eau, énergie cinétique provenant de son mouvement, lui-même dû à la
température.
A la température absolue T (en degrés Kelvin) chaque molécule a une énergie
cinétique moyenne de 3/2 kT, où k est la constante de Boltzmann,
k = 1.38066.10-23 joule par degré Kelvin. Autrement dit, une température absolue
T > 0 oblige toute molécule à bouger constamment, avec une énergie cinétique
moyenne de 3/2kT ; si la masse de la molécule est m, sa vitesse moyenne v sera
telle que ½mv² = 3/2kT, d'où v² = 3kT/m : connaissant T on peut calculer v. Pour
fixer les idées :
 A la température T = 300°K (environ 27°C), la vitesse moyenne d'une
molécule monoatomique d'hélium He est d'environ 1300 m/s.
 A une température donnée T, une molécule légère comme l'hydrogène H 2 a
une vitesse moyenne plus élevée qu'une molécule plus lourde d'azote N2 :
les deux molécules ont même énergie cinétique moyenne, mais les carrés
de leurs vitesses moyennes sont dans le rapport des masses molaires
28/2 = 14.

Bien entendu, chaque molécule a sa propre énergie cinétique, indépendante de celle


d'une autre molécule tant que ces deux molécules ne se sont pas heurtées dans leur
agitation incessante, appelée mouvement brownien. Ce mouvement désordonné
affecte toutes les molécules d'un liquide ou un gaz ; dans les solides, l'effet de la
température se manifeste par une vibration de translation et/ou de rotation de chaque
atome autour d'une position moyenne.

Statistiques moléculaires
Le nombre de molécules d'un système macroscopique est colossal ; par exemple,
dans 18 g d'eau (quantité qu'on appelle une mole) il y a 6.02 .1023 molécules (nombre
d'Avogadro). Le nombre (immense !) d'ensembles de vitesses (d'agencements) que
ces molécules peuvent avoir en s'agitant pour se répartir une énergie macroscopique
totale donnée est appelé W, nombre que nous n'aurons jamais à écrire,
heureusement !

34
Par exemple, si un système a 3 molécules dont l'énergie peut varier de 0 à 9, et
que son énergie totale est 5, les agencements possibles des molécules sont :
(5,0,0) ; (4,1,0) ; (4,0,1) ; (3,2,0) ; (3,0,2) ; (3,1,1) ; (2,3,0) ; (2,0,3) ; (2,2,1), etc.

On appelle état microscopique d'un système macroscopique un agencement donné


de ses molécules, configuration où chacune a sa propre vitesse donc sa propre
énergie cinétique. Pour un état donné du système macroscopique, d'énergie totale
donnée, il y a W états microscopiques qui ont cette énergie totale.
Il est normal d'admettre que ces états microscopiques du système macroscopique
ont la même probabilité de se réaliser, et qu'ils sont indépendants. Cette probabilité P
est alors nécessairement P = 1/W, puisque la probabilité totale des W états est une
certitude et vaut 1.

Nous pouvons alors interpréter W comme une mesure du désordre du système : plus
le système est structuré, plus ses molécules sont liées entre elles, moins elles sont
indépendantes et moins il y a d'agencements W conduisant à une énergie donnée.
Dans un corps à l'état solide dont on ne voit pas les molécules individuelles, on ne
peut décrire qu'une énergie totale : W = 1 et P = 1.
Exemple : soit un système constitué de 12 g de carbone pur solide (1 mole) et
32 g d'oxygène pur gazeux (2 moles). Soumettons-le à la transformation qui fait
brûler le carbone dans l'oxygène : C + O2  CO2. Le résultat – 44 g de gaz
carbonique (1 mole = 6.02 .1023 molécules) - est dans un état plus désordonné
que l'état initial : son W a augmenté.

L'entropie de Boltzmann S d'un système macroscopique en équilibre


thermodynamique est définie par :

S = k lnW (en joules par degré Kelvin, comme k)

où k est la constante de Boltzmann et lnW est le logarithme népérien de W.

On voit que W et S varient dans le même sens : l'entropie S est donc aussi une mesure
du désordre du système, du nombre d'agencements microscopiques possibles cachés
quand on ne voit que l'état macroscopique du système.

La température et l'entropie d'un système ne sont stables qu'au voisinage de


l'équilibre. Conséquence : tant que l'Univers est en expansion, donc loin de l'équilibre,
son entropie (très faible à l'instant du Big Bang) peut croître.

Entropie statistique
Soit un système dont chacun des états possibles xi a une probabilité 𝑝𝑥𝑖 comprise entre
0 et 1, la somme des 𝑝𝑥𝑖 étant exactement égale à 1 (certitude). On définit alors
l'entropie statistique H du système comme :

𝐻 = −𝑘 ∑ 𝑝𝑥𝑖 log 𝑝𝑥𝑖


𝑥𝑖

35
où :
 Le logarithme est soit népérien, soit en base 10, soit en base 2 ; son choix se
répercute alors sur la valeur de k puisqu'on passe d'une base à une autre par
simple multiplication : log2 x = (Loge 10 / Loge 2) * log10 x = 3.322 log10 x.
 La constante k est arbitraire ; c'est par exemple la constante de Boltzmann
k = 1.38066.10-23 joule par degré Kelvin pour des logarithmes népériens.

En Mécanique statistique, l'entropie mesure l'absence d'informations d'un état


macroscopique par rapport à l'état microscopique. Elle se mesure dans l'unité choisie
pour la constante k. Lorsqu'on considère le nombre d'états d'un système qui
définissent son état global, l'entropie est un nombre sans dimension.
Exemple : dans un lanceur de satellite il y a 10 000 pièces indépendantes dont le
dysfonctionnement pourrait causer l'échec du lancement. Pour répondre à la
question : « Quel est la probabilité de succès du lanceur selon le nombre de pièces
en bon état ? » il faut 10 000 informations, chacune avec 2 valeurs possibles :
"bon" ou "mauvais", représentées par un bit : 1 pour "bon" et 0 pour "mauvais". Il
faut donc 10 000 bits pour représenter les 210000 combinaisons d'états possibles
du lanceur (environ 1.995 .103010 - nombre de 31 chiffres en base 10).
Si on suppose que les 10 000 pièces ont la même probabilité p de bon
fonctionnement, pour que le lancement ait au moins 99 % de chances de réussir
il faut que p10000 > 0.99, donc p > 0.999999 : chacune des pièces doit avoir au plus
une chance sur un million d'être défectueuse.

Lorsque les états sont équiprobables leur nombre étant W, la probabilité de chacun
est 1/W. La formule ci-dessus donne alors une entropie statistique égale à l'entropie
de Boltzmann : H = k logW. Lorsque les états sont équiprobables l'entropie H est
maximale : c'est lorsqu'aucun événement ne diffère des autres qu'on a le moins
d'information sur l'état global.

Entropie d'information
Cette notion apparaît lorsqu'on se pose la question de l'entropie d'un trou noir : avant
absorption dans le trou, la matière a une entropie statistique. Que devient l'information
représentée par l'entropie transférée ?
Réponse : après absorption son entropie a été absorbée dans le trou et stockée
sur sa sphère horizon, mais un observateur éloigné ne peut plus en voir d'effet et peut
la croire perdue. L'entropie du trou noir a augmenté au moins autant que l'apport
extérieur, à cause de l'inégalité de Clausius qui régit les transformations irréversibles.
Les formules de [133] décrivent la quantité d'information (l'entropie) sur la sphère
horizon du trou noir.

1.6.2.3 Comprendre le deuxième principe de la thermodynamique


Le deuxième principe de la thermodynamique [25] affirme que l'entropie d'un système
matériel isolé qui se transforme ne peut qu'augmenter, traduisant ainsi un désordre
toujours croissant et une énergie susceptible d'être transformée en travail utile toujours
décroissante.

36
On oublie souvent que cette affirmation n'est valable que pour un système au
voisinage de l'équilibre, dont les variables d'état (énergie, forme géométrique, masse,
etc.) sont pratiquement constantes dans le temps.
 A l'équilibre, le système qui se transforme n'échange avec l'extérieur ni chaleur
(qui est une forme d'énergie), ni masse ; son entropie est constante.
 Au voisinage de l'équilibre, les propriétés d'une petite région donnée du système
varient de manière continue : elles ne changent jamais beaucoup sur de petites
distances, ce qui suppose que les forces agissant sur la région sont faibles.

Au voisinage de l'équilibre thermodynamique, un système évolue donc toujours dans


le sens qui fait croître son entropie, sa désorganisation ; le temps a donc un sens
unique d'écoulement, une « flèche » du présent vers le futur qui est peut-être due à ce
que l'expansion à sens unique de l'Univers se manifeste en tous ses points.

Par contre, un système globalement loin de l'équilibre peut comporter des zones
proches de l'équilibre auxquelles le deuxième principe de la thermodynamique
s'applique. L'évolution d'un système en déséquilibre global peut faire passer l'état
d'une de ses régions d'une situation de déséquilibre (par exemple chaotique ou
turbulent) à une situation d'équilibre, ou inversement ; les états stables correspondent
à des minima locaux d'énergie, certains en équilibre et d'autres en déséquilibre [289].
Contrairement à ce que croient beaucoup de gens, la thermodynamique n'exclut pas
l'évolution du désordre vers l'ordre en certaines régions d'un système loin de l'équilibre.

Complément : lien entre variation d'entropie et échange d'information [366].

1.6.2.4 Etre vivant et thermodynamique


Comme tout système matériel, un être vivant dans son milieu environnant est soumis
à la loi thermodynamique de l'entropie croissante : lorsqu'il mange et transforme des
aliments en sa substance vivante, cette transformation augmente l'entropie du
système global être vivant + nourriture + environnement.

Lorsque les états microscopiques sont équiprobables pour chaque état global d'un
système macroscopique qui évolue, le deuxième principe de la thermodynamique
affirme que l'état final le plus probable de l'évolution du système macroscopique global
est l'état d'équilibre correspondant au maximum de l'entropie, c'est-à-dire au maximum
de désordre.

1.6.2.5 L'objection thermodynamique des idéalistes et la réponse de Prigogine


La vie est caractérisée par deux sortes d'ordre, par opposition au désordre du hasard :
 L'ordre architectural, respecté lorsque le code génétique détermine un
arrangement précis des molécules, tel que celui qui permet la spécialisation des
enzymes ;
 L'ordre fonctionnel, respecté lorsque le métabolisme des cellules coordonne des
milliers de réactions chimiques.

Pour les idéalistes, cette exigence d'ordre semble incompatible avec le deuxième
principe de la thermodynamique, qui affirme que l'état final d'évolution le plus probable
d'un système isolé est l'état d'équilibre désordonné correspondant au maximum

37
d'entropie. Ils pensent que « si le matérialisme avait raison, la matière inerte et
désorganisée des aliments se transformerait en être vivant complexe, hautement
organisé, ce qui contredit le deuxième principe ».
Enoncée de cette manière, l'objection ne tient pas : la nourriture inerte ne se
transforme pas toute seule en être vivant complexe, elle le fait dans le cadre d'un
système être vivant + nourriture + environnement ; la complexité qui se crée dans
l'être vivant (par exemple lorsqu'un bébé qui grandit devient enfant) est accompagnée
de désorganisation dans son environnement, l'entropie de l'ensemble augmentant
bien.

L'évolution des espèces selon la théorie de Prigogine – Attracteurs étranges


Mais pour aller au fond des choses, le matérialisme doit expliquer comment, sans
intervention divine ou extérieure, de la matière inerte peu organisée peut se
transformer en matière vivante très organisée ; en particulier, comment cela s'est-il
produit lors de l'apparition de la vie dans l'Univers ?
Une explication a été apportée par le chimiste belge Prigogine, prix Nobel de
chimie 1977 pour ses contributions à la thermodynamique des processus irréversibles
basées sur la théorie du chaos. Selon lui, les structures biologiques sont des états
particuliers de non-équilibre. Elles nécessitent une dissipation constante d'énergie et
de matière, d'où leur nom de « structures dissipatives » (définition).
"C'est, écrit Prigogine, par une succession d'instabilités que la vie est apparue.
C'est la nécessité, c'est-à-dire la constitution physicochimique du système et les
contraintes que le milieu lui impose, qui détermine le seuil d'instabilité du
système. Et c'est le hasard qui décide quelle fluctuation sera amplifiée après que
le système a atteint ce seuil et vers quelle structure, quel type de fonctionnement
il se dirige parmi tous ceux que rendent possibles les contraintes imposées par
le milieu." [M7]

Au voisinage de l'équilibre du système dissipatif, qui se transforme en ayant des


échanges de travail, de chaleur et de matière avec l'extérieur, les fluctuations
disparaissent dès leur apparition : c'est la stabilité qui correspond à l'équilibre. Dans la
région non linéaire, en revanche, loin de l'équilibre, certaines fluctuations peuvent
s'amplifier à proximité d'un premier état critique, perturber l'état macroscopique et le
déstabiliser. Le système bifurque alors vers un nouvel état stable, qui peut être plus
structuré que le précédent, d'où croissance de la complexité ; l'état précédent, devenu
instable, peut alors être éliminé. Le nouvel état stable est appelé « attracteur étrange »
en théorie du chaos.
Prigogine montre aussi que des perturbations extérieures au système peuvent
avoir le même effet, toujours sans contredire le deuxième principe de la
thermodynamique. Il peut donc y avoir auto-organisation de la matière loin de
l'équilibre sans intervention miraculeuse. Le rôle du hasard dans l'apparition de la vie
est très restreint : il se réduit à un choix entre diverses possibilités d'évolution.
Pour plus de détails, voir :
 "Décroissance de l'entropie. Structures dissipatives. Auto-organisation" ;
 "Vie, organisation, complexité et entropie" ;
 Compléments sur la complexité et les attracteurs : [369]

38
Conclusion
En opposant le deuxième principe de la thermodynamique à l'explication matérialiste
d'apparition et d'évolution de la vie, certains idéalistes contredisent des faits
scientifiques établis.

1.6.3 Agnosticisme et athéisme


La position de Kant sur l'existence physique d'un Dieu créateur est un agnosticisme :
pour lui, une telle affirmation est indémontrable dans le cadre de la logique et
l'existence de Dieu est un postulat, comme l'immortalité de l'âme et le libre arbitre de
l'homme. Ces postulats sont à la fois indémontrables et (pour un croyant)
indispensables au devoir de respect des règles morales.
 Pour un athée, une bonne action n'est pas nécessairement récompensée et une
mauvaise action n'est pas nécessairement punie. Il n'y a donc pas de raison
logique de respecter les règles morales. C'est à la société de promulguer,
enseigner puis faire respecter des lois, bien qu'une loi soit souvent incapable de
remplacer une règle morale.
 Pour un croyant, toutes les actions, bonnes ou mauvaises, sont tôt ou tard
récompensées ou punies par Dieu. Il est donc indispensable de postuler Son
existence pour justifier logiquement l'obligation de chacun de faire son devoir.

1.6.3.1 Le malheureux pari de Pascal


Pascal a admis qu'on ne pouvait démontrer l'existence de Dieu comme on démontrait
un théorème de géométrie. Il propose aux incroyants (contre l'absence de foi de qui il
militait), un pari qui consiste à dire que, puisqu'on ne peut prouver que Dieu existe, il
est sage de parier que c'est le cas : si on perd son pari parce que Dieu n'existe pas,
on ne perd que le temps et les efforts d'une courte vie terrestre, alors que si Dieu existe
on gagne la félicité éternelle au Paradis ; le bénéfice potentiel étant infini alors que la
perte potentielle est finie, il faut, selon Pascal, parier sur l'existence de Dieu.

Il est clair que ce raisonnement est faible.


 D'abord il remplace la recherche de la vérité (Dieu existe-t-il ?) par celle de
l'intérêt personnel, ce qui est suspect et incite à soupçonner que cette vérité est
fausse, peu probable ou impossible à démontrer.
 Ensuite, rien ne prouve qu'il n'y ait que deux possibilités, l'existence de Dieu
avec un Paradis, un Purgatoire et un Enfer, ainsi que les commandements
chrétiens et la vie éternelle ; et la non-existence : si Dieu et la vie après la mort
étaient autrement que l'Eglise les imagine, on aurait peut-être parié à tort en
omettant d'autres choix.
 Et si les probabilités étaient autres (par exemple 99 chances sur 100 d'aller au
Paradis même si on a beaucoup péché, parce que Dieu pardonne), l'effort de
vivre en respectant les règles morales serait-il toujours justifié ?

A mon avis, le pari de Pascal est le genre de raisonnement qui passe bien auprès d'un
auditoire pendant le discours d'un orateur habile, parce qu'il a l'air correct et que
l'orateur est sympathique, mais pas un raisonnement qu'on peut soutenir par écrit pour
des gens qui réfléchissent.

39
1.6.3.2 Athéisme, positivisme et altruisme
Le choix d'être athée est aussi justifié - ou peu justifié - que celui d'être croyant. Les
philosophes positivistes ont cru que la connaissance scientifique (démontrable ou
justifiable par l'expérience) pouvait et devait remplacer la foi révélée en Dieu. Ils ont
donc accusé les croyants d'avoir inventé, dans leur religion, un mythe basé sur une
illusion destinée à consoler les malheureux, à leur laisser espérer qu'après leur mort
ils obtiendront bonheur et justice. Athée, Freud disait que la religion procède toujours
d'une illusion, provenant du désir infantile de protection et de consolation.

En fait, que l'on soit croyant ou non, chacun doit adopter, à l'échelle individuelle comme
à l'échelle sociétale, une morale, c'est-à-dire des règles de comportement permettant
une vie en société harmonieuse. Le problème est alors de définir et justifier des règles
où l'égoïsme de l'individu passe après l'intérêt de la société.
 Avec la religion, ce problème est résolu et les règles sont clairement enseignées,
avec menace d'aller en Enfer si on les enfreint et promesse de Paradis après
une vie vertueuse : la carotte et le bâton.
 Sans religion, Kant a montré que la raison ne pouvait pas justifier l'altruisme et
l'universalité [D5] (pourquoi sacrifier mon intérêt personnel à celui d'autrui ou de
la société, en l'absence de crainte de punition divine ou d'espoir de récompense
dans l'au-delà ?).
Kant a donc proposé, aux croyants comme aux athées, un axiome de valeur
suprême remplaçant la vérité révélée : le devoir. Un homme doit faire son devoir,
donc être vertueux, parce que c'est son devoir, que c'est la seule manière d'avoir
une conduite méritante. En fait, il doit incorporer à son inconscient [353] les règles
morales si parfaitement qu'il puisse se passer de la peur du châtiment divin ou du
gendarme, et de tout espoir de récompense ; sa raison d'être vertueux doit être le
sens du devoir qu'il a en lui-même, et être acquise peu à peu par éducation et
imitation des hommes sages.
Nous verrons dans la 3e partie de cet ouvrage que la confiance de Kant dans le
pouvoir de la raison d'imposer à un homme de faire son devoir est un vœu pieux.
Comme Freud l'a montré, ce n'est pas le cas : tout homme a un ensemble ordonné
de valeurs, et si son désir d'être vertueux et de faire son devoir est moins fort qu'un
autre désir, il ne peut vouloir faire son devoir, il s'efforcera de satisfaire son désir
le plus fort.

1.6.3.3 Existe, n'existe pas ou existe autrement ?


Dans ce qui précède nous n'avons envisagé que deux hypothèses : « Dieu existe » et
« Dieu n'existe pas ». Pourquoi n'y en aurait-il pas une troisième, « Dieu existe
autrement ? » Plus précisément, pouvons-nous répondre à la question suivante :
« Y a-t-il quelque chose d'externe à notre Univers (c'est-à-dire de transcendant) qui
puisse influer sur ce qui s'y passe ? »

Cette dernière question peut être reformulée en faisant intervenir le déterminisme :


« Y a-t-il des phénomènes de notre Univers qui n'obéissent pas au déterminisme, et
dont les causes sont entièrement internes à notre Univers ? ».

Un cas particulier de ce problème est particulièrement important par ses implications


morales : « Un homme est-il libre de décider ce qu'il veut, cette liberté impliquant la

40
possibilité d'échapper au moins en partie au déterminisme, ou toutes ses décisions
sont-elles déterminées par des causes internes à notre Univers ? » Ces points sont
abordés dans la 3e partie de cet ouvrage.

1.7 Conclusions sur les preuves logiques de l'existence de Dieu


A ma connaissance, aucun philosophe à ce jour n'a réussi à invalider ou même à
perfectionner substantiellement les conclusions de Kant.

Croire en Dieu reste donc une possibilité pour les hommes qui veulent une justification
religieuse du devoir d'une conduite morale, mais en tant que postulat personnel. Et
pour ce qui est d'expliquer par l'existence de Dieu la création et le fonctionnement du
monde physique, ainsi que de lui donner une finalité, c'est indémontrable et ne peut
résulter que d'un choix personnel purement arbitraire, par exemple dans le cadre d'une
des religions qui apportent une réponse.

Cet ouvrage-ci soutient qu'on peut se passer de croire en Dieu et en son intervention
pour expliquer le monde et la vie, notamment celle de l'homme, intelligent et libre. Et
il laisse soupçonner que Dieu a été inventé par l'homme pour répondre à des besoins
psychologiques comme donner un sens à sa vie et au monde, répondre aux problèmes
du salut et du besoin de justice, etc.

Le livre [5], publié en septembre 2006 par le philosophe français André Comte-
Sponville, montre avec un texte clair et facile à lire qu'on peut se passer de religion et
trouver une morale et une spiritualité sans Dieu, sans religion révélée, sans Eglise.

Le court texte de J-P Sartre "L'existentialisme est un humanisme" [15] apporte un point
de vue intéressant sur l'existence de Dieu et la liberté de l'homme. Pour un débat plus
large, voir la 2ème partie de cet ouvrage-ci.

1.8 Références

[D1] "Tu n'auras pas d'autres dieux devant ma face" et autres interdictions concernant
d'autres dieux dans la Bible http://www.onlinebible.org/html/fre/ : Exode 20-3, 22-20,
23-13 ; Deutéronome 5-7, 6-14, 7-4, 8-19, 11-16 ; Josué 23-16, etc.

[D2] Emmanuel Kant – "Critique de la raison pure" (traduction Alain Renaut -


Flammarion, 3e édition, 2006 - 749 pages, avec des notes très utiles)

[D3] "Les voies du Seigneur sont impénétrables" :


 Descartes - "Méditations métaphysiques" (1641) http://abu.cnam.fr/cgi-
bin/donner_html?medit3
"…il ne me semble pas que je puisse sans témérité rechercher et entreprendre
de découvrir les fins impénétrables de Dieu."
 Bible Louis Segond http://www.onlinebible.org/html/fre/ :
Psaumes chapitre 139, verset 17 :
"Que tes pensées, ô Dieu, me semblent impénétrables ! Que le nombre en est
grand !"

41
[D4] The New York Times, citant le Cardinal Schönborn : "Leading Cardinal
Redefines Church's View on Evolution" (09/07/2005)
http://select.nytimes.com/search/restricted/article?res=FB0D13FE3E590C7A8CDDA
E0894DD404482
Citations :
"The cardinal, Christoph Schönborn, archbishop of Vienna, a theologian who is
close to Pope Benedict XVI, staked out his position in an Op-Ed article in The
New York Times on Thursday, writing, 'Evolution in the sense of common
ancestry might be true, but evolution in the neo-Darwinian sense -- an unguided,
unplanned process of random variation and natural selection -- is not.' ''
"In his essay, Cardinal Schönborn asserted that he was not trying to break new
ground but to correct the idea, 'often invoked,' that the church accepts or at least
acquiesces to the theory of evolution."

[D5] Définitions des qualités d'altruisme et d'universalité utilisées dans ce texte :


 Altruisme : désintéressement, abnégation, générosité, faire passer l'intérêt de
l'autre avant le mien ;
 Universalité : ensemble des hommes, société tout entière, faire passer l'intérêt
général avant le mien.

[D6] "Valeurs perdues, bonheur perdu : pourquoi notre société déprime - Sociologie
de la sinistrose française" http://www.danielmartin.eu/Cours/Sinistrose.pdf

[D7] Position officielle du pape Benoît XVI sur le créationnisme et l'évolutionnisme


http://www.vatican.va/holy_father/benedict_xvi/speeches/2007/july/documents/hf_be
n-xvi_spe_20070724_clero-cadore_fr.html

Extrait de la réponse de Benoît XVI à une question posée le 24/07/2007 :


"Je vois actuellement en Allemagne, mais aussi aux Etats-Unis, un débat assez
vif entre ce qu'on appelle le créationnisme et l'évolutionnisme, présentés comme
s'ils étaient des alternatives qui s'excluent : celui qui croit dans le Créateur ne
pourrait pas penser à l'évolution et celui qui en revanche affirme l'évolution
devrait exclure Dieu. Cette opposition est une absurdité parce que, d'un côté, il
existe de nombreuses preuves scientifiques en faveur d'une évolution qui
apparaît comme une réalité que nous devons voir et qui enrichit notre
connaissance de la vie et de l'être comme tel. Mais la doctrine de l'évolution ne
répond pas à toutes les questions et surtout, elle ne répond pas à la grande
question philosophique : d'où vient toute chose ? et comment le tout s'engage-t-il
sur un chemin qui arrive finalement à l'homme ? Il me semble très important et
c'est également cela que je voulais dire à Ratisbonne dans ma Conférence, que
la raison s'ouvre davantage, qu'elle considère bien sûr ces éléments, mais
qu'elle voit également qu'ils ne sont pas suffisants pour expliquer toute la réalité.
Cela n'est pas suffisant, notre raison est plus ample et on peut voir également
que notre raison n'est pas en fin de compte quelque chose d'irrationnel, un
produit de l'irrationalité, mais que la raison précède toute chose, la raison
créatrice, et que nous sommes réellement le reflet de la raison créatrice. Nous
sommes pensés et voulus et, donc, il existe une idée qui me précède, un sens

42
qui me précède et que je dois découvrir, suivre et qui donne en fin de compte un
sens à ma vie."

La position du pape, qui admet l'évolution, contredit sur ce point celle du cardinal
Schönborn [D4].

[D8] Rapport à l'Assemblée parlementaire du Conseil de l'Europe :


"Les dangers du créationnisme dans l’éducation" (17 septembre 2007)
http://assembly.coe.int/ASP/Doc/XrefViewHTML.asp?FileID=11751&Language=fr

[D9] Citation de Luc Ferry issue de [7], pages 137 à 143 :


"un être fini qui tente de penser l'infini ne peut jamais échapper à la
contradiction, mais il peut seulement choisir de situer cette contradiction dans le
fait de nier son propre point de vue (alors, suivant la logique du concept, il
obtiendra un concept non contradictoire mais irreprésentable), ou dans le fait de
déformer, par son point de vue, le concept qu'il tente de penser (alors, suivant la
logique du schème, le concept deviendra représentable mais contradictoire)."

[D10] Réflexion consciente pour trouver un sens


Voir le paragraphe au titre ci-dessus dans « Besoin de sens et raisonnements faux »
http://www.danielmartin.eu/Philo/BesoinDeSens.pdf .

43
Deuxième partie

2. Matérialisme et idéalisme

"L'homme n'est qu'un roseau, le plus faible de la nature, mais c'est


un roseau pensant. […] Toute notre dignité consiste donc en la
pensée. C'est de là qu'il nous faut relever et non de l'espace et de
la durée, que nous ne saurions remplir. Travaillons donc à bien
penser voilà le principe de la morale."

Blaise Pascal - Pensées [66]

2.1 Matérialisme et idéalisme : définitions


Matérialisme et idéalisme sont deux doctrines philosophiques opposées.

2.1.1 Définition succincte du matérialisme


La doctrine matérialiste postule que toute réalité - qu'il s'agisse d'objets ou d'êtres
vivants – est faite de matière et a pour cause des processus physiques. En particulier,
l'esprit humain est lui-même une manifestation de l'activité de ses neurones, activité
dont il est la conséquence et sans laquelle il n'existe pas [339].

Nous verrons, en définissant le déterminisme étendu, que tout phénomène de la


nature obéit à des lois physiques, et que toutes les lois physiques respectent le
déterminisme étendu. Postuler le matérialisme oblige donc à postuler le déterminisme,
et nous verrons que postuler le déterminisme étendu oblige à postuler le matérialisme.

44
2.1.2 Définition succincte de l'idéalisme
L'idéalisme est une doctrine philosophique qui affirme que tout objet de l'Univers est
réductible à une idée, c'est-à-dire à une abstraction. Cette doctrine s'oppose au
matérialisme.

Pour un idéaliste nos représentations ne proviennent pas de la réalité physique :


 Soit parce qu'il affirme que toute réalité physique a pour cause une Idée, comme
Platon ;
 Soit parce qu'il nie l'existence de cette réalité (il est immatérialiste) ;
 Soit parce qu'il affirme, comme Kant, que la représentation étant la seule
manière dont notre esprit dispose pour accéder à la réalité physique elle se
confond avec cette réalité.

La doctrine idéaliste postule l'existence d'une réalité immatérielle, donc non


perceptible pour les sens de l'homme ou ses instruments de mesure. Cette réalité
immatérielle est décrite par les concepts d'Idée, d'essence, de divinité et d'âme, et la
réalité matérielle en découle : le monde a été créé par Dieu, c'est un résultat de Sa
volonté (téléologie) ; Dieu a aussi défini et créé l'essence de chaque homme (sa
définition abstraite), dont son corps matériel n'est qu'une copie car l'essence de tout
objet réel précède l'existence de celui-ci [D7].

Plus généralement, pour un idéaliste tous les objets réels sont des copies d'Idées
transcendantes, l'Idée étant la seule réalité objet de la connaissance. Les vérités
mathématiques, même si ce sont de pures abstractions comme la théorie des
ensembles ou l'arithmétique, sont absolues, éternelles et objectives, bref universelles ;
elles seraient tenues pour vraies même par les habitants d'un autre système solaire.
Pour plus de détails, voir le paragraphe sur les platoniciens.

2.1.3 Ce qui oppose matérialistes et idéalistes

Réalisme et idéalisme
Du temps des anciens Grecs comme aujourd'hui, les philosophes se sont opposés sur
la question de savoir ce qui est réel.
 Certains philosophes, les matérialistes, considèrent que les objets matériels
existent vraiment, que la réalité objective existe aussi et qu'elle est perceptible
par nos sens : « Je vois une table, donc elle existe et elle existe objectivement
aussi pour mon voisin. » Descartes, se demandant s'il existait bien, a fini par
conclure : « Je pense, donc je suis [c'est-à-dire j'existe] ». (Détails : voir [372])
Postulat de réalité
Le matérialisme postule que la réalité (l'Univers physique) existe
indépendamment de l'homme qui se la représente mentalement, bien que l'esprit
d'un homme soit incapable de distinguer entre la réalité et sa représentation (voir
citation de Kant). Ce postulat d'indépendance entre la réalité et ses
représentations mentales est connu sous les noms de « postulat de réalité »,
« postulat de réalisme » ou « postulat de réalisme métaphysique ».
Le postulat opposé au réalisme est l'idéalisme, qui n'admet pas que la réalité
externe soit la cause de nos représentations :

45
 Soit parce que la réalité matérielle n'existe pas, car seul existe réellement
l'esprit qui la perçoit (postulat d'immatérialisme de Berkeley et Nietzsche) ;
 Soit parce que toute réalité externe est une représentation d'une conscience
ou d'un sujet pensant ;
 Soit parce qu'il confond et désigne d'un même mot, comme Platon,
l'existence et l'essence (chose en soi abstraite, ensemble de propriétés qui
sont des Idées) : l'homme ne voit que la projection de la réalité sur le mur de
la caverne.
Dans le langage courant, un matérialiste est une personne qui s'attache
essentiellement aux valeurs, aux biens et aux plaisirs matériels. Nous n'utiliserons
pas ce sens du mot dans la suite du texte, où le mot matérialisme ne nous
intéressera que dans son sens philosophique : principe métaphysique [371]
affirmant que « tout est matière ou issu de la matière ».
 Les philosophes non matérialistes, appelés spiritualistes ou idéalistes,
considèrent qu'il existe un principe spirituel, l'âme, distinct et indépendant du
corps de l'homme, et que l'esprit est « supérieur » à la matière. (Je n'ai jamais vu
d'énoncé clair et convaincant des supériorités de l'esprit sur la matière.)
Les idéalistes pensent que les concepts et opérations intellectuelles de l'homme
ne peuvent s'expliquer par les seuls phénomènes physiologiques : penser
implique nécessairement une transcendance (voir aussi [339]). Ils pensent aussi
qu'il y a dans l'homme deux types de besoins différents :
 les besoins physiologiques (manger, dormir...)
 les désirs proprement humains (être apprécié…)
Pour un idéaliste comme Descartes l'homme a deux dimensions : l'âme et le
corps, l'âme étant supérieure au corps (toujours sans définition précise de l'âme
et sans qu'on sache clairement en quoi réside cette supériorité) (Voir [372]).

A partir de la description de l'idéalisme qui précède, une première remarque s'impose


à un esprit soucieux de rigueur : les concepts de base de l'idéalisme ("principe
spirituel", "esprit", "âme", "impossibilité de réduire l'esprit de l'homme à une émanation
de son corps", "supériorité"…) sont vagues ; il n'en existe aucune définition précise et
leur compréhension fait appel à l'imagination irrationnelle.

Pour une description plus complète de la doctrine idéaliste de Platon voir [343].

Résumé
Alors que le matérialisme affirme que l'esprit d'un homme et ses idées sont
conséquences du fonctionnement physiologique de son corps, sans lequel ils ne
peuvent exister, l'idéalisme affirme que la matière n'est qu'une émanation de l'esprit,
seule réalité ultime.

Exemple de philosophe idéaliste : Platon


Depuis le philosophe grec Platon, l'homme sait qu'il est trompé par ses sens, et que
ce qu'il voit n'est qu'un reflet de la réalité, reflet construit par son esprit lorsque celui-
ci se représente cette réalité. L'homme est aussi victime de ses idées préconçues, de
ses erreurs.

46
Mythe de la caverne
Platon a décrit l'illusion de la vision (représentation) humaine dans un texte célèbre,
"l'allégorie de la caverne", appelé aussi "mythe de la caverne" [M1]. Ce texte affirme
que l'homme prend souvent l'image construite par son esprit (la représentation qu'il
croit voir ou même qu'il a envie de voir) pour la réalité. Platon en a déduit qu'il ne faut
pas chercher à connaître la réalité matérielle, qui restera toujours cachée ou déformée
par nos sens et le processus de représentation de notre esprit. Il affirme qu'il existe
une organisation et une harmonie du monde qui précèdent toute matière : Platon était
donc idéaliste (voir aussi l'exemple chrétien de l'idéalisme [D7]).
En somme pour Platon, et depuis son époque pour tous les idéalistes, l'Idée
(l'essence, le plan, les propriétés) d'une chose matérielle existe toujours avant cette
chose, qui n'en est qu'une copie. L'homme accède à cette réalité spirituelle
uniquement au moyen de son imagination, qui lui en fournit une « connaissance
immédiate ». Pour Platon, cette réalité de l'essence est objective, elle existe
indépendamment de l'homme (comme, par exemple, les nombres entiers), et c'est la
seule réalité, la réalité physique étant inaccessible.

L'Idée est donc aussi la réalité ultime, celle à laquelle on parvient en analysant la réalité
perçue : la table est faite de bois, le bois est fait d'atomes (les Grecs Empédocle,
Leucippe, Démocrite, Épicure… concevaient intuitivement l'atome, plus petite partie
d'un objet parce qu'elle est indivisible) et cet atome matériel (avec ses propriétés)
dérive de l'Idée d'atome, réalité ultime.

Idéalisme et réalité des Idées


L'idéalisme philosophique postule que la réalité a pour base des Idées, et l'idéalisme
épistémologique postule que notre esprit ne peut appréhender que ses propres idées,
donc que pour un homme l'existence des objets est conditionnée par celle de ces
idées. (Pour plus de détails, voir le paragraphe sur les platoniciens.)

Matérialisme et existence objective


Le matérialisme, au contraire, définit la matière comme tout ce qui existe ; et cette
existence est indépendante de l'esprit de l'homme, où elle n'est que notre perception
de phénomènes physiques cérébraux. L'opposé de matérialisme est donc idéalisme.
Nous allons voir que ces deux doctrines s'excluent mutuellement.

2.1.4 Qu'est-ce qui précède l'autre : l'esprit ou la matière ?


 Pour un matérialiste, la matière précède la pensée - qui en est une conséquence
[339], et l'esprit - qui est le cadre où s'organise la pensée. L'homme a existé
avant d'inventer les notions d'esprit et de divinité, concepts formés dans sa
pensée, dont le siège est le cerveau. Et à sa mort, sa pensée cesse d'exister.
 Pour un idéaliste, l'esprit a existé en premier et a créé la matière. En particulier,
l'homme matériel et spirituel a été créé par un esprit, une idée ou Dieu [D7]. Et à
la mort de son corps il n'y a pas de raison que son esprit ou son âme meurent ;
au contraire, son esprit peut avoir une vie après la vie et son âme est immortelle.

Il est clair que ces deux conceptions s'excluent mutuellement. Pour un matérialiste
« l'existence précède l'essence », comme disait Sartre dans [15] à propos de l'homme,
qui s'invente lui-même après sa naissance en exerçant son libre arbitre ; l'essence ne
précède l'existence que lorsque l'homme fait un plan d'un objet avant de le fabriquer.

47
Pour un idéaliste comme le pape Benoît XVI, c'est le contraire : l'essence précède
l'existence.

Un matérialiste cohérent est athée, alors qu'un idéaliste croit en Dieu ou en un Esprit
créateur du monde et de l'homme.

2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni


infirmés
Il existe en philosophie un principe de causalité, posé a priori comme tous les principes
(et discuté plus bas), qui affirme (en simplifiant) que :
 Tout effet possède une cause et son apparition a une explication ;
 Tout ce qui existe a une raison d'être et ne peut exister sans avoir été créé.

Si on admet ce principe de causalité, il est impossible de démontrer qu'un phénomène


constaté :
 N'est pas dû à une cause matérielle, sa cause étant surnaturelle ou
transcendante ; car ce n'est pas parce qu'on ne connaît pas une cause physique
qu'elle n'existe pas.
 Est dû à une cause matérielle, car il pourrait être dû - au moins en partie - à une
cause surnaturelle ou transcendante, dont on ne peut prouver la non-intervention
qu'en postulant la validité universelle de nos lois de la nature.
 N'est pas dû à une cause surnaturelle ou transcendante, car la non-intervention
d'une telle cause ne peut jamais être prouvée, l'universalité des lois de la nature
n'étant pas démontrée mais postulée.
 Est dû à une cause surnaturelle ou transcendante, car le phénomène pourrait
être dû à une cause matérielle inconnue.

On peut donc qualifier aussi bien le matérialisme que l'idéalisme de doctrines non
falsifiables (dont on ne peut démontrer la fausseté) [203]. On peut aussi qualifier des
propositions comme « être matérialiste est cohérent » ou « être idéaliste est
cohérent » d'indécidables (dont on ne peut prouver ni la véracité ni la fausseté) [6].

Le matérialisme et l'idéalisme sont des doctrines philosophiques qui s'excluent


mutuellement et entre lesquelles chacun doit choisir.

Dans le reste de ce livre nous postulerons donc exclusivement le matérialisme.

2.3 La critique nietzschéenne


Le philosophe Nietzsche a dénoncé le refus de l'homme d'accepter la réalité quand
elle dérange ses préjugés ; Freud en a fait de même un peu plus tard.
 Quand ils trouvent la vie dénuée de sens, cruelle ou indifférente et sans
perspective d'amélioration et de bonheur pour eux, certains hommes ont recours
à une religion révélée. Pour Nietzsche, Dieu est une invention humaine (ce que
Kant admet et recommande, voir 1ère partie) par refus de la réalité, une « idole »
créée par les hommes pour apporter artificiellement du sens, de la perfection et

48
de la justice dans un monde qui n'en a pas parce qu'il est indifférent à nos
valeurs ; croire en l'idole Dieu est puéril, dérisoire ; c'est une fuite devant la
réalité. Nietzsche déplore que les croyants refusent la réalité et son absence de
sens.
 Par extension, Nietzsche considère comme un refus puéril de la réalité
l'idéalisme des philosophes des Lumières [47] comme Kant ou celui de
Rousseau, philosophes qui espéraient que la Raison et la Science apporteraient
aux hommes la connaissance, le bonheur et la fin des tyrannies. Croire en un tel
idéal, pour Nietzsche, c'est aussi fabriquer des idoles et y croire, car pour lui le
monde n'a aucun sens, c'est un chaos que l'homme ne comprendra et ne
maîtrisera jamais.
Nietzsche considère aussi comme utopique un idéal matérialiste comme celui de
Karl Marx, qui remplaçait la foi des croyants dans le salut (la rédemption) par un
bonheur ici-bas, après avoir transformé la société bourgeoise capitaliste en
société communiste par révolution prolétarienne. Pour Nietzsche, l'idéal
matérialiste est aussi puéril que l'idéal religieux, c'est aussi une idole créée de
toutes pièces pour être adorée, consoler et donner un espoir.

Nietzsche critique donc la foi des philosophes des Lumières ou du communisme dans
des idéaux et des valeurs qu'il considère comme chimériques :
 Les Droits de l'homme, la Science, la Raison, la Démocratie, le Socialisme,
l'égalité des chances, etc. Il accuse ces philosophes d'être en fait des croyants,
qui ont simplement remplacé la foi religieuse par de nouveaux dieux qu'il baptise
« idoles », et qui cherchent toujours à inventer un monde idéal meilleur que le
vrai.
 Les valeurs transcendantes (abstraites, absolues, supérieures et extérieures à la
vie de notre Univers).

Nietzsche accuse ces philosophes de chercher - au lieu d'aider l'humanité - à juger et


condamner la vie elle-même, au lieu de l'assumer. Il les accuse aussi de nier la vraie
réalité au nom de fausses réalités. Son accusation repose sur l'idée, 100 %
matérialiste, qu'il n'existe pas de transcendance, que tout jugement est un symptôme
et une émanation de la vie qui fait partie de la vie elle-même, et ne peut se situer hors
d'elle. Nietzsche condamne donc l'idéalisme sous toutes ses formes en tant que
nihilisme, refus puéril de la réalité et espoir d'un monde meilleur futur.

Mais Nietzsche n'en est pas resté à cette philosophie pessimiste, cette déconstruction
des philosophies idéalistes, pour en montrer le caractère vain et puéril. Il a proposé
d'accepter le présent, même si on ne le comprend pas, si on n'en voit pas la finalité et
s'il n'apporte pas d'espoir. Pour lui, le triomphe de la raison consiste précisément à
accepter ce qui est, dans l'instant présent, sans en chercher le sens profond, sans
nostalgie du passé (qui ne reviendra pas) ou espoir d'un futur meilleur (qui n'est pas
encore là), c'est-à-dire en se passant de ces non-réalités. La sagesse consiste même
à connaître et aimer cette réalité présente et le destin, attitude que Nietzsche appelle
« le gai savoir ». (Voir dans [48] la célèbre citation "Dieu est mort !", et d'autres détails
sur la philosophie de Nietzsche et les philosophes postmodernes : [190])

49
Je constate que cette acceptation d'une réalité, qui nous dérange parce qu'elle est
nihiliste, ne console pas du passé et ne promet rien pour l'avenir, est conforme au
déterminisme que je présente et défends dans ce texte. Tout en l'approuvant, je
propose cependant de la dépasser. Voici comment.

Idoles, non ; idéaux, oui


Les idoles que Nietzsche dénonce sont des illusions substituées à la réalité ; et tout
jugement de valeur, toute décision d'action basée sur des idoles risque fort d'être une
erreur. Mais pour peu qu'il ait un minimum d'imagination, un homme ne peut
s'empêcher d'avoir des idéaux, nous le verrons plus bas ; les idéaux humains sont-ils
donc tous de telles idoles, des illusions imaginées pour être adorées ?
 Il peut s'agir d'idéaux personnels, comme ceux d'artistes qui rêvent de toujours
plus de beauté et plus de perfection, ou comme ceux de sportifs qui rêvent de
toujours plus se surpasser.
 Il peut aussi s'agir d'idéaux altruistes, comme ceux des volontaires de Médecins
sans frontières (http://www.paris.msf.org/) ou ceux de Mère Teresa de Calcutta,
Prix Nobel. Il peut s'agir de l'idéal de Charles de Gaulle, au service d'une
certaine idée de la France, ou de Martin Luther King pour les droits civiques.

Dans tous les cas, l'homme qui a un tel idéal est prêt à se dépasser pour le réaliser, à
risquer sa carrière, sa santé, voire sa vie. Dans cet idéal, issu de la vie quotidienne et
tendu vers un objectif bien terrestre, le dépassement de soi est une transcendance,
une vocation qui ignore ou même méprise les objections de la raison.

De tels idéaux suscitent notre approbation, voire notre admiration. A la différence des
idoles que dénonce Nietzsche, ils ne nient pas la réalité mais travaillent à l'améliorer.
En quoi un athlète qui refuse la réalité de ses performances actuelles et s'entraîne
pour les dépasser se fait-il nécessairement des illusions ? En quoi le rêve de Charles
de Gaulle pour la France était-t-il utopique et l'idéal communiste de Marx une idole ?
Un progrès majeur paraît souvent inaccessible tant qu'il n'a pas été réalisé. Quand
Einstein, ingénieur inconnu de 26 ans, s'est attaqué aux bases mêmes de la physique
en refusant les contradictions du principe newtonien d'espace et de temps absolus,
qu'il a osé remplacer par la Relativité [49], il ne créait pas une idole, il en détruisait
une, l'hypothèse a priori de vérité absolue de Newton.

En tant que concept, une idole a un caractère a priori : c'est alors une vérité de
substitution admise sans démonstration. Elle peut se révéler fausse s'il en résulte une
contradiction ou une prévision erronée. Mais l'existence de Dieu ne peut pas être
démontrée : Nietzsche a donc qualifié la religion d'idole en montrant à quel point ses
révélations exigent une croyance sans démonstration, une foi basée sur l'imagination
ou sur la fuite devant la réalité, donc à quel point la religion était suspecte. Ses
accusations sont soutenables, mais ce ne sont pas des preuves ; la qualification d'idole
est souvent un jugement sans preuve.

Si l'idole est un espoir, celui-ci a un caractère utopique en supposant possible quelque


chose qui ne l'est pas. Le communisme de Marx était - et demeure encore de nos jours
- une utopie parce qu'il supposait l'existence future d'hommes bien meilleurs qu'ils
n'ont jamais été. Le monde sans concurrence ni profit privé et l'entraide internationale

50
des altermondialistes sont pour le moment des utopies, à en juger par la difficulté des
hommes à se mettre d'accord sur des enjeux bien plus modestes.

Mais imaginons que les astronomes détectent un astéroïde de 60 km de longueur,


pesant trois mille milliards de tonnes, qui percutera la Terre dans 10 ans à la vitesse
de 8 km/s en risquant d'y détruire toute vie [199] ; il y a fort à parier, alors, que les
hommes s'entendront pour travailler ensemble à un projet de détournement de cet
astre errant : l'utopie d'une coopération internationale sera devenue réalité. Et que dire
de la probabilité, beaucoup plus forte, que l'effet de serre s'emballe et devienne
catastrophique avant le milieu du XXIe siècle ? L'utopie d'un accord international pour
diminuer fortement les consommations de combustibles fossiles se transformera alors
en nécessité qui s'impose à tous !

2.4 Références
[M1] Platon, "La République", livre VII (écrit vers l'an 400 avant J. C.) : l'allégorie
de la caverne - http://www.cvm.qc.ca/encephi/CONTENU/TEXTES/REPUB7.HTM

[M2] Karl Marx - "Contribution à la critique de la philosophie du droit de Hegel"


(1843) - téléchargeable depuis http://marx.engels.free.fr/marx/txt/1843critiqueh.htm

[M3] Kant :
 "Critique de la raison pure" (1781) Editions Flammarion, traite des limites de la
raison et des connaissances ; contient la fameuse démonstration de
l'impossibilité de prouver que Dieu existe ou qu'il n'existe pas.
 "Critique de la raison pratique" (1790) Editions Flammarion, traite de la loi
morale.
 "Critique de la faculté de juger" (1788) Editions Flammarion, traite du jugement
de goût et de la finalité téléologique.

[M4] Physical Review Letters 77, 4887-4890 (1996) "Observing the Progressive
Decoherence of the “Meter” in a Quantum Measurement"
http://prola.aps.org/abstract/PRL/v77/i24/p4887_1
Extrait:
"A mesoscopic superposition of quantum states involving radiation fields with
classically distinct phases was created and its progressive decoherence
observed. The experiment involved Rydberg atoms interacting one at a time with
a few photon coherent field trapped in a high Q microwave cavity. The
mesoscopic superposition was the equivalent of an “atom+measuring apparatus”
system in which the “meter” was pointing simultaneously towards two different
directions—a “Schrödinger cat.” The decoherence phenomenon transforming
this superposition into a statistical mixture was observed while it unfolded,
providing a direct insight into a process at the heart of quantum measurement."

[M7] Citations d'Ilya Prigogine :


 Encyclopédie Universalis version 10, article "Hasard et nécessité"
 Voir aussi [26].

51
52
Troisième partie

3. Le déterminisme étendu -
une contribution pour la pensée rationnelle

"J'accepte de vivre dans le doute, l'incertitude et l'ignorance. Je


pense qu'il vaut mieux vivre sans savoir qu'avoir des réponses qui
peuvent être fausses. En restant dans l'incertitude tout en
progressant, nous laissons la porte ouverte à des solutions
nouvelles. Nous refusons de nous emballer pour l'information, la
connaissance ou la vérité absolue du jour, pour rester dans
l'incertitude. Pour progresser, il faut laisser entrouverte une porte
sur l'inconnu."

Richard Feynman - interview sur la BBC, 1981 [245]

3.1 Prédictions d'évolutions


Avant d'agir, l'homme a besoin de comprendre la situation, ainsi que de prévoir
son évolution et les conséquences d'une éventuelle action. Après le cas simple
d'une situation où n'interviennent que des lois physiques de la nature, nous
aborderons l'aptitude des raisonnements humains à prévoir.

Le texte qui suit est repris de l'introduction ci-dessous, publiée séparément ; pour le
sauter, cliquer ici.

Hasard, chaos et déterminisme : les limites des prédictions


Chacun de nous a des définitions du hasard, du chaos et du déterminisme. J'ai pris la
liberté de modifier et compléter ces définitions par souci de rigueur et pour les rendre

53
cohérentes entre elles. Le but de ce texte est de bien cerner les limites de ce qu'on
peut prédire lors d'une évolution.

Compréhension, prévision et prédiction d'une évolution :


 comprendre une situation nécessite la connaissance du passé et de l'évolution
depuis ce passé, pour situer l'état actuel par rapport à eux ;
 prévoir une évolution, c'est en construire une représentation mentale. Cela
nécessite la connaissance des lois d'évolution qui s'appliquent à l'état actuel ;
 prédire une évolution ou une situation future, c'est décrire une prévision.

Le principe dont l'application permet la compréhension d'une situation physique et la


prévision de son évolution est le déterminisme, objet de ce livre.

3.1.1 Première définition du déterminisme


Comme il y a plusieurs définitions du déterminisme parce qu'il y a plusieurs cas
d'évolution, en voici un exposé succinct qui sera développé dans la suite de l'ouvrage.

Le déterminisme est un principe métaphysique [371] selon lequel tout phénomène


physique (fait objectif, observé, susceptible de se reproduire) a une cause et suit des
lois d'évolution stables (telles que les mêmes causes produisent les mêmes effets,
toujours et partout). On distingue :
 Le déterminisme philosophique, défini par Laplace en 1814, affirmant à tort
qu'une connaissance parfaite du présent permet toujours de prévoir l'avenir et de
reconstituer mentalement le passé qui y a conduit.
 Le déterminisme scientifique, affirmant que tout état d'un système physique
déclenche nécessairement et immédiatement une évolution selon des lois
physiques, stables, qui s'appliquent à cet état. Les évolutions successives
produisent un état (valeurs des variables du système) fonction du temps.
 Le déterminisme statistique, affirmant que, dans certains cas, l'état à un instant t
d'un système qui évolue est un élément choisi selon une probabilité statistique
dans un ensemble prévisible. Exemples :
 (En première approximation) le résultat d'un lancer de dé est un nombre
choisi avec une probabilité de 1/6 dans l'ensemble {1, 2, 3, 4, 5, 6}.
 En Mécanique quantique, l'état d'un système (position, vitesse…) est un
élément d'un ensemble fini ou non de solutions de l'équation d'évolution de
Schrödinger.
 Le déterminisme étendu, regroupant le déterminisme scientifique et le
déterminisme statistique pour régir toutes les lois d'évolution de la nature
inanimée.

Le déterminisme n'entraîne pas toujours la prédictibilité


Mais attention : la nature déterministe des lois d'évolution physique n'entraîne pas la
prédictibilité par calcul de toutes les évolutions, bien qu'elle exclue le hasard
(possibilité pour la nature de « faire n'importe quoi »).

54
3.1.2 Définition, promesses et critique du déterminisme philosophique
L'expression déterminisme traditionnel désigne tantôt une doctrine philosophique,
tantôt un principe scientifique. Ce texte étudie le déterminisme au sens :
 Des conséquences d'une cause ;
 Du déroulement du processus d'évolution qui fait passer un système d'un état de
départ à un état d'arrivée au bout d'un certain temps ;
 De la possibilité de prévoir l'avenir ou de reconstituer le passé connaissant le
présent.

Définition et promesses du déterminisme philosophique


La définition traditionnelle du déterminisme philosophique a été publiée par Laplace
en 1814 dans l'Essai philosophique sur les probabilités [200], où on lit pages 3 et 4 :
"Nous devons donc envisager l'état présent de l'Univers comme l'effet de son
état antérieur et comme la cause de celui qui va suivre. Une intelligence qui pour
un instant donné, connaîtrait toutes les forces dont la nature est animée, et la
situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste
pour soumettre ces données à l'analyse, embrasserait dans la même formule les
mouvements des plus grands corps de l'Univers et ceux du plus léger atome :
rien ne serait incertain pour elle, et l'avenir comme le passé, serait présent à ses
yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'Astronomie,
une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en
Géométrie, jointes à celle de la pesanteur universelle, l'ont mis à portée de
comprendre dans les mêmes expressions analytiques les états passés et futurs
du système du monde."

Le déterminisme philosophique affirme donc :


 Que l'avenir est complètement déterminé par le présent ;
 Qu'il est complètement prévisible connaissant parfaitement le présent, c'est-à-
dire que l'Univers est régi par des lois physiques stables ;
 Qu'une connaissance parfaite de la situation présente permettrait de reconstituer
en pensée tout le passé qui y a conduit ;
 Qu'il existe, pour la situation présente, une chaîne de causalité unique
commençant infiniment loin dans le passé et se poursuivant infiniment loin dans
l'avenir.

Exemple de définition du déterminisme philosophique dans un dictionnaire : [264].

Le postulat de déterminisme philosophique a été construit par induction à partir de


constatations d'évolution d'une situation à ses conséquences dans la vie courante, tout
particulièrement en considérant les mouvements des planètes, prévisibles avec
précision. En affirmant qu'il s'applique - et s'est toujours appliqué - à toutes les
évolutions, on en fait un principe métaphysique [371] régissant les lois de l'Univers.

3.1.2.1 Le déterminisme philosophique est contredit par des faits


Le déterminisme philosophique qui nous promet, connaissant le présent, la possibilité
de prévoir tout l'avenir et de retrouver mentalement tout le passé, est contredit par de

55
nombreux phénomènes de la nature cités dans ce livre. Comme un seul contre-
exemple suffit pour contredire une affirmation qui ne peut être que vraie ou fausse, en
voici un.

Décomposition radioactive (fission nucléaire) - Demi-vie d'un élément


Un échantillon d'uranium 238 voit ses atomes se décomposer spontanément, sans
aucune cause autre que le temps qui passe ; un atome d'uranium se transforme alors
en un atome d'hélium et un atome de thorium. Le nombre d'atomes qui se
décomposent par unité de temps suit une loi connue : 50 % des atomes d'un
échantillon de taille quelconque se décomposeront en un temps fixe T appelé « demi-
vie de l'uranium 238 », puis la moitié du reste (c'est-à-dire ¼) dans le même temps T,
puis la moitié du reste (1/8) dans le même temps T, etc.
La décomposition radioactive naturelle, c'est-à-dire spontanée, s'explique par
l'instabilité de l'énergie de liaison des neutrons et protons du noyau d'un atome
radioactif. Ce phénomène est inexplicable dans le cadre de la physique
macroscopique, mais il s'explique en Mécanique quantique sous le nom d'effet
tunnel : l'énergie d'excitation d'un noyau, instable, peut parfois dépasser l'énergie
potentielle appelée « barrière de fission » de l'élément, entraînant une déformation
si grande du noyau que celui-ci se décompose.

Contrairement à la promesse de prédiction de l'avenir du déterminisme philosophique,


on ne peut savoir quels atomes se décomposeront pendant un intervalle de temps
donné, ni à quel instant un atome particulier se décomposera, ni quel est le premier
atome qui se décomposera, ni quand cela se produira.
A l'échelle macroscopique, la décomposition radioactive suit une loi déterministe
statistique, valable pour une population d'atomes mais ne permettant pas de prévoir
l'évolution d'un atome donné.
A l'échelle atomique, la stabilité d'un noyau dépend d'une énergie de liaison
instable, qui varie sans cause externe à l'atome et ne permet de prévoir l'évolution de
celui-ci (et son éventuelle décomposition) que de manière probabiliste. Le
déterminisme philosophique de Laplace excluant les variations spontanées et
imprévisibles ne s'applique donc pas aux décompositions radioactives naturelles.

En outre, lorsqu'un échantillon contient des atomes résultant d'une décomposition, on


ne peut savoir à quel instant chacun d'eux s'est décomposé, ce qui contredit le
déterminisme philosophique au sens reconstitution du passé.

Donc, de deux choses l'une :


 Ou il y a des questions, concernant les lois de la nature, qui n'ont pas de sens
parce qu'elle n'est pas comme nous croyons ; nous verrons dans la suite de cet
ouvrage que c'est souvent le cas en Physique quantique et en théorie de la
Relativité générale : la nature est bien toujours déterministe, mais pas toujours
comme nous l'imaginons.
 Ou le déterminisme philosophique ne peut tenir ses promesses ni concernant la
prédiction de l'avenir, ni concernant la reconstitution mentale du passé : c'est
donc un principe faux dans le cas de la décomposition radioactive. Et comme,
d'après la méthode de recherche de la vérité du rationalisme critique présentée
dans ce livre, il suffit d'un seul contre-exemple pour qu'une affirmation
scientifique soit fausse, nous considérons le déterminisme philosophique comme

56
erroné, bien que la définition ci-dessus figure dans certains dictionnaires
philosophiques.
Nous verrons qu'il faut une autre définition du déterminisme, le déterminisme
statistique, pour prendre en compte les phénomènes comme la radioactivité
naturelle et définir quelles questions sont possibles concernant la prédiction de
l'évolution future ou la reconstitution du passé. Avec ce déterminisme-là, basé sur
une définition étendue de la causalité, la prédiction de l'avenir et la reconstitution
du passé de son « démon » redeviendraient théoriquement possibles.

Nous allons donc reprendre ci-dessous le problème de compréhension du présent et


prédiction de l'avenir d'une manière moins ambitieuse, en repartant de la causalité à
la base du déterminisme philosophique et en abandonnant provisoirement ses
promesses de prédiction et de reconstitution. Mais avant et pour préciser tout de suite
notre objectif, voici une définition succincte du déterminisme scientifique actuel.

3.1.2.2 Définition succincte du déterminisme scientifique


Le déterminisme scientifique est un principe métaphysique selon lequel toute évolution
dans le temps d'un système physique est régie par deux postulats :
 Le postulat de causalité, condition nécessaire et suffisante :
 Condition nécessaire : toute situation (et toute évolution) a nécessairement
une cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans
avoir été créé auparavant.
 Condition suffisante : il suffit que la cause existe au départ pour que la
conséquence ait lieu (c'est une certitude).
La conséquence de la cause est un phénomène d'évolution, pas une situation
finale.
 La règle de stabilité : Les mêmes causes produisent toujours les mêmes effets
(reproductibilité : dans la nature les évolutions obéissent à des lois). Les lois
physiques dont l'application est déclenchée par une cause donnée sont stables,
elles sont les mêmes en tous lieux et à tout instant.

Le déterminisme de la nature est postulé à la fois :


 Pour comprendre (ou expliquer ce qui a produit) une situation ou un phénomène
que l'on constate.
 Pour prévoir l'évolution d'une situation donnée connaissant la loi physique
applicable.

Principe de fatalisme
Lorsque nous constatons un phénomène physique (situation ou évolution d'un objet),
nous devons admettre que ce phénomène devait arriver, qu'il était inévitable, même si
nous éprouvons un sentiment de surprise, de peur ou de contrariété :
Soit S une situation d'un objet précédée d'une situation P, qui en est la cause
d'après une loi de la nature. Si S était contingente (si elle pouvait se produire ou
ne pas se produire), la situation P aurait pu ne pas avoir pour conséquence S, ce
qui contredit l'exigence de causalité qui rend la conséquence S certaine après P
pour respecter la loi de la nature. Donc ce qui arrive (ici : S) devait arriver.

57
3.1.3 Le postulat de causalité
Depuis qu'il existe, l'homme a remarqué certains enchaînements : pour un système
physique, une même situation S est toujours suivie du phénomène d'évolution P. Par
une démarche naturelle d'induction, il en a déduit un postulat général : « Les mêmes
causes produisent toujours les mêmes conséquences ». Et en réfléchissant aux
conditions qui régissaient les enchaînements observés il en a déduit le postulat de
causalité, que j'énonce comme suit sous forme de condition nécessaire et suffisante.

3.1.3.1 Définition du postulat de causalité


 Condition nécessaire : Toute situation (et toute évolution) a nécessairement une
cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans avoir été
créé auparavant.
Donc, si je constate un phénomène ou une situation, je suis sûr qu'il ou elle a une
cause dans le passé, mais je renonce pour le moment à pouvoir reconstituer
mentalement ce passé en déduisant cette cause de sa conséquence observée,
comme le promet le déterminisme philosophique.
 Condition suffisante : il suffit que la cause existe au départ pour que la
conséquence ait lieu (c'est une certitude).
Cette conséquence est un phénomène d'évolution, pas une situation finale :
nous renonçons ainsi à la promesse de prédiction du résultat de l'évolution, en ne
conservant que le postulat de déclenchement de celle-ci. L'évolution déclenchée
par la situation-cause se déroule ensuite selon une loi de la nature ; un
observateur pourra en constater l'effet, la situation-conséquence, à un moment
ultérieur de son choix, moment sans incidence sur le déroulement de l'évolution.

Exemple : je tiens une pierre dans ma main ;


 Pour qu'elle tombe je dois la lâcher, condition nécessaire ;
 Si je la lâche elle tombe, condition suffisante.

Dans certains cas favorables, le postulat de causalité répond aux besoins de la pensée
rationnelle de comprendre et de prévoir :
 La condition nécessaire permet d'expliquer au moins en partie une constatation
(évolution ou situation), en remontant le temps jusqu'à sa cause ;
 La condition suffisante permet de prévoir une conséquence, en suivant le temps
vers l'avenir depuis sa cause : l'évolution est déclenchée à coup sûr.

3.1.3.1.1 Causalité étendue


Certains philosophes appellent la causalité ci-dessus cause efficace ou cause
efficiente [39] ; Schopenhauer l'appelle Principe de raison suffisante du devenir [173].
Mais parce qu'elle définit la conséquence d'une situation-cause comme une évolution
(au lieu d'une situation-conséquence) nous l'appellerons causalité étendue : c'est de
cette causalité-là qu'il sera question chaque fois que les mots causalité ou cause
apparaîtront dans la suite de ce texte.

58
Contrainte d'action d'une cause efficiente: rester dans les limites de l'Univers
L'action d'une cause efficiente est régie par les lois de la physique. Elle se déroule et
s'achève dans l'espace de l'Univers et le temps de l'Univers, aucun franchissement
des frontières de l'espace-temps n'étant possible car il contient tout ce qui existe, a
existé et existera.

Différence fondamentale de la causalité étendue avec la causalité philosophique


Traditionnellement, les philosophes définissent la causalité comme une relation entre
deux situations, une cause et sa conséquence ; c'est, par exemple, le cas d'Aristote
[39] et de Kant [M3]. En considérant la conséquence de la conséquence de la
conséquence, etc., ou la cause de la cause de la cause, etc., ils définissent une chaîne
de causalité.

Connaissant la situation présente, pour prévoir une situation future ou reconstituer une
situation passée, les philosophes passent d'une situation à la suivante ou à la
précédente ; ils ont alors un problème en remontant dans le passé (démarche appelée
régression) : si toute situation a une cause, la chaîne de causalité est infinie, il n'y a
pas de cause première, et le postulat de causalité doit être abandonné ou modifié pour
admettre une cause sans cause, comme Dieu créateur de l'Univers.

Avec la définition présentée ci-dessus, la conséquence d'une situation n'est pas une
autre situation mais une évolution régie par une loi de la nature. Cette loi est un
ensemble E de fonctions du temps t, au sens mathématique : la situation au temps tn
du passé ou de l'avenir est donnée par les valeurs de toutes des fonctions de E pour
t=tn. Le déterminisme postule alors que ces fonctions soit sont toujours définies, soit
ont un domaine d'existence, par exemple « à partir du Big Bang ».

Cette définition remplace l'évolution discontinue par succession de situations séparées


par un intervalle de temps des philosophes par une évolution continue, plus conforme
à la continuité évidente des évolutions de la nature macroscopique, qui n'arrêtent
jamais. Elle supprime le problème de la cause première et rend inutiles les
considérations de Kant sur l'inconditionné [M3] : connaître les fonctions de E d'un
système (les lois de la nature et leur domaine d'existence) détermine les réponses à
toutes les questions d'évolution possibles sur lui.

3.1.3.1.2 Principe de la conservation de l'information dans l'Univers


Ce paradigme de causalité du déterminisme est également conforme au principe de
la conservation de l'information dans l'Univers, qui exige ce qui suit.
 A un instant donné, l'état de Univers est complètement décrit par une certaine
information, qui contient toutes les données nécessaires pour le reconstruire
théoriquement si on disposait de l'énergie nécessaire : on connaîtrait chaque
atome avec les valeurs de ses variables d'énergie, de position et de
déplacement, les champs de force et rayonnements en chaque point de
l'Univers, etc.
 Or l'évolution dans le temps et l'espace de l'état physique de tout système est
régie par l'équation de Schrödinger, équation fondamentale de la Mécanique
quantique. Cette équation déterministe est aussi symétrique par rapport au
temps : lorsqu'à partir d'un état B d'un système à l'instant t2 on inverse le sens

59
d'écoulement du temps (comme si on « passait le film des événements à
l'envers »), on retrouve à un instant t1 qui précède t2 l'état A qu'il avait.
Cela ne veut pas dire qu'on peut changer le sens de l'écoulement du temps de
l'Univers physique (notamment parce que la thermodynamique l'interdit), mais
seulement qu'on peut reconstituer théoriquement l'information qui décrit un état
quelconque du passé d'un système fermé. C'est une conséquence de l'existence
d'une loi d'évolution de la nature, postulée réversible et stable dans le temps par
le déterminisme.
Cet état reconstitué est unique : il n'y a eu, à l'instant t1<t2 qu'un seul état, A, qui
est devenu B. Donc tout se passe comme si la nature conservait l'information de
tous ses états passés : c'est une conséquence du postulat de déterminisme et de
la réversibilité temporelle de l'équation universelle d'évolution de Schrödinger.
 Conséquence : toutes les équations des lois physiques de la mécanique
macroscopique (comme les lois de Newton), de la mécanique quantique, de
l'électromagnétisme, de la force nucléaire (interaction forte) et de la relativité
(gravitation) sont réversibles par rapport au temps - à de rarissimes exceptions
près qui ne sont pas encore expliquées :
 Lorsqu'un corps céleste disparaît dans un trou noir, l'information qui le
décrivait disparaît peut-être (si elle est conservée, on n'est pas encore sûr
de l'endroit, peut-être à la surface de l'horizon du trou noir) ;
 La décomposition d'un méson K0 (force faible) en mésons + et - est
irréversible, mais on ne sait pourquoi ;
 L'expansion de l'Univers, également irréversible et en plus accélérée, est
due à un champ de force encore inconnu.
 Le passage du temps n'altère donc pas la quantité totale d'information d'un
système physique, même s'il s'agit de l'Univers entier ; cette quantité étant finie,
le nombre d'états possibles de l'Univers est immense, mais fini. Mais cette
l'information préservée peut être altérée par l'évolution physique d'un système
d'une manière telle qu'on ne sache plus où elle est stockée, même si elle existe
toujours.
 Il existe une probabilité non nulle qu'un état donné de l'Univers ou de tous les
atomes d'un système quelconque se reconstitue spontanément, mais les calculs
montrent que cela se produirait pour la première fois au bout d'un temps qui se
compte en milliers de milliards d'années : quand je renverse du café de ma
tasse, la probabilité pour qu'il y remonte tout seul est vraiment faible, même si on
lui restitue l'énergie thermique dispersée par le renversement !

Conséquence pour le déterminisme philosophique de Laplace


Laplace était un mathématicien spécialiste de mécanique céleste. En pensant au
déterminisme, il avait en tête le mouvement parfaitement prévisible et
mathématiquement réversible d'une planète, mouvement réputé "peu perturbé par les
autres astres" à une époque ou Henri Poincaré n'avait pas encore publié sa théorie du
chaos : si dans les équations de son ouvrage Théorie du mouvement et de la figure
elliptique des planètes (1784) on changeait le sens du temps, le « film des
déplacements sur l'orbite passait à l'envers ».

60
Laplace ne connaissait pas la décomposition radioactive. Mais son déterminisme
redevient exact si on en remplace la causalité traditionnelle par notre causalité
étendue, qui régit tous les phénomènes parce qu'elle prend en compte l'équation de
Schrödinger et son déterminisme statistique.

3.1.3.2 Causalité, réalisme et idéalisme


Nous avons vu ci-dessus qu'il y a deux doctrines métaphysiques [371] concernant
l'indépendance entre une réalité censée exister objectivement, indépendamment de
l'homme qui s'en construit des représentations mentales, doctrine appelée réalisme,
et l'idéalisme, qui prétend que toute réalité physique dérive nécessairement d'une
Idée, d'une pensée ; l'idéalisme est la doctrine du philosophe grec Platon, dont le
philosophe allemand Kant a adopté une variante plus précise, l'Idéalisme
transcendantal, qu'il appelle parfois idéalisme critique [372].
 Selon la doctrine réaliste, la causalité est :
 soit une relation entre les choses elles-mêmes, régissant leur durée, leur
succession dans le temps, leur interaction ;
 soit (nous le verrons plus bas) une traduction d'une représentation en une
autre.
 Selon la doctrine idéaliste, la réalité nous est cachée et la causalité ne relie que
des abstractions, représentations mentales plus ou moins correctes, mais jamais
parfaites ; Kant a expliqué et approfondi parfaitement cette doctrine et ses
conséquences [372].

Selon le domaine de connaissance considéré, une des deux approches peut être
préférée à l'autre.
 En physique traditionnelle, la doctrine réaliste permet de décrire au moyen de
lois et formules des phénomènes ou situations réels, et le passage d'une
situation à sa conséquence. Par exemple, une formule permet de prévoir avec
une précision acceptable ce qui se passera dans une situation donnée, c'est-à-
dire comment elle évoluera. La causalité est alors précise et fiable.
 En psychologie, la doctrine idéaliste s'impose, car la réalité de l'esprit humain est
trop complexe pour être représentée de manière complète et claire. On ne
connaît que certains mécanismes mentaux et de manière approximative, avec
beaucoup de cas particuliers et peu ou pas d'informations chiffrées [339]. La
causalité est alors peu précise et peu fiable, faisant parfois appel à des non-dits.
La seule manière de connaître et d'étudier le psychisme humain est de s'en
construire des modèles mentaux simplifiés, qu'on confronte ensuite avec les
résultats ou mesures de l'expérience.

A la causalité précise et fiable de la physique, base du déterminisme scientifique et du


déterminisme étendu, s'ajoute donc la causalité approximative et de fiabilité incertaine
des actions humaines, à laquelle nous associerons, par définition, un déterminisme
humain.

3.1.3.3 Causalité, nécessité et explication du monde


La raison justifie l'existence des causes des situations et phénomènes en postulant
que tout ce qui existe ou arrive a une cause, et que rien n'existe ou n'arrive sans cause
[99]. Et elle prévoit l'évolution des situations en appliquant les lois physiques.

61
La cause explique pourquoi cela existe, est arrivé ou arrivera, connaissance plus
approfondie qu'une simple certitude d'existence. L'existence de la cause implique
nécessairement la conséquence, mais attention à la réciproque : si on ne connaît pas
la loi d'évolution qui y a conduit, une situation constatée peut avoir plusieurs causes
possibles.
Exemple : un homme trouvé mort a 3 balles dans la tête. Il n'a donc pu se suicider,
mais plusieurs personnes qui l'ont fréquenté peuvent l'avoir assassiné.

Nous étudierons ci-dessous en détail le principe de raison suffisante, qui énonce une
relation certaine, nécessaire : l'existence de la cause implique nécessairement la
conséquence (l'évolution qui en résulte).

Absurdité du concept « d'être absolument nécessaire »


D'après ce qui précède, l'expression « un être absolument nécessaire » (que l'on
rencontre dans des textes philosophiques comme [172]), où « absolument » signifie
« indépendamment de toute condition, donc de toute cause », est absurde car
« absolument » contredit « nécessaire », qui implique une cause ; il n'existe ni être ni
situation absolument nécessaire ! L'existence d'un être absolument nécessaire est
l'objet des preuves ontologiques de l'existence de Dieu, preuves dont Kant a démontré
l'absurdité. Voir aussi [372].
Exemple de pensée métaphysique [371] creuse extrait de la biographie du
philosophe Avicenne publiée dans [172] :
"Le point extrême auquel la pensée puisse s'élever, après avoir parcouru toute la
série de la causalité, est celle de l'Être absolument Nécessaire dont le contraire
est le Possible. L'absolument Nécessaire est ce qui, supposé comme non
existant, serait nécessairement inconcevable, tandis que le Possible est ce qui
se peut également bien concevoir comme existant et comme non existant."
Commentaires sur cette citation : il n'y a pas de limite à ce que l'imagination
humaine peut concevoir, il y a seulement des objets dont l'existence est possible
parce qu'elle ne contredit aucune loi physique, et d'autres qui ne peuvent exister
ailleurs que dans l'imagination. « Ce qui, supposé comme non existant, serait
nécessairement inconcevable » est une absurdité : pour supposer que quelque
chose n'existe pas il faut d'abord l'avoir conçu (défini), ce qui l'empêche d'être
inconcevable ! En outre, l'existence ne peut pas être une propriété de l'essence.
Une abstraction ne peut causer une existence matérielle, en vertu du principe
d'homogénéité et du principe de conservation de l'énergie (toute création ou
transformation physique d'objet nécessite de l'énergie qu'une abstraction n'a pas).

3.1.4 Principe de raison suffisante


Le principe de raison suffisante fait partie des principes de base des raisonnements,
sans le respect desquels ils ne pourraient pas être logiques. Enoncé : rien n'existe ou
n'arrive sans qu'une cause ait rendu sa survenance nécessaire, c'est-à-dire inévitable.
Pour qu'une chose soit comme elle est, il y a une raison suffisante.

Nous analysons ci-dessous ce principe parce qu'il permet de mettre en perspective le


déterminisme objet de cet ouvrage, en le situant par rapport aux trois autres principes
de raison suffisante. Notre analyse est basée sur le livre de Schopenhauer [173].

62
3.1.4.1 Les 4 domaines régis par le principe de raison suffisante

Remarques préalables
 Toute connaissance est une relation entre un sujet qui connaît et un objet qu'il
connaît ; sans l'une de ces notions, l'autre n'a pas de sens.
 Un sujet ne peut se connaître lui-même complètement, car il ne peut se placer
« à l'extérieur » de lui-même, où il connaîtrait par exemple sa connaissance,
c'est-à-dire l'état actuel et le fonctionnement de sa conscience. [339]

Définition des 4 domaines de pensée régis par le principe de raison suffisante


Décomposons les domaines de pensée où intervient la causalité comme suit.
 Ou la causalité est celle de la nature, régie par des lois physiques objectives,
indépendantes de l'homme, conformément au réalisme. Schopenhauer parle
alors de raison suffisante du devenir, pour justifier chaque évolution par sa
nécessité physique. Dans tout cet ouvrage nous appellerons ce principe le
déterminisme.
 Ou la causalité est celle de la pensée humaine, et il y a deux cas :
 La pensée régie par la raison, c'est-à-dire logique ; on peut alors distinguer
les propositions proprement dites (affirmations, certitudes) des mécanismes
logiques fondamentaux de l'esprit qui les créent et les manipulent.
 Dans le cas des propositions, Schopenhauer parle de raison suffisante
du connaître, pour justifier chaque proposition par sa nécessité logique.
 Dans le cas des mécanismes fondamentaux de l'esprit, Schopenhauer
parle de raison suffisante de l'être, pour décrire les concepts
nécessaires à la représentation et la manipulation dans l'esprit de
réalités matérielles (objets, situations ou phénomènes), ou d'êtres
abstraits comme en mathématiques.
La nécessité de ces concepts provient de la manière dont notre esprit se
représente l'espace, le temps, les grandeurs physiques fondamentales et
les abstractions diverses, avec les opérations mentales permises sur eux.
 La pensée dominée par des affects [253], des intuitions, « le cœur » dirait
Pascal, qui écrivait dans ses Pensées [198] : "Le cœur a ses raisons que la
raison ne connaît point ; on le sait en mille choses.". Dans ce cas,
Schopenhauer parle de principe de raison suffisante de vouloir, ou loi de la
motivation, nécessité de satisfaire ses désirs en vertu de laquelle le sujet
veut :
 soit connaître un objet pour l'apprécier par rapport à ses valeurs ;
 soit agir sur lui plus tard.

Très général, le principe de raison suffisante s'applique :


 Au domaine des objets, situations et phénomènes matériels, dont il explique
l'existence ou la survenance ;
 Au domaine des représentations ou décisions de l'esprit, abstractions dont il
justifie la conception.

Avec cette classification, il n'y a que 4 domaines d'application de la raison suffisante.


Tous quatre ont en commun d'impliquer deux étapes successives. Voyons les détails.

63
3.1.4.2 Principe de raison suffisante du devenir - Déterminisme
Le principe de raison suffisante du devenir affirme la nécessité physique de l'évolution
d'une situation initiale dont elle est la conséquence par l'action d'une loi de la nature,
c'est-à-dire le déterminisme physique. Il implique une succession dans le temps :
la conséquence suit la situation qui la cause.

Le plus souvent, affirmer qu'une évolution est déterministe c'est affirmer que son
résultat est prévisible par application d'une loi physique, éventuellement en appliquant
une formule ou en déroulant un algorithme ; c'est aussi affirmer que ce résultat ne sera
pas dû au hasard. Nous verrons plus bas en détail des exceptions importantes à cette
prévisibilité.

Une situation décrit des objets physiques, indépendants ou non. C'est la situation
initiale (l'état initial) qui est cause de l'évolution de ces objets, pas les objets eux-
mêmes ; et la conséquence de la situation initiale est cette évolution, pas l'état de
l'ensemble des objets de la situation finale.

Une situation est une abstraction, une représentation sous forme de « photographie
instantanée ». Ce n'est pas elle qui est visible, ce sont ses objets. Une situation est
une représentation construite par l'esprit de ces objets et des relations entre eux, et
c'est elle (non ses objets ou relations) qui est cause de son évolution.

L'évolution affecte les objets et leurs relations, pas la situation initiale, photographie
d'un passé immuable. L'état d'ensemble de ces objets, à un instant qui suit l'état initial,
définit une nouvelle situation. Le caractère final éventuel de celle-ci est purement
arbitraire, l'instant de fin de l'évolution étant lui-même une décision humaine ; une
même situation initiale, cause de son évolution, a donc une infinité de situations
conséquences, selon l'instant de chacune.

Déterminisme d'évolution et déterminisme de traduction


Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre,
par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction
universelle de Newton entre deux points matériels de masses M et M' distants de d
s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation,
G = 6.67 .10-11 Nm2/kg2. Connaissant M, M' et d, on en déduit immédiatement la force
d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent deux masses
séparées. Le déterminisme régit donc, en plus des lois d'évolution dans le temps de la
nature, des lois et méthodes de calcul traduisant des données initiales en un résultat
final qui est leur conséquence, sans délai d'évolution.

3.1.4.3 Principe de raison suffisante du connaître


Ce principe justifie des propositions (affirmations qui ne peuvent être que toujours
vraies ou toujours fausses) par leur nécessité logique. La justification implique une
succession : les prémisses précèdent les conséquences. Une proposition ne peut être
jugée vraie que si on sait pourquoi ; sa vérité appartient alors à l'une des 4 catégories
suivantes.

Vérité transcendantale (résultant de nos facultés logiques a priori)


Une vérité transcendantale est une affirmation qui ne peut se déduire d'aucune autre
ni de l'expérience, et qui est considérée comme nécessaire à toute connaissance

64
possible. C'est un résultat de l'application de nos facultés logiques à des concepts a
priori (créés par l'esprit indépendamment de toute expérience). Exemple d'affirmation :
« Il existe des nombres entiers (concept a priori) et des opérations sur ces
nombres entiers comme l'addition ou la comparaison »

Vérité métalogique
C'est l'un des principes de la logique [99], base de toute pensée rationnelle et des
axiomatiques dans le cadre desquelles on démontre des vérités formelles [67]. Les
facultés logiques utilisées pour construire des vérités transcendantales et des vérités
logiques sont basées sur des vérités métalogiques.

Vérité logique (formelle)


C'est un théorème ou la vérité d'un théorème, proposition résultant d'une
démonstration basée sur une ou plusieurs propositions vraies préexistantes dans le
cadre d'une axiomatique. Exemples :
 Conséquence d'une définition ou d'un syllogisme ;
 Démonstration par déductions successives [99] à partir d'axiomes ou théorèmes.

Attention : une vérité formelle n'a pas de valeur sémantique. Une proposition
formellement vraie n'est vraie que dans sa forme, établie dans le cadre logique de son
axiomatique. Une éventuelle vérité sémantique ne peut se juger qu'avec des
comparaisons avec des objets extérieurs à l'axiomatique : voir [67a] et [220].

Vérité empirique
C'est une vérité résultant de nos sens ou d'une expérience. On la considère comme
vraie par application du postulat réaliste.

3.1.4.4 Principe de raison suffisante de l'être (possibilité de représentation)


Ce principe décrit les concepts nécessaires à la représentation dans l'esprit de réalités
matérielles (objets, situations ou phénomènes) ou d'êtres abstraits comme en
mathématiques. La nécessité de ces concepts provient de la manière dont notre esprit
se représente l'espace, le temps, les grandeurs physiques fondamentales, les
concepts mathématiques et les opérations mentales permises sur eux. Ces concepts
décrivent des propriétés :
 Au sens de l'espace et du temps (concepts fondés sur des perceptions intuitives,
a priori, ne faisant pas partie des attributs de la chose en soi) : la position d'un
objet dans l'espace est définie par rapport à un repère (référentiel), jamais dans
l'absolu ; de même, un événement est repéré par rapport à une origine et un
sens des temps ;
 Au sens des grandeurs fondamentales de la physique : masse-énergie, charge
électrique, spin, etc. L'importance de ces grandeurs fondamentales,
indispensables pour caractériser un objet réel chaque fois qu'il existe, n'était pas
reconnue à l'époque de Kant et de Schopenhauer ;
 Au sens mathématique ou logique. Exemples : chaque nombre entier (ou
élément d'une suite) est défini à partir de son prédécesseur ; théorèmes basés
sur une axiomatique.

65
Les concepts nécessaires pour représenter une réalité matérielle en sont déduits par
perception, mesure expérimentale et/ou abstraction. Les formules et opérations
mathématiques sont utilisées soit pour modéliser une loi physique, soit pour situer un
concept d'objet par rapport à d'autres tels que des unités, des axes orientés, etc.

Le principe de raison suffisante de l'être implique une succession de représentations :


les concepts fondamentaux sont associés par l'esprit qui crée une représentation de
réalité matérielle ou d'être abstrait par prise de conscience. Détails : [339].

3.1.4.5 Principe de raison suffisante de vouloir, ou loi de la motivation


La raison suffisante de vouloir est la nécessité de satisfaire ses désirs. Le sujet veut :
 soit connaître l'objet, pour l'apprécier ensuite par rapport à ses valeurs ;
 soit agir sur lui plus tard.

Dans les deux cas, ce principe implique une succession de représentations : le motif
est suivi par l'acte.

Du fait même qu'il est conscient, un homme veut quelque chose à tout instant. Chaque
volonté a des degrés, depuis un faible désir jusqu'à une passion, et chacune
correspond à une valeur au moins. Chaque affect [253] d'un homme correspond à une
valeur et à quelque chose qu'il veut ; chaque état de conscience [339] d'un sujet
comprend au moins un affect et une volonté. Le sujet qui connaît (par sa conscience)
est le même que celui qui apprécie une valeur et celui qui veut : dans le psychisme
[347] connaissance, jugement de valeur et volonté sont indissociables. Mais, à un
instant donné, un sujet connaît mieux ce qu'il veut que lui-même, c'est-à-dire ce qu'il
est.

Consciemment (ou plus souvent inconsciemment), l'homme juge la situation selon ses
valeurs. Ces jugements sont des raisons suffisantes pour une action destinée à en
savoir davantage ou à obtenir un résultat désirable. Il y a là une forme de causalité, un
automatisme très rapide régissant le psychisme humain, causalité due au lien entre
les trois dimensions d'un sujet : conscient, appréciant et voulant.

Le principe de raison suffisante de vouloir est la forme humaine du déterminisme de


la nature. Déterminisme humain, il gouverne la traduction d'une sensation, d'un affect
ou d'une idée en volonté de connaître ou d'agir, comme le déterminisme physique
gouverne la traduction d'une donnée en une autre ou l'évolution d'une situation par
application d'une loi de la nature. Nous aborderons plus bas le déterminisme humain.

3.1.4.6 Réciproques d'une raison suffisante d'évolution


L'existence d'une raison suffisante d'évolution entraîne celle de sa conséquence,
l'évolution elle-même ; inversement, l'absence constatée d'évolution entraîne
l'absence de raison suffisante d'évolution. Ces propositions sont évidentes.

Par contre :
 L'absence d'une raison suffisante d'évolution n'entraîne pas l'absence de sa
conséquence, si l'évolution correspondante peut résulter d'une autre raison
suffisante.

66
Exemple : l'absence de clou sur la chaussée ne garantit pas que mon pneu avant
droit ne se dégonflera pas ; il pourrait le faire parce qu'il est mal monté sur sa jante
ou parce que j'ai heurté un trottoir.
 L'existence (la constatation) d'une évolution n'entraîne celle d'une raison
suffisante particulière que si d'autres raisons suffisantes n'auraient pas pu
produire le même effet. Exemples :
 La victime est morte d'une balle de pistolet tirée à deux mètres ; on ne peut
être sûr que l'assassin est son beau-frère, qui la détestait et a un pistolet de
ce calibre-là, que si aucun autre porteur de ce type de pistolet n'a pu être
présent lors du meurtre.
 Une statistique montre que 40 % des gens qui ont pris un certain remède
homéopathique ont guéri en un mois au plus ; pour en déduire que la prise
de ce remède guérit 40 % des malades il faudrait être sûr qu'aucune autre
cause de guérison n'était possible : ni guérison spontanée, ni effet placebo,
ni autre traitement concomitant, etc.

3.1.4.7 Raison suffisante et chaîne de causalité


Toute raison suffisante est basée sur une cause, elle-même basée sur une autre
cause, etc. La suite de ces causes définit une chaîne de causalité qui remonte le temps
jusqu'à une cause première, postulée faute d'en connaître la cause ou pour que la
chaîne reste finie (ce qui constitue une exception à la causalité, en inventant une cause
sans cause comme Dieu). Dans notre Univers, toutes les causes physiques remontent
dans le temps jusqu'à l'inflation qui précède le Big Bang, parce que nos connaissances
physiques ne nous permettent pas de penser ce qui précéderait l'inflation autrement
que de manière spéculative [313].

3.1.5 Principe d'homogénéité


Selon [16-b], ce principe de logique est dû à Aristote, qui l'a énoncé sous forme
d'interdit : "On n'a pas le droit de conclure d'un genre à un autre" (texte précis : [16-
a]). Il voulait dire qu'une relation logique ne peut exister qu'entre deux objets du même
genre. Exemples :

Relation de physique
Une comparaison n'est possible qu'entre grandeurs de même type :
 Les relations A = B ; A  B et A  B ne sont possibles que si A et B sont tous
deux des masses (ou des longueurs, ou des durées, etc.).
 Toute mesure comparant une grandeur à une unité, on ne peut mesurer une
masse en unités de charge électrique ou de longueur : on dit que ces grandeurs
sont incommensurables entre elles.

Concepts d'ordres différents


Une masse et une charge électrique sont de genres (on dit aussi "d'ordres") différents ;
aucun des deux ne peut se déduire directement de l'autre, aucun ne peut être
directement cause ou conséquence de l'autre (une masse ne devient pas une charge
électrique et ne résulte pas d'une charge électrique).

Toutefois, on peut passer d'un genre à un autre lorsqu'on dispose d'un intermédiaire
qui est des deux genres [16-a (2)], intermédiaire appelé schème par les philosophes

67
[372]. Ainsi, lorsqu'on parle de l'aire d'un champ de blé (exemple : 100 hectares) et
d'un poids récolté en quintaux, on peut passer de l'aire à la récolte correspondante par
l'intermédiaire d'un rendement (exemple : 70 quintaux à l'hectare) qui est à la fois du
genre aire et du genre poids.

Interaction de l'esprit avec la matière


Cette interaction, estimée possible par certains idéalistes, est contraire au principe
d'homogénéité. Du reste, elle contredirait la physique : une action matérielle n'est
possible qu'avec un échange d'énergie, et on ne voit pas comment une idée abstraite
ou une pensée humaine pourraient fournir ou absorber l'énergie mise en jeu.

Une idée n'est cause ou conséquence de quelque chose que par l'intermédiaire d'un
esprit humain, ou de Dieu pour les croyants. Une réalité ne peut être cause d'une idée
que dans un esprit qui pense.

3.1.5.1 Seul l'esprit humain peut ignorer le principe d'homogénéité


L'esprit humain peut créer des relations d'un genre vers un autre sans difficulté, sans
la moindre impression d'erreur ; c'est un effet de son aptitude à associer n'importe quel
concept à n'importe quel autre car son imagination est libre.
Exemple mathématique : axiome de Cantor-Dedekind ou axiome de continuité.
« Si, sur une droite D, on reporte les points A1, A2, …, An, d'une part, les points
B1, B2, …, Bn d'autre part, les abscisses des premiers formant une suite an non
décroissante de nombres rationnels (fractions), celles des seconds une suite bn
non croissante de nombres rationnels, la différence bn − an restant positive et
tendant vers zéro lorsque n croît, les segments emboîtés [AnBn] ont un point
commun unique M, auquel correspond suivant les cas un nombre rationnel ou un
nombre irrationnel. »
Dans cet exemple, on établit une correspondance biunivoque entre l'ensemble
des points d'une droite, concepts géométriques, et l'ensemble des nombres
réels, concepts numériques, chacun de ces derniers étant défini comme limite
commune de deux suites de nombres rationnels qui convergent en sens opposé.

La pensée en tant que processus d'interprétation


Beaucoup de philosophes contestent à tort l'origine matérialiste de la pensée en tant
qu'effet du fonctionnement du cerveau. Ils raisonnent comme ceci : puisque ce
fonctionnement (matériel) est d'un genre différent de la pensée (abstraite), la pensée
ne peut provenir seulement de causes matérielles, en raison du principe
d'homogénéité, il doit y avoir « autre chose », il faut une transcendance.

Ils se trompent : les neurosciences expliquent que la pensée est la perception humaine
du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones.
C'est cette interprétation qui transforme un état matériel de neurones en abstractions ;
elle constitue la seule mise en relation entre concepts de genres différents qui ne viole
pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer
n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes
de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions
entre eux. Le besoin intuitif d'« autre chose » de ces philosophes résulte du caractère
imprévisible de certaines pensées, dû à notre incapacité de décrire rationnellement les

68
mécanismes inconscients [353] ; ils considèrent comme « besoin » un effet de
l'ignorance humaine de ces mécanismes. Détails : [339].

3.1.5.2 Déterminisme et principe d'homogénéité


Le déterminisme non-humain, celui de la nature, ne s'applique qu'aux évolutions
physiques ; il ne s'applique pas à la pensée parce que celle-ci comprend une partie
inconsciente dont nous ne pouvons décrire le fonctionnement précis [353].
 L'évolution d'une situation (d'un état) physique ne peut aboutir qu'à une autre
situation (état) physique.
 Comme toutes les situations physiques sont délimitées par notre Univers (dont
l'espace-temps comprend, par définition, tout ce qui existe, a existé ou existera),
aucune situation de notre Univers ne peut avoir une conséquence externe à
l'Univers, aucune ne peut être causée par quelque chose d'extérieur à l'Univers.
Nous pouvons cependant voir dans nos télescopes la lumière d'astres qui l'ont
émise il y a si longtemps que l'expansion de l'Univers les situe aujourd'hui au-delà
de la limite de ce qui est observable [313].
 L'esprit humain peut imaginer un franchissement des frontières de l'Univers
visible, mais ce sera un raisonnement cosmologique ou une pure spéculation.
 Même si un jour une théorie sur d'autres Univers affirme des choses vérifiables
dans le nôtre, elle ne prouvera pas avec certitude que ces univers existent, car
cette existence ne peut être ni vérifiée ni infirmée expérimentalement. [313]

Un postulat est une abstraction pure, une base pour construire nos représentations
mentales du monde, elles-mêmes des abstractions. Le principe d'homogénéité interdit
de déduire un phénomène, une existence physique d'objet ou un état physique d'une
abstraction ; une telle déduction doit demeurer une hypothèse, valable seulement dans
la mesure où cette abstraction modélise la réalité avec une précision suffisante, et
seulement tant que la constatation d'une erreur ou imprécision n'amène pas à remettre
le modèle en cause. Violer ce principe conduit à des raisonnements faux, comme :
 Les preuves cosmologiques de l'existence de Dieu ;
 Une décision par l'Eglise catholique de considérer comme miraculeuse (d'origine
divine) une guérison jugée inexplicable ou impossible dans l'état actuel de nos
connaissances ; (l'ignorance de la cause ne justifie pas qu'on l'attribue à Dieu).
 Déduire de la conception d'une essence ("Idée" de Platon, "chose en soi" de
Kant, description complète, cahier des charges…) l'existence d'un objet
physique, d'une situation ou d'un phénomène est une erreur ontologique :
une essence n'est cause de rien de concret. Avoir conçu une essence ne prouve
même pas la possibilité que son objet existe, tant l'imagination humaine est
féconde. Une telle possibilité, comme l'existence elle-même, n'est envisageable
qu'en tant qu'hypothèse, ou dans un domaine de connaissances abstraites
comme les mathématiques. En somme, une essence ne justifie pas une preuve.
En mathématiques, toutefois, elle peut être une définition : un être mathématique
peut être défini par ses propriétés, si celles-ci ne contredisent aucun théorème
établi.

69
Aristote s'était déjà aperçu de l'absence de relation de causalité entre une abstraction
et une réalité matérielle [201].

Avant de poursuivre notre propos sur le déterminisme, nous avons besoin de préciser
le principe d'homogénéité.

3.1.5.3 Domaine de vérité d'une science et principe d'homogénéité


Un intérêt majeur de la règle du respect de l'homogénéité est la délimitation du
domaine de vérité d'une science : une affirmation n'a de sens qu'à l'intérieur d'un
domaine homogène ; on ne peut en vérifier la véracité que dans un tel domaine. Selon
[16-b] page 9 :
 Husserl écrit : "L'empire de la vérité s'articule objectivement en domaines ; c'est
d'après ces unités objectives que les recherches doivent s'orienter et se grouper
en sciences."
 Kant écrit : "On n'étend pas, mais on défigure les sciences quand on fait
chevaucher leurs frontières." Cette affirmation provient du caractère axiomatique
[67] des sciences exactes, dont chacune a des axiomes et règles de déduction
propres qu'on ne doit pas mélanger avec ceux d'une autre science.

La connaissance scientifique n'a commencé à progresser que lorsque l'humanité a


réussi à la séparer des considérations philosophiques, morales et religieuses [212].

3.1.6 Le déterminisme scientifique


Pour comprendre et prévoir, la pensée rationnelle a besoin d'ajouter au postulat de
causalité ci-dessus une règle de stabilité dans le temps et l'espace, c'est-à-dire de
reproductibilité dans le cadre de lois d'évolution.

3.1.6.1 Règle de stabilité


Règle : "Les mêmes causes produisent toujours les mêmes effets" (reproductibilité :
dans la nature les évolutions obéissent à des lois). Les lois physiques dont l'application
est déclenchée par une cause donnée sont stables, elles sont les mêmes en tous lieux
et à tout instant.

Conséquence de la stabilité : une situation stable n'a jamais évolué et n'évoluera


jamais ! Pour qu'il y ait une évolution à partir d'un instant t il faut élargir la définition du
système observé. En fait, l'écoulement du temps ne se manifeste que lorsque quelque
chose évolue ; si rien n'évolue tout se passe comme si le temps s'arrêtait. La règle de
stabilité n'a rien d'anodin : elle a pour conséquence la première loi du mouvement de
Newton, la loi d'inertie :
"Un corps immobile ou se déplaçant en ligne droite à vitesse constante restera
immobile ou gardera le même vecteur vitesse tant qu'une force n'agit pas sur
lui."
Au point de vue déterminisme, le mouvement rectiligne uniforme d'un corps est
une situation stable, qui ne changera pas tant qu'une force n'agira pas sur le
corps ; et une situation stable est sa propre cause et sa propre conséquence.

Grâce à la règle de stabilité on peut induire une loi physique de la nature d'un ensemble
d'enchaînements cause-conséquence constatés : si j'ai vu plusieurs fois le même

70
enchaînement, je postule que la même cause (la même situation, le même état d'un
système) produit toujours la même conséquence (la même évolution dans le temps).
On peut alors regrouper le postulat de causalité et la règle de stabilité en un principe
qui régit les lois de la nature décrivant une évolution dans le temps, le postulat de
déterminisme scientifique énoncé ci-dessous.

3.1.6.2 Importance de la vitesse et de l'amplitude d'une évolution


En pratique, la stabilité d'une loi physique d'évolution est soumise à des incertitudes,
comme une variable physique : ses paramètres sont entachés d'erreurs.
 Une loi d'évolution décrit celle-ci à partir d'une situation initiale en appliquant des
règles de calcul. Mais une variable des données initiales, des règles de calcul et
de l'heure de l'instant initial n'est connue avec une précision parfaite que lorsque
c'est une unité internationale, définie arbitrairement, comme la vitesse de la
lumière c = 299 792 458 mètres/seconde exactement ; toutes les autres variables
sont entachées d'erreurs, donc le résultat aussi : la prédiction d'une évolution
est, en pratique, entachée d'erreurs.
 Un système est stable lorsque ses variations sont trop petites et/ou trop lentes
pour être observées. Un système qui paraît stable en ce moment a peut-être
évolué de manière perceptible dans le passé, mais de plus en plus lentement, ou
avec de moins en moins d'amplitude jusqu'à paraître stable en ce moment ;
et peut-être évoluera-t-il de plus en plus vite ou de plus en plus fort à l'avenir.

Exemple
Au début d'un cours d'astronomie on considère seulement la direction dans laquelle
se trouve une étoile, en ignorant sa distance et son éventuel mouvement par rapport
à la Terre. Les étoiles sont alors censées se trouver sur une immense sphère appelée
« sphère des fixes », modèle cosmographique qui postule la fixité de la direction de
visée de chaque étoile. En effet, à l'échelle de quelques siècles et à fortiori à celle
d'une vie humaine, les étoiles paraissent immobiles sur la sphère des fixes : leurs
directions et leurs positions relatives ne changent pas.

En fait, l'immobilité apparente des étoiles n'existe que si on mesure leurs directions
angulaires avec une précision modeste, notamment lorsqu'un homme compare un ciel
de sa jeunesse, vu à l'œil nu, avec un ciel de son âge mur. Dès qu'on effectue des
mesures de vitesse précises par effet Doppler (déplacement des raies spectrales) on
s'aperçoit que les étoiles bougent par rapport à la Terre : les positions stables connues
ont été complétées par des lois mathématiques de déplacement.

Conclusions
 La vitesse mesurée d'évolution d'un phénomène n'a pas de raison d'être
constante. Une évolution lente aujourd'hui peut avoir été beaucoup plus rapide
dans le passé. Exemples :
 L'expansion de l'Univers observable, dont le rayon augmente aujourd'hui à
la vitesse de la lumière, c, a été des milliards de fois plus rapide peu après
la naissance de l'Univers (mais avant le Big Bang), pendant une phase
appelée inflation [313]. Cette expansion hyperrapide n'a duré qu'un très
court instant, moins de 10-35 seconde.

71
 Considérons un système physique fermé (n'échangeant rien avec l'extérieur)
tel qu'un tube allongé plein d'air. Supposons qu'au début de l'expérience l'air
de la partie gauche du tube a été chauffé, pendant que l'air de la partie
droite restait froid. Lorsqu'on arrête le chauffage et qu'on laisse l'air du tube
fermé évoluer sans intervention extérieure, sa température tend vers une
température limite, uniforme, en variant de plus en plus lentement.
La température stable constatée au bout d'un temps assez long pour que
notre thermomètre de mesure ne bouge plus est le résultat d'une évolution
convergente, pas le résultat d'une absence d'évolution. Un observateur qui ne
voit qu'un thermomètre qui ne bouge pas aurait tort d'en conclure que l'air du
tube a toujours été à la même température.
En résumé : compte tenu de l'imprécision inévitable de toute mesure physique, on
ne peut conclure d'un état actuel de stabilité ni qu'il n'a jamais évolué, ni qu'il
n'évoluera jamais, ni depuis combien de temps il n'évolue pas, ni qu'il n'évoluera
pas beaucoup plus vite dans l'avenir…
Exemple : si on photographie le balancier d'un pendule oscillant avec un temps
d'exposition de un dixième de seconde lorsque ce balancier est au sommet de sa
course, on aura une photo nette car il bouge alors lentement ; mais une photo de
même temps d'exposition au point le plus bas du balancier sera « bougée ».

Du point de vue philosophique, on doit tenir compte de la possibilité qu'une évolution


dans le temps ait une vitesse et une amplitude variables, c'est-à-dire décrites par des
fonctions non linéaires. La vitesse et l'amplitude d'évolution d'un phénomène, trop
petites pour être mesurables à un instant donné, ne l'ont pas nécessairement toujours
été, et ne le resteront pas nécessairement toujours à l'avenir.

3.1.6.3 Définition du déterminisme scientifique


Définition : le déterminisme scientifique est un postulat qui régit l'évolution dans le
temps d'une situation sous l'effet des lois de la nature, conformément au postulat de
causalité et à la règle de stabilité.

Par rapport au déterminisme philosophique, le déterminisme scientifique :


 Prédit qu'une situation évoluera certainement sous l'action d'une loi naturelle,
mais pas qu'on en connaîtra la valeur future des variables d'état ;
 N'affirme pas la possibilité de reconstituer mentalement le passé.
(Cette possibilité existe avec le déterminisme statistique, qui ajoute au
déterminisme scientifique les conséquences de la prise en compte des lois
déterministes de populations d'objets et de l'équation de Schrödinger.)

Le déterminisme scientifique est basé sur les lois vérifiées de la physique. Il n'est pas,
comme le déterminisme philosophique, basé sur la foi (issue des Lumières [47] et de
la doctrine de l'Idéalisme transcendantal de Kant [372]) en une Science qui permettra
un jour de tout comprendre et prévoir.

Remarque importante
Le déterminisme scientifique affirme donc que la nature déclenche automatiquement
et instantanément une évolution lorsque ses conditions sont réunies ; les

72
conséquences de ces conditions sont le déclenchement et le déroulement d'une
évolution définie par une loi, pas une situation à un instant futur (abstraction humaine).

Le déterminisme scientifique n'affirme rien sur la prédictibilité des valeurs des variables
d'état d'un système aux divers instants futurs, ni sur l'unicité de valeur d'une variable
à un instant donné. Nous verrons que la prévision de la valeur d'une variable d'un
système physique à un instant donné est parfois impossible ou imprécise, et parfois
que cette valeur n'est même pas unique.

3.1.6.3.1 Déterminisme des évolutions régies par des équations différentielles


Dans de nombreux phénomènes physiques, l'évolution d'un système est modélisée
par une équation différentielle ou un système d'équations différentielles comprenant
des dérivations par rapport au temps. Lorsque c'est le cas, la connaissance des
conditions initiales permet de déterminer toute l'évolution ultérieure de ses variables,
soit parce qu'on peut exprimer celles-ci comme fonctions du temps, soit parce qu'on
peut calculer les valeurs successives de ces variables de proche en proche.
L'évolution du système est alors déterministe au sens scientifique traditionnel et on
peut même parler de déterminisme mathématique.

L'existence d'une description du mouvement par équation(s) différentielle(s) implique


qu'à tout instant t, le mouvement pendant l'intervalle de temps infiniment petit dt suivant
ne dépend que des conditions à cet instant-là, et on peut le calculer sans tenir compte
des conditions initiales ou des évolutions qui précèdent l'instant t. La position et la
vitesse à tous les instants qui suivent t ne dépendent que des conditions à l'instant t.
Le mouvement global, depuis un instant quelconque à partir de t = 0, résulte de
l'application répétée du principe précédent : la chaîne de causalité est continue.
Le futur dépend du seul présent, pas du passé.
Exemples souvent cités : les équations différentielles de la dynamique (2 ème loi de
Newton [110]) et de Schrödinger.

3.1.6.3.2 Déterminisme des formules, algorithmes et logiciels


Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre,
par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction
universelle de Newton entre deux points matériels de masses M et M' distants de d
s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation,
G = 6.67 .10-11 Nm²/kg² [110]. Connaissant M, M' et d, on en déduit immédiatement la
force d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent M, M' et
d. Le déterminisme de la nature régit donc, en plus de ses lois d'évolution, des lois et
méthodes de calcul traduisant des données initiales en un résultat final qui est leur
conséquence, sans délai d'évolution.

Un algorithme de calcul est écrit dans le cadre d'une axiomatique [67] et un programme
est écrit dans un langage informatique. Chacune des règles de déduction de
l'axiomatique et chacune des instructions du programme respecte les conditions du
postulat de causalité et de la règle de stabilité : l'algorithme et le programme étant
donc des suites de processus déterministes, sont globalement déterministes.

Pourtant, le résultat d'un algorithme ou d'un calcul n'est pas prédictible à la seule vue
de leur texte. En particulier, on ne peut savoir s'ils produisent les résultats attendus
qu'en déroulant l'algorithme par la pensée et en exécutant le programme.

73
Théorème : il n'existe pas d'algorithme général permettant de savoir si un
programme donné s'arrête (donc fournit son résultat) ou non.

On ne peut pas, non plus, savoir si la progression vers ce résultat est rapide ou non :
un programme peut se mettre à boucler, repassant indéfiniment sur la même séquence
d'instructions, et un algorithme peut converger très lentement ou même ne pas
converger du tout ; si l'exécution d'un programme doit durer 100 ans aucun homme ne
l'attendra.

Il existe donc des processus déterministes :


 dont le résultat est imprévisible avant leur déroulement ;
 dont le déroulement peut durer si longtemps qu'on ne peut se permettre de
l'attendre pour avoir le résultat.

Nous voyons donc, sur cet exemple, que le déterminisme d'un processus n'entraîne
pas nécessairement la prédictibilité de son résultat. Approfondissons ce problème.

3.1.6.4 Déterminisme scientifique et obstacles à la prédiction


Nous allons voir que l'évolution naturelle d'un système peut être déterministe (au sens
du déterminisme scientifique) sans que l'état résultant du système soit prédictible.

Résultat d'une évolution physique


Le résultat à un instant donné de l'évolution physique d'un système est un état
caractérisé par les valeurs d'un certain nombre de variables. Chacune de ces variables
a un ensemble de définition et (souvent) une unité de mesure. Exemples d'ensembles
de définition :
 Une longueur est un nombre réel positif de mètres ;
 Une énergie électromagnétique échangée à l'aide de photons de fréquence
 est un nombre de joules multiple entier de h, où h est la constante de
Planck ;
 En Mécanique quantique, une mesure ne peut donner comme résultat qu'une
valeur propre [278] de l'observable [30] du dispositif de mesure.

Prédire un résultat d'évolution d'une variable consiste à prédire quel élément de son
ensemble de définition résultera de l'application de la loi d'évolution, c'est-à-dire quel
élément de cet ensemble elle choisira à un instant donné. En physique atomique, la
prédiction utilise la Mécanique quantique et a pour résultat un ensemble connu de
valeurs munies de probabilités d'apparition.

Déterminisme et prédictibilité
Dans le cas général, le déterminisme d'une loi de la nature n'entraîne ni la prédictibilité
de ses résultats, ni leur précision.
Dans les définitions du postulat de causalité et du déterminisme scientifique nous
avons renoncé à prédire un résultat d'évolution. Mais comme nous savons qu'une
cause déclenche l'application d'une loi de la nature, le problème de prédire un résultat
d'évolution devient celui de prédire le résultat de l'application d'une telle loi.

74
Remarques philosophiques préalables
La nature "connaît" des situations-causes et les lois qu'elle applique automatiquement
à chacune, mais elle ne connaît pas la notion de résultat, notion et préoccupation
humaines. Nous pouvons donc éliminer tout de suite une cause d'impossibilité de
prévoir indépendante de la nature : l'intervention du surnaturel. Il est clair que si nous
admettons la possibilité qu'une intervention surnaturelle déclenche, empêche ou
modifie le déroulement d'une évolution naturelle, nous renonçons en même temps à
prévoir son résultat.
Nous postulerons donc le matérialisme. En outre, aucune intervention provenant
d'un éventuel extérieur de l'Univers n'est possible du fait de la Relativité Générale
[328], ce qui exclut toute intervention transcendante [334] de l'extérieur de l'Univers
vers l'intérieur ou de l'intérieur vers l'extérieur.
Nous exclurons aussi toute intervention provenant de l'intérieur mais n'obéissant
à aucune loi de la nature, en nous réservant de préciser plus bas la notion de hasard
et sa portée. Cette validation par l'expérience, la falsifiabilité [203] et l'absence de
preuve de fausseté ou de contradiction distinguent une théorie scientifique d'une
explication magique, surnaturelle ou fantaisiste.

Voir en fin de texte la table résumant les cas d'imprédictibilité.

Quatre causes très fréquentes d'imprédictibilité


Voici quatre raisons qui empêchent de prédire le résultat d'une loi déterministe
d'évolution : l'ignorance, l'imprécision, le caractère stochastique [31] et la complexité.

3.1.6.4.1 L'ignorance de la loi d'évolution


Pour prédire le résultat d'une loi il faut d'abord la connaître. Il y a beaucoup de
phénomènes que la science ne sait ni expliquer, ni même décrire ; exemple : le
déclenchement et l'enchaînement des pensées dans l'inconscient [353]. Et malgré
Internet qui, de nos jours, permet de trouver beaucoup de renseignements et de poser
des questions à des gens qualifiés, une personne donnée a nécessairement des
lacunes. De toute manière, la méconnaissance d'un phénomène ne nous autorise pas
à l'attribuer au hasard, c'est-à-dire à affirmer que la nature fait n'importe quoi, qu'il y a
évolutions où elle ne suit aucune loi, mais improvise. Nous supposerons donc ci-
dessous que toute tentative de prédiction est faite dans un contexte où les lois
d'évolution sont connues et stables.

3.1.6.4.2 L'imprécision
Le postulat de causalité et le déterminisme scientifique ne promettent pas la
prédictibilité d'un résultat, ni sa précision lorsqu'on a pu le prévoir ; pourtant la précision
est une préoccupation humaine. Voici des cas où la précision du résultat (calculé ou
mesuré) de l'application d'une loi d'évolution peut être jugée insuffisante par l'homme.

Imprécision des paramètres et hypothèses simplificatrices d'une loi d'évolution


Une loi d'évolution qui a une formulation mathématique a des paramètres. Si ceux-ci
sont connus avec une précision insuffisante, le résultat calculé sera lui-même entaché
d'imprécision. C'est le cas notamment lorsqu'une loi d'évolution fait des hypothèses
simplificatrices.
Exemple d'approximation : la dynamique d'un pendule simple est décrite par une
équation différentielle non linéaire. Pour simplifier la résolution de cette équation,

75
on recourt à « l'approximation des petites oscillations », qui assimile un sinus à
son angle en radians. Cette simplification entraîne des erreurs de prédiction du
mouvement qui croissent avec l'amplitude des oscillations.

Imprécision ou non-convergence des calculs dans un délai acceptable


Si le calcul d'une formule ou d'une solution d'équation est insuffisamment précis, le
résultat peut être lui-même imprécis. Il arrive aussi que l'algorithme du modèle
mathématique du phénomène ne puisse fournir son résultat, par exemple parce qu'il
converge trop lentement. Il peut enfin arriver que le modèle mathématique d'un
processus déterministe ait un cas où le calcul de certaines évolutions est impossible,
le livre en cite un concernant une propagation d'onde.

Sensibilité du modèle d'évolution aux conditions initiales


Il peut arriver qu'une variation minime, physiquement non maîtrisable, de ses données
initiales, produise une variation considérable et imprévisible du résultat d'un
phénomène dont la loi d'évolution est pourtant déterministe et à évolution calculable.
 C'est le cas, par exemple, pour la direction dans laquelle va tomber un crayon
posé verticalement sur sa pointe et qu'on vient de lâcher.
(Heureusement, le principe d'incertitude de Heisenberg est censé ne s'appliquer
qu'à un système à l'échelle atomique, donc infiniment plus petit qu'un crayon. Car
s'il s'appliquait ici, le crayon tomberait dans toutes les directions à la fois en
superposition, puisqu'il ne peut être immobile et que son état initial a une symétrie
de révolution par rapport à la verticale !)
 C'est le cas, aussi, des « systèmes dissipatifs à évolution apériodique sur un
attracteur étrange dans un espace des phases (définition) ayant au moins 3
dimensions » (explication).

Il y a là un phénomène mathématique d'amplification d'effet : l'évolution parfaitement


déterministe, donc précise et calculable, à partir d'un ensemble d'états initiaux
extrêmement proches, peut aboutir, après un certain temps, à des états finaux très
différents. Ce type d'évolution est appelé « chaos déterministe ». On peut, dans ce
cas-là, démontrer l'impossibilité de prévoir avec une précision suffisante l'évolution et
son état final après un temps donné : il ne peut exister d'algorithme de calcul
prévisionnel de cet état final qui soit peu sensible à une petite variation des données
initiales. Il ne peut même pas exister d'intervalle statistique de confiance encadrant
une variable de l'état final. Le déterminisme n'est pas en cause en tant que principe,
mais une prédiction précise d'état final demande une précision infinie dans la
connaissance et la reproductibilité de l'état initial et des paramètres d'évolution,
conditions physiquement inaccessibles.

Cette impossibilité traduit un refus de la nature de satisfaire notre désir de prévoir avec
précision l'évolution de certains systèmes.
Exemples. Ce phénomène se produit dans certains écoulements turbulents et
dans l'évolution génétique des espèces, avec apparition de solutions regroupées
autour de points particuliers de l'espace des phases appelés « attracteurs
étranges ». En pratique, cette amplification d'effet réduit beaucoup l'horizon de
prévisibilité.

76
Instabilité dans le temps d'une loi d'évolution
Même s'ils sont bien connus à un instant donné, certains paramètres d'une loi
d'évolution peuvent être instables d'une situation à une autre, entraînant l'impossibilité
de prédire une évolution trop longtemps à l'avance. C'est le cas, par exemple, pour
une loi d'évolution qui bifurque (se transforme en deux autres lois) du fait d'un
paramètre qui franchit ou non une valeur critique à cause d'un autre phénomène. Voir
aussi [281].

3.1.6.4.3 Le caractère stochastique - Déterminisme statistique


Certaines lois physiques, notamment à l'échelle atomique, ont un caractère
stochastique (on dit aussi probabiliste) [31]. Voici leurs conséquences sur la
prédictibilité des évolutions.

Déterminisme statistique : lois d'évolution stochastiques


Avec la définition ci-dessus du déterminisme scientifique, on ne peut pas opposer les
adjectifs déterministe et stochastique [31] : nous verrons, par exemple, que la loi
d'évolution de Mécanique quantique appelée décohérence produit des résultats
probabilistes - donc qualifiés habituellement de stochastiques. Cette loi sera dite
déterministe parce qu'elle respecte le principe de causalité et la règle de stabilité, mais
comme elle produit des résultats multiples distribués selon une loi de probabilité il
s'agira d'un déterminisme statistique. Voici des causes d'imprédictibilité.

Imprécision due à la Mécanique quantique, outil mathématique de la physique


quantique
En physique quantique (physique de l'échelle atomique [325]), la précision sur l'état
d'un système est limitée par la représentation par fonctions d'ondes de probabilités de
la Mécanique quantique. Exemples :
 La position et la vitesse d'un corpuscule en mouvement dans un champ de force
électromagnétique ne peuvent être déterminées avec une incertitude meilleure
que la moitié de la largeur du paquet d'ondes de probabilité qui l'accompagne.
Quelle que soit la petitesse du temps de pose d'une photographie instantanée
(théorique) du corpuscule, celui-ci apparaîtra toujours flou parce qu'il est en une
infinité d'endroits (très proches) en même temps.
Pire, même : plus la détermination de la position à un instant donné est précise,
plus celle de la vitesse est imprécise, et réciproquement : c'est le « principe
d'incertitude de Heisenberg ».
 Un résultat de physique quantique [325] est inséparable des conditions
expérimentales. La Mécanique quantique prédit la fréquence statistique
d'apparition de chaque valeur qu'on peut mesurer dans une expérience donnée,
dont la reproductibilité des résultats n'est que statistique. En physique quantique,
le déterminisme n'est que statistique, il ne permet de prédire que des résultats
distribués selon une loi statistique, pas un résultat unique précis ; il contient donc
une part de hasard.
 En Mécanique quantique, non seulement toute mesure perturbe le système
mesuré, mais en l'absence de mesure ou avant la mesure la variable mesurée
n'a aucune probabilité d'avoir quelque valeur que ce soit : c'est la mesure qui
« crée » la valeur d'une variable, et en son absence cette valeur n'existe pas.

77
Il y a là une énorme différence avec la physique macroscopique, où la position
d'un corps existe qu'on la mesure ou non, et où une mesure ne perturbe pas
nécessairement l'objet mesuré.
 L'évolution qu'est l'établissement ou la rupture d'une liaison chimique entre
atomes, molécules, ou atome et molécule est régie par l'équation de Schrödinger
et le principe d'exclusion de Pauli. Cette évolution se fait vers la structure la plus
stable, celle de moindre énergie potentielle, comme le veut la thermodynamique.
La Mécanique quantique montre qu'il y a souvent plusieurs résultats d'évolution
possibles, chacun avec sa probabilité.
Cette possibilité qu'une liaison chimique s'établisse ou se rompe avec une certaine
probabilité a des conséquences importantes en biologie moléculaire, où elle peut
être cause d'anomalies génétiques ou de variations d'expression de gènes.
On a montré expérimentalement dans les années 1920 qu'en favorisant les
perturbations accidentelles de l'énergie de liaison moléculaire du génome de
l'orge au moyen de rayons X on provoquait de multiples mutations artificielles.
On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou à bandes de
couleurs alternées. Depuis cette date, des mutations artificielles sont
déclenchées dans de nombreux pays pour obtenir des espèces nouvelles de
plantes ayant des propriétés intéressantes. On a ainsi obtenu des espèces
plus résistantes et d'autres donnant de meilleurs rendements.
 Fluctuations quantiques
Le refus de précision et de stabilité de la nature peut se manifester par des
fluctuations d'énergie quantiques.
Exemple : en un point quelconque de l'espace vide, à l'intérieur d'un atome ou
même entre galaxies, l'énergie peut brusquement varier en l'absence de
perturbation, sans cause autre que le refus de la nature qu'elle soit définie avec
une valeur précise. Cette variation d'énergie ΔE peut être d'autant plus grande
que sa durée Δt sera brève. En moyenne, toutefois, l'énergie au point de
fluctuation reste constante : si la nature a "emprunté" une énergie ΔE au vide
environnant, elle la restitue en totalité environ Δt secondes après. L'énergie est
empruntée à l'énergie potentielle du champ de gravitation.
Ce phénomène d'instabilité de l'énergie viole la règle de stabilité du déterminisme
et empêche de définir des conditions de causalité ! Il survient brusquement, de
manière imprévisible, sans cause identifiable. C'est une instabilité dans le temps,
traduisant l'impossibilité de définir l'énergie en un point de l'espace vide avec une
incertitude sur l'énergie et un intervalle de temps tous deux arbitraires. Du point
de vue prévisibilité, on ne peut prévoir ni où une fluctuation se produira (il y en a
partout), ni quand, ni avec quelle variation d'énergie ΔE.
Ce phénomène n'a rien de négligeable : on lui attribue, peu après le début de
l'Univers, des variations de densité d'énergie à l'origine de la matière des
galaxies ! A l'échelle alors extrêmement petite de l'Univers, ces variations
d'énergie étaient si colossales, leur perturbation de l'espace-temps si
considérable, que les équations de la Relativité Générale ne pouvaient
s'appliquer. (Voir "Distance, temps, densité et masse de Planck")
Conclusion philosophique : à l'échelle atomique toute variation naturelle n'est pas
une évolution et n'est pas nécessairement déterministe ; il y a des cas d'instabilité.

78
Imprécision par évolutions simultanées à partir d'un même état initial - Décohérence
A l'échelle atomique, la nature permet des superpositions (combinaisons linéaires [29])
de solutions d'équations décrivant l'évolution d'un système dans le temps et l'espace.
 C'est ainsi qu'un atome peut parcourir plusieurs trajectoires à la fois, produisant
des franges d'interférence avec lui-même lorsqu'il passe à travers deux fentes
parallèles, même distantes de milliers de diamètres atomiques.
 C'est ainsi qu'une molécule peut être dans plusieurs états (structures) à la fois.
Exemple : la molécule d'ammoniac NH3 a une structure en forme de tétraèdre, où
le sommet (atome d'azote N) peut être « au-dessus » ou « au-dessous » du plan
des 3 atomes d'hydrogène. A un instant donné, la forme de la molécule peut être
« plutôt au-dessus et un peu au-dessous » ou le contraire, du fait de l'effet tunnel
(effet statistique de présence au-delà d'une barrière de potentiel électrique sans
cause physique de type force entraînant un quelconque déplacement). Les deux
formes, « au-dessus » et « au-dessous » de la molécule existent alors
simultanément : on dit qu'elles sont « en superposition », « cohérentes ».
Lorsque le temps passe, la molécule peut évoluer progressivement d'une forme à
l'autre par effet tunnel à une certaine fréquence, dite d'inversion. Lorsqu'un
dispositif macroscopique détermine cette forme à l'instant t, il la trouve dans un
seul des états, rendu stable par la mesure qui arrête l'oscillation d'inversion : on
dit alors que le dispositif a détruit la cohérence de la superposition, qu'il y a eu
« décohérence ». Si on refait l'expérience un grand nombre de fois, on trouvera
statistiquement 50% de présences « au-dessus » et 50% de présences « au-
dessous ».
Lorsqu'une expérience détermine la forme de la molécule NH 3, la nature choisit
au hasard celui des deux états symétriques qu'elle révélera à l'homme. Notons
que dans ce cas l'état révélé n'est pas quelconque, c'est un élément d'un
ensemble parfaitement prédéfini de 2 solutions appelé spectre des valeurs
propres [278] du dispositif de mesure : le hasard naturel est alors limité au choix
d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque
choix. Dans le cas de la molécule d'ammoniac précédente, la nature choisit entre
2 solutions symétriques de même forme géométrique : « au-dessus » et « au-
dessous ».
Ce phénomène est général en physique quantique [325] : lorsqu'une expérience
mesure une grandeur qui a plusieurs valeurs superposées, l'expérience en choisit
une sans que l'expérimentateur puisse prédire laquelle. Toutefois, les valeurs
possibles parmi lesquelles l'expérience choisit appartiennent à un ensemble
connu à l'avance : l'ensemble des valeurs propres du dispositif de mesure ; en
répétant l'expérience un grand nombre de fois, les diverses valeurs propres
"sortiront" avec une probabilité (ou une densité de probabilité) connue à l'avance.
(Voir postulats 3 et 4 de la Mécanique quantique.) Du point de vue déterminisme,
le hasard se limite au choix d'une valeur appartenant à un ensemble prédéterminé
et affectée d'une probabilité (ou une densité de probabilité) également
prédéterminée. On peut appeler hasard ce déterminisme de l'échelle atomique,
mais comme les résultats finaux ne sont pas quelconques puisqu'ils respectent
une distribution statistique, je préfère l'appeler déterminisme statistique, une forme
du déterminisme étendu.

79
 Le refus de la nature de satisfaire le désir de l'homme de distinguer parfois deux
photons à trajectoires différentes atteint un sommet avec le phénomène de non-
séparabilité. Dans une expérience [10], deux photons qui ont la propriété
d'ensemble d'avoir des polarisations en sens opposé (photons dits intriqués ou
corrélés) restent un ensemble indivisible du fait de cette propriété même quand
ils se sont éloignés l'un de l'autre de 144 km : si on mesure la polarisation de l'un
– ce qui la change – la polarisation de l'autre change aussi aussitôt, la
conséquence se propageant de l'un à l'autre à vitesse infinie puisqu'ils ne font
qu'un dans l'ensemble de départ, qui conserve son unité tout en se déformant.
En somme, toute mesure faite au point A sur une particule peut instantanément
influencer une mesure en un point B, même très distant, sur une autre particule,
si les deux particules sont corrélées ; et après la mesure, l'interaction qui a corrélé
les particules a disparu, les photons ayant été absorbés par le dispositif de
mesure.
Explication : les deux photons ont été créés ensemble, avec une énergie
commune et une information d'existence commune. Mesurer un photon n'est
possible qu'en lui prenant son énergie, toute son énergie. Donc lorsqu'on mesure
(ou détecte) un des photons intriqués, on ne peut que prendre leur énergie
commune, en une fois, en détruisant l'information qui leur est commune pour la
céder à l'instrument de mesure. C'est pourquoi détecter un photon détruit l'autre.

Imprécision par étalement d'un paquet d'ondes


Les ondes de probabilité accompagnant le déplacement d'un corpuscule se rattrapent
et se chevauchent, et le paquet d'ondes s'étale tout en se déplaçant. Cet étalement
fait croître progressivement l'imprécision sur la position du corpuscule.

En somme, à l'échelle atomique, beaucoup de désirs humains concernant la prédiction


d'un résultat, son unicité, sa précision ou sa stabilité sont refusés par la nature.

Incertitude relativiste sur la relation de causalité entre deux événements


Il y a une propriété de l'espace-temps liée à la vitesse de la lumière, propriété qui fait
réfléchir à la définition même de la causalité qui situe un événement avant un autre.
Dans certains cas précis, deux événements A et B peuvent être vus par certains
observateurs dans l'ordre A puis B, et par d'autres observateurs dans l'ordre B puis A !
Les premiers auront connaissance de A avant B et en tireront des prédictions
différentes des seconds, qui verront apparaître B avant A.

3.1.6.4.4 La complexité

Evolution d'une situation régie par une ou plusieurs loi(s) déterministes


L'effet global d'un grand nombre de phénomènes déterministes, simultanés ou non,
peut être imprévisible, même si chacun est simple et à résultat prévisible.
Exemple : considérons une petite enceinte fermée qui contient un nombre
immense de molécules identiques de liquide ou de gaz. Le seul fait que ces molécules
aient une température supérieure au zéro absolu fait qu'elles s'agitent sans cesse,
l'énergie cinétique associée à leur vitesse provenant de la température. Cette agitation,
appelée mouvement brownien, les fait rebondir les unes sur les autres et sur les parois,
conformément à des lois des chocs élastiques parfaitement connues et déterministes,

80
sans intervention du hasard. Mais il est impossible de connaître la position et la vitesse
à l'instant t d'une molécule donnée, car :
 Elle a subi trop de rebonds contre d'autres molécules en mouvement et contre
les parois de l'enceinte pour que les calculs soient à la portée d'un ordinateur,
même très puissant ;
 A l'échelle atomique, chaque rebond de molécule est affecté par sa forme
irrégulière, la rugosité locale de la paroi, et l'imprécision sur la position, la
direction et la vitesse d'un choc due à la largeur du paquet d'ondes
accompagnant chaque molécule. La loi des chocs élastiques est donc difficile à
appliquer avec précision, les conditions initiales de chaque choc étant entachées
d'erreurs non négligeables et aucune approche statistique n'étant possible.

Cette impossibilité de connaître le mouvement précis d'une molécule donnée est très
générale : la combinaison d'un grand nombre de phénomènes déterministes à
évolution individuelle prévisible produit une évolution imprévisible, que ces
phénomènes soient ou non du même type. Par combinaison il faut entendre ici :
 soit une succession de phénomènes de même type comme les chocs élastiques
d'une molécule donnée ;
 soit la simultanéité de phénomènes déterministes différents qui agissent
indépendamment ou interagissent pour produire un effet global ;
 soit l'instabilité d'un phénomène qui change de loi d'évolution selon un paramètre
critique soumis à un autre phénomène d'évolution lors d'une bifurcation.

En résumé, la complexité d'un phénomène à composantes déterministes produit en


général une évolution imprévisible, et encore plus imprévisible si on prend en compte
les imprécisions dues à la Mécanique quantique.
Il faut pourtant se garder d'attribuer au hasard une évolution qui n'est imprévisible
que parce que la complexité du phénomène d'origine rend trop difficile la
prédiction de son résultat par calcul ou raisonnement. Nous verrons que le
caractère aléatoire d'une évolution à l'échelle atomique (décrite donc par la
Mécanique quantique) caractérise un choix d'élément de l'ensemble
(déterministe) des résultats-valeurs propres [278] possibles d'une équation, alors
que le hasard caractérise l'inexistence d'un algorithme à résultats utilisables.

L'imprévisibilité par excès de complexité, qui n'existe pas en théorie dans la nature
(ses lois d'évolution étant déterministes), sévit hélas en pratique. Elle n'affecte pas la
nature, qui jamais n'hésite ou ne prévoit l'avenir, mais elle empêche l'homme de
prédire ce qu'elle va faire. Et l'imprévisibilité est d'autant plus grande que le nombre
de phénomènes successifs ou simultanés est grand, que leur diversité est grande, que
leurs interactions sont nombreuses et que l'imprécision quantique intervient.

Les interactions entre phénomènes ont un effet sur leur déterminisme lui-même. Une
évolution dont le résultat impacte les conditions initiales d'une autre évolution joue sur
la reproductibilité de cette dernière, ce qui handicape encore plus la prédiction de son
résultat.

81
C'est pourquoi les phénomènes les plus complexes (ceux des êtres vivants, du
psychisme [347] de l'homme et de sa société) ont beau ne comporter au niveau
biologie moléculaire que des évolutions physiques déterministes, leurs résultats sont
en général si imprévisibles que l'homme a l'impression que la nature fait n'importe quoi.

Enfin, ce qui se passe dans l'inconscient [353] est en général imprévisible, sauf peut-
être de manière approximative pour un psychanalyste.

Approche analytique ou approche holistique ?


La discussion précédente montre qu'il est souvent impossible de prévoir l'évolution
d'une situation complexe, même si tous les paramètres de cette évolution sont
déterministes, à partir d'une connaissance de toutes ses lois d'évolution et
d'interaction : cette approche analytique est très souvent vouée à l'échec.

On peut alors abandonner cette approche analytique au profit d'une approche plus
globale, holistique. Au lieu de tenter la synthèse d'un nombre immense de
phénomènes déterministes, on regroupera ceux-ci en « macro-phénomènes » dont on
étudiera le comportement.
Exemple 1 : au lieu de s'intéresser au comportement (sans intérêt !) de chacune
des milliards de molécules de gaz d'un récipient ou même d'une seule molécule
particulière, on s'intéresse à la température et à la pression qui règnent dans ce
récipient, variables macroscopiques rendant compte des propriétés d'ensemble
des molécules du récipient.
Exemple 2 : pour prévoir le chiffre d'affaires des ventes de vêtements d'hiver en
France pour une semaine donnée en fonction de la température ressentie, on
remplace l'interview de chaque acheteur potentiel (utopique !) par la considération
d'un « acheteur français moyen » (population dont on estime le nombre), et on
remplace les températures des divers jours ouvrables par la moyenne
hebdomadaire de leurs valeurs minimales.
Exemple 3 : l'écoulement turbulent d'un fluide est trop complexe à étudier et
décrire en fonction des 4 paramètres mesurables que sont sa densité, sa vitesse,
sa viscosité cinématique et la longueur d'un obstacle. On utilise une variable sans
dimension unique qui en dépend, le nombre de Reynolds [293].

Les exemples 1 et 2 illustrent une première approche des problèmes complexes,


l'utilisation de modèles statistiques ; l'exemple 3 illustre une autre simplification, le
regroupement de paramètres.

Nous allons à présent évoquer brièvement la résolution de problèmes complexes ne


se résumant pas, comme les précédents, à prévoir par calcul un ensemble de résultats
d'évolution. Nous sortirons provisoirement du sujet des évolutions déterministes pour
raisonner le plus logiquement possible sur deux problèmes plus généraux :
 Prise de décision en vue d'un objectif dans une situation à la fois complexe et
incertaine ;
 Conduite de projets complexes.

82
La complexité limite l'applicabilité des modèles statistiques
L'économiste Prix Nobel Von Hayek distinguait deux types de domaines complexes.
 Dans les domaines « à complexité non organisée », les difficultés de
compréhension et de modélisation du comportement dues à la complexité
peuvent être contournées grâce à des variables statistiques.
C'est le cas, par exemple, en Mécanique statistique, où le comportement d'un
volume de gaz ou de liquide comportant un nombre immense de molécules
animées de mouvements d'agitation thermique (dits "browniens") peut être
modélisé statistiquement à l'aide de moyennes de variables comme la
température absolue, la pression et l'énergie d'une molécule. Les lois d'évolution
de ces variables sont déterministes. Exemple : la loi des gaz parfaits pv=nRT.
 Dans les domaines « à complexité organisée », les divers éléments d'un
système ont, en plus de propriétés individuelles et de fréquences d'apparition,
des interactions complexes et de types différents qu'on ne peut déterminer
quantitativement ou modéliser statistiquement du fait de leur complexité.
C'est le cas, par exemple, des marchés d'une économie, où interviennent de
nombreux acteurs interdépendants, et où les hypothèses économiques
traditionnelles de rationalité des acteurs et de concurrence pure et parfaite sont
loin d'être satisfaites. Dans ce cas, on ne pourra jamais connaître exhaustivement
toutes les variables décrivant les divers agents économiques et leurs interactions,
et on ne pourra donc pas – même avec un ordinateur puissant – modéliser le
marché et prévoir son évolution avec précision [301].
C'est pourquoi (Hayek a reçu un Prix Nobel d'économie pour l'avoir démontré)
l'économie communiste de l'ex-URSS n'a jamais pu avoir une planification
centralisée de la production et de la consommation qui fonctionne. L'organisme
administratif de planification (le Gosplan) n'a jamais pu connaître les détails précis
de ce qu'il était vraiment possible de produire et de transporter, ce qui était
effectivement produit, où et à quelle date, etc. Ce qu'il a pu savoir était toujours
fragmentaire et trop en retard sur la réalité. Il ne pouvait tenir compte d'aléas
climatiques locaux impactant l'agriculture ou les transports. Bref, il n'a jamais pu
disposer d'informations suffisantes pour piloter la production, le transport et la
consommation, d'où des pénuries et des gaspillages énormes.
En fait, la totalité des informations nécessaires pour déterminer l'évolution d'un
marché à partir d'une situation donnée n'est disponible que pour l'entité abstraite
qu'est le marché lui-même, pas pour un être humain ou une organisation humaine.
Et comme le comportement humain est souvent imprévisible parce que soumis à
des émotions irrationnelles et des anticipations, l'évolution d'un marché à partir
d'une situation donnée est non déterministe. Hayek a montré qu'on ne pouvait
alors établir que des lois qualitatives décrivant des relations entre variables
économiques et permettant de prévoir des tendances d'évolution ; en aucun cas
on ne pouvait prévoir le comportement d'un agent économique donné ou la
survenance d'un événement particulier comme la date d'éclatement d'une bulle
spéculative ou un effondrement boursier [301].

La rigueur des raisonnements


Il y a un autre obstacle à la prise de décisions et la conduite de projets dans le cas des
problèmes complexes : l'aptitude des hommes à raisonner correctement.

83
Exemple
Quelle politique adopter pour répondre à la crainte des Français d'une forte baisse de
leur niveau de vie ? Ils ont peur de perdre leur emploi, de gagner moins et de payer
plus d'impôts ; que doivent faire les politiciens au pouvoir ?

Certains politiciens proposent une solution simple : le déficit budgétaire, solution dite
keynésienne. D'après eux, l'Etat n'a qu'à dépenser beaucoup plus, par exemple en
augmentant les salaires des fonctionnaires et les investissements en infrastructure et
recherche. Avec plus d'argent en circulation, les dépenses des consommateurs
augmenteront, ce qui générera du travail, donc protégera du chômage et produira plus
d'impôts, permettant ainsi de payer les dépenses supplémentaires.

C'est ce qu'a fait le gouvernement d'union de la gauche du Premier ministre Pierre


Mauroy en 1981-82, avec un résultat catastrophique : en quelques mois les caisses
pleines de l'Etat ont été vidées, le déficit du commerce extérieur a explosé, et la France
a dû adopter une politique de rigueur sévère avec Jacques Delors. Il y a eu trois
dévaluations successives, dont deux en moins d'un an ! La consommation des
Français avait tellement augmenté que la production intérieure n'a pas pu suivre, ce
qui a fait exploser les importations, d'où un déficit extérieur qu'il a fallu compenser par
des dévaluations du franc. Celles-ci, à leur tour, ont fait exploser les prix des
importations, donc les prix intérieurs. D'où une baisse du niveau de vie après quelques
mois d'euphorie, et une croissance sans précédent du chômage. Et comme le déficit
budgétaire exige en général des emprunts, la dette nationale a augmenté, obligeant la
génération suivante à la rembourser et à payer des intérêts.

Ce triste exemple historique illustre une vérité très générale : lorsqu'un problème (ici
la croissance économique) a beaucoup de variables interdépendantes, toute solution
simple agissant sur une seule variable est inefficace. L'approche simpliste est en
général préconisée par des politiciens esclaves de leur idéologie, incompétents ou
démagogues, notamment parce qu'elle est facile à expliquer aux électeurs.

Une méthode de résolution de problèmes complexes


Le principe d'une bonne approche a été décrit par René Descartes en 1637 dans le
"Discours de la méthode pour bien conduire sa raison". Il nous suffit de réfléchir à ses
préceptes [4] pour les présenter ici d'une manière adaptée à nos problèmes actuels.

1er précepte
Ne considérer comme vrai que ce dont on est sûr, dit Descartes. La notion moderne
de vérité scientifique a été définie par Karl Popper, et les limites des raisonnements
déductifs (axiomatiques [67]) par Gödel et quelques autres logiciens du XXe siècle [6].
En simplifiant beaucoup :
 La vérité d'une affirmation n'est pas « son accord avec les faits ». C'est le fait
qu'aucun spécialiste ne puisse démontrer qu'elle est fausse ou incomplète, ni
logiquement ni expérimentalement – alors qu'elle est falsifiable [203] ; on ne
démontre donc pas la vérité, on a un consensus de non-fausseté. Et l'affirmation
reste vraie provisoirement, jusqu'à ce qu'on trouve une raison incontestable de la
remplacer ou de la compléter.

84
 Un raisonnement déductif se fait toujours sur la base d'hypothèses admises, les
axiomes. Il est impossible de vérifier la cohérence (non-contradiction) ou la
vraisemblance (sémantique) d'un système d'axiomes (axiomatique) en tant que
conséquence de ces axiomes.
Dans toute axiomatique on peut faire des affirmations (propositions) dont la
véracité ou la fausseté sont indémontrables (propositions dites indécidables). Au
sens du déterminisme, de telles propositions sans justification algorithmique n'ont
pas de cause identifiable, donc pas d'origine logique. Si on découvre dans l'esprit
d'un homme une telle proposition (ce qui arrive, voir l'important complément [92]
et aussi [141]) on peut qualifier sa présence dans le psychisme [347] de non
déterministe ; elle résulte souvent de l'inconscient, notamment d'une intuition.

Descartes recommande aussi "d’éviter soigneusement la précipitation et la


prévention", c'est-à-dire les raisonnements sous l'empire d'une forte émotion ou basés
sur des a priori discutables ; ce conseil est toujours d'actualité.

2e précepte
Ce précepte a été interprété à tort comme recommandant de décomposer un problème
au maximum, en parcelles (sous-problèmes) aussi petites que possible, au prétexte
que plus un sous-problème est petit plus il est simple à résoudre. Ce n'est pas ce que
Descartes veut dire. En écrivant : "et qu'il serait requis pour les mieux résoudre", il
recommande de choisir la décomposition « qui marche le mieux », une décomposition
qui peut éventuellement comprendre des sous-problèmes assez complexes pour être
résolus de manière holistique, lorsqu'on sait les résoudre ainsi.
Une des approches holistiques est l'utilisation de modèles, par exemple
statistiques, lorsque c'est possible, c'est-à-dire lorsqu'un modèle mathématique de la
situation présente et/ou passée est assez stable et précis pour qu'on puisse s'en servir
pour généraliser à toute la population et prévoir l'avenir. Ce n'est pas souvent le cas
pour un problème de cours de bourse, par exemple, car on ne peut prévoir les
comportements moutonniers ou émotifs des intervenants, les événements politiques
susceptibles de changer des perspectives d'évolution de cours, etc.

Décomposer un problème implique de faire d'abord une liste de ses sous-problèmes,


en précisant pour chacun sa manière d'intervenir dans le problème de niveau supérieur
et sa manière d'interagir avec d'autres sous-problèmes. Le seul fait de constituer cette
liste empêche de se précipiter et de recommander la première solution qui vient à
l'esprit, solution d'un seul sous-problème donc solution inadéquate si le problème est
complexe.

Dans la manière d'intervenir il faut, en pratique, indiquer les influences de deux


paramètres importants de nos jours : la durée nécessaire ou délai alloué, et le budget
disponible ou le coût prévisible.

On décrit l'interaction avec d'autres sous-problèmes en indiquant le sens des


implications : "entraîne", "est conséquence de" ou les deux. On décrit aussi les
contraintes d'ordre : pour commencer à résoudre le sous-problème S, il faut déjà avoir
résolu les sous-problèmes S1, S2, etc. On construit donc un diagramme où chaque
décision, tâche ou étape est représentée par un cercle et ses liens avec les
précédentes et suivantes par des lignes indiquant les contraintes de fin, de délai, etc.
Exemple : méthode Mesange de l'INSEE [315]. Lorsque ce diagramme est de type

85
P.E.R.T. [310] on peut connaître l'enchaînement d'étapes constituant un « chemin
critique » au sens délai ou coût.

Cette approche permet de résoudre au moins qualitativement les problèmes ou parties


de problèmes "à complexité organisée" au sens de Hayek, lorsqu'il est possible
d'identifier les sous-problèmes et leurs interactions.
Qu'on ait pu ou non identifier et préciser suffisamment certains sous-problèmes
ou interactions, on documente pour chaque sous-problème ou étape les risques de
non-résolution ou échec : qu'est-ce qui peut empêcher une bonne prédiction de
résultat ou une bonne résolution du problème, une résolution respectant délai et
budget ? ; Quels paramètres, quelles contraintes pourraient éventuellement intervenir
pour un sous-problème donné ? Peut-on évaluer la probabilité d'un échec, d'un surcoût
ou d'un dépassement de délai ?

3e précepte
Descartes recommande de résoudre les sous-problèmes un par un, parce que c'est
plus facile et plus clair, en commençant par les problèmes les plus simples à résoudre.
Chaque fois que tous les sous-problèmes d'un problème de niveau supérieur sont
résolus, on travaille à résoudre ce dernier en tenant compte des interactions. On
procède ainsi à des intégrations (synthèses) successives.
Il faut, chaque fois qu'on a résolu un sous-problème, vérifier la stabilité de sa
solution par rapport aux contraintes et risques connus, pour ne pas considérer cette
solution comme certaine et sans risque, notamment en ce qui concerne les délais et
les coûts.

Cette méthode est très utilisée en génie logiciel, où on procède aux tests de chaque
module logiciel avant de l'intégrer avec d'autres dans un module englobant, que l'on
testera à son tour. Dans certaines applications, après les tests logiques (l'algorithme
fait-il ce qu'on en attend dans tous les cas du cahier des charges ?), on procède aux
tests de résistance aux cas aberrants (au lieu de s'effondrer, le programme sait-il se
défendre contre des données d'entrée absurdes ou des situations aberrantes en
fournissant des réponses qui restent maîtrisées ?) et enfin aux tests de performance
(débit transactionnel) et temps de réponse. Enfin, on finalise la documentation du
logiciel (cahier des charges, mode d'emploi, organisation en modules et modèles de
données pour la maintenance, tests et résultats, délai et coût de réalisation).
Lorsqu'un problème est tel que certains paramètres, interactions et risques sont
inconnus ou incertains, il vaut mieux commencer sa résolution en étudiant les chances
d'aboutir : qu'est-ce qui permet d'espérer qu'on trouvera une solution satisfaisante ?
Que peut-il se passer si on n'en trouve pas ?
On construit ensuite le diagramme d'enchaînement des tâches de la résolution du
problème, pour déterminer les chemins critiques de difficulté, de risque, de coût, de
délai ; contrairement à ce que Descartes recommande, on ne commence pas par les
sous-problèmes les plus simples tant qu'on ne s'est pas assuré qu'on a une chance
d'aboutir.

4e précepte
Descartes recommande de vérifier qu'on n'a rien oublié. Il faut aussi vérifier qu'on ne
s'est pas trompé (tests logiques ci-dessus), que la solution résiste à des évolutions
imprévues mais possibles du cahier des charges (tests de résistance ci-dessus), que
les contraintes de coût et budget ont des chances d'être respectées.

86
Il est prudent, aussi, de progresser par étapes. Lorsque la solution d'un sous-
problème, mise en œuvre isolément, est possible et bénéfique, on peut la mettre en
œuvre sans attendre la solution d'ensemble. On vérifiera ainsi qu'elle est valable, et
on profitera de ses résultats avant que tout le problème initial soit résolu ; souvent
même, l'expérience de son utilisation entraînera une évolution de l'énoncé du
problème plus complexe dont elle fait partie, qu'il était donc urgent de ne pas résoudre
dans l'état initial de son cahier des charges.
Mon expérience d'informaticien m'a appris que de nombreuses applications
informatiques géantes, par exemple à l'échelle de toute l'armée de terre ou de toute
l'administration des impôts, ont échoué si gravement qu'elles ont été abandonnées
après investissement de millions d'euros. Elles ont été remplacées par des sous-
applications plus simples, moins ambitieuses, moins intégrées, mais qu'on a su
réaliser en respectant la qualité, (et parfois !) le délai et le budget.

Compléments sur la complexité : [369].

3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire


L'esprit humain a une curiosité qui lui fait souvent poser des questions auxquelles la
nature n'a pas de réponse. Nous avons déjà vu l'exemple de la décomposition
radioactive, où on ne pouvait savoir quel atome se décomposerait le premier et quand.
Il y a aussi le phénomène de décohérence de la physique quantique, où l'interaction
d'une superposition d'états quantiques avec l'environnement macroscopique choisit
une des solutions superposées de manière imprévisible. Il y a également le
phénomène des fluctuations quantiques, les mouvements chaotiques des astres, etc.

Dans tous ces cas, la loi d'évolution que la nature applique ne peut fournir la précision
que nous voudrions. La loi de décomposition radioactive ne s'applique pas à un atome,
mais à une population où chaque atome a une probabilité de se décomposer en un
intervalle de temps donné : on ne peut lui faire dire quelque chose pour un atome.

Il y a aussi les lois de l'espace-temps de la Relativité générale, où l'ordre de


survenance de deux événements A et B peut être différent pour deux observateurs
différents : impossible de faire dire à la nature quel événement est le absolument le
premier.

Il y a aussi l'intrication, où deux photons pourtant distants de plusieurs kilomètres,


cèdent leur énergie et disparaissent ensemble, au mépris de la limitation de vitesse
d'une propagation de conséquence à celle de la lumière, car il n'y a rien à propager
les deux photons formant un tout, à énergie et information communes. Un éventuel
désir de connaître l'existence d'un des deux sans impacter l'autre ne peut être satisfait.

Il y a encore le principe d'incertitude de Heisenberg, etc.

Toutes ces impossibilités de savoir ce que nous voulons, ces obligations de savoir
seulement ce que la nature veut bien nous dire, ne mettent pas en cause le
déterminisme : chaque cause a bien sa (ou ses) lois-conséquence(s), que la nature
applique toujours et sans délai, mais c'est à l'homme d'accepter de la connaître sous
les formes qu'elle a, pas sous celles que nous voudrions qu'elle ait.
Ainsi, comme nous ne pourrons jamais voir une particule de l'échelle atomique,
nous devons nous contenter de la connaître par l'intermédiaire d'équations qui en

87
décrivent les propriétés, notamment de l'équation de Schrödinger qui en décrit
l'évolution dans le temps et l'espace. Nous devons renoncer à savoir, à un instant
donné, la position et la vitesse de la particule, dont nous n'aurons jamais que des
probabilités ou des densités de probabilité, c'est-à-dire une vision floue.

Nous devons aussi comprendre qu'une particule peut se trouver à une infinité
d'endroits à la fois, un volume donné autour d'un endroit donné ayant alors une
certaine probabilité de présence. Une particule peut aussi parcourir une infinité de
trajectoires à la fois. Toutes ces réalités ne font intervenir aucun hasard, mais des
distributions de probabilités - ce qui n'est pas la même chose.

3.1.7 Déterminisme statistique de l'échelle macroscopique


Les résultats d'évolution de certains phénomènes déterministes ne peuvent être
décrits correctement que de manière statistique portant sur toute une population de
particules microscopiques, pas par des informations sur une particule individuelle.
Exemples :
 Lorsque des atomes d'un corps naturellement radioactif se décomposent, on
peut prédire quel pourcentage se décomposera par unité de temps, mais pas de
quels atomes précis il s'agira. Le phénomène de radioactivité est abordé plus
loin.
 Le mouvement d'une molécule donnée d'un gaz qui en a des milliards de
milliards dans les quelques cm3 d'une petite enceinte ne peut être prédit du fait
d'incertitudes décrites plus bas, comme du fait de sa complexité. Mais le
comportement de la totalité du gaz de l'enceinte peut être prédit de manière
précise par la Mécanique statistique, dans le cadre des lois de la
thermodynamique [25].
 Le déterminisme portant sur toute une population de milliards de molécules qui
oscillent de manière synchrone dans une réaction chimique réversible.

Nous verrons aussi un cas très important de déterminisme statistique, celui de l'état
des systèmes à l'échelle atomique dans Déterminisme statistique : lois d'évolution
stochastiques.

3.1.8 Ensemble de définition d'une loi déterministe

3.1.8.1 Structure
Une structure est un agencement d'un ensemble construit d'éléments qui en fait un
tout cohérent à qui nous associons un nom. Elle a des relations :
 propriétés statiques, qui décrivent les règles d'assemblage de ses éléments ;
 propriétés dynamiques qui décrivent leur comportement d'ensemble.

Comme toute abstraction a priori (construite sans référence à une réalité) une structure
est éternelle : elle n'a pas été créée physiquement et ne peut disparaitre, c'est une
Idée au sens de Platon ; et elle peut exister même sans homme pour l'imaginer.

Une structure est aussi une classe d'ensembles munis des mêmes lois de définition et
de mise en relation (isomorphes) ; l'étude de certains problèmes relatifs à un ensemble

88
d'une classe donnée peut alors être remplacée par une étude sur un autre ensemble
de cette classe, si cette dernière est plus simple.
Une classe existe indépendamment du nombre de ses réalisations physiques, car
elle est définie par des propriétés dont l'existence ne peut faire partie. Le même
ensemble de propriétés peut décrire 0, 1, 2… ou une infinité d'objets physiques qui les
partagent ; ce n'est pas parce que j'imagine une classe des anges qu'il y en a.

1er exemple physique


Un atome d'hydrogène est une structure comprenant un noyau (proton) et un électron.
 Parmi les propriétés statiques d'un tel atome on peut citer la structure en
couches de niveaux d'énergie potentielle : on ne peut le trouver sous forme
d'atome d'hydrogène qu'à des niveaux d'énergie précis.
 Parmi les propriétés dynamiques de cet atome on peut citer l'aptitude de deux
d'entre eux à se grouper sous forme de molécule d'hydrogène en dégageant une
énergie de 4.45 eV (électrons-volts, 1 eV = 1.6 .10-19 joule).

Les propriétés (statiques ou dynamiques) d'une structure sont en général plus riches
que la réunion de celles de ses éléments, dont on ne peut les déduire.
On ne peut déduire des propriétés réunies du proton et de l'électron ni la possibilité
de lier deux atomes d'hydrogène en molécule, ni l'énergie dégagée. La Mécanique
quantique décrit les propriétés stationnaires et dynamiques de l'atome et de la
molécule d'hydrogène dans un champ électrique.

2e exemple physique : assemblage d'atomes en quasi-cristaux.

Exemples mathématiques
Une structure mathématique est un ensemble d'éléments muni d'une ou plusieurs lois
de définition et souvent aussi de lois de mise en relation. Exemples :
 L'ensemble des solides réguliers, qui n'a que 5 éléments : le tétraèdre, le cube,
l'octogone, le décaèdre et l'icosaèdre.
 Lois de définition d'un tel solide : les faces sont identiques ; ce sont des
polygones réguliers faisant entre arêtes des angles égaux ;
 Lois de mise en relation : les faces ont même nombre de côtés, les sommets
ont le même nombre d'arêtes, les angles sont égaux.
 L'ensemble des entiers positifs, nul ou négatifs {…-3, -2, -1, 0, 1, 2, 3, ….} est
muni de 2 relations :
 Une loi d'addition, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 0 et d'un
élément opposé de chaque entier.
 Une loi de multiplication, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 1 et
distributive par rapport à l'addition.

Une structure mathématique est indépendante de règles de représentation : elle reste


la même quelles que soient les manières de représenter les éléments de l'ensemble
et les lois de définition ; c'est un être universel. Exemple de structure : nombre entier.

89
Richesse d'une structure en informations
Parce qu'elle a un comportement d'ensemble, une structure est décrite par plus
d'informations que ses éléments considérés séparément. Ce supplément
d'informations décrit des relations : interactions des éléments de la structure entre eux
et interactions de l'ensemble de la structure avec l'extérieur. Chaque définition
d'interaction peut exiger une description en langage ordinaire et un énoncé
d'algorithme ou d'équations. Exemple :
A partir de couples d'éléments de l'ensemble des entiers naturels auquel on a
ajouté une loi de division (sauf par 0) on peut définir l'ensemble des fractions
rationnelles. Cet ensemble est plus riche (il a plus d'éléments et permet plus
d'opérations) que celui des entiers naturels, car on a ajouté à ce dernier la
structure apportée par la loi de division.

On peut résumer l'existence du supplément d'informations dû aux relations


(interactions internes et externes) d'une structure par :

« Le tout est plus riche que la somme des parties ».

On peut représenter les relations internes définissant une structure par un graphe dont
les sommets sont les éléments de l'ensemble et chaque arc entre deux sommets décrit
une relation interne avec son (ses) sens.

A
X
U

E D C

Les relations externes entre ensembles peuvent être représentées par des arcs reliant
des boîtes.

Dir. France

Dir. Export sous-traitance Atelier 6

Propriétés internes et propriétés dynamiques externes


Les propriétés statiques (d'assemblage) d'une structure ne permettent pas, à elles
seules, d'en déduire les propriétés dynamiques externes.

90
Le dessin d'un moteur de voiture ne permet d'en déduire ni la puissance maximum,
ni les courbes de couple et de consommation en fonction du régime. Ces
propriétés de fonctionnement dépendent de lois mécaniques et
thermodynamiques absentes du dessin, même si la conception du moteur en a
tenu compte.

On ne peut donc réduire le comportement d'une structure en tant qu'ensemble, par


rapport à son environnement, à des propriétés statiques et dynamiques de ses
éléments, bien qu'il en dépende. L'assemblage en structure ajoute de l'information.

Concepts fondamentaux et principes de logique


Certains concepts a priori figurent dans toute représentation de la réalité comme dans
nombre d'abstractions humaines comme les structures. Exemples : le nombre entier,
la ligne droite, l'espace et le temps. Comme on ne peut les définir à partir de concepts
qui nous paraissent plus simples, nous les considérons comme fondamentaux. Nous
pensons que même des êtres différents, dans une autre galaxie, les utiliseraient aussi.
Ce sont des bases à partir desquelles nous définissons des concepts secondaires
comme la fraction rationnelle et la vitesse.

Notre pensée rationnelle repose aussi sur des règles de manipulation des
propositions, qui nous paraissent tout aussi fondamentales, universelles (voir
Principes de logique). Elle repose également sur des règles fondamentales de calcul
comme 2 + 2 = 4 et des règles de logique formelle pour définir et manipuler des
ensembles, comme l'appartenance, la comparaison et l'ordre d'apparition.

3.1.8.2 Ensemble de définition d'une loi déterministe


Une loi déterministe est définie pour un certain ensemble de situations initiales, dont
elle décrit l'évolution. Ne pas confondre une situation initiale (état physique) et
l'ensemble de définition de la loi au sens mathématique, qui regroupe les situations à
partir desquelles la loi (ou la fonction qui la représente) est définie.
Exemple : une fonction d'onde (r, t) a pour ensemble de définition un espace
vectoriel de fonctions [127] dit "de Hilbert" et pour résultat un nombre complexe.

Considérons un système E, réunion de plusieurs sous-systèmes a, b, c, etc., chacun


muni de sa propre loi d'évolution. En général on ne peut pas déduire la loi d'évolution
de E de celles de a, b, c, etc., parce que leur regroupement en structure E apporte des
propriétés supplémentaires d'interaction irréductibles à celles de a, b, c, etc.
Ainsi, un gène humain est une longue chaîne de bases (molécules) dont il n'existe
que 4 types : A, C, G et T. Chacune de ces bases a ses propriétés, mais les
propriétés d'un gène sont bien plus riches : elles sont définies par des suites de
bases définissant des programmes de génération de milliers de protéines par la
machinerie cellulaire. Et celle-ci prend en compte, en général, plusieurs gènes à
la fois.

Il est impossible de déduire de l'ensemble des propriétés des 4 bases ci-dessus celles
du génome humain : par sa structure en chaînes de bases, celui-ci constitue un
programme très riche qui régit les mécanismes cellulaires. Le fonctionnement de
chacun de ces mécanismes résulte de l'ordre des bases d'une chaîne particulière,

91
comme GAAGACT… Le déterminisme d'un tel mécanisme agit au niveau de sa chaîne
entière, constituant son ensemble de définition, pas au niveau d'une base.

3.1.8.3 Une erreur de certains philosophes


Certains philosophes ont oublié l'enrichissement en propriétés d'un objet dû à sa
structure : ils ont essayé de déduire directement les propriétés d'ensemble de l'objet
de celles de ses parties, évidemment sans réussir.

Certains ont ainsi affirmé que le matérialisme était incapable d'expliquer les propriétés
d'un être vivant à partir de celles des molécules de ses cellules, donc que la vie était
« quelque chose de plus ». Raisonnement non probant : comme l'explique [339], la
pensée et la conscience de l'homme résultent de l'interprétation psychique d'états de
ses neurones à un instant donné - et seulement de cette interprétation. La conscience
est la manière dont notre cerveau perçoit son propre fonctionnement. Les mécanismes
psychiques ne se déduisent pas des seuls mécanismes électrochimiques des
neurones, leur description exige en plus des mécanismes élémentaires psychiques.

Le matérialisme n'a qu'un seul rapport avec cette démarche : il exclut les explications
magiques, basées sur des concepts fumeux comme « l'esprit » ou « l'âme ». Et sa
conséquence en matière d'évolution physique, le déterminisme, n'entraîne pas la
prédictibilité, ne serait-ce qu'à cause des mécanismes cachés de l'inconscient. [353]

3.1.9 Hasard

3.1.9.1 Le hasard dans l'évolution selon une loi de la nature


Par manque de rigueur, beaucoup de gens opposent évolution déterministe (qu'ils
considèrent à tort comme toujours prédictible) et évolution au hasard (considérée
comme toujours imprédictible). En précisant la notion de déterminisme scientifique
nous avons vu que le résultat d'une évolution déterministe n'est pas toujours
prédictible. Nous allons maintenant préciser la notion de hasard.

On ne doit pas attribuer au hasard une évolution naturelle sous le seul prétexte que
personne ne sait la décrire ou la prédire : on risquerait d'attribuer à la nature un hasard
résultant de l'ignorance humaine. Si elle existe, une évolution naturelle au hasard est
une caractéristique objective (indépendante de l'homme) et dont l'imprédictibilité est
soit démontrée, soit explicitement postulée pour des raisons scientifiques.

Remarque : hasard ou pas, la nature ne peut violer ses propres lois, par exemple de
conservation de l'énergie, de la charge électrique, du moment cinétique, de la quantité
d'information en Mécanique quantique, etc.

Nous considérons comme aléatoires des suites de nombres ou de chiffres dont on ne


peut calculer un élément avec un algorithme, directement ou connaissant un nombre,
fini ou non, d'autres éléments ; cette propriété s'appelle absence de régularité.
Selon cette définition, la suite des décimales successives de Pi n'est pas aléatoire
car Pi est calculable, bien qu'on ne lui connaisse aucune régularité.

Les éléments d'un ensemble (de nombres, de chiffres ou d'éléments quelconques) qui
ont la même probabilité d'apparaître dans un certain tirage ne sont pas

92
nécessairement distribués au hasard : cette égale probabilité n'entraîne pas
nécessairement l'inexistence d'un algorithme de calcul.
 Exemple : dans la suite périodique de décimales successives de
22/7 = 3.142857142857142857…, chacun des chiffres 1 ; 4 ; 2 ; 8 ; 5; 7
apparaît le même nombre fois, chacun des "nombres" 142857 aussi, etc.
Pourtant, l'écriture décimale de cette fraction n'est pas aléatoire, car elle est
calculable.

J'observe que l'opinion courante sur le caractère aléatoire diffère selon les
circonstances :
 Nous attendons d'un dé, d'une roulette de casino et d'une machine à boules de
tirage de loto qu'ils produisent, dans un tirage, des nombres équiprobables.
 Nous pensons que la distribution des résultats d'une même expérience entachés
d'erreurs expérimentales répartit ces résultats selon la loi de Gauss, appelée
d'ailleurs aussi loi normale [28]. Dans d'autres cas, nous nous attendons à des
distributions selon d'autres lois statistiques, comme la loi de Poisson ou la loi
binomiale…

Il n'existe pas d'algorithme capable de générer une suite de nombres dont le caractère
aléatoire soit certain : un tel caractère devra toujours être postulé.
Il y a des algorithmes de génération de suites de nombres dites « aléatoires »,
qu'un observateur trouve imprévisibles mais qui ne le sont pas puisqu'ils sont
calculables ; on peut seulement, pour certains de ces logiciels, choisir le premier
nombre de la suite.

3.1.9.2 Prédictibilité statistique d'une évolution


Par définition, une évolution a une prédictibilité statistique si ses résultats sont
distribués selon une loi statistique ; une même expérience renouvelée plusieurs fois
peut alors donner des résultats qui diffèrent. Sa loi d'évolution est gouvernée par un
déterminisme scientifique où c'est l'ensemble des résultats possibles qui est
prédéterminé par les conditions de l'expérience, non un résultat particulier.

Lors d'une telle évolution la nature refuse le résultat unique auquel l'homme s'attend ;
c'est l'ensemble auquel ce résultat appartient qui est unique et prédéterminé, chaque
expérience ayant un résultat appartenant à cet ensemble ; en outre, lors d'expériences
renouvelées, les résultats sont distribués selon une loi de probabilité elle-même
prédéterminée. On ne parle pas, alors, de résultat au hasard car il ne peut être
quelconque, totalement imprévisible ; on parle de déterminisme statistique car le choix
de résultat dans l'ensemble prédéterminé est entaché de hasard.

Exemple de déterminisme statistique : en Mécanique quantique les évolutions


dans le temps et l'espace sont régies par l'équation de Schrödinger. Les résultats
d'un phénomène comme la décohérence (les observables [30]) sont
nécessairement les éléments d'un ensemble de valeurs propres [278]
prédéterminées, parmi lesquels la nature choisit celui que l'on constatera.

Nous rappelons plus bas qu'en dehors du déterminisme statistique la nature n'a pas
d'évolution entachée de hasard.

93
Voyons à présent les définitions du hasard autres que le déterminisme statistique.

3.1.9.3 Définition de René Thom


Le mathématicien René Thom a défini le hasard dans [226] comme suit :
"Est aléatoire un processus qui ne peut être simulé par aucun mécanisme, ni
décrit par aucun formalisme".

René Thom qualifie donc d'aléatoire tout processus non modélisable par un algorithme
de calcul. Selon cette définition, la suite des décimales d'un nombre irrationnel – que
l'on sait générer par algorithme – n'est pas aléatoire, bien qu'elle n'ait aucune régularité
connue ; l'irrégularité n'est donc pas un critère suffisant de hasard. En complément,
voir la définition des nombres normaux de Borel [98].

Nous considérons comme aléatoires (constituant un hasard à résultats équiprobables)


les tirages du jeu de loto générés par une machine qui agite des boules. René Thom
considèrerait-il une telle machine comme un mécanisme, donc ses tirages comme non
aléatoires ? Leur caractère aléatoire vient de la complexité de ses processus, où
chaque boule subit de nombreux chocs, trop nombreux pour que l'on puisse prédire si
elle sortira ou non ; ce caractère aléatoire résulte donc de l'imprévisibilité par
complexité, sujet que nous avons abordé ci-dessus ; ce n'est pas un hasard démontré.

3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes - Hasard


par ignorance
Deux chaînes de causalité déterministes issues d'origines indépendantes peuvent se
rencontrer, créant alors une situation nouvelle qui n'était prévisible dans le
déroulement d'aucune des deux chaînes prise isolément.
Exemple : un jour de tempête, une tuile tombe d'un toit au moment précis où un
homme passait par là et elle le blesse. Si on considère la chaîne de causalité
tempête-tuile indépendante de celle de l'homme, leur rencontre est imprévisible.

Une personne qui n'avait pas prévu cette rencontre peut l'attribuer à tort au hasard.
Mais une définition plus large du système, prenant en compte l'ensemble des deux
phénomènes, élimine le hasard : à l'origine, toutes les conditions étaient réunies pour
que la tuile blesse l'homme. L'étonnement ou la rareté d'un phénomène ne justifient
pas qu'on attribue au hasard le résultat global de processus qui respectent tous les
lois déterministes de la nature (la seule loi naturelle où il se produit une évolution
comprenant une part de hasard statistique est la décohérence, phénomène de
Mécanique quantique relevant d'une prédictibilité statistique).

Cet exemple montre qu'une prévision basée sur le déterminisme doit prendre en
compte tous les paramètres susceptibles d'intervenir dans l'évolution à prévoir.
Refuser de prendre en compte la situation d'ensemble, c'est se complaire dans
l'ignorance et accepter le risque de prédictions fausses.

J'ai vu beaucoup de cas où des gens attribuaient au hasard un phénomène qu'ils ne


comprenaient pas ou n'avaient pas prévu, pour pouvoir d'abord expliquer pourquoi ils
n'avaient pu le comprendre et trouver ensuite une raison de ne pas chercher une
explication ; ce cas fréquent d'attribution au hasard est un « hasard par ignorance ».

94
3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes
Si nous admettons, comme les astrophysiciens, que l'Univers est né et a commencé
son expansion à partir d'une région très petite où les atomes n'étaient pas encore
formés, il n'y avait en cet instant-là qu'une situation unique, cause première [16] de
toute l'histoire ultérieure de l'Univers [313]. Toutes les évolutions physiques ont
commencé à ce moment-là. L'Univers a donc une unité d'existence, de structure
(homogène et isotrope) et d'évolution conforme aux lois physiques, depuis cet instant-
là. Si notre pensée y distingue, à un autre moment, des situations partielles séparées,
celles-ci sont pures abstractions humaines, conséquences déterministes (au sens
déterminisme étendu) d'une même cause première, la « naissance » qui a précédé
d'environ 10-37 s l'inflation, elle-même suivie du Big Bang et d'une expansion qui dure
toujours [313].

Des chaînes de causalité particulières, issues de situations partielles par évolutions


déterministes, ne peuvent être indépendantes puisqu'elles ont même origine. C'est
notre esprit qui les considère parfois comme indépendantes, pour permettre ou
simplifier certains raisonnements.

Voir aussi le paragraphe "Restriction du postulat de causalité".

3.1.9.4.2 Rencontre imprévisible de chaînes de causalité distinctes


En considérant arbitrairement comme distinctes deux situations S 1 et S2 à des instants
qui précèdent l'instant actuel t, l'évolution ultérieure de chacune de ces situations est
une chaîne de situations reliées par des évolutions.

Deux cas d'évolution imprévisible


 La Mécanique quantique enseigne qu'il y a une possibilité de multiples
évolutions simultanées à partir d'une situation donnée, évolutions produisant une
superposition quantique qui s'achève par une décohérence ; celle-ci peut se
produire avec un résultat (choix d'un élément de l'ensemble déterministe des
valeurs propres [278] du dispositif qui évolue) imprévisible : en toute rigueur,
l'évolution à partir d'une situation donnée n'est pas une chaîne, elle est :
 Soit une arborescence dont toutes les branches sont parcourues en même
temps, possibilité démontrée en Mécanique quantique ;
 Soit, lors d'une décohérence, un seul résultat (valeur propre [278]) choisi au
hasard par la nature ; nous pouvons prédire qu'il y aura une décohérence et
l'ensemble de ses résultats possibles, mais nous ne pouvons prédire celui
que nous observerons.
 Il peut aussi se produire qu'une évolution ait un point de départ si sensible aux
conditions de l'instant initial t0 que, malgré son déterminisme parfait, son résultat
à l'instant ultérieur t qui nous intéresse soit imprévisible. Ce résultat peut aussi
être trop imprécis à l'instant t, même si nous essayons de le calculer connaissant
la manière dont l'évolution a débuté pendant sa première fraction de seconde.
Nous verrons cela en parlant de chaos déterministe. Le résultat d'une évolution
chaotique est imprévisible comme celui d'une décohérence, mais pour des
raisons différentes : hasard statistique dans le cas de la décohérence, calcul et
mesures imprécis dans le cas de la sensibilité aux conditions initiales.

95
L'existence de ces deux cas d'évolution imprévisible entraîne l'impossibilité de prévoir
le résultat de la rencontre de deux arborescences de causalité qui contiennent au
moins une évolution imprévisible. Mais il faut savoir qu'à l'échelle macroscopique on
n'observe pas de décohérence parce qu'on n'observe pas de superposition quantique.
A cette échelle, donc, les seules rencontres imprévisibles de chaînes de causalité
considérées ensemble sont celles où l'une au moins a subi une évolution chaotique.
Et comme ce type d'évolution ne doit rien au hasard (son imprédictibilité est due à une
impossibilité de mesurer et calculer avec une précision infinie, pas à un choix aléatoire
de la nature), on peut dire qu'à l'échelle macroscopique il n'y a pas de rencontre de
chaînes de causalité qui soit entachée de hasard, même quand son résultat est
imprévisible : le déterminisme scientifique est respecté.

3.1.9.5 Définition par la quantité d'information


On peut aussi définir comme aléatoire un nombre dont l'écriture est plus concise (en
nombre de signes ou de bits, par exemple) que le texte de tout algorithme capable de
le générer ; un tel nombre a donc une écriture incompressible par algorithme. En
admettant qu'il est absurde d'écrire en un langage informatique un algorithme plus long
que le nombre que son exécution générerait, il n'existe pas d'algorithme intéressant
capable de générer un nombre aléatoire, ce qui justifie la définition de René Thom.

Le problème de cette définition est d'ordre pratique : étant donné un nombre et un


algorithme qui le génère, comment être certain que cet algorithme est le plus concis ?
C'est impossible ! La définition ci-dessus n'a qu'un intérêt théorique.

A part le cas, n'apparaissant qu'en Mécanique quantique, où il est régi par un modèle
statistique, le hasard qui gouverne une évolution ne peut être défini que de manière
négative : le caractère imprévisible qu'il implique ne peut être défini que par une
impossibilité de déduction ou de caractérisation algorithmique.

3.1.9.6 Des suites ou des ensembles de nombres sont-ils aléatoires ?


On ne peut le savoir :
 Il n'existe pas d'algorithme capable, étant donné un nombre, de déterminer si on
peut ou non générer sa suite de chiffres par un programme plus concis que lui.
On peut malgré tout chercher s'il est absolument normal au sens de Borel [98].
 Il n'existe pas, non plus, d'algorithme capable de déterminer si une suite donnée
de nombres est aléatoire. On peut en étudier le spectre de Fourier et le
coefficient d'autocorrélation, mais cela ne donnera qu'une idée d'éventuelles
périodicités, pas une preuve rigoureuse d'origine aléatoire ou non.
 Enfin, étant donné un ensemble de n-uples de nombres, on peut étudier leur
éventuelle conformité à un modèle statistique, mais sans jamais avoir de
certitude : un tel modèle est toujours probable (avec une probabilité calculée
pour chacun de ses paramètres), jamais certain.

3.1.9.7 Hasard postulé et hasard prouvé


Le déroulement ou le résultat d'une évolution régie par une loi physique de la nature
ne peut logiquement être entaché que de deux sortes de hasard, le hasard postulé et
le hasard prouvé. Voyons comment reconnaître chacune de ces sortes de hasard.

96
Le hasard postulé
Il y a hasard postulé lorsqu'il existe un consensus de la communauté scientifique
postulant le caractère imprévisible du choix de l'élément, et où il n'existe pas de contre-
exemple prouvant que ce choix peut être prédit.

C'est ainsi que tous les physiciens postulent un choix au hasard d'une valeur propre
[278] d'opérateur dans chaque évolution de physique quantique par décohérence : ils
admettent alors les postulats 3 et 4 de la Mécanique quantique. A ma connaissance,
il n'y a pas en physique d'autre cas d'évolution où la communauté scientifique postule
un choix au hasard de résultat.

L'évolution par décohérence n'existe que dans des expériences de physique quantique
[325]. C'est un cas intéressant (dit « de déterminisme statistique » ou « à prédictibilité
statistique ») où le résultat, une valeur propre, fait partie d'un ensemble dont tous les
éléments sont prédictibles au départ de l'expérience, chacun avec une probabilité
connue. La prédictibilité du résultat est alors limitée à cet ensemble, la nature refusant
de choisir un résultat unique tant que l'évolution n'a pas détruit la cohérence, comme
le fait une mesure, nécessairement brutale et irréversible.
Un autre phénomène de physique quantique, l'effet tunnel, produit des
comportements analogues à la décohérence en permettant le choix au hasard
d'une valeur propre [278] parmi un ensemble de valeurs propres possibles,
correspondant à des états d'énergie entre lesquels un corpuscule peut passer,
osciller où simplement se trouver simultanément, chaque état avec sa probabilité.
Dans cet exposé nous rattachons l'effet tunnel à la décohérence parce qu'il
conduit au même type de choix au hasard, au même déterminisme statistique.

Ne connaissant pas d'autre cas où on a postulé qu'une évolution naturelle produit un


résultat au hasard, je dois supposer que c'est le seul jusqu'à preuve du contraire.

Le hasard prouvé
Pour une variable particulière d'une évolution naturelle donnée, le caractère "au
hasard" d'un résultat est considéré comme prouvé si et seulement si il existe une
démonstration de l'impossibilité de trouver un algorithme de prédiction.

Une éventuelle démonstration ayant nécessairement été faite dans le cadre d'une
axiomatique [67], elle a une valeur théorique qui doit, si possible, être validée par une
expérience. Et là il y a une difficulté : on ne peut pas prouver qu'une valeur est choisie
au hasard, c'est-à-dire qu'il n'existe pas de raison logique de ce choix.
Si une répétition d'expériences identiques pour une variable donnée produit des
résultats distribués selon une loi stable, et que la distribution ne résulte pas
d'erreurs expérimentales, le caractère aléatoire peut être supposé ; on peut alors
tenter de voir s'il suit une certaine loi statistique, avec des tests conformes à la
théorie des probabilités. Mais on n'aura pas une démonstration axiomatique
d'évolution au hasard, il ne s'agira pas de hasard prouvé.

Il n'y a pas, non plus, de critère pour prouver qu'une suite de valeurs ne présentant
pas de régularité évidente est une suite aléatoire.

97
Le déterminisme scientifique est incompatible avec un hasard prouvé. Si un résultat
d'évolution n'est pas reproductible et que cette évolution n'est pas une décohérence,
il n'y a que deux possibilités : ou la règle de stabilité des lois de la nature est en défaut,
ou il y a une erreur dans la réalisation de l'expérience ou la mesure d'un paramètre.
Cas particulier intéressant d'« erreur expérimentale » : l'évolution sensible aux
conditions initiales ci-dessus, où le calcul de l'évolution est possible mais son
résultat est inutilisable. Le hasard qui affecte le résultat n'est pas dû, dans ce cas,
à la loi d'évolution, qui reste déterministe au sens scientifique et à résultat
calculable avec une précision arbitraire ; il est dû aux erreurs expérimentales
inévitables, amplifiées par le modèle mathématique de la loi d'évolution.

Conclusion : en postulant le déterminisme scientifique et sa règle de stabilité, une loi


d'évolution autre que la décohérence ne peut avoir de résultat relevant d'un hasard
prouvé ; et dans le cas de la décohérence, le caractère aléatoire est celui d'un
déterminisme statistique.

A part les phénomènes de physique quantique, où la nature choisit au hasard


un résultat dans un ensemble prédéterminé dont chaque élément est associé à
une probabilité, la nature n'a pas d'évolution au hasard.

3.1.9.8 Différences entre déterminisme statistique, fluctuations quantiques et


hasard

Evolutions régies par un déterminisme statistique


 Lorsqu'une évolution de Mécanique quantique est régie par l'équation de
Schrödinger, une variable d'état continue a un nombre infini de valeurs, chacune
avec sa densité de probabilité ; une variable discrète a un nombre fini de
valeurs, chacune avec sa probabilité.
 Quand une décohérence (phénomène ne relevant pas de l'équation de
Schrödinger) se termine à l'échelle macroscopique par un choix au hasard de la
valeur d'une variable, celle-ci est unique, stable, et appartient à un ensemble
prédictible de valeurs propres [278].

Dans ces deux cas, l'évolution est régie par un déterminisme statistique. Elle a une
cause connue et elle est reproductible : une même cause (même dispositif
expérimental) produit une même évolution déterministe, qui produit le même ensemble
de résultats avec les mêmes probabilités ou densités de probabilités.

Fluctuation quantique en un point de l'espace


Lors d'une telle fluctuation, il y a deux variables : sa durée Δt et l'énergie potentielle
empruntée au vide ΔE. Cette énergie produit une particule de matière et une particule
d'antimatière qui s'attirent et s'annihilent très rapidement en restituant l'énergie
empruntée : l'évolution s'annule par retour à la situation initiale.
(Le seul contre-exemple connu est celui de la théorie « d'évaporation » des trous
noirs, évolution réelle où l'annihilation est incertaine parce qu'une particule peut
retomber dans le trou noir alors que son antiparticule s'échappe.)

Une fluctuation quantique n'a pas de cause autre que l'instabilité de l'énergie du vide,
qui n'a de valeur définie ou stable à aucun instant, conformément au principe

98
d'incertitude de Heisenberg. Une fluctuation d'énergie n'est pas déterministe, car cette
instabilité ne relève ni du postulat de causalité ni de la règle de stabilité. Mais comme
elle respecte la limite minimum du principe d'incertitude ΔE . Δt  ½ä, ainsi que la
conservation de l'énergie moyenne et de la charge électrique d'un volume d'espace et
d'un intervalle de temps, ce n'est pas un cas où la nature fait n'importe quoi. Elle est
imprévisible et ne peut être qualifiée de hasard que selon la définition de René Thom.

3.1.9.9 Hasard et niveau de détail d'une prédiction


On peut interpréter le choix statistique de la nature lors d'une décohérence comme
une impossibilité de prédire, pour une variable discrète, la valeur choisie à un niveau
plus fin que l'ensemble des valeurs propres [278]. Ce choix lui-même constitue une
évolution de type particulier, le déterminisme statistique, qui ne se manifeste qu'au
niveau atomique, en physique quantique [325]. De même, la mesure d'une variable
continue ne sera précise qu'à une demi-largeur de son paquet d'ondes près.

Une limite inférieure de niveau de prédiction intervient aussi dans la décomposition


radioactive d'un échantillon d'uranium 238, où le déterminisme régit la proportion de
décompositions par unité de temps, pas le choix d'un atome particulier qui se
décomposera ou l'instant de sa décomposition. Il ne peut y avoir de loi qui prédit quel
atome se décomposera, ou à quel moment un atome donné se décomposera, la
Mécanique quantique l'interdit. Nous pouvons parler de choix au hasard de l'atome
dans l'ensemble des atomes de l'échantillon, ou de choix au hasard de l'instant de
décomposition d'un atome donné dans le futur (choix vague !). Mais de telles
affirmations évidentes ne nous apportent rien, en attribuant au hasard soit un refus de
précision de la nature dont le déterminisme s'applique au niveau de tout l'échantillon,
soit notre ignorance d'une loi de choix ; affirmer le hasard par ignorance est stérile.

La notion de niveau de prédiction intervient également lorsqu'on distingue le niveau


atomique (où les prédictions viennent de la Mécanique quantique) et le niveau
macroscopique (où elles viennent des lois de la physique macroscopique). En
appliquant une loi de physique macroscopique on ne peut prévoir quel atome évoluera
d'une certaine façon, et l'application de la Mécanique quantique au domaine
macroscopique est en général impossible par excès de complexité. Non que les lois
de ces deux niveaux se contredisent : à la frontière entre eux elles permettent les
mêmes prédictions, d'après le principe de correspondance. Il faut comprendre qu'une
loi a un domaine d'application dont on ne doit pas sortir.

Certaines personnes attribuent à tort au hasard le résultat imprédictible d'une évolution


entre un point situé avant une bifurcation dans l'espace des phases et un point après
cette bifurcation. La bifurcation se produit lorsqu'un paramètre de la loi d'évolution
franchit une valeur critique, franchissement qui entraîne le choix d'une nouvelle loi au
point de bifurcation ; aucun hasard n'intervient dans ce choix.

Le fait qu'on étudie des gaz ou des liquides à l'aide des méthodes et théorèmes de la
Mécanique statistique ne vient pas d'une évolution aléatoire des molécules de ces
fluides, qui se déplacent selon des lois de mouvement et de choc élastique
déterministes (et d'ailleurs symétriques par renversement du sens du temps) ; c'est
parce qu'on ne s'intéresse qu'à des propriétés macroscopiques de ces fluides
(température, pression, entropie, turbulence, etc.).

99
3.1.9.10 Premières conclusions sur le hasard et la prédictibilité
Il faut cesser de croire au hasard en tant que principe de comportement imprévisible
de la nature. Ce n'est pas parce que je ne sais pas expliquer un phénomène ou prévoir
son évolution que je peux invoquer le hasard. L'attribuer au hasard est aussi peu
justifié que l'attribuer à Dieu, et faire du hasard un refuge pour mon ignorance ne serait
pas rationnel.

Une variable qui suit une loi d'évolution ne peut ni échapper à son ensemble de
définition, ni évoluer en violant cette loi de la physique.

La nature limite ce que l'homme peut prévoir, mais elle n'est jamais fantaisiste : dans
une situation donnée elle réagit toujours de la même façon (stabilité de l'ensemble des
valeurs de chaque variable, éventuellement probabiliste) et obéit toujours à des lois
de conservation (de l'énergie, du moment cinétique, etc.) ; seule exception au
déterminisme de la nature, qui n'est pas une évolution : la fluctuation quantique.

3.1.9.11 Différences entre hasard, imprécision et indétermination en Mécanique


quantique
Il n'y a pas de hasard dans la position ou la vitesse d'un corpuscule de Mécanique
quantique, il y a d'abord de l'imprécision, c'est-à-dire un refus de la nature de nous
accorder la possibilité de précision infinie qui satisferait notre esprit. Ce refus est dû à
la nature probabiliste de ces variables de l'état de chaque corpuscule. Il ne faut donc
pas confondre le déterminisme statistique, avec son imprécision (flou par
superposition pour une variable continue), et le hasard (où la nature ferait n'importe
quoi).
En pensant à la « probabilité de position » d'un corpuscule qui se déplace, on
risque de se le représenter comme un objet matériel qui a une dimension précise
et des chances de se trouver ici plutôt que là, représentation inexacte. Cette
dimension n'est pas précise, et il vaut mieux penser à un corpuscule de forme
vague, sorte de nuage dont une infinité de réalisations sont superposées dans le
paquet d'ondes qui accompagne son déplacement, infinité qui lui donnerait un
aspect flou si on pouvait en faire une photo instantanée.

L'imprévisibilité associée aux fluctuations ponctuelles d'énergie n'est due au hasard


que selon la définition de René Thom. C'est une instabilité (indétermination) permise
par le principe d'incertitude de Heisenberg : pendant un court intervalle de temps Δt
une énergie n'est pas définie à mieux que ΔE près, où ΔE.Δt ≥ ½ä (ä est une constante
de l'Univers appelée constante de Planck). Les fluctuations quantiques manifestent
seulement un refus de stabilité de la nature, refus qui ne dure qu'un court instant et ne
change pas l'énergie moyenne au point considéré. Il faut accepter ces fluctuations
comme on accepte l'imprécision sur la position d'un corpuscule en mouvement, situé
« partout » en même temps dans son paquet d'ondes : dans aucun de ces cas la
nature n'agit au hasard en faisant n'importe quoi.

Une erreur fréquente


L'imprécision et l'indétermination de Heisenberg sont des propriétés naturelles et
objectives d'une évolution, alors que l'imprédictibilité de son résultat est une
considération humaine. Trop de gens parlent d'une « évolution au hasard » dans tous
les cas où ils ne peuvent en prévoir un résultat exact, décrivant ainsi une propriété
d'une transformation naturelle dans le cadre subjectif de son imprédictibilité.

100
3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle

La nature est parfaitement déterministe


Selon le phénomène, la nature inanimée est régie soit par le déterminisme scientifique,
soit par le déterminisme statistique. Répétons-le, elle ne fait jamais n'importe quoi.
Cette affirmation est confirmée :
 Par le mathématicien et philosophe des sciences Husserl dans [312] page 226 :
« Ce monde n'est pas le même pour l'homme ordinaire et pour l'homme de
science ; pour le premier il est un ensemble d'une ordonnance simplement
approximative, parsemé de mille hasards ; pour le second il est la nature,
entièrement régie par des lois d'une rigueur absolue. »
 Par le mathématicien René Thom dans [226].

Résumé des autres conclusions sur le déterminisme des évolutions naturelles


 L'indétermination et le déterminisme statistique affectent la prédictibilité des
conséquences, pas les conséquences (lois d'évolution ou situations) elles-
mêmes ; la prédictibilité est un besoin humain ignoré par la nature.
 Le déterminisme statistique de la décohérence est un choix par la nature d'un
élément dans un ensemble prédéfini de valeurs propres [278] de l'opérateur
associé à une grandeur mesurable, ensemble où chaque valeur a une
probabilité prédéfinie. Ce choix ne se produit que dans un seul type d'évolution
naturelle, la décohérence, phénomène de physique quantique.
Dans le déterminisme statistique des évolutions où une variable d'état (comme la
position) est continue, la nature produit une infinité de valeurs en superposition.
 Une évolution ne viole jamais une loi de la nature ; elle ne viole jamais,
notamment, la thermodynamique ou la conservation de l'énergie + masse.
 Ne pas confondre hasard (valeur choisie sans contrainte), imprécision (refus de
précision) et incertitude quantique (instabilité, non-définition).
 Il faut séparer déterminisme et prédictibilité, le premier n'entraînant pas toujours
la seconde.
Il y a des lois d'évolution parfaitement déterministes (échappant à tout hasard), à
résultat calculable à tout instant t postérieur à un instant initial t0, qui pourtant
interdisent en pratique la prédiction de ce résultat à cause d'une sensibilité
énorme, non bornée, aux conditions initiales. Dans ce cas d'imprécision on parle
de chaos déterministe.

Voir en fin de texte la table résumant les cas d'imprédictibilité.

3.1.9.13 Evolutions attribuées à tort au hasard


Je me suis permis de limiter le hasard des évolutions naturelles à l'évolution
particulière de physique quantique [325] appelée décohérence parce que j'ai précisé
ci-dessus des limitations de prédictibilité dues à l'ignorance, l'imprécision ou la
complexité. Je considère donc comme erronées des attributions au hasard
d'évolutions qu'on ne comprend pas (ignorance), dont on ne peut prédire le résultat
avec autant de précision qu'on voudrait (superposition, indétermination, imprécision

101
ou sensibilité aux conditions initiales), ou dont le déroulement est trop complexe pour
pouvoir être modélisé et calculé par un algorithme prédictif.

Cas particulier : les fluctuations quantiques, qui ne sont des évolutions irréversibles
que lors de l'évaporation des trous noirs, ne relèvent pas du déterminisme et ne sont
régies que par l'inégalité de Heisenberg ΔE.Δt ≥ ½ä. On peut attribuer celles-ci au
hasard, mais seulement si on le définit comme René Thom.

Le hasard pour raisons psychologiques


J'ai maintes fois constaté qu'une personne attribue des évolutions incomprises au
hasard pour des raisons purement psychologiques :
 Le besoin humain de cohérence rend pénible la non-compréhension d'un
phénomène, c'est-à-dire l'impossibilité de le relier à des faits ou phénomènes
connus par des relations de causalité, certaines ou au moins probables.
 L'esprit humain aime mieux, alors, inventer des relations de causalité (en
raisonnant par analogie ou induction, ou même en faisant confiance à son
intuition) qu'admettre son ignorance ; il n'est même pas capable de s'en
empêcher. Il faut à un homme un sérieux entraînement à la rigueur pour
admettre son ignorance, mettre en cause son intuition et vivre l'esprit en paix
sans comprendre.
 Le besoin humain de non-culpabilité, de rejet de responsabilité : je prétends
qu'un phénomène relève du hasard parce que je ne sais pas l'expliquer et
qu'admettre mon ignorance me rabaisserait, aux yeux des autres comme aux
miens.

Le hasard par raison de contingence


Beaucoup de gens, y compris des scientifiques, oublient le principe d'identité :
avant de lire la suite, voir l'important développement [16].

Oubliant le principe d'identité, beaucoup de gens considèrent qu'un événement du


passé ou du présent dont l'existence est certaine aurait pu ne pas se produire ou avait
une certaine probabilité de ne pas se produire. C'est là une faute de logique, une
spéculation pure. On se trompe donc en croyant comme Platon que le possible
précède le réel et le structure ; au contraire, c'est le réel et son déterminisme qui
définissent ce qui est possible pour la nature et peut-être prévisible pour l'homme.

3.1.9.14 Conséquences multiples d'une situation donnée - Décohérence


Nous avons vu qu'à part l'ignorance il y a trois types de raisons qui empêchent ou
limitent la prédiction des conséquences d'une évolution : l'imprécision, la complexité
et le choix statistique en Mécanique quantique. L'existence de ce choix oblige d'ores
et déjà à préciser le postulat de causalité : dans la phrase « si la cause existe au
départ, la conséquence a lieu » il faut entendre par conséquence d'une situation (au
niveau atomique) la possibilité d'une multiplicité de conséquences simultanées,
superposées au sens des fonctions d'onde.

Imprécision, complexité et choix statistique sont dus à la nature même des lois de
l'Univers, qu'il n'est pas question d'ignorer - particulièrement lors d'une prédiction
d'évolution.

102
Approfondissons. Nous avons vu plus haut que dans certaines situations la nature
réagissait de manière multiple :
 Soit en déclenchant plusieurs lois d'évolution à la fois, dont chacune a un
déroulement indépendant et un résultat unique.
C'est le cas en physique quantique lorsque la trajectoire d'un corpuscule entre un
point de départ A et un point d'arrivée B peut être considérée comme une infinité
de trajectoires simultanées, empruntant des chemins différents avec des vecteurs
vitesse fonctions différentes du temps, mais qui se terminent toutes en B en même
temps.
C'est aussi le cas lorsque la trajectoire d'un corpuscule est définie à chaque instant
par un paquet d'ondes superposées, ondes de probabilité décrivant des
amplitudes de probabilité de présence du corpuscule qui s'ajoutent en amplitude
et en phase. Vu à un instant donné le corpuscule paraît alors flou, comme s'il était
composé d'une infinité de corpuscules superposés avec un décalage.
Mais, à son échelle macroscopique, l'homme ne voit jamais plusieurs
conséquences à la fois, il ne peut voir que leur résultat, nécessairement unique ;
et dans le cas d'un corpuscule accompagné d'un paquet d'ondes, ce résultat à un
instant donné est une position floue et une vitesse imprécise.
 Soit en déclenchant une seule loi d'évolution donnant des résultats multiples
superposés, c'est-à-dire existant en même temps.
Cette superposition d'états simultanés n'est pérenne qu'à l'échelle atomique.
L'interaction entre la superposition microscopique et l'environnement
macroscopique (par exemple lors d'une mesure physique) met fin à la
superposition et révèle à l'échelle macroscopique un seul des états superposés,
choisi au hasard ; le passage de l'état superposé à l'état unique est appelé
« décohérence » et il est irréversible. ( Compléments sur la décohérence )

3.1.9.15 Il faut admettre les dualités de comportement


La Mécanique quantique, outil mathématique de la physique quantique [325], permet
aussi d'expliquer pourquoi certains corpuscules apparaissent tantôt comme de petits
objets matériels (particules), tantôt comme des ondes de probabilité capables de
provoquer des phénomènes d'interférences.

L'explication de cette dualité repose sur le « principe de complémentarité », énoncé


en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes comme
les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon
l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un
comportement corpusculaire et un comportement ondulatoire, ces deux
comportements s'excluant mutuellement et constituant des descriptions
complémentaires des phénomènes auxquels ils s'appliquent.

De son côté, la Relativité montre que l'énergie et la matière sont deux formes
complémentaires d'un même système ou d'une même région de l'espace, formes qui
peuvent se transformer l'une dans l'autre selon l'équation d'Einstein e=mc2. Elle
montre aussi que la gravitation peut être interprétée comme un champ de force ou
comme une courbure de l'espace-temps due à la présence d'une masse.

103
La physique moderne nous oblige donc à considérer qu'un phénomène de la nature
peut présenter deux aspects très différents, aspects qui se complètent lorsqu'on veut
comprendre ou prédire certaines évolutions.

3.1.10 Chaos
Par manque de rigueur, on considère souvent un phénomène naturel chaotique
comme régi par le hasard. Nous allons voir qu'en précisant la nature des évolutions
chaotiques il n'en est rien.

3.1.10.1 Définition
Je ne connais pas de définition précise du mot « chaos » en matière d'évolution. Les
divers textes sur la dynamique des systèmes dont j'ai connaissance s'accordent pour
qualifier de chaotique une évolution déterministe au sens mathématique :
 Qui est non linéaire : l'effet d'une variation d'un paramètre n'est pas proportionnel
à cette variation ;
 Qui est si sensible aux conditions initiales qu'on ne peut en prévoir le
déroulement à long terme avant son début, mais seulement un instant après,
quand elle est « lancée » ;
 Ou dont la connaissance pendant un temps aussi long qu'on voudra ne permet
pas de prévoir le déroulement ultérieur à long terme, ce déroulement étant
apériodique (c'est-à-dire dépourvu de régularité) ;
 Ou dont la courbe d'évolution dans l'espace des phases n'est :
 Ni réduite à un point, comme celle d'un système qui n'évolue pas ;
 Ni convergente vers un attracteur ponctuel, comme un système dissipatif qui
perd de l'énergie (définition de « dissipatif ») ;
 Ni fermée, comme celle d'un pendule simple, système périodique conservatif
(définition de « conservatif ») ;
 Ni inscrite sur un tore, comme celle de systèmes quasi périodiques.
 Dont la courbe d'évolution dans l'espace des phases converge (lorsque le
système est dissipatif) vers un attracteur étrange, courbe à structure fractale où
toute évolution qui commence reste confinée, mais ne peut être prédite avant
son départ, du fait de sa sensibilité aux conditions initiales.

Exemples de phénomènes chaotiques.

3.1.10.2 Prédictibilité des phénomènes chaotiques – Chaos déterministe


 La définition d'une évolution chaotique ne fait pas intervenir le hasard : on parle
souvent de « chaos déterministe ». Un phénomène chaotique reste à tout
moment régi par une loi déterministe à évolution calculable, même s'il peut
aussi, comme tout phénomène, changer de loi d'évolution sous l'influence d'un
paramètre qui change. (Exemples)
 Un phénomène chaotique est apériodique, mais la réciproque n'est pas toujours
vraie. Un phénomène apériodique :

104
 A une évolution prévisible à long terme si on connaît toutes les fréquences
d'amplitude non négligeable de sa décomposition en série de Fourier ;
 N'a la sensibilité aux conditions initiales d'un phénomène chaotique que
lorsqu'il est dissipatif, sur l'attracteur étrange vers lequel il converge.

3.1.10.3 Conditions d'apparition d'une évolution chaotique – Série de Fourier


Toute évolution dans le temps d'une variable peut être décomposée en série de
Fourier, somme f(t) d'un nombre fini ou infini de fonctions sinusoïdales de fréquences
multiples d'une fréquence de base, chacune avec son amplitude et sa phase :

f(t) = a0 + a1sin(t+1) + a2sin(2t+2) + a3sin(3t+3) +….

L'ensemble des fréquences composantes est appelé spectre de Fourier.

L'exemple graphique ci-dessous montre une évolution dans le temps qui se


décompose en une somme de 6 fonctions sinusoïdales. Il montre aussi que l'addition
de plusieurs phénomènes oscillants sinusoïdaux, chacun avec sa fréquence et sa
phase, peut avoir une allure désordonnée, chaotique.

Somme de 6 fonctions périodiques de périodes incommensurables


(le rapport des périodes des fonctions, prises deux à deux, est toujours irrationnel)

Chaque évolution périodique est un comportement régulier, prévisible. Mais la


composition de plusieurs fonctions périodiques de fréquence, amplitude et phase
différentes peut être apériodique si les périodes des phénomènes composants sont
incommensurables entre elles (c'est-à-dire si leurs rapports deux à deux sont tous
irrationnels) comme dans l'exemple du graphique. Voici trois cas d'évolution vers un
régime chaotique de systèmes dynamiques à petit nombre de degrés de liberté.
 Un régime périodique pendant un long intervalle de temps peut se déstabiliser
brusquement, devenir chaotique pendant un moment, puis redevenir périodique,
avant de se déstabiliser de nouveau au bout d'un temps qui n'est pas
nécessairement égal au précédent. Une telle évolution « par bouffées » a été
observée dans certains cas de convection thermique et de réaction chimique
évolutive.

105
 Un régime périodique peut évoluer par des doublements successifs de sa
période sous l'effet d'un paramètre de contrôle, jusqu'à atteindre un point
d'accumulation où la période est infinie et où commence l'évolution chaotique.
On rencontre ce type d'évolution en dynamique des populations.
 Un régime périodique peut devenir quasi périodique sous l'effet d'un paramètre
de contrôle. L'évolution correspond alors à 2 fréquences, puis peut-être à 3, etc.
Si ces fréquences sont indépendantes et incommensurables (l'une au moins
n'étant une fraction exacte d'aucune autre), le régime peut devenir chaotique.

Dans un système dynamique à nombre de degrés de liberté plus important, le chaos


peut être à la fois temporel (comme les cas que nous avons vus jusqu'à présent) et
spatial (le comportement différant d'un point du système à un autre, le système ayant
des régions d'évolution ordonnée et des régions d'évolution désordonnée).

Conclusion : une évolution déterministe peut passer d'un régime stable et prévisible à
un régime chaotique, imprévisible en pratique, sous l'influence de divers paramètres,
sans cesser d'être déterministe (et décrite par des équations différentielles ou des
équations à dérivées partielles). [281]

3.1.10.4 Fluctuations faussement aléatoires d'un phénomène apériodique


Certains auteurs ont attribué à tort au hasard des effets considérables, voire
catastrophiques, dus aux fluctuations d'un phénomène apériodique ou chaotique. Voici
des exemples de ce qui peut arriver.

Fluctuations périodiques dont les amplitudes s'ajoutent


Un phénomène apériodique ou quasi périodique peut comporter, dans sa
décomposition en série de Fourier, une composante de période très longue et
d'amplitude non négligeable. Il peut alors arriver, même si c'est rare, que cette
amplitude s'ajoute à d'autres amplitudes de phénomènes composants pour donner
une amplitude totale considérable, susceptible de provoquer une catastrophe. Il peut
aussi arriver qu'un nombre élevé de phénomènes composants ajoutent leurs
amplitudes à des instants précis, même si ces instants sont rares.
Ainsi, des « vagues scélérates » océaniques peuvent atteindre des hauteurs de
plusieurs dizaines de mètres, par empilement d'oscillations verticales d'eau qui se
déplacent à des vitesses différentes et arrivent à se rattraper, et peut-être aussi
du fait d'amplifications non linéaires encore mal expliquées. Ces vagues
endommagent gravement même de très gros bateaux. Elles sont rares,
imprévisibles et font l'objet d'une surveillance internationale par satellite pour
avertir les navires menacés.

Le hasard n'est pour rien dans de telles fluctuations. Tous les phénomènes
périodiques composant un phénomène apériodique ont une évolution calculable, donc
prévisible. L'attribution au hasard vient de l'ignorance des auteurs, due en partie à la
rareté des phénomènes d'amplification catastrophique, qui gêne leur étude
scientifique. Encore une fois, la nature ne connaît le hasard que lors du choix d'un
élément dans l'ensemble des valeurs de la solution du modèle mathématique
d'évolution, valeurs toutes prédéterminées et à probabilités connues.

106
Amplification d'une fluctuation par franchissement de valeur critique
Une fluctuation exceptionnelle mais d'amplitude intrinsèquement modeste (comme
une fluctuation moléculaire) peut entraîner une évolution d'ampleur spectaculaire
lorsqu'elle fait franchir une valeur critique à un paramètre, mettant alors en jeu une
énergie importante et changeant une loi d'évolution par bifurcation dans l'espace des
phases. Exemples :
 Un lac à l'eau très pure qui devrait être gelé est en surfusion à une température
largement inférieure à zéro degré C. S'il n'y a pas de vent, sa surface est très
calme. Si on y lance un caillou minuscule l'eau peut geler instantanément, avec
une énergie de solidification des millions de fois plus importante que l'énergie
apportée par la chute du petit caillou.
 Un rocher de plusieurs milliers de tonnes est en équilibre instable à flanc de
montagne. Le gel peut déstabiliser une petite pierre située au-dessus, et cette
pierre en tombant va desceller le rocher qui va tomber à son tour, avec un
échange d'énergie potentielle en énergie cinétique infiniment supérieur à
l'énergie cinétique de la petite pierre.

Une variable macroscopique qui fluctue du fait d'évolutions microscopiques peut donc
subir :
 Soit une évolution masquée par les incertitudes sur les autres paramètres
macroscopiques.
 Soit une évolution amplifiée par une sensibilité à des conditions initiales et/ou
une bifurcation entraînant un changement de loi d'évolution ; des bifurcations en
cascade peuvent alors changer un système stable en système chaotique,
comme c'est le cas pour certaines formes de turbulence.

Dans ces cas d'amplification le hasard n'est pour rien : les conditions (énergie,
instabilité) du déclenchement du phénomène spectaculaire existaient au départ, un
paramètre à valeur critique dépendant d'un phénomène fluctuant plus modeste.
En parlant d'« effet papillon », le météorologue Edward Lorenz écrivait : "un
battement d'ailes d'un tel insecte peut changer le temps qu'il fera à des milliers de
kilomètres". Il voulait ainsi illustrer l'extrême sensibilité aux conditions initiales de
certains phénomènes atmosphériques, sujet que nous avons évoqué plus haut.
Mais il ne faut pas prendre son affirmation au pied de la lettre, les variables
météorologiques étant connues avec une précision très inférieure à l'erreur
produite en considérant le battement d'ailes du papillon comme négligeable.

L'effet d'amplification par bifurcation en un point singulier de l'espace des phases (un
paramètre franchissant une valeur critique) ou par changement de bassin d'attraction,
peut aussi intervenir lorsque d'un côté au moins de ce point l'évolution du système est
fluctuante, par exemple de manière apériodique. Il suffit alors d'une oscillation un peu
plus forte pour que la valeur critique soit franchie et le système évolue brusquement
de manière spectaculaire. Mais comme précédemment, l'évolution du système n'a
jamais cessé d'être prévisible, donc dénuée de hasard.

107
3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg
La Mécanique quantique montre qu'au voisinage de tout point de l'Univers l'énergie
potentielle n'est pas définie et stable, mais qu'elle a une plage de variation qui dépend
de la largeur de l'intervalle de temps où on l'observe : l'énergie peut varier d'autant
plus que l'intervalle de temps est réduit. Bien entendu, le principe de conservation de
l'énergie reste respecté en moyenne : un « emprunt » momentané d'énergie à l'espace
environnant est restitué l'instant d'après. Ce phénomène a été évoqué plus haut et l'est
plus en détail là. Nous avons vu que ce n'est une évolution aléatoire que selon la
définition de René Thom.

3.1.10.6 Fluctuations de variables macroscopiques dues à des variations


microscopiques
Pour présenter et analyser ce phénomène nous allons utiliser un exemple.

La complexité du mouvement brownien de molécules de gaz dans une enceinte


fermée, due au nombre de molécules (des milliards) et au nombre de chocs par
seconde subis par chacune (des milliers), rend illusoire toute prédiction du mouvement
d'une molécule donnée connaissant sa position et son vecteur vitesse à l'instant initial,
bien que les lois des mouvements et des chocs élastiques de la molécule soient
déterministes au sens traditionnel. En outre, le sort d'une molécule particulière étant
de peu d'intérêt car toutes les molécules sont identiques, on a pris l'habitude de
considérer des grandeurs statistiques caractérisant l'ensemble du gaz de l'enceinte :
vitesse moyenne d'une molécule, température, pression et entropie du gaz de
l'enceinte, etc.

Bien que, pour une enceinte isolée, le 2 ème principe de la thermodynamique affirme
que son entropie ne peut que croître jusqu'au « désordre maximum », sa valeur
instantanée fluctue constamment un peu autour de ce maximum, du fait du
mouvement brownien des molécules. On peut donc se demander si cette fluctuation
d'entropie (c'est-à-dire d'organisation-désorganisation) n'est pas un exemple de
hasard dans la nature, comme le croît notamment Prigogine.

En fait, il n'en est rien. L'entropie n'existe pas dans la nature : c'est une abstraction
commode pour modéliser l'état d'organisation d'un ensemble de molécules. Ses
fluctuations n'existent que parce qu'on fait des calculs probabilistes sur des
populations de molécules, ce ne sont pas des réalités physiques comme une variation
de l'énergie totale, impossible pour un système isolé.

Les travaux d'Ehrenfest sur des systèmes isolés, à l'équilibre thermodynamique,


constitués d'un grand nombre N de molécules indépendantes, montrent que le
système s'écarte sans cesse de l'équilibre et y revient. Ces travaux modélisent l'état
d'organisation du système et la diffusion de molécules par les transitions d'état d'un
processus markovien, modèle théorique arbitraire qui montre (si on lui fait confiance)
que l'entropie peut décroître en dessous de son maximum selon une loi de probabilité
binomiale en 2-N.
Mais les calculs numériques et l'expérimentation ont montré que le temps
nécessaire pour qu'une décroissance non négligeable de l'entropie se produise (c'est-
à-dire pour que le système s'organise davantage) est supérieur à l'âge de l'Univers.
Considérons, par exemple, le cas - très favorable à la décroissance d'entropie - d'un
système constitué de N=100 molécules seulement subissant 1 million de transitions

108
par seconde (10 000 en moyenne par molécule). Pour passer d'un état d'équilibre, où
les N molécules sont réparties aléatoirement dans une enceinte, à un état plus
organisé où elles sont toutes dans une moitié prédéfinie de l'enceinte, il faut alors
environ 1015 ans, soit environ 70 000 fois l'âge de l'Univers. Les expériences ont
confirmé qu'un système macroscopique isolé ne voit jamais son entropie décroître de
manière mesurable : il ne s'organise pas davantage tout seul.

L'irréversibilité d'une évolution macroscopique d'un fluide (prévue par la


thermodynamique et qui semble contredire l'évolution réversible prévue molécule par
molécule) s'explique théoriquement par le fait que la probabilité pour que toutes ses
molécules reviennent à leur position de départ après un certain temps est
fantastiquement faible. (En fait, cette explication probabiliste n'est pas certaine :
comme toute explication probabiliste, elle est postulée. Heureusement, l'irréversibilité
macroscopique n'a jamais été démentie expérimentalement, personne n'ayant jamais
constaté un événement aussi improbable qu'une tasse de café où on a fait fondre du
sucre et qui se sépare spontanément en café sans sucre et sucre hors de la tasse !)

Conclusions :
 Il n'y a pas de hasard dans un phénomène macroscopique résultant de
phénomènes déterministes à l'échelle atomique. Le hasard auquel croient
certains est un hasard par ignorance due à l'impossibilité de mesurer et calculer
les évolutions élémentaires.
 Les fluctuations ponctuelles d'une variable statistique comme l'entropie,
regroupant des milliards de réalisations d'une variable à l'échelle moléculaire,
ont une amplitude dont la probabilité varie exponentiellement en raison inverse
du nombre de ces dernières. Elle décroît donc si vite qu'aucune mesure ne peut
en détecter un effet à une échelle accessible aux expériences.

3.1.10.7 Amplification génétique et évolution du vivant vers la complexité


Nous venons de voir que des fluctuations d'entropie d'origine microscopique ne
peuvent avoir d'effet macroscopique. Mais ce que ces fluctuations ne peuvent faire en
physique est possible dans un être vivant, en deux étapes d'amplification :
 Des accidents de réplication du génome sont inévitables du fait des solutions
multiples des équations d'évolution de la Mécanique quantique, chacune
associée à une probabilité d'apparition. C'est ainsi que des liaisons chimiques
peuvent s'établir ou non, modifiant ainsi un gène de milliers de bases ou son
expression : il suffit parfois qu'un minuscule radical CH3 de 4 atomes soit lié ou
non pour faire une différence !
Un tel accident de réplication peut ne pas avoir d'effet ; il peut aussi produire un
être non viable, ou souffrant d'une infériorité par rapport à d'autres espèces qui le
fera éliminer par la sélection naturelle. Mais il produit parfois un être parfaitement
adapté, qui pourra avoir une descendance.
 Du point de vue thermodynamique, la complexification (organisation de plus en
plus poussée) est possible pour des êtres vivants, car ceux-ci sont des systèmes
dissipatifs loin de l'équilibre et le 2ème principe ne s'applique pas.

109
3.1.10.8 Domaines où on connaît des évolutions chaotiques
Les évolutions chaotiques d'un système peuvent intervenir dans de nombreux
domaines. Exemples :
 En physiologie, le fonctionnement synchrone des cellules musculaires du cœur
peut se désynchroniser, provoquant une arythmie accompagnée d'une
tachycardie que l'on soigne par défibrillation et avec des médicaments comme le
Cordarone ou le Sotalex.
 En dynamique des populations animales, la densité d'une population dépend de
facteurs internes comme la résistance aux agressions de l'environnement, la
fécondité ou les habitudes de vie, et de facteurs externes comme les ressources
alimentaires, les prédateurs, etc. Les interactions de tous ces facteurs sont
complexes et mal connues. Des modèles mathématiques simplifiés montrent
qu'une densité de population peut être stable, ou varier de manière périodique
ou même chaotique (exemple).
 Les propriétés optiques d'un milieu sont affectées par des variations de sa
température, de sa densité ou de sa concentration en particules opaques. De
telles variations affectent la vitesse de propagation de la lumière dans le milieu,
donc son indice de réfraction, et déclenchent des phénomènes d'absorption ou
de diffusion à certaines longueurs d'onde. Si ces variations sont chaotiques, les
images vues à travers le milieu (par exemple en astronomie) peuvent être
fortement perturbées ; c'est ainsi que les mouvements atmosphériques,
l'humidité et la pollution brouillent la vision des télescopes.
 La turbulence d'un fluide accroît souvent ses échanges de chaleur ou ses
réactions chimiques avec les parois. Nous avons plus froid, par exemple, dans
un vent en rafales que dans un air calme à la même température. Les poils sur
la peau de certains animaux diminuent les échanges de température et
d'humidité en diminuant la turbulence des mouvements d'air. La peau des
requins a des écailles dont la taille, la forme et la rugosité diminuent fortement
les frottements lorsqu'il nage, augmentant ainsi considérablement l'efficacité de
ses efforts.

3.1.10.9 Exemples de phénomènes chaotiques

3.1.10.9.1 Problème des 3 corps


Le problème proposé en 1885 par le roi Oscar II de Suède et Norvège, avec un prix
au premier scientifique qui le résoudrait, concerne un phénomène conservatif à
solutions chaotiques. Il s'agissait de savoir si le système solaire était stable à long
terme, sur des millions d'années, ou si un corps (planète ou un astéroïde) pouvait
tomber sur le Soleil, entrer en collision avec un autre corps, être éjecté hors du
système, bref changer d'orbite de manière significative.

Le gagnant du prix, le mathématicien français Henri Poincaré, étudia les propriétés


générales des solutions éventuelles de ce problème. Il en montra la complexité et
approfondit le cas plus simple où il n'y avait que 3 corps - par exemple deux gros
comme le Soleil et une planète et un très petit par rapport à eux comme un astéroïde
- cas appelé depuis « Problème des trois corps ». Il montra que même dans ce cas
simple les orbites sont trop complexes pour être décrites par une formule explicite.

110
Pour résoudre ce problème, Poincaré dut inventer une nouvelle branche des
mathématiques, la topologie algébrique. Cette science étudie les transformations
continues d'objets géométriques en utilisant des structures algébriques.

Au XXe siècle, d'autres mathématiciens complétèrent les travaux de Poincaré,


montrant que dans certains cas l'évolution d'une orbite peut être imprévisible,
découverte qui remit en cause la définition du déterminisme admise à l'époque.

On connaît aujourd'hui des évolutions chaotiques dans de nombreux domaines : la


dynamique des fluides, la météorologie, la chimie des réactions dissipatives et même
la Mécanique quantique. Notons qu'une évolution chaotique peut concerner un
système conservatif aussi bien qu'un système dissipatif.

Voici un exemple d'évolution chaotique issu de [294] : le mouvement du corps céleste


« petit » du problème des 3 corps. Le graphique ci-dessous représente, dans un
référentiel où l'axe horizontal passe par les centres du Soleil S et d'une planète P, et
l'axe vertical est une perpendiculaire quelconque au premier, deux trajectoires A→A'
et B→B' du petit corps lorsque celui-ci est parti de points A et B très voisins. On voit
que ces deux trajectoires divergent, la distance finale A'B' étant bien plus grande que
la distance initiale AB.

111
A'

B
P S
A

B'

Divergence des trajectoires d'un petit corps attiré par le Soleil S et une planète P

3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe


Nous avons vu que certains phénomènes régis par des systèmes d'équations
d'évolution déterministes présentent une extrême sensibilité aux conditions initiales :
une toute petite variation de celles-ci se traduit par une variation considérable du
résultat final, parfois rapidement, parfois après un certain temps ; l'évolution d'un tel
phénomène est imprévisible. On parle alors de « chaos déterministe ». L'évolution et
le résultat d'un phénomène de chaos déterministe sont imprévisibles avant le départ.

Le graphique ci-dessous illustre la sensibilité aux conditions initiales en représentant


les valeurs successives de la suite xn+1 = 2xn (modulo 1) (dite "de Bernoulli" et citée
par [26] pages 96 à 105), valeurs calculées en multipliant par 2 la valeur précédente
puis en retenant seulement la partie après la virgule, comme dans l'exemple suivant :
x0 = 0.7 ; x1 = 2*0.7 (modulo 1) = 0.4 ; x2 = 2*0.4 (modulo 1) = 0.8, etc.

112
On a représenté sur le graphique :
 en bleu, la suite commençant à x0 = 0.7 ;
 en rouge, la suite commençant à x0 = 0.697, valeur très proche de 0.7.

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0

8
10

12

14

16

18

20

22

24

26

28

30

32

34

36

38

40

42

44

46

48

50

52

54

56

58
Divergence par chaos déterministe de la suite x n+1 = 2xn (modulo 1)
pour x0 = 0.7 et x0 = 0.697

On voit que les deux suites, pratiquement confondues jusque vers n = 4, divergent
ensuite de plus en plus. Ensuite (surprise !) elles convergent l'une après l'autre vers
zéro, valeur atteinte respectivement pour n = 52 et n = 53 dont elles ne peuvent plus
ensuite s'écarter [34]. A partir d'une formule de calcul de la suite parfaitement
déterministe au sens traditionnel, nous avons ainsi créé une évolution irréversible, car
en partant de x100 = 0 (par exemple) on ne peut retrouver de terme xk0, ni avec
k > 100, ni avec k < 100.

Il est important de noter que la petite différence initiale à l'origine de la grande


différence d'évolution ultérieure peut provenir aussi bien d'une différence effective des
valeurs de la variable que d'une imprécision dans sa mesure, sa représentation
décimale ou son calcul.

3.1.11 Turbulence
Un phénomène physique turbulent :
 A un comportement de chaos déterministe, donc ne devant rien au hasard. Il
apparaît dans la plupart des systèmes non linéaires par franchissement de
bifurcations successives dans l'espace des phases.
 Est irrégulier à petite échelle (au sens dimension ou durée), mais plus régulier à
grande échelle, les comportements aux diverses échelles étant interdépendants.
Cette différence de comportement entre échelles caractérise la non-linéarité.
 N'a ni régularité ni mémoire des états passés, ce qui en rend l'évolution
imprédictible malgré le caractère déterministe des équations différentielles de

113
son modèle mathématique (qui sont parfois des équations aux dérivées
partielles non linéaires). En pratique, l'intégration même numérique de ces
équations différentielles peut être si difficile qu'on recourt à des approximations
statistiques ou à une étude purement expérimentale.

L'évolution d'un système devient turbulente du fait de valeurs de certains paramètres


qui franchissent un seuil critique ; la loi d'évolution bifurque alors dans l'espace des
phases. Le diagramme des phases d'un fluide turbulent présente des bifurcations
successives correspondant à des valeurs critiques des paramètres de bifurcation.
L'étude générale des bifurcations relève de la théorie des bifurcations. Les conditions
d'établissement, de maintien et de disparition des états entre deux bifurcations
successives relèvent de la théorie de la stabilité. Ces deux théories sont déterministes,
dénuées de hasard.

Les facteurs qui facilitent l'établissement d'un écoulement turbulent d'un fluide sont un
nombre de Reynolds grand [293], un nombre élevé de degrés de liberté et la non-
linéarité du système d'équations différentielles de son modèle.

Animations montrant de la turbulence : [300].

3.1.12 Le déterminisme étendu


Le déterminisme philosophique promettait de prédire toutes les évolutions, avec leurs
résultats, à un horizon arbitrairement lointain ; il promettait aussi la reconstitution du
passé, mais avec les connaissance de l'époque ces promesses étaient utopiques.

Le déterminisme scientifique a permis plus de conformité aux lois de la nature, en


réduisant les promesses de prédiction à celles du postulat de causalité et en ne
promettant plus de reconstituer le passé.

Le déterminisme statistique a permis de réduire le hasard des évolutions de physique


quantique au choix d'un élément d'un ensemble prévisible où il a une probabilité
d'apparition calculable ; et il a résolu le problème de la connaissance de valeurs
globales d'une population immense, comme la température des molécules d'un gaz.

Nous avons besoin d'un principe de déterminisme adapté à toutes les évolutions de la
nature, connues ou à découvrir. Un tel principe doit aussi être compatible avec le
déterminisme scientifique et le déterminisme statistique, dont on ne peut nier la valeur.
Nous allons en construire un par induction à partir de propriétés de l'Univers, et nous
l'appellerons « déterminisme étendu ».

3.1.12.1 Propriétés des lois de l'Univers

3.1.12.1.1 Uniformité des lois de la nature


La nature que les lois physiques décrivent est uniforme. Cette uniformité de l'Univers
a des conséquences fondamentales, comme la conservation de la quantité de
mouvement, du moment cinétique, de l'énergie et de la charge électrique. Voici des
caractéristiques de cette uniformité.

114
 L'espace est homogène et isotrope : il a les mêmes propriétés en tout point et
dans toutes les directions. Cette affirmation est le « Principe cosmologique »,
posé en tant qu'hypothèse pour simplifier des calculs de Relativité Générale.
L'homogénéité et l'isotropie de l'Univers avant et après le « Big Bang » sont
prouvées avec une très grande précision par la découverte en 1965 du fond diffus
cosmologique [233] : la densité d'énergie de l'Univers primitif était la même en
tous ses points, mais il se produisait (et il se produit toujours) des fluctuations
quantiques dont sont nées les galaxies [313]. La théorie de l'inflation explique
l'extrême homogénéité constatée aujourd'hui à grande échelle (100 millions
d'années-lumière et plus).
 Les lois physiques sont stables (invariantes) dans le temps et l'espace. On le
voit, par exemple, en astronomie : regarder loin, à 3 milliards d'années-lumière,
c'est voir à cet endroit-là ce qui se passait il y a environ 1 milliard d'années [38] ;
et on constate, alors, que les lois physiques étaient les mêmes que sur Terre
aujourd'hui. Cette stabilité est l'origine de la règle de stabilité associée au
postulat de causalité dans le déterminisme scientifique.
Même lorsqu'une loi varie avec le temps il y a toujours une loi stable qui décrit ou
même explique cette variation. Exemple : le rayon de l'Univers varie [38] ; on s'en
est aperçu en 1927 en découvrant son expansion, matérialisée par une vitesse
d'éloignement des galaxies lointaines qui croît avec leur distance, mais reste la
même dans toutes les directions. Puis on s'est aperçu que la loi de croissance de
ce rayon variait elle-même : l'expansion de l'Univers est de plus en plus rapide.
Enfin, on a prouvé par raisonnement qu'au commencement de l'Univers, une
petite fraction de seconde après le « Big Bang » et pendant un court très instant,
sa vitesse d'expansion a été extraordinairement rapide, des milliards de fois plus
rapide que la vitesse de la lumière [38].
(Remarque : la vitesse d'expansion de l'espace n'est en rien limitée par celle de la
lumière, c, car elle ne déplace ni matière ni énergie [313].)
 Les lois physiques de l'Univers sont cohérentes (non contradictoires) ; elles se
complètent sans jamais se contredire. Elles respectent trois principes
fondamentaux de la logique [99], formulés par induction à partir d'observations
de la nature : principe de non-contradiction, principe du tiers exclu et principe
d'identité. Elles respectent aussi le principe d'homogénéité - [16-b].
Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain
niveau de détail sans jamais contredire une loi d'un autre niveau. Exemples :
 Les lois de la thermodynamique, par exemple, s'appliquent à un niveau
macroscopique sans contredire les lois mécaniques des mouvements et
chocs des molécules du niveau atomique.
 Le Principe de moindre action de Maupertuis [62] constitue une loi globale
de mouvement qui ne contredit pas les lois locales de Newton.
 La nature est complète : elle a toutes les lois qu'il faut pour réagir à toutes les
situations et expliquer tous les phénomènes ; c'est le postulat de détermination
complète de Kant. Il n'y a pas de situation sans loi d'évolution, loi immuable.

Une cause donnée produit donc toujours le même effet, d'où le déterminisme.

115
3.1.12.1.2 Postulat de causalité
L'existence et la stabilité des lois de l'Univers nous suggèrent le postulat de causalité
qu'on peut résumer sous la forme :
Tout ce qui existe et tout ce qui se produit dans l'Univers a une cause et obéit à
des lois.

Ce postulat est légitime dans la mesure où il est vérifié par d'innombrables expériences
et n'est contredit par aucune (voir la construction empirique d'une axiomatique [241]).
D'après la définition de la vérité scientifique du rationalisme critique ce postulat peut
être considéré comme une loi de causalité jusqu'à preuve du contraire. Voir aussi le
principe de raison suffisante.

Phénomènes ou situations inexpliqués


Le fait que certains phénomènes ou situations soient inexpliqués ne contredit pas le
déterminisme, il nous incite à faire des efforts de recherche pour les comprendre ; il
nous incite aussi à rester vigilants pour le cas où la découverte d'un fait inexplicable
dans le cadre d'une loi de calcul ou d'évolution censée l'expliquer, ou qui la contredit,
nous oblige à modifier ou remplacer cette loi. On peut aussi envisager d'attribuer un
phénomène inexpliqué ou une situation inexpliquée à l'application d'une restriction du
postulat de causalité.

Fluctuations quantiques
Ce phénomène naturel (déjà signalé et décrit en détail plus bas) ne respecte ni le
postulat de causalité, ni la règle de stabilité ! Il survient brusquement, de manière
imprévisible, sans cause identifiable. C'est une fluctuation, instabilité dans le temps
traduisant l'impossibilité de définir l'énergie potentielle en un point de l'espace vide
avec une incertitude sur l'énergie et un intervalle de temps tous deux arbitrairement
petits. Ce phénomène important, puisqu'il est cause de la naissance des galaxies peu
après le Big Bang, échappe donc au déterminisme ; il est dû au hasard, si on définit
celui-ci comme René Thom. Du point de vue prédictibilité, on ne peut prévoir ni où une
fluctuation se produira, ni quand, ni avec quelle variation d'énergie. Et à part le cas de
l'évaporation des trous noirs, ce n'est pas une évolution car chaque fluctuation s'annule
d'elle-même rapidement en restituant l'énergie qu'elle a emprunté à l'espace
environnant.

3.1.12.2 Définition du déterminisme étendu


Dans la suite de ce texte nous allons donc postuler l'uniformité, la stabilité, la
cohérence et la complétude des lois physiques de l'Univers, et nous définirons le
déterminisme étendu comme suit :

Le déterminisme étendu est le principe qui régit l'évolution d'une


cause à ses conséquences sous l'action de toute loi naturelle.

Cet énoncé du principe de déterminisme étendu doit être compatible avec la définition
du déterminisme scientifique donnée précédemment (condition nécessaire et

116
suffisante et règle de stabilité) et avec celle du déterminisme statistique, bien que
subsistent les obstacles à la prédiction cités. Le déterminisme statistique (introduit
précédemment et décrit en détail plus bas) complète le déterminisme scientifique pour
constituer le déterminisme étendu.

3.1.12.2.1 Définition constructive du déterminisme étendu


D'habitude, la définition d'un mot décrit sa signification. Ne pouvant me contenter d'une
telle définition descriptive pour le déterminisme étendu, j'utilise ci-dessous une
définition constructive permettant, si nécessaire, une extension infinie de cette notion
déduite de propriétés des lois de l'Univers.

Construction
Le déterminisme étendu, comprenant le déterminisme scientifique et le déterminisme
statistique, peut à ma connaissance régir toutes les lois de la physique, pour permettre
toutes les prédictions d'évolution possibles compte tenu des obstacles cités.

Si toutefois on trouve une loi d'évolution de la nature, respectant la règle de stabilité,


qui échappe à la fois au déterminisme scientifique et au déterminisme statistique, on
incorporera ses règles au déterminisme étendu comme suit.
 Nous prenons toutes les lois d'évolution de l'Univers, une par une, dans un ordre
quelconque.
 Considérons une de ces lois. Si sa règle d'évolution fait déjà partie du
déterminisme étendu, nous l'ignorons et passons à la suivante ; sinon nous
incorporons cette règle d'évolution à la définition du déterminisme étendu.
 Chaque fois que nous incorporons la règle d'évolution d'une loi supplémentaire,
nous vérifions sa cohérence avec les règles déjà incorporées, de manière à
rester conforme à la nature, dont aucune règle d'évolution n'en contredit une
autre ; en principe, cette vérification est inutile si les énoncés des lois respectent
bien le postulat de cohérence des lois de l'Univers.

La définition du déterminisme étendu sera ainsi complétée progressivement, au fur et


à mesure des découvertes scientifiques… si nécessaire.

3.1.12.2.2 Validité de cette approche


Le déterminisme étendu défini comme ci-dessus constitue une axiomatique [67] dont
les axiomes (règles de faits) sont les conditions initiales des diverses lois d'évolution,
et les règles de déduction (d'inférence) sont les règles d'évolution correspondantes,
selon la sémantique suivante : une situation décrite par les valeurs d'un ensemble de
variables S évolue selon un ensemble de règles R(S). R(S) ne comprend qu'une seule
loi d'évolution pour chaque variable de S, sauf en physique quantique [325] où
plusieurs lois peuvent être déclenchées simultanément.

La validité théorique de cette approche de définition constructive a été étudiée et


justifiée par les logiciens, qui ont montré comment on peut compléter une axiomatique
au fur et à mesure qu'apparaissent des vérités ou des règles de déduction qu'on ne
peut déduire des axiomes existants, mais que la sémantique du sujet impose de
prendre en compte. Ce point est abordé dans [92].

117
La validité pratique de cette approche résulte de son respect de la méthode
scientifique, qui ajoute des lois nouvelles aux lois existantes ou les remplace, au fur et
à mesure du progrès des connaissances. Concernant le déterminisme étendu, on
ajoute de nouvelles règles d'évolution des causes aux conséquences au fur et à
mesure que de nouvelles connaissances l'exigent, en excluant les redondances et les
contradictions.

Par construction, le déterminisme étendu n'exclut ni les distributions statistiques de


valeurs, ni l'imprécision, ni l'indétermination de la Mécanique quantique.

Enfin, la définition constructive du déterminisme étendu n'en fait pas un système


interprétatif.

3.1.12.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme


L'universalité du déterminisme étendu résulte de sa définition constructive, qui prend
bien en compte toutes les lois de l'Univers, toutes celles qui sont connues à un instant
donné et toutes celles que l'on découvrira, au fur et à mesure de leur découverte.

Le déterminisme étendu régissant toutes les lois d'évolution et de traduction de la


nature en tant que principe unificateur peut être considéré comme un monisme,
système philosophique qui réduit l'ensemble des lois de l'Univers à un seul principe
général. (Ce principe unificateur est la causalité supposée stable.)

En tant que théorie philosophique d'évolution, le déterminisme étendu est un


mécanisme, système qui explique les évolutions de l'Univers ou de parties de l'Univers
uniquement par des causes matérielles efficaces [39], c'est-à-dire des raisons
suffisantes du devenir. Cette explication exclut toute cause finale [39].

3.1.12.2.4 Limites de la règle de stabilité du déterminisme


La définition du déterminisme scientifique traditionnel prévoit la stabilité de la loi
d'évolution. Mais cette hypothèse n'est pas toujours pertinente. C'est ainsi que, lorsque
les astronomes ont découvert que l'Univers est en expansion (après des siècles de
croyance a priori en un espace qui n'évolue pas), ils ont commencé par postuler que
sa vitesse d'expansion (le nombre d'années-lumière supplémentaires ajoutées à son
rayon chaque année) est constante [111]. Puis ils se sont aperçus que ce postulat était
doublement faux, car nous avons la preuve que :
 Dans la première fraction de seconde (environ 10 -35 seconde) après sa
naissance, la croissance de l'Univers a été extraordinairement rapide, son rayon
croissant des milliards de fois plus vite que la vitesse de la lumière : ce fut la
courte phase d'inflation [313].
 De nos jours, la vitesse de croissance est bien plus faible (on ne parle plus
d'inflation, on parle d'expansion), mais elle augmente : le rayon de l'Univers
(environ 47 milliards d'années-lumière, correspondant à un âge de 13.8 milliards
d'années) croît de plus en plus vite. [111] [370]

Connaître la vitesse d'expansion de l'Univers et sa variation depuis le Big Bang est


important pour déterminer l'âge de l'Univers et mieux comprendre les phénomènes
physiques qui interviennent encore de nos jours.

118
Conclusion : lorsqu'on suppose qu'une loi d'évolution est stable il faut être prudent,
et d'autant plus prudent que l'on considère une période longue.

La règle de stabilité des lois du déterminisme scientifique, reprise dans le


déterminisme statistique et le déterminisme étendu, n'a pas besoin d'être absolue. Son
respect n'est nécessaire que pour assurer la cohérence des évolutions dans le temps
et l'espace, ce qui exige :
 que l'évolution d'une situation S ne dépende que des valeurs initiales de ses
variables, pas de l'instant ou de la position de départ (qu'elle soit la même pour
deux situations S et S' déduites l'une de l'autre par un déplacement dans le
temps ou l'espace) ;
 qu'une évolution commencée se poursuive avec la même loi pendant toute sa
durée et dans tout l'espace concerné.

Considérations relativistes
J'explique, en décrivant les propriétés relativistes de l'espace-temps dans l'annexe de
ce livre, qu'un événement A ne peut être cause d'un événement B que si, dans le
diagramme d'espace-temps, B est à l'intérieur du cône de lumière de A, c'est-à-dire si
la lumière partant du lieu de l'événement A et se propageant à sa vitesse habituelle
(c = 299 792 458 m/s dans le vide) a le temps d'arriver au lieu de l'événement B avant
la survenance de ce dernier.

Si B est hors du cône de lumière de A, il ne peut avoir été causé par A ou l'avoir
influencé, et des lois physiques différentes pourraient s'appliquer aux lieux et instants
de A et B sans conséquence sur la cohérence de l'Univers pour des observateurs en
A ou B. Par contre un autre observateur, en C, capable de voir les deux événements
A et B (donc situé dans leurs deux cônes de lumière) pourrait s'apercevoir d'une
éventuelle différence entre les lois de la nature s'appliquant en A et en B si cette
différence n'était pas négligeable.

Donc, vue de la Terre à notre époque, une éventuelle variation d'une loi de l'Univers
peut être visible ou invisible, selon son emplacement et sa date dans l'espace-temps
de l'Univers.

L'expansion de l'Univers visible se produit à la vitesse de la lumière, c [111]. Elle


n'affecte que l'espace entre amas de galaxies : la gravitation qui domine dans ces
amas en empêche l'expansion. Le rayon R de l'Univers visible est 47 milliards
d'années-lumière ; la lumière a mis 13.8 milliards d'années pour nous en parvenir (du
fait de l'expansion). Un événement actuel situé à plus de 9.1 milliards d'années-lumière
de notre galaxie nous restera à jamais inconnu, sa lumière ne pouvant nous atteindre
parce que la vitesse d'expansion à cette distance-là est déjà égale à c et augmente
au-delà. [370] Une éventuelle différence de loi physique entre le lieu et l'époque de cet
événement et notre Terre à notre époque serait sans conséquence pour nous et
indétectable.

La règle de stabilité n'a pas besoin d'être absolue


Comme nous venons de le voir, une éventuelle différence entre lois de la nature peut
rester invisible pour nous et notre déterminisme, soit pour les raisons relativistes, soit
pour des raisons d'éloignement, soit tout simplement si ses effets sont négligeables

119
aux échelles (de temps, de longueur, d'énergie, etc.) où nous pouvons en être
impactés. La règle de stabilité n'a donc pas besoin d'être absolue.

3.1.12.3 Stabilité des lois d'évolution et situations nouvelles


Nous examinons dans cette section une restriction possible des exigences du postulat
de causalité. Une étude approfondie de ce postulat est disponible plus bas.

3.1.12.3.1 Apparition d'une loi d'évolution


La règle de stabilité du déterminisme scientifique implique ceci : à l'apparition d'une
situation donnée S, une certaine loi physique d'évolution L est appliquée
automatiquement par la nature ; et si la même situation S réapparaît à un autre
moment et/ou dans un autre lieu, c'est la même loi d'évolution L qui sera appliquée.

Mais nous n'avons nullement postulé que la loi L doit exister avant la première
survenance de la situation S. Si elle existait avant, cette loi serait, au moins
provisoirement, sans objet ; un idéaliste comme Platon pourrait en envisager
l'existence, un matérialiste non. Pour l'homme, une loi physique est une abstraction
destinée à décrire un phénomène ou son évolution, ou à calculer un résultat. Si
l'homme imagine une loi s'appliquant à des situations qui ne se sont jamais produites,
comme il peut toujours le faire, cette loi restera pure spéculation jusqu'à ce que ses
conditions d'application soient réunies, ce qui arrivera ou non. Donc :
 Nous limiterons la période d'application de la règle de stabilité d'une loi
d'évolution au temps qui suit l'apparition de la première situation où elle
s'applique.
 Une loi d'évolution d'une situation qui ne s'est jamais produite, et dont la
survenance n'est pas certaine, est pure spéculation car elle est sans objet ; et
son énoncé est infalsifiable [203].

3.1.12.3.2 Restriction du postulat de causalité


En affirmant qu'en l'absence de cause la conséquence n'a pas lieu, notre postulat de
causalité exclut la possibilité de situations « vraiment nouvelles », c'est-à-dire sans
cause physique existante ou ayant existé dans notre Univers : toute situation a une
chaîne de causalité remontant jusqu'à la naissance de l'Univers ; c'est une
conséquence déterministe de cette situation initiale.
Il ne peut exister de chaîne de causalité indépendante, car si elle avait commencé
après la naissance de l'Univers son début aurait résulté d'un enchaînement de
situations existant avant elle, ce qui est contradictoire ; et si elle avait commencé avant,
elle aurait été prise en compte lors de la naissance de l'Univers, événement ponctuel
dans l'espace et le temps [313]. Du reste, imaginer un « avant le Big Bang » est pure
spéculation, nos connaissances de physique ne remontent pas si loin.

Or la contrainte « pas de situation vraiment nouvelle » n'est en rien nécessaire à la


stabilité des lois d'évolution dans le temps et l'espace. Celle-ci exige seulement qu'une
fois apparue lors de son application à une situation S, une loi s'applique à l'identique
à toute situation S' déduite de S par une translation dans le temps et/ou l'espace.
S'imposer qu'il n'y ait jamais de situation nouvelle dans l'Univers est un apriori inutile
du moment que la structure de cette situation (ses objets composants et leurs
relations) ne contredit pas de loi de structure existante (la nouveauté ne peut rendre
impossible ce qui existe déjà, elle peut seulement en changer les lois d'évolution).

120
Bref, notre principe de causalité est fait pour prévoir l'avenir à partir du passé ; il n'exige
nullement que la chaîne de causalité remonte à l'infini dans le passé, tant pis pour les
philosophes qui ne s'en sont pas aperçu et se sont crus obligés de postuler une
« cause première », une « cause sans cause » comme Dieu.
Rien n'interdit que l'Univers ait toujours existé, si toutes ses lois d'évolution sont
stables après leur première application. Rien n'oblige une loi d'évolution physique
d'avoir existé avant la première fois où il existe une situation à laquelle elle doit
s'appliquer ; la physique n'a pas besoin des Idées éternelles de Platon.

Nous allons donc, dans le reste de cette section, conjecturer que des situations
vraiment nouvelles (sans cause préalable) peuvent apparaître dans l'Univers, pour voir
si cela permet une explication plausible de situations nouvelles constatées sans en
contredire d'autres ; nous appellerons apparitions de telles situations. Une apparition
est nécessairement accompagnée de sa loi d'évolution, qui peut être nouvelle ou être
une évolution de loi préexistante applicable universellement désormais.

Affirmer qu'une situation est une apparition parce que nous n'en connaissons aucune
cause et qu'elle n'a pas d'équivalent peut, évidemment, résulter d'une ignorance de
notre part, et se trouver démenti ultérieurement ; l'existence d'apparitions n'est donc
qu'une conjecture, conséquence d'une restriction du postulat de causalité.

Le fait qu'une situation-apparition soit découverte aujourd'hui n'entraîne pas qu'elle


n'existait pas auparavant : une telle affirmation ne peut résulter que d'une étude
expérimentale ou théorique, avant d'être prouvée elle n'est qu'une conjecture.

Voici quelques cas que l'on peut considérer aujourd'hui comme des apparitions.

3.1.12.3.3 Exemples d'apparitions

La naissance de l'Univers
Rien ne prouve qu'elle résulte d'une situation préexistante dans un Univers extérieur
préexistant, par application de lois préexistantes. On peut conjecturer que les lois
d'évolution de l'Univers sont nées avec lui, car leur existence antérieure est pure
spéculation indémontrable et leur existence ultérieure une certitude.

Nous savons [313] que, au commencement de l'Univers, des lois fondamentales de


notre Univers actuel ne s'appliquaient pas, notamment parce que des concepts de
base comme le temps et l'espace étaient d'une autre nature qu'aujourd'hui
(probablement discontinue, quantifiée…) ; mais nous ne savons pas (ou pas encore)
quelles lois s'appliquaient. Ce commencement peut donc être considéré comme une
apparition, la première.

L'inflation
La courte période dite d'inflation [313], peu après le commencement de l'Univers mais
avant le Big Bang, a vu une expansion de l'Univers fantastiquement rapide, dilatation
de l'espace des milliards de fois plus rapide que la vitesse de la lumière et
accompagnée de création de matière.

121
Nous ne connaissons pas la cause précise de l'inflation. Nous pouvons seulement
conjecturer qu'elle est due à une fluctuation quantique. Cette énergie a pu apparaître
sans cause, pendant un temps très bref, par transformation d'énergie potentielle du
milieu environnant. L'inflation s'est terminée par la situation que nous appelons Big
Bang, elle-même suivie d'une expansion de l'Univers à un rythme beaucoup plus lent
et sans création de matière, expansion qui se poursuit de nos jours. ([136] Tegmark)

Les fluctuations quantiques


Ce phénomène (rappelé plus loin) est une variation d'énergie en un point de l'espace
vide sans cause autre que l'affirmation « l'énergie du vide est instable à cause
du principe d'incertitude de Heisenberg », ce qui n'explique rien. Ce n'est pas une
véritable évolution, car « l'emprunt » d'énergie ΔE à l'espace environnant (matérialisé
par l'apparition d'une paire particule + antiparticule) est restitué environ Δt secondes
après par fusion de cette particule avec l'antiparticule, en respectant la limite
ΔE.Δt ≥ ½ä. C'est donc une apparition.

3.1.12.3.4 Conséquences philosophiques de la possibilité d'apparitions


Restreindre la contrainte de stabilité en admettant la possibilité d'apparitions a
d'importances conséquences philosophiques. Exemples :
 Certaines chaînes de causalité peuvent apparaître après la naissance de
l'Univers. L'opposition entre matérialisme (qui refuse les phénomènes sans
cause actuelle ou passée interne à l'Univers) et idéalisme (qui croit possibles
des phénomènes dont la cause est externe à l'Univers, comme la volonté d'un
Créateur) n'est plus aussi totale.
 Des situations et des phénomènes peuvent rester inexpliqués, parce que ce sont
des apparitions.
 L'ensemble des lois d'évolution de l'Univers peut s'enrichir ou évoluer
progressivement. Certaines situations ou évolutions considérées comme
impossibles avec les lois physiques actuelles peuvent ne plus l'être
éternellement.
Exemple : l'expansion de l'Univers a été considérée successivement comme
inexistante, puis à vitesse constante et aujourd'hui à vitesse croissante : pour
qu'une loi de la nature paraisse stable dans le temps ou l'espace, il faut qu'elle
varie trop lentement pour qu'on s'en aperçoive avec les moyens dont on dispose.
 Des lois de conservation comme la conservation de l'énergie ou de la quantité
d'informations peuvent être violées à l'occasion d'une apparition (détails).

3.1.12.4 Conclusions sur le déterminisme étendu et la causalité

3.1.12.4.1 Déterminisme étendu : un principe et un objectif


L'expression « déterminisme étendu » désigne un principe (en fait : un postulat)
régissant les lois d'évolution de la nature. Nous savons que le caractère déterministe
n'entraîne pas toujours la prédictibilité ; c'est ainsi que l'action d'un grand nombre de
processus déterministes simultanés ne change pas leur nature globale déterministe,
mais rend impossible par excès de complexité la prédiction du futur.

122
Le déterminisme étendu constitue un pont entre science et philosophie destiné à mieux
comprendre ce qui est et mieux anticiper ce qui sera.

3.1.12.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique


Que mes lecteurs soient ou non complètement d'accord avec mes définitions du
déterminisme scientifique, du déterminisme statistique, du déterminisme étendu, du
hasard et du chaos n'est pas indispensable à la lecture de ce livre. Seule compte la
connaissance des limites de la prédiction des évolutions physiques, avec ce qu'elle
implique de culture scientifique.

Voici un résumé d'affirmations concernant la causalité et le déterminisme étendu des


lois de la nature.
 Une cause est une situation à un instant donné, avec tous ses paramètres.
Cette définition n'est pas triviale. Considérons une situation de Mécanique
quantique avec superposition d'états qui évolue par décohérence pour devenir un
état unique. On pourrait penser qu'il s'agit d'un cas où plusieurs causes (les états
superposés) ont évolué vers une conséquence unique, ce qui constituerait une
causalité différente de celle où une cause unique évolue vers un ensemble de
conséquences. En fait, la superposition d'états constitue bien une situation à
considérer dans son ensemble, donc une cause unique. (Développement)
 La conséquence d'une cause est tirée, automatiquement et immédiatement, par
la nature sous forme d'un ensemble d'évolutions simultanées de certaines
variables (si aucune n'était affectée, il n'y aurait pas d'évolution).
 Cet ensemble d'évolutions peut ne comprendre qu'une évolution unique ou
(en physique quantique) comprendre plusieurs évolutions simultanées en
superposition. Cette superposition prend fin par une décohérence, au bout
d'un temps en général court, et d'autant plus court que le système considéré
interagit fortement avec son environnement et que les états superposés sont
différents, rendant ainsi la superposition instable.
 Dans la nature, la décohérence est le seul cas d'évolution où le hasard
intervient (par déterminisme statistique), si l'on considère les fluctuations
quantiques comme étant des phénomènes sans cause préalable qui ne sont
pas des évolutions, parce qu'ils reviennent toujours à l'état initial sauf dans
le cas des trous noirs qui s'évaporent. Et même la décohérence s'explique
sans hasard, de manière déterministe, avec la théorie de Hugh Everett.
(Voir en fin de texte la table résumant les cas d'imprédictibilité)
 Une particule peut parcourir une infinité de trajectoires à la fois, solutions de
l'équation de Schrödinger, autour d'une trajectoire la plus probable calculée
en pondérant chacune des trajectoires individuelles avec sa probabilité.
Cas particulier intéressant : un ensemble de particules décrites par un état
quantique global, comme une paire de photons corrélés (on dit aussi
"intriqués"), conserve certaines propriétés de cet état global même lorsque les
particules s'éloignent les unes des autres. Si un événement affecte alors l'une
des particules (exemple : l'absorption d'un photon de l'ensemble intriqué lors
d'une mesure) ses conséquences sont propagées instantanément à toutes
les autres particules « à une vitesse infinie » : on dit qu'il y a non-séparabilité.

123
 Toute évolution physique d'un système laisse invariante la quantité
d'informations qui le décrit (conséquence de la réversibilité de l'équation de
Schrödinger).
 Dans la nature, l'instabilité peut constituer une cause d'évolution.
 L'instabilité peut résulter d'une énergie cinétique traduisant la température,
source de l'agitation incessante appelée mouvement brownien.
 L'instabilité peut se manifester par des fluctuations énergétiques ; il s'agit
alors d'une indétermination régie par le principe d'incertitude.
 L'instabilité des systèmes non linéaires (par exemple les systèmes
dissipatifs comme les êtres vivants, en déséquilibre thermodynamique), peut
être source d'auto-organisation (comme l'évolution des espèces).
 L'instabilité peut résulter d'une solution particulière d'un modèle d'évolution,
comme l'inflation de l'Univers qui résulte de la Relativité Générale [313].
 L'instabilité peut résulter de la nature même d'un système dynamique ; ses
lois d'évolution peuvent changer en certains points de bifurcation. [281]
 La nature ne connaît pas le concept humain de « résultat d'une évolution » et
elle n'a pas de finalité (contrairement à la doctrine idéaliste).
 Par définition, un résultat (notamment la durée d'un phénomène) est l'ensemble
des valeurs des variables qui nous intéressent, nous hommes, considérées à un
instant donné. Il peut venir d'une ou plusieurs des évolutions déclenchées par
une cause donnée.
 Une cause donnée ne fait que déclencher un ensemble d'évolutions, dont elle ne
garantit ni la prédictibilité des résultats, ni la précision de chaque résultat,
préoccupations strictement humaines.
 Chaque évolution déclenchée est gouvernée par une loi physique, selon le
principe déterministe « les mêmes causes produisent les mêmes effets »,
principe qui implique ce qui suit :
 La stabilité (l'invariance) des lois physiques dans le temps et l'espace (au
moins à l'échelle qui nous est accessible).
 L'absence de hasard dans le choix de la loi d'évolution d'une situation.
 En Mécanique quantique, lors d'une évolution dont le modèle peut avoir
plusieurs solutions, celles-ci constituent un ensemble prédéterminé, dont
chaque élément a une probabilité connue d'apparaître si on fait un grand
nombre d'expériences identiques.
Ce choix statistique d'une valeur est donc un type d'évolution naturelle
particulier, faisant passer d'une superposition de valeurs à une valeur unique.
C'est le seul cas, dans la nature, où le hasard intervient ; et même lui disparaît
avec la théorie à univers multiples de Hugh Everett.
 Dans le cas d'une bifurcation, la loi choisie dépend d'un paramètre de
contrôle qui a une valeur critique au point de bifurcation.
 En cas d'évolution sensible aux conditions initiales, le résultat est
imprédictible à long terme au départ du fait d'une amplification
mathématique d'inévitables imprécisions de calcul ou physiques.

124
 La nature a toutes les lois qu'il faut pour réagir à toutes les situations. Elle
« n'improvise » jamais de conséquence et n'en « oublie » jamais.
 Il n'y a pas dans l'Univers de situation parfaitement stable pour l'éternité,
situation sans loi d'évolution quelle que soit la variable d'état considérée.
 Les lois physiques constituent un ensemble cohérent : leurs effets se complètent
sans jamais se contredire.
Exemple : les différentes trajectoires éventuelles d'une particule unique, qui les
emprunte toutes à la fois, sont parcourues à des vitesses telles que la particule
arrive en une fois à une destination unique, pas à plusieurs dates dépendant des
diverses trajectoires. Mais des différences de longueur de trajectoires peuvent
produire des interférences.
 La nature ignore les concepts d'échelle d'espace ou de temps, qui ne sont que
des abstractions commodes de l'esprit humain : c'est le principe de
correspondance.
 Une loi physique s'applique à toutes les échelles, mais ses effets peuvent
être négligeables ou trop difficiles à calculer à certaines échelles.
 Certains phénomènes sont modélisés par des structures géométriques dites
fractales, qui ont la même forme quelle que soit l'échelle, c'est-à-dire « le
grossissement ».
 Les lois physiques respectent un certain nombre de symétries (invariances)
résultant de l'uniformité de l'Univers (homogénéité du temps et de l'espace,
isotropie), de la symétrie droite-gauche de l'espace, etc.
Il y a aussi des concepts universels, qui seraient les mêmes aussi pour des
habitants d'une autre galaxie : nombre entier, point, ligne droite, etc., ainsi que des
principes de logique [99]. Le déterminisme ne peut que les respecter.
 La causalité et le déterminisme tiennent compte de la Relativité, de la
Mécanique quantique, de l'Electrodynamique quantique et de la
Chromodynamique quantique, qui sont des lois de la nature.
 La causalité et le déterminisme s'appliquent aux situations et aux évolutions
physiques de la nature, pas à la pensée humaine. Nous allons voir ci-dessous
que celle-ci est non-déterministe et imprévisible.

Conclusions
Ce n'est pas à la nature de s'adapter à notre besoin de représentations mentales
simples, c'est à nous d'adapter celles-ci et l'échelle que nous considérons à la nature,
même si ces représentations sont abstraites, probabilistes, imprécises ou
indéterminées.

Le déterminisme régit l'évolution qui résulte de la cause initiale ; il ne garantit pas que
le résultat de cette évolution puisse être prédit avant, ou mesuré après avec une
précision arbitraire : le déterminisme, toujours respecté par les lois de la nature, ne
garantit ni la prédictibilité du résultat ni la précision de sa mesure ; il garantit seulement
que la cause déclenche une évolution selon la loi qui s'applique.

Voir aussi Ensemble de définition d'une loi déterministe.

125
Voir en fin de texte la table résumant les cas d'imprédictibilité.

3.2 Imprédictibilité de la pensée humaine


Nous avons vu ci-dessus à propos de la complexité que les phénomènes des êtres
vivants, qu'ils soient physiologiques ou psychiques, reposent sur les mécanismes
physiques des cellules régis par la biologie moléculaire, chacun déterministe et à
évolution et résultat prévisibles.
Le déterminisme et la prédictibilité s'entendent ici au sens du déterminisme
étendu, à cause du caractère probabiliste de l'établissement et de la rupture de
nombreuses liaisons chimiques intervenant en biologie moléculaire.

Mais le nombre de ces phénomènes physiques et leurs innombrables interactions


rendent les phénomènes du vivant d'une redoutable complexité. C'est cette complexité
qui explique l'imprévisibilité de la pensée humaine, qui s'ajoute à une influence
permanente de l'inconscient [353] qui échappe à notre conscience. Voyons quelques
détails.

D'après une interprétation simpliste de la doctrine matérialiste, la pensée est un simple


aspect de mécanismes des neurones : établissement et ruptures de connexions par
synapses, et communications à travers ces synapses. Ces mécanismes sont eux-
mêmes basés sur des réactions chimiques régies par le « logiciel » génétique.
La pensée, consciente ou non, n'est que l'interprétation par notre esprit du
fonctionnement de ses propres neurones, lui-même basé sur des processus de
biologie moléculaire, science exacte déterministe (au sens étendu) basée sur la
physique quantique [325]. Cette interprétation du psychisme [347] est expliquée dans
"Conscience et conscience de soi" [339].

Le logiciel génétique gérant les neurones coordonne des milliers de réactions


chimiques, qui dépendent d'innombrables paramètres appartenant à des domaines
dont je ne peux citer que quelques-uns : perceptions remontant des sens et du corps
vers le cerveau, santé du corps, informations mémorisées dans les neurones, etc. Ces
milliers de réactions interdépendantes donnent aux mécanismes physiologiques de la
pensée une immense complexité.
C'est ainsi que, d'après les recherches récentes citées dans [307] :
 les synapses des vertébrés contiennent environ 1000 protéines, mises en
œuvre dans 13 mécanismes moléculaires, dont l'un utilise 183 protéines
différentes ;
 le cerveau humain compte environ 100 milliards de neurones reliés par 100
trillions de synapses (oui, cent mille milliards de synapses).
 Un neurone peut dialoguer avec un millier d'autres en même temps : comme
les ordinateurs multitâches et/ou multiprocesseurs, beaucoup de processus
psychiques se déroulent en parallèle ; un processus peut en démarrer
d'autres et communiquer avec eux.

Au-dessus de cette complexité physique, la pensée elle-même représente toute une


« hiérarchie logicielle », avec ses mécanismes conscients ou non d'acquisition,
mémorisation et recherche d'informations, de jugement de sens psychique et de valeur

126
de chaque pensée, d'enchaînement de pensées par analogie, induction, déduction et
synthèse, etc. Le fonctionnement de ces mécanismes psychiques ne se déduit pas
des seuls mécanismes physiques qui les supportent, on ne peut les décrire qu'en
ajoutant des algorithmes décrivant des pensées et leur enchaînement : « le tout est
plus riche que la somme des parties ».

Comme nous l'avons vu plus haut, la pensée est la perception humaine du


fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones.
C'est cette interprétation qui transforme un état matériel de neurones en abstractions ;
elle constitue la seule mise en relation entre concepts de genres différents qui ne viole
pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer
n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes
de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions
entre neurones.

Inconscient (voir aussi [353])- Mais l'inconscient entretient constamment des pensées
qui échappent à tout contrôle de la conscience. Il y a, par exemple, la formation de
valeurs de l'individu qui vont ensuite guider toute sa pensée et toutes ses actions en
définissant le sens psychique des situations ; exemple : "voler est mal". Toute pensée
qui a un tel sens produit à son tour des affects [253], comme tout ce qui est désiré ou
qui est redouté.
Il y a aussi un très grand nombre de vérités et d'opinions a priori, aussi
injustifiables logiquement (indécidables [6]) que les pensées relevant de l' « esprit de
finesse » (intuition, sagacité, etc. [66] - [141]), mais accessibles à la conscience. La
connaissance des processus inconscients progresse, mais elle est encore très
embryonnaire. (Détails)

L'inconscient et la complexité fantastique des mécanismes de la pensée expliquent


l'essentiel de son caractère généralement imprévisible, malgré une base physique
déterministe. Inconscient et complexité font que la condition de stabilité
(reproductibilité) de la définition du déterminisme scientifique est rarement satisfaite.
Selon la quantité de neurotransmetteurs comme la dopamine et l'acétylcholine
dans certaines zones du cerveau, les pensées sont très différentes. La mémoire à long
terme, soumise elle aussi à un environnement chimique et à des stimulations qui
varient avec les circonstances, peut oublier ou déformer les souvenirs, voire même
créer de faux souvenirs qui nous paraissent vrais. Le cerveau fabrique souvent des
pensées par intuition ou analogie sans que l'individu soit conscient de leur élaboration,
et certaines sont erronées ou indécidables tout en paraissant acceptables au
mécanisme automatique de jugement de valeur.

Voilà pourquoi le cheminement et les conclusions de la pensée humaine sont le plus


souvent imprévisibles. Voilà pourquoi la pensée d'un individu est tellement soumise à
ses affects que sa raison elle-même n'est qu'un outil à leur service, et que l'individu
préfère souvent des décisions qu'il sait irrationnelles ou immorales à des décisions
rationnelles ou morales.

3.2.1 La barrière de complexité


Depuis que l'homme primitif savait évaluer un danger en un instant, sans prendre le
temps de réfléchir à ce qu'il devait faire, l'homme a dans ses gènes une fonction

127
d'évaluation au premier coup d'œil. Cette fonction est si automatique qu'on ne peut la
bloquer, et il faut l'effort d'un raisonnement délibéré pour en changer les conclusions.

Cet effort est d'autant plus important que la situation est complexe. L'homme doit alors
trouver un compromis entre la qualité d'une décision et sa rapidité. L'habitude de juger
au premier coup d'œil est si forte que, face à une situation complexe, l'homme adopte
souvent la première idée qui lui vient, sans prendre le temps de faire le tour des
paramètres et des contraintes du contexte. Beaucoup de citoyens, par exemple, votent
pour un programme électoral qu'ils n'ont pas analysé en détail, voire dont ils n'ont lu
que le nom du candidat et de son parti.

Conséquence : imprédictibilité des décisions économiques et boursières


L'imprédictibilité des décisions humaines se manifeste de manière spectaculaire en
économie et sur les marchés financiers, où on peut montrer qu'aucun modèle
mathématique, même statistique, ne peut permettre des prédictions fiables. C'est
pourquoi, par exemple, tant de fonds hautement spéculatifs (hedge funds) basés sur
les modèles de mathématiciens de haut niveau (les quants) ont disparu avec de fortes
pertes lors de la crise de 2007-2008 - [301].

3.2.2 Rigueur des raisonnements déductifs


Il nous paraît évident qu'un raisonnement purement déductif (« géométrique », comme
diraient Pascal et Spinoza) est rigoureux. Le syllogisme démonstratif : "Tous les
hommes sont mortels ; Socrate est un homme ; donc Socrate est mortel" nous paraît
rigoureux. Mais les neurosciences montrent que nous n'acceptons une conclusion -
même certaine parce que rigoureuse - que lorsqu'elle ne nous touche pas
personnellement, ou lorsque la valeur affective que nous lui attribuons
automatiquement ne s'oppose pas à une valeur supérieure associée à une conclusion
différente. Dans le cas d'une telle opposition nous préférons être de mauvaise foi,
parce qu'accepter la conclusion logique nous coûte plus cher émotionnellement qu'en
accepter une illogique. Il arrive qu'on préfère perdre de l'argent plutôt que de perdre la
face…
Voir aussi le paragraphe sur la dissonance cognitive.

En toute rigueur :
 La 1ère proposition ci-dessus "Tous les hommes sont mortels" implique à elle
seule la conclusion, puisque Socrate est un homme : en l'affirmant on sous-
entend qu'on est déjà certain de cette conclusion. La 2 ème proposition ne sert
donc qu'à expliciter le raisonnement pour le clarifier et préparer la conclusion,
elle n'ajoute pas d'information à la 1 ère.
Une proposition de type "Tous les…" sous-entend en principe qu'on a la certitude
pour tous les éléments de l'ensemble concerné, par exemple parce qu'on a vérifié
la proposition pour chacun d'eux ou qu'on l'a prouvée logiquement pour tout
l'ensemble qu'ils forment. Mais comme il y a de nombreux cas où une telle rigueur
est impossible (ici on ne sait même pas combien il y a d'hommes, on ne peut les
joindre tous pour vérifier, etc.) la proposition repose alors sur une induction : on
sait qu'elle est vraie pour un nombre d'éléments suffisamment grand pour postuler
qu'elle doit être vraie pour tous ; on prend le risque de généraliser.

128
 Tout raisonnement logique, notamment toute démonstration, repose sur des
prémisses admises sans démonstration. Il peut s'agir d'axiomes, de
généralisations par induction, de certitudes acquises avant ce raisonnement, etc.
 Un raisonnement peut, à l'occasion, comprendre une infinité d'étapes : on parle
alors par exemple de « régression à l'infini » ou de récurrence. Le raisonnement
peut être parfaitement valable et concluant si la suite infinie de déductions
converge vers une conclusion : voir le paragraphe Déterminisme et convergence
des processus et théories.

3.2.3 Champ d'application du déterminisme et de la causalité


La causalité et le déterminisme étendu construit sur elle s'appliquent bien à toutes les
lois de la nature. Ils ne s'appliquent pas, en général, à la pensée elle-même :
 Souvent la pensée ne respecte pas la contrainte de reproductibilité (règle de
stabilité) du déterminisme scientifique, notamment parce que la complexité des
phénomènes psychiques et le nombre de leurs paramètres (humains et
environnementaux) font qu'il y a presque toujours au moins une variable qui a
changé entre deux situations apparemment identiques, par exemple dans
l'inconscient. [353]
 Face à une situation, une différence fondamentale entre la nature et l'homme est
que la nature applique instantanément la loi ad hoc, alors que l'homme réfléchit
aux conséquences d'une éventuelle action, anticipant ainsi l'avenir et agissant
en fonction de cette anticipation. Et comme sa réflexion (dominée par ses
affects, souvent inconscients) n'est en général pas rationnelle, ses conclusions
sont trop souvent imprévisibles pour que ses actions soient prédictibles.
 L'esprit humain peut spontanément associer n'importe quel concept à n'importe
quel autre, au mépris du principe d'homogénéité et de la rigueur. Il lui faut
ensuite un effort délibéré de raisonnement conscient pour aboutir à une
conclusion rigoureuse, et il échoue souvent du fait de biais inconscients.

Nous verrons plus bas en détail pourquoi il y a une classe de phénomènes, dont la
pensée fait partie, qui en général ne sont pas déterministes. Notons pour le moment
qu'il n'y a pas de contradiction entre le caractère déterministe des mécanismes
neuronaux de la pensée, résultant de celui des mécanismes génétiques sous-jacents,
et son caractère non déterministe : entre les premiers et la seconde, il y a toute une
logique de fonctionnement dont la complexité, la non-conscience et la sensibilité au
contexte (santé, etc.) expliquent l'instabilité.

Voir en fin de texte la table résumant les cas d'imprédictibilité.

3.3 Compléments philosophiques sur le déterminisme physique


3.3.1 Trois cas particuliers de déterminisme de la nature
 Au sens du déterminisme traditionnel, le jet d'un dé est un phénomène aléatoire
puisque le nombre résultant est imprévisible [299]. En fait, ce résultat n'est pas
n'importe quoi : l'ensemble des résultats, {1, 2, 3, 4, 5, 6}, est toujours le même :
le résultat est déterministe statistique. Dans le cadre du déterminisme étendu

129
défini ci-dessus le jet d'un dé est un phénomène déterministe sensible aux
conditions initiales, pas un phénomène aléatoire.
Le résultat d'une évolution physique donnée n'est pas nécessairement unique, il
peut s'agir d'un ensemble ; le déterminisme étendu exige seulement qu'une cause
donnée déclenche toujours le même phénomène ; son résultat peut avoir
plusieurs éléments lorsque le modèle mathématique qui le décrit a plusieurs
solutions. Seul le choix d'un élément unique de l'ensemble-résultat produit par une
évolution donnée peut être statistique, et cette évolution ne se produit qu'en
Mécanique quantique, sous le nom de décohérence.
Conclusion : la nature a ses propres limites ; elle ne permet pas toujours la
prédictibilité que l'homme souhaite, avec une solution unique et une précision
parfaite. C'est pourquoi, par exemple, la position et la vitesse d'un électron en
mouvement ne peuvent être connues qu'avec des probabilités dans un volume
autour de chaque point.
 Le résultat d'un algorithme [69] calculé par un ordinateur est nécessairement
déterministe [114]. Le fait que la succession des décimales de Pi n'ait aucune
régularité connue, c'est-à-dire qu'elle semble aléatoire [98] bien que calculable
par un algorithme, montre qu'un algorithme peut générer des suites de nombres
paraissant aléatoires malgré son déterminisme (le caractère aléatoire n'est que
probablement vrai pour Pi, car aucun contre-exemple n'a jamais été trouvé et
nous avons vu qu'il n'existe pas de critère rigoureux de caractère aléatoire d'une
suite de nombres). Les logiciels générateurs de nombres « aléatoires » sont très
utilisés en informatique et pour concevoir des expériences de physique.
Nous verrons que la calculabilité d'un algorithme exige le déterminisme, mais la
modélisation informatique d'un processus déterministe ne conduit pas
nécessairement à un algorithme calculable. (Détails sur la calculabilité : [114])
 Si, par une nuit noire, un désespéré se jette du haut d'un pont dans un fleuve
pour se noyer, et qu'un homme qu'il n'a pas vu plonge et le sauve, le sauvetage
était imprévisible. C'est un cas de déterminisme où il y a rencontre de deux
chaînes de causalité indépendantes (celles des deux hommes).

3.3.2 Symétrie temporelle et réversibilité du déterminisme traditionnel

Possibilité d'inverser le sens du temps


Pour le déterminisme scientifique traditionnel, le temps peut s'écouler du passé vers
l'avenir ou du présent vers le passé. Cette possibilité d'inverser le sens du temps en
changeant t en -t dans les équations d'évolution est compatible avec les lois de la
physique. Exemples :
 Les lois du mouvement de Newton [110] (voir exemple) ;
 Les équations différentielles de Lagrange et de Hamilton ;
 Les équations de la Relativité Générale d'Einstein [328] ;
 Les équations de Maxwell [123] ;
 L'équation de Schrödinger, etc.

130
Chaîne de causalité unique du déterminisme traditionnel
Nous savons que pour le déterminisme philosophique, tout état d'un système a une
infinité de prédécesseurs et de successeurs, l'ensemble constituant une chaîne de
causalité unique, où chaque état a un prédécesseur unique et un successeur unique
[200]. L'avenir qui suit la situation à un instant t donné ne dépend que de cet instant-
là, on peut le prévoir à partir de cet instant-là sans tenir compte du passé qui précède
l'instant t, et le passé d'un présent donné peut être reconstitué en pensée.

3.3.2.1 Différence entre symétrie temporelle et réversibilité


Il ne faut pas confondre symétrie temporelle, propriété qui laisse invariante une
équation d'évolution lorsqu'on y remplace la variable t par -t, et réversibilité physique,
propriété qui permet à un système d'évoluer tantôt dans un sens, tantôt en sens
opposé.

Symétrie temporelle
La symétrie temporelle est une propriété des fonctions et équations invariantes quand
on inverse le sens du temps, ce qui revient à "dérouler à l'envers" le fil des
événements, du présent vers le passé.
Toutes les évolutions dues à une interaction électromagnétique ou une interaction
forte [18] sont régies par des lois symétriques par rapport au temps.
L'équation de Schrödinger, qui régit en principe toute évolution de système isolé
dans le temps et l'espace, est également réversible : elle permet, en théorie, de
reconstituer l'état passé du système. C'est pourquoi tout se passe comme si la
nature « se souvenait » de ses états passés, c'est-à-dire en conservait
l'information.

Réversibilité physique
La réversibilité physique est une propriété des évolutions ou transformations d'un
système ; exemple d'évolution : une réaction chimique. Lorsqu'une évolution
réversible change de sens, le temps continue à s'écouler dans le même sens, du
présent vers l'avenir.

Exemple de symétrie temporelle


L'équation fondamentale de la dynamique f = m relie une force f, une masse m et une
accélération  dérivée seconde de la fonction de position x(t). Si on change t en -t, la
vitesse (dérivée de la position par rapport au temps) change de signe et l'accélération
(dérivée de la vitesse) change deux fois de signe : elle est donc inchangée. L'équation
est donc invariante par un changement de t en -t. Cela se voit dans l'exemple.

Exemple de phénomène réversible


En chimie certaines réactions entre deux produits A et B convergent vers un état
d'équilibre, où A et B coexistent dans une proportion donnée. S'il se forme trop de A
aux dépens de B, la réaction s'inversera et formera du B aux dépens de A jusqu'à
établir la proportion d'équilibre. Le temps, lui, s'écoulera toujours du présent vers le
futur.

131
Remarque philosophique sur la réversibilité
Dans [215] page 121, André Comte-Sponville cite l'Ethique à Nicomaque d'Aristote :
"Il y a une seule chose dont Dieu même est privé,
C'est de faire que ce qui a été fait ne l'ait pas été."
Il rappelle ainsi qu'on ne peut faire qu'un événement du passé n'ait pas eu lieu, même
si on aimerait bien qu'il n'ait pas eu lieu ; on ne peut pas, non plus, faire que le présent
soit autre que ce qu'il est : c'est le principe d'identité [16]). Mais la réversibilité ne
revient pas sur le passé, elle recrée le passé en effectuant une transformation en sens
inverse sans pour autant changer le sens du temps ; c'est une possibilité déterministe,
où l'action d'une loi réversible de la nature fait bien passer du présent au futur par une
évolution inverse de celle du passé.

3.3.2.2 Phénomène irréversible


Lorsqu'une évolution ne peut se faire que dans un seul sens, on dit qu'elle est
irréversible. C'est le cas, par exemple, de la décomposition radioactive d'un noyau
atomique : une fois décomposé en d'autres particules avec production éventuelle de
photons [117], le noyau ne peut plus se recomposer pour revenir à l'état initial.

Une équation qui décrit l'évolution d'un phénomène irréversible ne peut ni être
invariante par changement de sens du temps, ni avoir un domaine de validité
permettant d'envisager ce changement de sens.

Exemples de phénomènes irréversibles


 Nous verrons plus bas que le deuxième principe de la thermodynamique [25]
impose à certains phénomènes comme la radioactivité d'être irréversibles.
 En physique quantique (physique de l'échelle atomique), toute mesure perturbe
le système mesuré de manière irréversible.
 Malgré tous ses mécanismes de réparation et de renouvellement, le corps
humain vieillit et ce vieillissement est irréversible : un corps adulte n'a jamais pu
rajeunir et redevenir un corps d'enfant.

Remarque : on a parfois tendance à parler de « réversibilité » lorsqu'on change par la


pensée le sens d'écoulement du temps, mais c'est un abus de langage. Au lieu de
parler de « réversibilité du temps » on devrait parler :
 Soit de « réversibilité de certains phénomènes » : le temps s'écoule toujours du
présent vers l'avenir, mais certains phénomènes physiques sont dits réversibles
parce qu'ils peuvent revenir de l'état d'arrivée à l'état de départ, comme on le voit
dans certaines réactions chimiques réversibles et dans l'exemple ci-dessous.
 Soit de « symétrie par rapport au temps » (symétrie d'une équation par rapport à
la variable temps), certaines lois physiques étant décrites par des équations
invariantes si on change t en -t. Cette symétrie permet de reconstituer le passé
par la pensée, en « passant à l'envers le film des événements ».
Le déterminisme traditionnel de Laplace [200] affirme la possibilité de remonter le
temps par la pensée, c'est-à-dire d'expliquer la succession d'événements qui a
conduit au présent. Il n'affirme rien :

132
 Ni concernant la possibilité d'une inversion du sens d'écoulement du temps
qui permettrait de revenir à une situation physique du passé ;
 Ni concernant la possibilité de phénomènes réversibles.
Attention : le terme « symétrie » est souvent utilisé par les physiciens pour parler
d'invariance.

3.3.2.3 Exemple de loi symétrique par rapport au temps et réversible


Pour illustrer le déterminisme traditionnel, en voici un exemple. Il est classique car
emprunté au domaine des lois de la dynamique et de la gravitation universelle de
Newton [103] [110].

Considérons l'équation fondamentale de la dynamique f = mr'', où le vecteur


accélération r'' est la dérivée seconde du vecteur position r par rapport au temps. Si
l'on inverse le sens du temps, en changeant t en -t pour « dérouler à l'envers le film
des événements » ou « permuter l'avenir et le passé », le vecteur vitesse (dérivée r'(t)
de la fonction de déplacement r(t) ) change de signe, et l'accélération (dérivée r''(t) de
r'(t) ) change aussi de signe par rapport à r'(t) : l'équation de départ est inchangée. On
dit qu'elle est symétrique (c'est-à-dire invariante) par rapport au sens du temps.

La symétrie temporelle change le sens des vitesses, mais pas celui des accélérations ;
et elle ne change ni les grandeurs (valeurs absolues), ni les déplacements, ni la
vitesse, ni l'accélération.

Exemple
L'interprétation de cette symétrie se comprend dans l'exemple suivant. Supposons que
sur la Lune, donc en l'absence de frottements atmosphériques, on lance à l'instant 0
une balle à partir du sol avec un angle de 45° vers le haut et une vitesse dont chacune
des deux composantes, horizontale et verticale, vaut 2m/s. La balle décrit une
parabole d'axe vertical conforme à la loi :
x = 2t (1)
y = -½ gt² + 2t

où g est l'accélération de la pesanteur sur la Lune, g = 1.635 m/s² (environ un sixième


de l'accélération terrestre). A l'instant t = 1.22s, la balle atteint sa hauteur maximale. A
l'instant t = 2s, ses coordonnées sont x = 4m ; y = 0.73m et la composante verticale
de sa vitesse est -1.27m/s.

Supposons qu'à l'instant t = 2s on relance la balle vers le haut avec une vitesse
opposée à celle qu'elle avait en arrivant : une vitesse horizontale de -2m/s et une
vitesse verticale de +1.27m/s. Si on choisit comme nouvel instant 0 l'instant de la
relance, la balle décrira une parabole d'axe vertical conforme à la loi :
x = -2t + 4 (2)
y = -½gt² + 1.27t + 0.73

On remarque que cette nouvelle parabole a le même coefficient -½g du terme t² que
la première, la fonction y(t) ayant la même dérivée seconde, comme prévu. A l'instant
t = 2 depuis la relance, la balle arrive au sol (x = y = 0).

En éliminant t entre les équations (1) on trouve la trajectoire

133
y = (-1/8)gx² + x (3)

Or en éliminant t entre les équations (2) on trouve la trajectoire

y = (-1/8)gx² + x (4)

Les deux trajectoires (3) et (4) sont bien identiques. La balle a parcouru au retour
exactement la même parabole qu'à l'aller, mais en sens inverse. On a donc bien une
symétrie par rapport au temps permettant de « dérouler le film des événements à
l'envers ».

On dit aussi que le mouvement de la balle est « réversible de manière artificielle »,


puisqu'on peut - dans le cadre de la même loi fondamentale de la dynamique - revenir
de l'état final à l'état initial, mais sans changer le sens du temps. C'est là un exemple
à la fois de réversibilité et de symétrie temporelle. Le déterminisme traditionnel prévoit
la symétrie temporelle et n'impose rien concernant la réversibilité.

3.3.2.4 Système conservatif ou dissipatif – Force conservative ou dissipative


En Mécanique analytique [340], on appelle système conservatif un système matériel
qui a une énergie constante car sans échange avec l'extérieur ; c'est le cas notamment
des systèmes sans frottement (en pratique ceux où les frottements ne perturbent
l'évolution que de manière négligeable) ; exemple : une planète qui tourne autour du
Soleil. Le modèle mathématique d'évolution d'un système conservatif a une symétrie
temporelle lorsque c'est un système d'équations différentielles invariable par
changement de t en -t.

Un système qui n'est pas conservatif (qui échange de l'énergie avec l'extérieur) est dit
dissipatif. Les équations différentielles qui en décrivent l'évolution changent lorsqu'on
remplace t par -t.

Une force est dite conservative si et seulement si le travail qu'elle produit lorsque son
point d'application se déplace de A à B est indépendant du chemin suivi ; elle dépend
alors d'un potentiel. Exemple : une force centrale (dépendant de l'attraction ou de la
répulsion d'un point, le centre, comme la force de gravité du Soleil ou la force électrique
d'un noyau atomique) est conservative (exemple : [313]).

Une force qui ne dépend pas d'un potentiel est dite dissipative. Lorsque son point
d'application se déplace de A à B, son travail dépend du chemin suivi.

3.3.3 Portée du déterminisme : locale ou globale


Le déterminisme local régit le passage d'une situation de départ à une situation
d'arrivée sous l'effet d'une loi d'évolution locale (qui s'applique à la situation de départ
indépendamment des situations qui l'ont précédée ou qui la suivront).
Mais la forme locale n'est pas la seule que le déterminisme peut prendre. Il peut
aussi, en agissant de manière plus globale :
 Choisir une loi d'évolution parmi plusieurs possibles, ce que nous verrons ci-
dessous avec le Principe de moindre action de Maupertuis, avec le principe de
Fermat et les quasi-cristaux.

134
Mais le principe de correspondance fait qu'aucune loi de portée donnée ne peut
faire évoluer une même situation de manière différente de celle d'une loi d'une
autre portée : la nature est cohérente.
 Grouper un certain nombre de variables, en précisant une loi d'évolution globale
qui interdit de connaître l'évolution d'une des variables prise isolément ; nous
verrons cela ci-dessous avec le déterminisme statistique, les variables
complémentaires de la Mécanique quantique et ses particules corrélées.

Nous avons évoqué plus haut l'origine des échelles multiples du déterminisme.

3.3.3.1 Principe de moindre action de Maupertuis


D'après le postulat de la chaîne de causalité unique du déterminisme traditionnel, le
déterminisme agit localement (de proche en proche) en enchaînant causes et
conséquences. Mais le Principe de moindre action de Maupertuis [62] (qui est en
réalité un théorème démontrable) montre que lors du mouvement d'un corps sous
l'action d'un champ de force dérivant d'un potentiel [exemple : le champ d'attraction du
Soleil], la trajectoire entre un point de départ et un point d'arrivée ne dépend que de
ces points. Elle peut aussi être interprétée comme choisie globalement parmi toutes
les trajectoires possibles.

3.3.3.2 Principe de Fermat (plus court chemin de la lumière)


Autre exemple de déterminisme global : le principe de Fermat [106] (théorème lui aussi
démontrable), selon lequel la lumière choisit toujours le chemin le plus court (au sens
du temps de parcours) pour aller d'un point à un autre. Il y a là un déterminisme global
imposant les comportements suivants :
 Dans l'espace ordinaire (espace dit euclidien), le chemin le plus court est une
ligne droite [313].
C'est ainsi que la lumière d'une source située au foyer d'un miroir elliptique est
focalisée à l'autre foyer après une réflexion unique sur l'intérieur elliptique du
miroir, car tous les chemins entre les foyers qui comprennent une réflexion sur
l'ellipse ont la même longueur, donc le même temps de parcours.
 A la surface d'une sphère comme la Terre, le chemin le plus court entre deux
points A et B est le plus petit des deux arcs de grand cercle passant par A et B
[313].
 En passant d'un milieu d'indice n1 à un milieu d'indice n2, il y a réfraction et la
lumière change de direction en suivant la 2 e loi de Descartes [106].

3.3.3.3 Quasi-cristaux
Dernier exemple de déterminisme global (ou plus exactement « à grande distance ») :
la structure atomique des quasi-cristaux, dont la découverte par Daniel Schechtman a
été récompensée par le Prix Nobel de chimie 2011 [308]. Dans un cristal « normal »
la construction (cristallisation) se fait par ajout d'atomes un par un, à des
emplacements compatibles avec les atomes voisins, pour respecter des motifs simples
comme les symétries de rotation d'ordre 2, 3, 4 ou 6, les seules permises par la théorie
traditionnelle [149]. Dans un quasi-cristal (forme de matière découverte fortuitement
en 1984 et dont on connaît aujourd'hui plus de 100 variétés) la structure des atomes
est déterministe (non aléatoire), fortement ordonnée à grande distance (et non pas par
rapport aux seuls atomes voisins) et avec des symétries de rotation interdites par la

135
théorie des cristaux normaux. On trouve ainsi, par exemple, des symétries de rotation
en icosaèdre, solide régulier dont les 20 faces sont des triangles équilatéraux ! [147]

Icosaèdre vu sous trois angles différents

Tout se passe dans la construction d'un quasi-cristal comme s'il existait des
phénomènes de Mécanique quantique à grande distance caractéristiques d'un nouvel
état de la matière. Nous n'entrerons pas dans le détail du phénomène complexe et
insuffisamment connu des quasi-cristaux, car ce qui nous intéresse du point de vue
déterminisme apparaît suffisamment dans ce qui précède : il existe des phénomènes
dont le déterminisme est global et prend en compte des éléments beaucoup plus
nombreux ou plus éloignés que ceux auxquels on s'attend d'après le déterminisme
classique local. En outre, la Mécanique quantique s'applique aussi à des phénomènes
à une échelle bien plus grande que l'échelle atomique.

3.3.3.4 Variables complémentaires


Nous verrons en étudiant le déterminisme de la Mécanique quantique qu'on y
démontre l'existence d'un « principe d'incertitude », dit de Heisenberg, qui groupe
certaines variables par couples dont une mesure simultanée a un minimum
d'incertitude globale. Nous verrons que cette incertitude minimum provient de
l'existence du quantum d'action h et de l'irréversibilité de la mesure.

3.3.3.5 Conclusion sur le déterminisme global


Le déterminisme agit donc aussi parfois globalement, comme s'il était soumis à une
finalité. Les situations intermédiaires entre le début et la fin d'une évolution sont alors
déterminées par celle du début (« oubliée » dès sa première conséquence dans le
déterminisme de proche en proche) et celle de la fin (qui n'est pas encore arrivée !).
Mais, comme on le voit dans le principe de Maupertuis [62], ce paradoxe n'est
qu'apparent : le déterminisme des lois d'évolution a deux niveaux de portée, un global
et un ponctuel. Lorsque le déterminisme choisit une loi globale, la loi ponctuelle (de
proche en proche) si elle existe complète la loi globale, qui demeure valable. Ce double
comportement n'est pas exceptionnel, nous en verrons un aussi en Mécanique
quantique, pour une particule qui est à la fois corpuscule et onde.

Le comportement global d'un mouvement, choix de trajectoire découvert par


Maupertuis en 1744 [62] après le comportement ponctuel F = m exposé par Newton
en 1687 [110], constitue une extension des lois du mouvement de Newton [103].

136
3.3.3.6 Caractère humain, artificiel, de la notion d'échelle
La notion d'échelle est une abstraction humaine dont la nature n'a que faire. L'homme
s'en sert pour mieux se représenter les situations et les phénomènes, notamment
lorsqu'il compare une chose à une autre. Mais la nature ne juge pas que quelque chose
est "grand" ou "petit" par rapport à autre chose ; dans chaque situation elle applique
la loi d'évolution qui convient : elle prend en compte l'ensemble des paramètres qui
s'appliquent, que l'homme considère cet ensemble comme local ou global,
macroscopique ou microscopique.

Dire qu'entre deux valeurs d'une même variable la différence relative est minime, car
elle n'est que de 10-15 (un millionième de milliardième), n'a pas de sens pour la nature.
Si cette différence suffit pour qu'une évolution soit autre, elle le sera d'après le principe
d'identité [16].

3.3.3.7 Déterminisme des algorithmes et calculabilité


En plus des phénomènes régis par les lois physiques naturelles, le déterminisme
scientifique s'applique à l'ensemble des processus dont le résultat peut être fourni par
un algorithme [69], processus que les informaticiens qualifient de calculables. De tels
processus respectent :
 La condition nécessaire et suffisante ci-dessus, si la cause comprend l'existence
de l'algorithme et de ses données, ainsi que le lancement du calcul ;
 La règle de stabilité et reproductibilité, si l'algorithme est stable dans le temps
parce qu'il n'y a ni influence extérieure sur sa logique ou ses données, ni
autoprogrammation.

L'intérêt pratique des algorithmes vient de leur aptitude à modéliser un processus réel
dans des domaines aussi variés que la physique ou la dynamique d'une population.
Cette modélisation permet à la fois d'expliquer des phénomènes constatés et de
prévoir des évolutions : ses modèles sont déterministes.

Qu'il ait pour but de comprendre quelque chose, de prévoir une évolution et son
résultat ou de démontrer une proposition, un raisonnement d'une science exacte prend
toujours la forme d'un algorithme. Un algorithme étant par nature déterministe, un tel
raisonnement l'est toujours. Nous verrons plus bas qu'il existe des cas où l'on peut
démontrer à la fois qu'un nombre existe et qu'on ne peut pas le calculer ; la
démonstration d'existence est alors un algorithme déterministe auquel on ne pourra
jamais associer un algorithme de calcul de valeur.

3.3.4 Compléments sur le déterminisme philosophique


Selon cette doctrine, tous les événements de l'Univers - y compris les actions
humaines - s'enchaînent dans le temps comme suit. En appelant S(t) la situation (l'état)
d'un système à l'instant t ; S(t-a) sa situation à l'instant "t-a" qui précède t ; et S(t+b)
sa situation à l'instant "t+b" qui suit t, alors :
 S(t-a) est la seule situation à l'instant t-a qui a précédé et entraîné S(t) ;
 S(t+b) est la seule situation à l'instant t+b qui résulte de S(t).

Le déterminisme philosophique est une interprétation du principe de causalité que


nous avons vu, et qui est défini par une condition nécessaire et suffisante.

137
Selon le déterminisme philosophique, appelé aussi "déterminisme de Laplace" [200] :
 La chaîne de causalité reliant diverses situations qui se suivent dans le temps
est unique (il n'y a ni processus parallèles, ni rupture de la chaîne de causalité).
 L'avenir est écrit d'avance et prédictible ;
 Le passé d'une situation donnée peut être reconstruit en pensée sans ambiguïté.
 Dans la mesure où on est certain à l'instant t de la situation S(t), le déterminisme
philosophique permet à la fois d'énoncer l'enchaînement d'événements après la
situation S(t-a) qui a conduit à S(t), et de prédire que S(t+b) se produira à
l'instant t+b.

Selon le déterminisme philosophique, la chaîne explicative remonte dans le temps


indéfiniment ; mais selon certains philosophes elle remonte jusqu'à une situation
initiale appelée parfois « cause ultime » ou « cause première ». Voir aussi [16]) et la
définition de Spinoza d'une chose libre et d'une chose déterminée [225].

3.3.4.1 Critique de l'enchaînement des causes et des conséquences

3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution

Pluralité des évolutions passées possibles


En général, à l'instant t, on ne sait pas quelle était la situation S(t-a) à l'instant t-a, faute
de disposer d'un « film historique » des S(t), et faute de connaître parfaitement la loi
d'évolution qui a conduit à S(t) ; plusieurs situations S1(t-a), S2(t-a)… peuvent avoir été
l'origine unique de S(t). Exemple : si, après une opération arithmétique (déterministe,
car calculable) je sais seulement que le résultat est 4, je ne sais pas si l'opération était
2 x 2 = 4, ou 3 + 1 = 4, ou…
L'explication et la prédiction des situations S(t-a), S(t) et S(t+b) sont de type
externe aux phénomènes, dont elles ne font que décrire l'enchaînement : le
déterminisme correspondant peut être qualifié de factuel. Il n'est ni une preuve de
la nécessité d'un phénomène, ni un éclairage sur son sens ou sa nature interne ;
il ne permet donc pas toujours de comprendre le pourquoi ou le comment d'un
phénomène.

Pluralité des évolutions futures possibles


Nous verrons que plusieurs lois d'évolution sont possibles à partir d'un point de
bifurcation de l'espace des phases. Nous verrons aussi, par la suite, qu'en physique
quantique il existe des évolutions produisant plusieurs résultats en même temps, dont
la coexistence est appelée « superposition », résultats qui finissent par se réduire à un
seul par une évolution finale, irréversible, appelée « décohérence ». La nature choisit
alors un des résultats possibles, sans que nous puissions savoir d'avance lequel.
Conséquences :
 La conséquence d'une cause donnée peut, en physique quantique, être un
ensemble de conséquences, dont la nature retient un seul résultat, ou dont elle
retient tous les résultats ensemble pendant un court instant !

138
Du point de vue causalité, les deux énoncés suivants sont équivalents :
 Une cause donnée a une conséquence (évolution) unique pouvant produire
un ensemble de résultats simultanés ;
 Une cause donnée a un ensemble de conséquences simultanées, chacune
pouvant produire un résultat unique.
 Cette pluralité contredit le déterminisme philosophique, car elle remplace la
chaîne de conséquences unique par une arborescence de conséquences ; et
comme l'existence d'un seul contre-exemple fait qu'une loi proposée est fausse,
le déterminisme philosophique doit être considéré comme réfuté.

3.3.4.1.2 Les transformations irréversibles contredisent aussi le déterminisme


philosophique
En physique les transformations réelles sont irréversibles, et seules des
transformations idéales, théoriques, sont réversibles (permettant aussi l'évolution en
sens inverse) ; nous abordons ce point plus bas. Mais dans ce cas aussi nous pouvons
affirmer que le déterminisme philosophique est contredit par l'existence de
transformations irréversibles, pour lesquelles on ne peut imaginer ni un changement
de sens du temps, ni l'instant de la transformation et la situation à cet instant.
Exemple : lorsqu'un atome de corps radioactif s'est décomposé spontanément, il
ne peut pas se reconstituer à partir des atomes produits et des photons émis, la
thermodynamique l'interdit ; et après avoir trouvé des produits de décomposition,
nous ne pouvons connaître ni l'atome dont ils proviennent (qui n'existe plus), ni
l'instant de cette décomposition, ni la position exacte de l'atome qui s'est
décomposé.

Un autre cas particulier de transformation irréversible est celui de la mesure en


physique quantique, cas que nous abordons maintenant.

3.3.4.2 Déterminisme, mesures et objectivité


En physique quantique toute mesure modifie l'état quantique de l'objet mesuré ; et on
démontre qu'une mesure réversible, c'est-à-dire sans modification de son objet, est
inconcevable. De ce fait, et contrairement à l'habitude en physique macroscopique, en
physique quantique l'interprétation d'une expérience ne peut pas être indépendante
du dispositif expérimental.

Certains philosophes en ont déduit que le résultat d'une expérience de physique


quantique ne pouvait être objectif, puisqu'il dépend de l'expérimentateur. C'est là une
erreur : le fait qu'un résultat dépende des détails d'un dispositif expérimental n'entraîne
pas qu'il dépend de la personne qui expérimente ! Si un autre expérimentateur refait
la même expérience, il obtiendra les mêmes résultats que le premier ; non seulement
cela a été vérifié en physique (quantique ou non) des milliers de fois, mais on n'a
jamais changé un résultat en changeant d'expérimentateur sans changer le dispositif
expérimental : le déterminisme joue bien, l'objectivité de la connaissance des
phénomènes et des résultats est possible.

L'erreur de ces philosophes résulte peut-être de leur idéalisme, qui cherche à prouver
l'existence d'une idée abstraite à la base de toute réalité concrète, pour nier celle-ci ou
en faire une production de l'esprit humain ou divin. Ils déduisent donc de l'intervention

139
obligatoire et déterminante de l'expérimentateur - qu'ils ont affirmée à tort - que la
réalité objective n'existe pas, puisqu'elle n'existe qu'à travers l'expérimentateur ! Un
exemple d'une telle erreur d'idéaliste est donné plus bas.

3.3.4.3 Déterminisme et libre arbitre de l'homme


Pour un tenant du déterminisme qui se veut cohérent, l'homme n'est pas libre de ses
choix ; toute décision d'action à l'instant t dépend du contexte à cet instant-là (l'homme
lui-même, avec son corps et les valeurs qui orientent ses décisions, ainsi que ce qui
l'entoure). S'il fait du mal, l'homme n'est pas responsable, puisque ses actions sont
conséquences de circonstances dont il n'est pas maître ; et il ne peut pas, non plus,
se glorifier d'une bonne action. Malgré son esprit qui le croit libre (parce qu'il peut
décider librement en fonction de ses valeurs qu'il ne maîtrise pas), l'homme est comme
une machine, un automate asservi au contexte matériel. Le déterminisme est donc
une doctrine matérialiste.

La thèse d'absence de libre arbitre de l'homme est combattue par de nombreux


philosophes, qui n'arrivent pas à admettre que l'homme soit une sorte de machine, que
la vie et la pensée soient un ensemble de phénomènes soumis au déterminisme
physique de la nature. Voici ce que le mathématicien René Thom écrit dans [226] :
"Si l'on essaye d'analyser pourquoi les esprits manifestent une telle réticence à
l'égard du déterminisme, on peut, je crois, invoquer deux grandes raisons :
1. Il y a d'abord ceux qui tiennent à sauver le libre arbitre humain. […]
2. Il y a enfin le groupe de ceux qui se sentent opprimés par la montée
croissante des technologies, par la collusion de la science et du pouvoir. […]"
La thèse d'absence de libre arbitre est aussi combattue par des matérialistes
athées, comme André Comte-Sponville dans le court texte commenté dans [2].

Le fonctionnement de la conscience humaine est décrit dans [339], où on trouvera


aussi une réfutation de la croyance en une nécessaire transcendance de l'esprit.
Nous approfondirons le sujet de la liberté et du libre arbitre de l'homme plus bas.

3.3.4.4 Conclusions critiques sur le déterminisme traditionnel


Retenons pour résumer que :
 Le déterminisme traditionnel implique :
 une évolution certaine reliant cause et conséquence(s) ;
 un enchaînement de situations prévisibles conforme aux lois de la nature.
 Le caractère déterministe traditionnel s'oppose donc :
 à l'imprévisibilité : selon le déterminisme traditionnel, celle-ci ne peut résulter
que d'une méconnaissance du phénomène ;
 aux comportements aléatoires de la nature, en opposant déterminisme (à
évolution et résultat prévisibles) et hasard (imprévisible) ; certains tenants du
déterminisme traditionnel admettent pourtant l'existence de hasard,
circonstances où la nature peut se comporter de manière imprévisible :
ils ne sont pas, alors, à une contradiction près !
 à la possibilité de conséquences multiples simultanées d'une même cause.

140
 Enfin, en tant que doctrine matérialiste, le déterminisme nie l'existence de
phénomènes qui font intervenir des causes surnaturelles (transcendantes), c'est-
à-dire externes à notre Univers ou échappant à ses lois physiques. Il refuse
d'envisager une éventuelle intervention surnaturelle dans l'apparition et le
déroulement des phénomènes, ainsi qu'une finalité éventuelle imposée au
déroulement des phénomènes par un Esprit transcendant qui dominerait la
matière.

Croire au déterminisme est une attitude rationnelle [210], scientifique, qui postule
l'existence d'une réalité objective indépendante de toute idée et opinion humaines et
la possibilité pour l'homme de la trouver, souvent par approximations successives
résultant de critiques. Cette attitude s'oppose à la croyance dans des vérités révélées
sans preuve (et d'ailleurs infalsifiables [203]) par une religion ou une philosophie,
vérités qui prétendent expliquer le monde et comptent sur l'intuition ou l'obéissance de
certains pour les convaincre, au lieu d'en appeler à leur raison et leurs connaissances
factuelles, vérifiables et objectives.

3.4 Pourquoi ce texte et les efforts qu'il suppose


Ce long texte demande aux lecteurs plus que des efforts de lecture et de patience ;
il leur demande d'accepter de remettre en cause leurs connaissances sur le
déterminisme et le hasard. Les buts sont :
 La connaissance des phénomènes physiques d'évolution les plus importants,
pour en saisir le déterminisme et s'en servir pour les décisions d'action ;
 La compréhension du fait que dans la nature les évolutions sont déterministes, le
hasard et l'indétermination n'apparaissant qu'à l'échelle atomique ;
 La prise en compte des limites de la possibilité de prédire les évolutions et leurs
résultats.

Ce savoir doit favoriser une attitude d'ouverture, d'objectivité et d'honnêteté


intellectuelle. Voici ce qui à mon avis justifie ces efforts des lecteurs, et ceux qu'il m'a
fallu pour l'écrire.

3.4.1 Inconvénients de l'ignorance, avantages de la connaissance


L'homme évalue toute situation en éprouvant des sentiments parce qu'il ne peut pas
s'en empêcher, comme Freud Jung et Sartre l'ont remarqué. L'ignorance entraîne
l'incompréhension, qui entraîne, selon les cas :
 De la frustration pouvant aller jusqu'à un sentiment d'injustice et de la révolte.
Nous savons, par exemple, que la plupart des jeunes qui deviennent des
trafiquants de drogues, des incendiaires de voitures et des apprentis terroristes
ne comprennent rien à notre société. Leur vocabulaire est alors de l'ordre de 1000
mots, moins que celui compris par certains singes dressés. Et comme la pensée
organisée ne se forme qu'avec des mots, ils ne disposent pas des concepts
nécessaires pour comprendre ce qui se passe. Ils se sentent donc exclus de notre
société, méprisés et sans avenir, d'où leur révolte ; et comme ils n'ont pas les mots
pour l'exprimer, leur violence est physique et parfois barbare.

141
 Une perte d'estime de soi (car « on n'est pas à la hauteur ») et des tendances
nihilistes (rien n'a de valeur, rien ne mérite d'effort et de respect).
 L'impossibilité de prendre une décision ou l'obligation de décider sans savoir,
donc de prendre un risque non calculé.

Les peurs irraisonnées


L'incompréhension peut aussi provoquer une inquiétude pouvant aller jusqu'à la peur.
Avez-vous remarqué à quel point beaucoup de gens ont peur de « l'autre » ? En fait,
ils ont peur de ce qui, chez lui, est différent : sa couleur de peau, sa force physique,
l'attitude de rejet des conventions sociales qu'ils devinent à sa coiffure ou ses
vêtements, sa religion « qui produit des terroristes », etc.

La première cause d'une telle peur est l'ignorance : tout homme a instinctivement peur
de ce qu'il ne connaît pas, notamment lorsqu'il imagine alors le pire. Et la peur entraîne
souvent le rejet de l'autre, le refus de le respecter, de dialoguer avec lui, de lui faire
confiance, de lui offrir du travail ; c'est une des sources de l'exclusion, de la xénophobie
et du racisme.

Beaucoup de Français ont une peur irraisonnée des nourritures contenant des OGM.
Ils ne savent pas que, rien qu'en Amérique du Nord, plus de 400 millions de personnes
en mangent depuis les années 1980 sans qu'aucune pathologie n'en ait résulté.
Beaucoup ont aussi peur des ondes radio des téléphones portables, de l'énergie
nucléaire, etc.
Nous sommes le seul peuple à s'être ridiculisé en mettant dans notre Constitution
le « principe de précaution », qui oblige l'Etat à intervenir en cas de danger
environnemental grave, comme s'il fallait une telle loi pour faire respecter l'évidence.
Ce principe a servi à des juges pour faire démonter des antennes de téléphonie
simplement parce que des riverains en avaient peur : merci, président Chirac !

Beaucoup de Français redoutent l'économie de marché et la mondialisation par


ignorance de leurs mécanismes. Ils ne savent pas à quel point leur niveau de vie en a
profité, sur quels points elles constituent le meilleur système économique et sur quels
autres points elles ont besoin d'être encadrées. Ils ne savent pas, mais ils les rejettent
car ils en ont peur. Et ils se laissent abuser par les politiciens, les syndicalistes et les
journalistes qui profitent de cette peur pour influencer leur opinion.

Savoir paie
Des études sociologiques approfondies ont montré que la plus grande longévité des
intellectuels (cadres, enseignants, professions libérales…) par rapport aux travailleurs
manuels ne vient pas, comme l'affirment les syndicats, d'une différence de pénibilité
du travail. Elle vient d'une différence d'instruction : connaissant mieux les règles
d'hygiène de vie que les manuels, les intellectuels ont une meilleure santé qui entraîne
une plus grande longévité ; en notre siècle, celui qui ne sait pas vit moins bien et moins
longtemps.

Celui qui comprend peut :


 Avoir la satisfaction de comprendre et de participer aux événements en tant
qu'acteur au lieu de les subir, donc avoir de l'estime de soi ;

142
 Accumuler une expérience utile et espérer en avoir de plus en plus avec le
temps ; et savoir, c'est pouvoir ;
 Prendre la meilleure décision possible, d'où un sentiment de satisfaction (savoir
est indispensable pour être satisfait).

Soumission aux faits ou aux injonctions religieuses


Celui qui comprend accepte plus facilement les situations sur lesquelles il n'a pas prise
que celui qui ne comprend pas. Si ces situations lui sont défavorables, il comprend
dans quelle mesure exacte il en est responsable, il peut agir, ou il peut en tirer une
expérience qui lui servira peut-être un jour.

La possibilité d'être acteur de sa vie, d'être responsable au moins en partie de son


avenir est infiniment plus satisfaisante que la soumission à une volonté divine ou
politique qu'on doit accepter sans compréhension ni justification. Pour un matérialiste,
Dieu est d'abord le refuge psychologique de l'ignorant, qui trouve en lui consolation,
promesse de bonheur après la mort, et incitation à accepter son sort car « Dieu l'a
voulu » ; Marx résumait cela en écrivant que « la religion est l'opium du peuple » [112].

3.4.2 Ambition limitée de ce texte


Avec la définition donnée, une description complète et détaillée de la manière d'agir
du déterminisme scientifique comprendrait nécessairement l'ensemble des lois de la
physique, c'est-à-dire l'ensemble des lois de l'Univers. Et là il y a des problèmes.

Un énoncé ne peut ni se décrire lui-même ni se comparer à lui-même


Une description complète de l'Univers (sous une forme physique comme un texte écrit)
se comprendrait elle-même, ce qui est impossible.

Cette contrainte d'impossibilité est très générale : aucun énoncé ne peut se décrire lui-
même ou se comparer à lui-même, par exemple pour se juger par rapport à la vérité.
Toute description d'une notion doit se faire à partir d'autres notions ; toute comparaison
d'un objet a besoin de faire référence à au moins un autre objet. (Voir détails et solution
dans [220].)

Cette impossibilité ne concerne pas, bien évidemment, les descriptions internes de


l'Univers. On peut énoncer des lois de l'Univers comme la relation fondamentale de la
dynamique F = m qui relie entre elles 3 variables toutes définies dans l'Univers, la
force F, la masse m et l'accélération . Lorsqu'une telle description interne constitue
une loi scientifique, celle-ci est basée sur une axiomatique [67], elle aussi interne à
l'Univers. Le caractère universel d'une loi n'est jamais prouvé, il est postulé jusqu'à ce
qu'un contre-exemple éventuel le remette en question.

La connaissance scientifique de l'Univers est nécessairement incomplète et basée


sur des postulats
L'impossibilité d'auto-description complète a une conséquence fondamentale en
matière de connaissance scientifique de l'Univers : celle-ci n'existe - pour nous qui
sommes dans l'Univers - que sous forme d'énoncés (de lois, de valeurs de constantes,
etc.) écrits dans des langages à axiomatique [67] dont les axiomes sont supposés
connus, compris sans autre description et admis. Ces axiomes ne peuvent pas se
décrire eux-mêmes ; ils ne peuvent pas, non plus, se comparer à eux-mêmes ;

143
description et comparaison nécessiteraient des énoncés à axiomatique externe à
l'Univers (inconcevable pour nous, êtres de l'Univers) ou faisant référence à une vérité
absolue (à supposer que celle-ci existe, débat que nous abordons dans [220]).

L'ensemble des énoncés basés sur les axiomes est donc nécessairement incomplet :
notre connaissance scientifique de l'Univers ne peut ni être complète, ni contenir des
connaissances externes à cet Univers, ni comparer des concepts scientifiques de
notre Univers à des concepts ou des vérités qui seraient externes ou absolus comme
Dieu, Ses qualités et Ses pouvoirs.

Pourtant chaque homme a conscience de lui-même et peut se décrire [339] ;


il peut se comparer à d'autres hommes, ou comparer ses qualités et possibilités à des
valeurs morales et aux possibilités d'autres êtres vivants ou à celles de machines, etc.
Nous en conclurons simplement que la conscience de l'homme ne fonctionne pas
souvent de manière scientifique. (Détails : Le rationalisme critique de Karl Popper.)

3.5 Le déterminisme en physique


Ce chapitre rappelle d'abord quelques notions et lois physiques utiles pour comprendre
les implications du déterminisme en matière de compréhension et de prédiction du
comportement de la nature, c'est-à-dire pour raisonner juste en matière d'évolution
d'un système physique.

Il aborde ensuite des phénomènes et lois dont la description et l'application exigent


des extensions du déterminisme scientifique traditionnel, à titre d'exemples de telles
extensions et de leur nécessité.

3.5.1 Système et état


On appelle état d'un système à un instant t l'ensemble des valeurs des variables qui
le décrivent. Un système matériel est ainsi décrit par des variables de composition
(ensemble des éléments qui le constituent), de forme, de position, de mouvement,
d'interaction, de masse, de charge électrique, d'impulsion [20], de spin [22], etc.
Certaines variables, dites externes, décrivent la relation du système à son
environnement ; exemples : sa masse et sa charge électrique. D'autres variables sont
internes, comme les forces de liaison entre ses divers composants. Certaines
variables sont de type numérique, d'autres de type vectoriel, d'autres encore de type
booléen (vrai/faux, on dit aussi logique), etc.

3.5.1.1 Degrés de liberté d'un système


C'est le nombre minimum de valeurs indépendantes nécessaires pour décrire toutes
les variables du système. Par exemple, un point matériel (pesant) en mouvement a :
 3 degrés de liberté pour décrire sa position à un instant donné, car il faut 3
coordonnées x, y et z dans le repère du système.
 3 degrés de liberté pour décrire son vecteur vitesse à un instant donné, car ce
vecteur a 3 composantes selon les axes du repère.

Si le système comporte un très grand nombre X de points matériels (exemple : les


milliards de milliards de molécules d'un gaz contenues dans un petit récipient, où elles

144
s'agitent sans cesse du fait de leur température) il faut 6X variables pour décrire toutes
les positions et vitesses des molécules du système, qui a 6X degrés de liberté.

Le nombre de degrés de liberté peut être réduit par des contraintes comme :
 L'obligation de se déplacer à la surface d'une sphère (la position n'a plus, alors,
que deux degrés de liberté, appelés par exemple longitude et latitude) ;
 L'obligation de tourner autour d'un axe, comme un pendule oscillant, dont la
position peut être décrite par une seule variable, l'angle avec la verticale.

Plus généralement, si l'état d'un système est décrit par N variables et C contraintes,
on dit qu'il a N-C degrés de liberté.

3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté


Il existe une loi de Mécanique statistique dite d'équipartition de l'énergie, qui s'énonce
ainsi :
"Dans un gaz ou un liquide en équilibre thermique à la température absolue T
[121] (c'est-à-dire qui n'échange pas de chaleur avec l'extérieur du récipient qui
le contient), chaque molécule possède une énergie cinétique moyenne égale à
½kT par degré de liberté, où k est la constante de Boltzmann [122],
k = 1.38066 .10-23 joule par degré Kelvin. Et puisqu'il y a 3 degrés de liberté de
vitesse, chaque molécule a une énergie cinétique moyenne de 3/2kT."

Conséquences
 Agitation thermique - Mouvement brownien des molécules
Nous avons déjà vu que l'énergie cinétique d'un atome ou d'une molécule
est proportionnelle à sa température absolue. Celle-ci étant toujours
supérieure au zéro absolu, atomes et molécules ne peuvent s'empêcher de
bouger ! Dans un solide, chaque atome vibre et/ou oscille autour d'une
position moyenne. Dans un liquide ou un gaz, où chaque molécule est
entourée de vide, les diverses molécules bougent sans cesse en
s'entrechoquant et en rebondissant sur les parois de temps en temps : on dit
qu'elles sont en mouvement brownien. Il est remarquable que les chocs
entre les molécules et sur les parois soient parfaitement élastiques et sans
perte d'énergie par frottement, et que la température soit une cause
nécessaire et suffisante de mouvement : tout cela n'avait rien d'intuitif et
notre déterminisme doit en tenir compte.
 L'énergie cinétique d'une molécule ne dépend pas de la masse moléculaire,
résultat qui n'a rien d'intuitif puisqu'on aurait tendance à penser qu'une molécule
plus lourde emmagasine plus d'énergie cinétique qu'une plus petite. C'est ainsi
qu'une molécule d'oxygène pesant 16 fois plus qu'une molécule d'hydrogène a la
même énergie cinétique qu'elle à une température T donnée. Comme une
énergie cinétique donnée Ec est reliée à la masse m et la vitesse v par la formule
Ec = ½mv2, à une masse 16 fois plus grande correspond une vitesse moyenne 4
fois plus petite, car 42 = 16 : à température égale, une molécule d'oxygène se
déplace 4 fois moins vite qu'une molécule d'hydrogène.

145
Equipartition de l'énergie potentielle
La règle d'équipartition de l'énergie s'applique aussi à l'énergie potentielle éventuelle
des molécules (due par exemple à un champ de force comme un champ électrique ou
un champ gravitationnel [313]) : chaque degré de liberté associé à une énergie
potentielle apporte, lui aussi, une énergie de ½kT, portant donc l'énergie totale à 3kT
par molécule ou atome de solide. C'est ainsi qu'un atome d'un corps à l'état solide qui
vibre autour de sa position moyenne a une énergie moyenne totale de 3kT, cette
vibration permanente et sans frottement étant la manifestation de la température du
solide. L'énergie potentielle affectant les atomes du solide est due aux forces de liaison
entre ces atomes en équilibre, forces attractives et répulsives.

3.5.2 Espace des phases – Stabilité des lois physiques d'évolution


A un instant donné t, l'ensemble des valeurs des N variables scalaires [126] qui
décrivent l'état d'un système peut être représenté par un point dans un espace à N
dimensions appelé « espace des phases ». Ainsi, lorsqu'un objet ponctuel se déplace
dans l'espace habituel à 3 dimensions, ses coordonnées sont x, y, z et les
composantes de sa vitesse en ce point sont les dérivées par rapport au temps x', y',
z' ; les 6 coordonnées de l'espace des phases sont alors x, y, z, x', y', z'. Lorsque le
point se déplace, ces 6 coordonnées sont des fonctions du temps et le déplacement
est associé à une courbe de l'espace des phases dont chaque point correspond à un
certain instant t. Lorsque les variables d'état sont toutes des variables de position,
l'espace des états est parfois appelé « espace de configuration » : c'est l'ensemble
des états possibles au sens position - ou parfois (position + vitesse) ou
(position + quantité de mouvement) - que le système peut atteindre.

Exemples d'évolution dans l'espace des phases


Exemple 1 : la position d'un pendule simple de longueur l qui se balance sans
frottement de part et d'autre de la verticale est repérée par l'angle  qu'elle fait avec
cette verticale. La vitesse de variation de  est sa dérivée ' par rapport au temps. Le
mouvement est décrit par l'équation différentielle :

𝑑2 𝑔
+ 𝑠𝑖𝑛 = 0
𝑑𝑡 2 𝑙

Cette équation, non linéaire à cause du sinus, le devient lorsque, l'angle  étant petit,
on peut l'assimiler à son sinus ; le mouvement prend alors la forme :

 = 0 cos(t + ) d'où ′ = −0 sin(t + )

Dans un espace des phases rapporté aux axes  et ' avec des unités judicieusement
choisies, la courbe d'évolution dans le temps de l'angle du pendule est un cercle,
parcouru une fois à chaque période d'oscillation (figure suivante).

146
'

-0 0 

Exemple 2 : l'état du volume intérieur à un cylindre de moteur à explosion, où brûle le


mélange combustible, peut être caractérisé à chaque instant par la pression p qui y
règne et le volume v du cylindre délimité par la position du piston. L'espace des phases
peut alors être rapporté à deux axes, "pression" et "volume". Lorsque le moteur tourne
et le piston se déplace, sa position à un instant t correspond à un point de coordonnées
(v, p) de l'espace des phases.

147
P

A B

Diagramme thermodynamique théorique ABCDEBA du cycle d'un moteur à 4 temps


Ce diagramme est fermé, le cycle commencé en A revient en A

Nombre d'axes, dimension et degrés de liberté d'un espace des états


Si le système considéré comprend n points matériels, indépendants ou soumis à des
interactions, il faut N = 6n variables pour en décrire l'évolution de l'état
position + vitesse dans l'espace des phases : celui-ci doit être de dimension 6n. Si les
6n variables sont indépendantes, l'espace des phases a 6n degrés de liberté ; si les
6n variables sont liées par 2 relations, on dit qu'il a 6n-2 degrés de liberté, etc.

3.5.2.1 Représentation de l'évolution d'un système


Nous avons vu dans les deux exemples ci-dessus que l'évolution du système dans le
temps est représentée par un déplacement de son point représentatif dans l'espace
des phases : ce point y décrit une courbe paramétrée par la variable de temps t. Dans
les deux exemples ci-dessus le système était périodique, et l'évolution de l'état d'un
tel système au cours d'un cycle est une courbe fermée. Dans le cas général, il n'y a
qu'une seule courbe d'évolution passant par un point donné de l'espace des phases :
l'évolution à partir de tout point est unique, c'est un effet du déterminisme. Deux
courbes d'évolution séparées de l'espace des phases restent toujours distinctes, sans
intersection. Nous reviendrons sur ce point à propos des lignes de force.

148
Chaque point de l'espace des phases représente l'état du système à un instant donné.
Ces états ne sont pas nécessairement équiprobables : à un instant donné t, ou entre
deux instants t1 et t2, chaque point isolé P a une certaine probabilité d'être atteint et
chaque point non isolé Q (c'est-à-dire entouré d'autres points associés à des états
possibles) a une certaine densité de probabilité associée [28].

Notation habituelle : coordonnées généralisées


On a l'habitude de désigner par qi (i=1, 2…n) les n coordonnées de l'espace de
configuration (dites coordonnées généralisées), et par q'i (i=1, 2…n) les n dérivées par
rapport au temps des coordonnées qi (dites vitesses généralisées).
Exemple : les x et x' précédents seront désignés respectivement par q1 et q'1 ; les
y et y' précédents seront désignés respectivement par q2 et q'2.

3.5.2.1.1 Evolution d'un système représentée par des équations différentielles


Un système matériel décrit par un ensemble de n coordonnées généralisées
qi (i=1, 2…n) définies dans un espace de configuration, ainsi que par les vitesses
généralisées correspondantes q'i (i=1, 2…n), évolue souvent selon une loi décrite par
un système d'équations différentielles. L'évolution est alors complètement déterminée
par la donnée des conditions initiales, positions qi et vitesses q'i : elle est déterministe
au sens traditionnel, la donnée des conditions initiales entraîne une évolution unique.

Importance de la stabilité d'une évolution


L'évolution régie par ce déterminisme mathématique est un modèle fidèle de l'évolution
physique si elle est stable, c'est-à-dire si des conditions initiales voisines produisent
des évolutions voisines, ne s'écartant guère de l'évolution théorique ; cette condition
est indispensable pour tenir compte de l'imprécision qui affecte toujours les paramètres
d'un système physique.
Nous avons vu à propos du chaos que l'évolution de certains systèmes
déterministes n'est pas stable : elle est si sensible à l'imprécision des conditions
initiales qu'elle devient imprévisible après un certain temps ; la prédiction de l'évolution
est meilleure si on la calcule un instant après le départ. Nous verrons plus bas le cas
des systèmes conservatifs.

3.5.2.2 Lignes de force d'un espace des phases et unicité de l'évolution


Définition : dans un champ de vecteurs quelconque, on appelle ligne de force toute
courbe dont la tangente en tout point a la direction du champ en ce point.
Exemple : les lignes de force du champ d'un aimant sortent de son pôle nord et
entrent dans son pôle sud ; des particules de fer s'alignent le long de ces lignes
de force, comme le montre la figure suivante, issue de Encyclopædia Britannica :

149
Particules de fer alignées le long des lignes de force du champ d'un aimant rouge

Dans l'espace des phases d'un système, chaque courbe représentant une évolution
dans le temps est une ligne de force de l'espace : en tout point d'une telle courbe,
l'évolution se fait selon la tangente en ce point.
 En général cette tangente est unique, sauf éventuellement en un petit nombre de
points singuliers comme :
 Un point d'équilibre, où le système n'évolue pas ;
 Un point de bifurcation, où la loi d'évolution change en fonction d'un
paramètre externe.
L'unicité de la tangente en tout point non singulier de la courbe d'évolution d'un
système illustre une propriété de son déterminisme : le modèle mathématique
représentant l'évolution du système a une solution unique, une situation donnée
ne peut évoluer que d'une seule façon.
 Lorsqu'une situation donnée peut évoluer de plusieurs façons distinctes, les
évolutions possibles sont représentées par des courbes distinctes de l'espace
des phases. A partir d'une certaine situation, correspondant par exemple à une
valeur critique d'un paramètre, l'évolution peut présenter une bifurcation, avec
des branches distinctes issues d'un même point ; elle peut aussi présenter une
discontinuité. Au-delà de ce point, elle se poursuit selon une courbe ou une
autre, la courbe choisie dépendant de la valeur du paramètre critique.
C'est le cas, par exemple, pour des écoulements de fluides dont le paramètre
critique est le nombre de Reynolds [293], proportionnel à la vitesse ; selon la
valeur de ce nombre, l'écoulement peut être turbulent ou non ; il peut même
produire des oscillations périodiques de pression à la fréquence du décrochement
des tourbillons, oscillations que l'on entend par exemple dans le bruit des
éoliennes ; mais de toute manière, il reste déterministe.

150
3.5.2.3 Stabilité de l'évolution d'un système conservatif
Lorsqu'un système conservatif évolue, ses états successifs décrivent une courbe
(ligne de force) de l'espace des phases à 2n dimensions rapporté aux coordonnées :
positions généralisées qi (i=1,2…n) et moments cinétiques généralisés pi (i=1,2…n).
Le théorème de Liouville démontre que, lors de cette évolution, l'aire d'un petit élément
de surface qipi de l'espace des phases se conserve, sans nécessairement que
l'élément de surface conserve la même forme ; cette aire reste la même qu'à l'instant
initial t0 de l'évolution. Des conditions initiales d'évolution très voisines sont
représentées par des points très voisins de l'espace des phases, points qu'on peut
englober dans un élément de surface petit ; lors de l'évolution, l'aire de cet élément se
conserve et reste petite.
 Dans un espace des phases qui n'a que deux dimensions, q et p, la conservation
de l'aire d'un petit élément de surface au cours de l'évolution a pour
conséquence que des trajectoires d'évolution parties de points voisins restent
proches. Il y a là une forme de stabilité : une petite variation des conditions
initiales n'entraîne qu'une variation petite des évolutions correspondantes.
 Mais dans un espace des phases qui a plus de deux dimensions, quatre par
exemple, la conservation de l'aire d'un petit élément de "surface" q1p1q2p2
peut aussi être obtenue lorsque cet élément rétrécit fortement pour un couple de
variables tout en s'allongeant fortement pour l'autre. C'est le cas, par exemple, si
q1 varie dans le temps comme e at tandis que q2 varie comme e-at, le produit
eate-at restant égal à 1. Deux trajectoires d'évolution parties de points très
proches peuvent alors diverger considérablement au bout d'un certain temps,
traduisant une instabilité du système par hypersensibilité aux conditions initiales.
Cette propriété mathématique a des conséquences physiques souvent
spectaculaires.

3.5.2.4 Considérations sur la prévisibilité de l'évolution d'un système


L'évolution d'un système conservatif décrite par un ensemble d'équations
différentielles est bien toujours déterministe, mais il existe des cas où elle est stable
par rapport à une petite variation des conditions initiales et d'autres où elle est instable.
Une petite variation des conditions initiales peut provenir d'une imprécision
expérimentale comme d'une interaction négligée, et impacter alors la stabilité de
l'évolution.

Une prédiction d'évolution par extrapolation à partir de conditions où une évolution est
stable risque donc d'être gravement faussée lorsqu'elle concerne des conditions où
l'évolution est instable sans qu'on le sache. Même une prédiction par interpolation
risque d'être fausse si elle se base sur deux points A et B de l'espace des phases où
les lois d'évolution sont différentes, par exemple parce qu'il y a un point critique entre
A et B.

Il est évident que les prédictions par extrapolation et interpolation supposent la stabilité
des lois d'évolution, qui fait partie des hypothèses de base du déterminisme
scientifique ; oublier cette contrainte conduit à des erreurs de raisonnement. Les
paragraphes suivants montrent des cas d'instabilité d'une loi physique d'évolution.

151
3.5.2.5 Système dissipatif par frottements - Attracteur
Beaucoup de systèmes physiques qui évoluent sont soumis à des frottements,
internes ou externes, qui leur font perdre de l'énergie. Exemple : lorsque le pendule
simple de l'exemple 1 précédent est soumis à une force de frottement proportionnelle
à sa vitesse angulaire et de sens opposé, son évolution dans l'espace des phases
rapporté aux axes  et ' est décrite par une spirale qui converge vers l'origine ='=0
lorsque t∞ : l'oscillation finit par s'arrêter.

Il est très remarquable, alors, que les courbes d'évolution dans l'espace des phases
convergent toujours vers le même point, l'origine, quelles que soient les conditions
initiales ; ce point est appelé « attracteur ». En outre, l'aire d'un petit élément de
surface de cet espace diminue en moyenne au cours d'une évolution, propriété
cohérente avec la convergence des courbes d'évolution vers un attracteur. Comme
dans le cas des systèmes conservatifs, cette diminution en moyenne d'aire peut avoir
lieu avec divergence dans une direction de l'espace et convergence plus rapide dans
une autre.

Ce phénomène de convergence de toutes les évolutions d'un système dissipatif par


perte d'énergie vers un même point attracteur de l'espace des phases est très général.
En outre, ce point est indépendant des conditions initiales de l'évolution : un pendule
finit toujours par s'arrêter au point le plus bas de ses oscillations.

Par contre, l'évolution d'un système conservatif dépend des conditions initiales et ne
converge pas vers un attracteur.

Définitions : attracteur de l'espace des phases et bassin d'attraction


On appelle « attracteur de l'espace des phases » d'un système la zone dans laquelle
se trouvera le point représentatif de son état après un temps très long, c'est-à-dire
lorsque t∞. La portion de l'espace des phases d'où partent toutes les courbes
d'évolution aboutissant à un attracteur donné est appelée « bassin d'attraction » de cet
attracteur.

3.5.2.6 Système dissipatif périodique avec échange d'énergie – Cycle limite


Il est fréquent qu'un système dissipatif échange de l'énergie avec l'extérieur, à la fois
en lui cédant de l'énergie et en recevant de l'énergie, tout en ayant une évolution
périodique. Dans l'espace des phases, il existe alors une courbe d'évolution unique,
fermée et stable par rapport aux conditions initiales, appelée cycle limite par Poincaré,
courbe vers laquelle tendent toutes les courbes d'évolution. Ce cycle limite est un
attracteur de toutes les courbes d'évolution dans l'espace des phases : quelle que soit
la position du début d'une courbe d'évolution, celle-ci tend toujours vers cet attracteur
lorsque t∞.
Exemple : le diagramme ci-dessous, d'après [291], montre à sa partie supérieure
l'équation dite de Van der Pol, qui décrit l'évolution d'un oscillateur à la fois
entretenu (apport d'énergie) et amorti (perte d'énergie). La courbe oscillante en
bleu décrit l'évolution de la variable oscillante x dans le temps. La courbe spirale
rouge inférieure montre l'évolution dans le plan des phases rapporté aux axes x
et v/ω0. L'évolution converge vers le cycle limite (courbe rouge en trait gras),
indépendant des conditions initiales.

152
Discussion déterministe
Du point de vue du déterminisme scientifique, il arrive qu'une loi d'évolution :
 Dont on ignore la convergence vers une loi-attracteur, ou qu'on considère avec
un horizon de prévision d'évolution assez court, ne respecte pas le critère de
stabilité dans le temps. On doit alors la considérer comme non déterministe.
 Dont on sait qu'elle converge vers une loi-attracteur, peut être considérée
comme déterministe dans le cadre d'une prévision d'évolution à long terme.

Exemple. Un satellite placé sur une orbite basse perd peu à peu de l'altitude du fait du
frottement avec la haute atmosphère. Son orbite, elliptique sur quelques semaines, est
en fait une spirale descendante ; sa vitesse de descente accélère même au fur et à
mesure que son altitude lui fait rencontrer des couches d'air plus denses. Pour le
maintenir le plus longtemps possible sur l'orbite désirée (et pour contrôler son
orientation) on prévoit d'éjecter un peu de gaz de temps en temps, mais le réservoir
de gaz s'épuise tôt ou tard, limitant la durée de vie du satellite.

3.5.2.7 Système à évolution quasi périodique


Lorsque l'évolution temporelle d'un système peut être caractérisée par plusieurs
variables qui ont, chacune et indépendamment, une évolution périodique à une
certaine fréquence, l'évolution du système est alors qualifiée de « quasi périodique ».
Le caractère périodique ou quasi périodique est indépendant du caractère conservatif
ou dissipatif.
Exemple. Soit un système de coordonnées astronomiques centré au centre du
Soleil et dont les axes sont fixes par rapport aux étoiles lointaines. Dans ce repère,
la position d'un point à la surface de la Terre présente quatre périodes d'évolution
(en négligeant les perturbations induites par l'attraction des autres planètes) :
 La période d'évolution due à la rotation de la Terre autour de son axe (une
journée, soit 24 heures) ;

153
 La période d'évolution due à la rotation de la Terre autour du Soleil (une
année, soit 365.2425 jours) ;
 La période d'évolution due au mouvement de précession de l'axe de rotation
de la Terre, qui décrit un cône en 25800 ans ;
 La période d'évolution due au mouvement de nutation de l'axe de rotation de
la Terre, mouvement qui le fait osciller légèrement de part et d'autre de son
cône moyen de précession (période 19 ans).

Lorsqu'un système à évolution quasi périodique est dissipatif, l'évolution converge vers
un attracteur torique. C'est ainsi que l'évolution d'un système à deux fréquences de
base converge vers une courbe attracteur tracée à la surface d'un tore dans l'espace
habituel à 3 dimensions ; la courbe a deux fréquences de rotation : celle autour de
l'axe du tore et celle autour de la ligne centrale de son "cylindre".

3.5.2.8 Déterminisme et prédictibilité des systèmes – Autocorrélation


Une évolution quasi périodique est déterministe, comme une évolution périodique : à
partir de conditions initiales données et d'un modèle d'évolution représenté par un
système d'équations différentielles, on peut calculer cette évolution au moins
numériquement de proche en proche, et la prédire aussi longtemps à l'avance que l'on
veut.

Il existe une méthode mathématique de caractérisation de l'évolution d'un système


permettant de déterminer sa prédictibilité, c'est-à-dire la possibilité de déterminer la
valeur d'une de ses variables, x(t + k) à l'instant t + k, connaissant la valeur x(t) à
l'instant t. Cette méthode consiste à étudier la variation d'une fonction dite
d'autocorrélation temporelle, C(k), qui caractérise la similitude des valeurs de x(t + k)
avec ses valeurs antérieures x(t). Si C(k)0 lorsque t∞ l'évolution n'est pas
prédictible ; elle n'est ni périodique ni même quasi périodique, elle n'a aucune
régularité. Au contraire, si C(k) reste non nul à long terme, l'évolution présente une
régularité qui la rend prédictible.

3.5.2.9 Imprédictibilité et hasard


En pratique, il est impossible de distinguer une évolution dont on a constaté
l'imprédictibilité (éventuellement par calcul d'autocorrélation) d'une évolution au
hasard, si on ne connaît pas la cause du phénomène qui évolue ou si son
déclenchement n'est pas suffisamment reproductible pour que son déroulement le soit
aussi. C'est pourquoi beaucoup de scientifiques et de philosophes des sciences
attribuent au hasard des évolutions déterministes à résultat imprédictible, comme
celles que leur nature chaotique rend sensibles aux conditions initiales. Ils confondent
alors imprécision sur ces conditions et évolution au hasard, erreur signalée dans
l'introduction et due à une connaissance insuffisante des phénomènes. Dans le cas de
la sensibilité aux conditions initiales, les mesures de variables initiales sont distribuées
selon des lois statistiques, et c'est là que le hasard intervient, pas dans les
conséquences d'évolution qu'en tire la nature. En pratique, une précision limitée de la
connaissance du présent entraîne toujours une précision limitée de la prévision du
futur.

Si on connaît une évolution par une suite de valeurs mesurées à des instants
successifs, qu'on ne connaît pas la cause de cette évolution, et que la suite de valeurs
ne présente aucune régularité au test d'autocorrélation, on peut être tenté de l'attribuer

154
à un hasard postulé. S'il s'agit d'un phénomène naturel, il faut pourtant se garder de le
faire, ces phénomènes relevant tous du déterminisme étendu, où le hasard n'intervient
qu'en tant que choix d'un élément d'un ensemble de solutions du modèle du
phénomène ou en tant que conséquence d'un excès de complexité ; et l'évolution du
phénomène peut être apériodique ou chaotique, nous le verrons plus bas. Il vaut donc
mieux chercher scientifiquement à comprendre le phénomène.

3.5.2.10 Systèmes apériodiques – Attracteurs étranges


Lorsque l'évolution à long terme d'un système n'est ni périodique ni quasi périodique,
elle est dite apériodique. Elle ne présente alors aucune régularité permettant de prévoir
un état futur connaissant un ou plusieurs états du passé ; sa fonction d'autocorrélation
tend alors vers zéro quand t∞. L'évolution d'un tel système n'est prévisible qu'à court
terme, et à condition d'en connaître la loi au moins expérimentalement.
Le déterminisme étendu régit même des lois de la nature à évolution apériodique ;
il le fait en décrivant ces lois le mieux possible en fonction des progrès
scientifiques.

Systèmes apériodiques dissipatifs - Attracteurs étranges - Déterminisme chaotique


On démontre qu'une courbe représentant l'évolution temporelle d'un système dissipatif
dans un espace des phases possédant au moins 3 dimensions (correspondant à au
moins 3 degrés de liberté) converge vers un attracteur d'un type particulier appelé
« attracteur étrange ». Cet attracteur a les propriétés suivantes :
 L'attracteur étrange est une courbe de dimension fractale (non entière) inférieure
au nombre de dimensions de l'espace des phases, comprise entre 2 et 3 dans le
cas d'un espace des phases à 3 dimensions.
 Deux trajectoires d'évolution sur l'attracteur, partant de points aussi proches que
l'on veut, divergent : au bout d'un temps donné, parfois court, elles atteignent
des points de l'attracteur qui peuvent être bien plus éloignés que leurs points de
départ.
Connaissant le point de départ d'une évolution (sur l'attracteur) avec une précision
parfaite, cette évolution est déterministe et calculable pour un avenir aussi lointain
que l'on voudra. Mais la moindre erreur sur ces conditions initiales peut entraîner
des différences d'évolution importantes (exemple 1, exemple 2).
Il y a là une sensibilité extrême aux conditions initiales, sensibilité qui rend
imprévisible en pratique, avant son début, la fin d'une évolution commencée sur
l'attracteur, faute d'une précision infinie ; on peut seulement affirmer que le point
représentant son état restera quelque part sur l'attracteur. L'évolution est alors dite
« déterministe chaotique », et il ne peut exister d'algorithme utilisable prédisant
l'état (la valeur d'une variable impactée par l'évolution) à l'instant t + k connaissant
l'état à l'instant t, faute de stabilité par rapport aux conditions initiales. Par contre,
un instant même court après son début, une évolution commencée sur l'attracteur
a un déroulement et une fin parfaitement prévisibles. Enfin, la connaissance de
l'état actuel ne permet de reconstituer aucun état passé.

Un tel attracteur est dit « étrange » parce que la dissipation d'énergie y fait converger
les courbes d'évolution en même temps que la sensibilité extrême aux conditions
initiales y fait diverger des évolutions commençant en des points très voisins.

155
Le chaos déterministe est donc un type d'évolution dont le résultat est calculable, mais
seulement quand il est trop tard, ce qui le rend inutilisable. Cette évolution n'est pas
quelconque (au hasard), elle respecte la position sur l'attracteur étrange (quand le
système est dissipatif) et les lois physiques, notamment celles de la thermodynamique.

Systèmes apériodiques conservatifs


Le phénomène de chaos déterministe peut aussi affecter des systèmes conservatifs :
la sensibilité aux conditions initiales n'est pas réservée aux systèmes dissipatifs.
Exemple : problème des trois corps.

Exemple d'évolution vers un attracteur étrange : le système de Lorenz


Pour tenter de comprendre pourquoi les prévisions météorologiques étaient si peu
fiables, le météorologue Edward N. Lorenz [294] modélisa la convection naturelle (air
chaud qui monte, air froid qui descend) en la simplifiant beaucoup. Il aboutit au
système d'équations différentielles suivant :

𝑑𝑥
= 𝑝( 𝑦 − 𝑥 )
𝑑𝑡
𝑑𝑦
= −𝑥𝑧 + 𝑟𝑥 − 𝑦
𝑑𝑡
𝑑𝑧
= 𝑥𝑦 − 𝑏𝑧
𝑑𝑡

où x, y et z sont les coordonnées dans un espace des phases à 3 degrés de liberté, p


est le nombre de Prandtl, b est un facteur de forme et r un paramètre de contrôle
proportionnel au nombre de Rayleigh [293]. Ce système d'équations non linéaires est
déterministe, mais il est impossible à intégrer analytiquement dans le cas général, ses
solutions (calculées point par point en ordinateur) sont chaotiques, les courbes
d'évolution tendent vers un attracteur étrange, et une évolution commencée sur cet
attracteur a une extrême sensibilité aux conditions initiales. Cette sensibilité explique
l'impossibilité d'une prévision météorologique à long terme, la situation initiale ne
pouvant jamais être connue avec une précision absolue.

Nous avons donc là un exemple d'évolution déterministe chaotique et imprédictible.

3.5.2.11 Changement de loi d'évolution par bifurcation – Valeur critique


Il arrive que le changement de valeur d'un paramètre d'une loi d'évolution provoque un
changement de nature de la solution du modèle mathématique de cette loi lorsque
cette valeur franchit une certaine valeur, qualifiée de critique ; on peut ainsi, par
exemple, passer d'une solution stationnaire à une solution périodique, ou sauter d'un
bassin d'attraction à un autre.

Dans un espace des états où l'un des axes représente le paramètre à valeur critique
, et un autre axe une grandeur caractéristique x de la loi d'évolution considérée, la
courbe représentant x en fonction de  présente une bifurcation au point critique =c ;
cette bifurcation peut présenter deux ou plusieurs branches. Le point critique est un
point singulier du diagramme des phases. Une bifurcation correspond à la transition
d'un premier bassin d'attraction avec son attracteur à un autre bassin d'attraction avec
son attracteur.

156
Il peut ainsi arriver que, tant que <c, un système dissipatif évolue vers un point
attracteur, et dès que >c il évolue vers un cycle limite. La valeur =c est appelée
valeur critique du paramètre . Lorsque celui-ci franchit la valeur c, la solution des
équations d'évolution change. Ce changement peut être progressif, par exemple
lorsque la courbe d'évolution du système passe de la convergence vers un point
attracteur à la convergence vers un cycle limite de taille ponctuelle, qui grossit à
mesure que  s'éloigne de c. Le changement peut aussi faire passer d'une évolution
stable à une évolution instable, où l'une des variables de l'espace des états grandit
indéfiniment. On voit aussi sur l'exemple de la bifurcation le danger d'extrapoler ou
interpoler. Au sujet des bifurcations, voir aussi la turbulence [300].
Exemple. Le diagramme des phases d'un corps pur comme l'eau ci-dessous
représente les courbes de changement d'état en fonction du couple de variables
température et pression :
1 – courbe de sublimation
2 – courbe de fusion
3 – courbe de vaporisation
Pour une température et une pression au-delà du point critique, le changement de
phase entre liquide et gaz se produit sa façon continue, sans qu'une surface
séparatrice apparaisse. Au point triple, les trois phases coexistent.

Pression

Etat
Etat 2 liquide point
solide critique

point Etat
1 triple gazeux

Température

Diagramme des phases d'un corps pur comme l'eau

Il peut, enfin, arriver que le paramètre  présente une valeur critique c1 lorsque 
augmente, et une autre valeur critique, c2, lorsque  diminue. Cela se produit, par
exemple, lorsqu'il y a surfusion d'une eau très pure qui reste liquide à une température
inférieure à sa température de solidification à la pression donnée (courbe 2 du
diagramme ci-dessus) ; la surfusion cesse (l'eau se transforme brusquement en glace)
lorsque la température atteint environ -40°C ou lorsqu'on agite l'eau.

Sur le plan déterminisme, retenons que le respect de la règle de stabilité de la loi


d'évolution est une condition importante, qu'on ne peut négliger. Nous avons vu un

157
exemple d'instabilité de loi d'évolution en cosmologie : l'expansion de l'Univers
accélère depuis quelques milliards d'années. Voir aussi [313].

3.5.3 Etat quantique d'un système


L'état quantique d'un système à un instant donné est l'ensemble des valeurs de ses
variables de Mécanique quantique à cet instant-là ; il est décrit par sa fonction d'onde.
C'est ainsi que l'état quantique d'un électron comprend ses variables de position, de
vitesse et de spin [22]. Toutes ces variables sont scalaires [126]. Comme l'état
quantique représente tout ce qu'on peut savoir sur le système à l'instant donné (toute
l'information à son sujet) il prend en compte toutes les variables ; il n'y a pas de variable
supplémentaire (cachée) qui pourrait nous apprendre quelque chose de plus sur le
système ; sa taille atomique (de l'ordre de 1 Å = 10-10 m) et ses contours flous le
rendent invisible : on dit que la Mécanique quantique est complète. Elle décrit tout ce
qu'on peut savoir sur l'évolution d'un système avec des équations.

Deux électrons ont même masse et même charge électrique, caractéristiques qui sont
constantes et identiques pour tous les électrons, donc ne sont pas des variables, donc
ne font pas partie de leur état quantique. On peut distinguer deux électrons seulement
par une différence d'état quantique, c'est-à-dire une différence de position, de vitesse
ou de spin. Même remarque pour deux protons ou d'autres paires de particules : deux
particules de même type sont toujours identiques, interchangeables, elles ne diffèrent
que par une ou plusieurs valeurs de variables de leur état quantique.

3.5.3.1 Vecteur d'état


Les variables de l'état quantique d'un système à un instant donné constituent les
composantes d'un vecteur appelé vecteur d'état.

3.5.3.2 Espace des états


Les vecteurs d'état d'un système qui intéressent les physiciens ne sont pas
quelconques : ils appartiennent à un espace vectoriel [127] abstrait appelé « espace
des états » du système. Les vecteurs de cet espace ont des composantes qui varient
avec le temps si le système évolue.

Lorsque nous aborderons plus bas l'équation de Schrödinger, nous désignerons le


vecteur d'état associé à la fonction d'onde (r) par une notation due à Dirac |>,
appelée « ket psi ».

3.5.3.3 Réalité physique et représentation dans l'espace des états


La réalité physique d'un système nous est accessible par l'intermédiaire d'une
représentation mentale mathématique, élaborée en utilisant nos concepts, nos
méthodes d'abstraction et notre intuition.
C'est là un postulat matérialiste, point de vue systématiquement retenu dans ce
texte, par opposition à un point de vue idéaliste, comme celui de Platon, qui
n'accorde de réalité qu'à des Idées et prétend que la réalité physique est
inaccessible à l'homme.

La physique atomique moderne va plus loin : elle postule que :


 L'état d'un système est représenté par un vecteur de l'espace des états, vecteur
qui constitue tout ce que l'on peut savoir du système ;

158
 L'évolution de ce vecteur d'état dans le temps représente tout ce que l'on peut
savoir de l'évolution du système.

Ces postulats reviennent à affirmer que la seule réalité physique, objective et digne de
confiance pour prédire les évolutions, qui nous soit accessible lorsqu'il s'agit de
l'échelle microscopique, est cette représentation mathématique ; aucune
représentation issue de nos sens ou de notre intuition n'est suffisamment objective et
précise pour comprendre et prévoir, notamment pour les échelles infiniment petite et
infiniment grande par rapport à l'homme.
En somme, puisqu'il est impossible de voir un électron ou sa trajectoire, nous
devons faire confiance à la représentation mathématique qu'en donne la
Mécanique quantique. Puisqu'il est impossible de voir la courbure de l'espace
astronomique, nous devons faire confiance aux équations de la Relativité
Générale [328]. Puisqu'il est impossible de voir un trou noir, nous devons déduire
sa présence et sa masse des effets qu'il a sur l'espace environnant et sa matière.

Et lorsque nous verrons, dans la suite de ce texte, que cette représentation de la réalité
est souvent probabiliste, quantifiée, et plus généralement inaccessible à l'intuition née
de nos sens (quand elle ne la contredit pas carrément), nous devrons l'accepter quand
même, parce qu'elle a fait ses preuves par la qualité des explications de la réalité et
des prédictions de son évolution qu'elle fournit, et qu'elle n'a jamais été démentie.

Polémique
En matière de connaissance scientifique, les personnes qui refusent de « croire les
mathématiques » pour s'en tenir aux intuitions issues de leurs sens font preuve de
rigidité intellectuelle et d'excès de confiance en leur jugement. Elles postulent que
l'Univers est suffisamment simple pour que l'homme le comprenne d'instinct, ou que
l'homme est suffisamment génial pour que toute connaissance puisse être basée sur
ce qu'il sent ou imagine. Elles persistent dans leur erreur parce qu'elles ne mettent pas
leur représentation du monde à l'épreuve de la réalité, à laquelle elles croient moins
qu'à leur imagination et à leurs préjugés. (Voir le paragraphe "Intuition d'abord,
justification après" et l'exemple).

3.5.3.4 Espace des phases d'un champ et espace des états associé
Jusqu'ici nous avons considéré un système comprenant un nombre fixe n de
constituants, par exemple n points matériels pesants, et nous avons défini son
évolution dans l'espace des phases en fonction du temps. Cet espace des phases
avait un nombre fini de dimensions, par exemple 6n pour représenter les 6
composantes des positions et des vitesses des n points matériels.

Considérons à présent un champ, région de l'espace où règnent à la fois (par exemple)


des influences gravitationnelle, électrique et magnétique. Ce champ a une infinité de
points géométriques. En chaque point P on peut décrire l'état du champ par 3 vecteurs,
un pour le champ gravitationnel, un pour le champ électrique et un pour le champ
magnétique. L'ensemble de ces 3 vecteurs constituera le vecteur d'état (global) du
champ considéré en P, vecteur d'état qui a pour composantes les 9 composantes
scalaires [126] des trois vecteurs champ gravitationnel, champ électrique et champ
magnétique selon trois axes Ox, Oy et Oz de l'espace des états du champ.

159
Pour décrire l'état de l'infinité des points de l'espace des phases du champ, l'espace
des états associé aura un nombre infini de dimensions, à raison de 9 dimensions pour
chaque point géométrique du champ. Ce sera un espace vectoriel [127].

Retenons donc que la représentation de l'état et de l'évolution d'un système


comprenant un nombre fixe de constituants par un espace des états peut être utilisée
pour un champ comprenant une infinité de points.

3.5.3.5 Equipartition de l'énergie dans un champ – Stabilité des atomes


La théorie physique traditionnelle d'équipartition prévoit que l'énergie disponible dans
un système se répartit uniformément entre tous ses degrés de liberté : c'est là une
conséquence de l'homogénéité de l'espace. Lorsqu'il y a un champ de force dans une
région de l'espace, par exemple un champ électromagnétique agissant sur des
particules chargées comme des électrons ou des protons, ce champ a un nombre infini
de points, donc un nombre infini de degrés de liberté à côté duquel le nombre de
degrés de liberté fini des électrons et protons d'un atome donné est négligeable.
Chaque degré de liberté d'un atome donné devrait ainsi être associé à une
quantité infiniment faible d'énergie. Par conséquent, si les électrons d'un atome étaient
des corpuscules matériels munis d'une masse (comme les expériences le prouvent)
ils devraient avoir une énergie cinétique de rotation infiniment faible, donc une vitesse
trop faible pour que la force centrifuge associée leur permette d'équilibrer l'attraction
électrostatique du noyau ; ils devraient donc tomber instantanément sur leur noyau,
rendant tout atome instable !

Cette instabilité des atomes - supposés avoir une structure "planétaire" composée d'un
noyau central positif autour duquel tournent des électrons négatifs - est prédite aussi
par les lois de Maxwell [123]. D'après celles-ci, les électrons – charges électriques
tournant autour d'un noyau - devraient émettre des ondes électromagnétiques, donc
perdre de l'énergie emportée par ces ondes ; cette perte d'énergie les ferait s'écraser
rapidement sur le noyau.

Ces théories traditionnelles de l'atome construit selon un modèle planétaire (répartition


uniforme de l'énergie entre les degrés de liberté, ondes électromagnétiques suivant
les équations de Maxwell) ont donc un problème que nous allons à présent aborder.

3.5.4 Les contradictions de la physique traditionnelle et de son


déterminisme
Les atomes sont stables, sinon notre Univers n'existerait pas ! La physique
traditionnelle, établie et vérifiée au niveau macroscopique et statistique, ne s'applique,
hélas, pas telle quelle au niveau atomique, nous venons de le voir. Ses lois
déterministes, si remarquablement précises et générales, sont fausses à cette échelle
minuscule où certains résultats sont probabilistes. Et le problème est très grave
puisque le postulat fondamental du caractère absolu de l'espace et du temps, admis
par Newton dans ses lois du mouvement [110] et par Maxwell dans sa théorie de
l'électromagnétisme [123], est contredit par l'expérience de Michelson et Morley, qui a
montré en 1887 que le postulat d'additivité des vitesses est faux lorsque l'une des
vitesses est celle de la lumière.

En 1900, la physique butait aussi sur le désaccord entre les résultats du calcul des
échanges d'énergie électromagnétique par rayonnement entre un corps chaud et un

160
corps froid, et les observations expérimentales. Cette contradiction ne fut résolue que
lorsque Max Planck proposa, cette année-là, que l'on considère la quantité d'énergie
d'une émission d'ondes de fréquence  comme discontinue, multiple d'un minimum h
où apparaît une constante universelle, le quantum d'action h, ce qui fait de cette
énergie une grandeur quantifiée. Cette approche ouvrit la porte à la physique
quantique.

Puis, en 1905, Einstein utilisa la théorie de Planck pour décrire les échanges d'énergie
entre lumière et électrons constatés dans l'effet photoélectrique, ce qui lui valut le prix
Nobel [60]. Une des conséquences de ces travaux était considérable : les ondes
électromagnétiques, donc la lumière, avaient à la fois un caractère ondulatoire (par
définition) et corpusculaire, ce qui contredisait la physique classique et son
déterminisme ! Ce déterminisme traditionnel finit d'être jeté bas la même année,
lorsqu'Einstein - encore lui - publia la théorie de la Relativité Restreinte [49], qui met
un terme au caractère absolu de l'espace et du temps de la physique newtonienne à
la base de ce déterminisme.

3.5.5 Des forces physiques étonnantes


Tout le monde sait depuis Newton [110] que l'attraction universelle entre deux corps
est inversement proportionnelle au carré de leur distance. L'attraction électrostatique
(ou magnétique) entre deux charges électriques (ou magnétiques) de signes opposés
(décrite par la loi de Coulomb [341]) est aussi inversement proportionnelle au carré de
leur distance. Ces champs de forces "en 1/d2" présents partout semblent être une règle
de la nature.

Hélas il n'en est rien, et la Mécanique quantique que nous aborderons plus bas
explique certaines lois pour le moins surprenantes, dont voici des exemples.
 La force de Casimir due à la polarisation du vide avec apparition de paires
particule-antiparticule est "en 1/d4".
 La loi de Van der Waals qui décrit l'attraction électrique entre deux atomes ou
molécules neutres assez proches est "en 1/d7", produisant des forces
extraordinairement intenses à courte distance (quelques angströms). Ces forces
sont dues aux fluctuations quantiques des dipôles électriques formés par deux
atomes voisins, qui s'attirent alors du fait d'une force dite "faible".
Ces forces sont responsables de la cohésion entre molécules de liquides. Elles
expliquent aussi l'aptitude d'un petit lézard, le gecko, à marcher sur n'importe
quelle surface solide en y adhérant facilement. Il peut ainsi marcher sur la face
inférieure d'une plaque horizontale de verre parfaitement lisse, à laquelle ses
pattes adhèrent grâce à des poils incroyablement fins (moins de 0.25 micron de
diamètre) dont les molécules attirent celles de la plaque de verre grâce aux forces
de Van der Waals.
 La force de répulsion moléculaire due au potentiel de Lennard-Jones est en
"1/d12". Elle apparaît quand il y a superposition des nuages de charge de deux
systèmes atomiques.
 La force nucléaire agit de manière attractive entre quarks du noyau atomique
pour en maintenir la cohésion sous forme de protons et neutrons, bien que deux
protons ayant des charges de même signe tendent à se repousser ; le quantum
d'interaction correspondant est appelé gluon [18].

161
Sa portée est très faible (environ 1 fermi = 10-15 m, un dixième du rayon d'un
noyau atomique [137]) et son intensité augmente avec la distance ! (Détails)

J'ai cité ces forces étonnantes pour illustrer le fait que le déterminisme n'a rien
d'évident ou d'intuitif lorsqu'on veut comprendre les lois physiques et prédire certains
comportements, et qu'il faut souvent recourir à la Mécanique quantique pour expliquer
ce qui se passe.

3.5.6 L'évolution nécessite une interaction avec échange d'énergie


L'évolution d'un système matériel sous l'action de forces ou d'un champ (électrique,
de gravitation, etc.) exige un échange d'énergie entre des parties du système et/ou
avec l'extérieur. Cet échange se produit dans le cadre d'une interaction [18] entre
parties du système et/ou entre le système et son environnement. La science qui étudie
les échanges dus à l'influence d'un champ (par opposition à l'influence d'une force de
contact) est la Théorie des champs.
La théorie classique des champs est née avec la description par Faraday puis
Maxwell de l'influence d'un courant électrique, propagée par des ondes
électromagnétiques, sur un autre courant ou une charge électrique. Exemple :
théorie du champ électrique de Coulomb [341].
La théorie quantique des champs est née avec la quantification par Planck des
échanges d'énergie électromagnétique, tous multiples de h (h est la constante
de Planck) pour une fréquence  donnée, échanges réalisés par des particules
appelées photons [117] porteuses des forces d'attraction et répulsion. Exemple :
électrodynamique quantique.

Le processus d'échange entre un système et un champ comprend trois étapes :


 (1) Rayonnement du champ par sa source ;
Exemple 1 : une lampe électrique émet de la lumière, champ électromagnétique
qui transporte l'énergie de ses photons, particules sans masse. Un photon de
fréquence  a une énergie quantifiée égale à h joules.
Exemple 2 : un ressort qui pousse une masse exerce sur elle une force par
l'intermédiaire de champs électromagnétiques au niveau atomique, où ils assurent
la cohésion de la matière dans le ressort et dans la masse.
 (2) Propagation du champ dans la matière ou dans le vide, à une vitesse
inférieure ou égale à la vitesse de la lumière dans le vide, c (il n'y a pas d'action
physique instantanée mettant en jeu de l'énergie, la Relativité l'interdit) ;
Dans l'exemple 1, la lumière se propage à partir de la lampe.
Dans l'exemple 2, les champs de cohésion du ressort liés aux atomes de celui-ci
se propagent jusqu'au contact des atomes de la masse, liés par leurs propres
champs de cohésion.
 (3) Absorption du champ par la cible.
Dans l'exemple 1, un atome de la cible éclairée par la source absorbe un photon
[117], par exemple, ce qui le fait passer dans un état supérieur d'énergie
potentielle. Ou un corpuscule touché par le photon reçoit une impulsion [20] qui
modifie sa quantité de mouvement [20], donc son énergie cinétique.

162
Dans l'exemple 2, le champ de cohésion du ressort exerce une force
électrostatique de pression sur les atomes de la masse ; le champ de cohésion de
la masse exerce une force de réaction sur les atomes du ressort, égale à la
précédente et de sens opposé.
Dans les deux exemples ci-dessus, les champs des processus d'interaction sont
toujours de type électromagnétique. En fait, il existe quatre types de champs de
force (voir [18]).

Il y a absence d'échange d'énergie lorsqu'aucune force ou champ n'intervient, comme


dans le mouvement rectiligne uniforme d'un système soumis à sa seule inertie, où
l'évolution est un simple déplacement sans poussée ni frottement.

3.5.7 1ère extension du déterminisme : fonctions d'onde et pluralité des états


Nous allons maintenant étudier successivement plusieurs phénomènes physiques
d'évolution dont les lois contredisent le déterminisme scientifique traditionnel, qu'il faut
donc étendre pour en tenir compte sous forme de déterminisme statistique, qui
complète le déterminisme scientifique pour en faire un déterminisme étendu.

3.5.7.1 Notions de Mécanique quantique


La Mécanique quantique est un ensemble d'outils mathématiques destinés à la
physique de l'infiniment petit, au niveau atomique, c'est-à-dire à une échelle de
dimension et de distance de l'ordre de taille d'un atome : 1 angström (Å) = 10-10 m. Ces
outils permettent le calcul et la modélisation des systèmes physiques en évolution ou
stables ; ils ne constituent pas une science expérimentale de l'infiniment petit, rôle que
tient la physique quantique [325]. (Détails sur les postulats de la Mécanique
quantique).

L'outil Mécanique quantique n'est justifié que par la rigueur de ses démonstrations et
l'adéquation à la réalité physique de ses modèles mathématiques. Cette adéquation
est prouvée par la vérification, faite d'innombrables fois, que les résultats des calculs
de Mécanique quantique sont conformes à la réalité expérimentale, que ce soit pour
expliquer une expérience qu'on vient de faire, ou prédire le résultat d'une expérience
qu'on va faire. En somme, la Mécanique quantique est une science mathématique ;
elle a la rigueur de toute science exacte.

Non seulement la Mécanique quantique modélise bien la réalité physique au niveau


atomique, mais c'est notre seule façon de "voir", de comprendre et de prévoir ce qui
se passe à cette échelle-là. En somme, nous voyons ce monde minuscule à travers
des équations et des fonctions, qui décrivent et prédisent le comportement de ses
particules avec une fidélité parfaite, compte tenu des inévitables erreurs et contraintes
expérimentales.

La Mécanique quantique représente une avancée scientifique considérable par


l'étendue de ses conséquences et la qualité de ses prédictions. Elle fournit aujourd'hui
l'explication fondamentale de la stabilité des atomes et molécules, de leurs échanges
d'énergie à la base des lois de la chimie, des phénomènes électromagnétiques comme
le laser et la finesse des lignes observées en spectroscopie, etc.

163
La Mécanique quantique nous oblige à réviser notre conception du déterminisme, si
nous voulons qu'il décrive toutes les conséquences des lois physiques de la nature.
Voici comment.

3.5.7.2 De la contingence à la probabilité


Depuis longtemps déjà, avant même qu'on parle de Mécanique quantique au XXe
siècle, les hommes ont dû compléter le concept philosophique de contingence par
celui de probabilité.
Définition : une chose est contingente lorsqu'elle est susceptible d'être ou de ne
pas être ; son existence ou inexistence ne résulte pas, alors, ni d'un
raisonnement logique ni d'une nécessité ou impossibilité physique.
Une situation que je constate en ce moment ne peut être contingente, puisque je
la constate, cela violerait le principe d'identité [16]. Elle a pu être contingente
dans le passé, tant qu'elle n'existait pas encore, mais elle ne l'est plus puisqu'elle
existe ; et (selon son évolution) elle sera peut-être contingente dans l'avenir.

Les hommes se sont aperçus que le concept de contingence ne suffisait pas pour
rendre compte de certaines situations, dont une description plus fidèle nécessitait une
probabilité d'existence. Exemple : si je lance un dé, le fait de sortir un 3 est contingent,
cela peut arriver ou non. Mais si je dis que la probabilité de sortir un 3 est d'une chance
sur six, je prédis le résultat du jet de dé avec plus de précision.

La Mécanique quantique utilise beaucoup les descriptions probabilistes. Elle montre,


par exemple, qu'on ne peut pas parler de position d'un électron à un instant donné,
mais de probabilité de position de cet électron à cet instant-là dans un espace de
dimension donnée autour d'un point précis. Si nous n'avions que la contingence
(« l'électron est en ce point ou il ne l'est pas ») la description de la réalité serait si
pauvre qu'elle serait inutilisable. Le concept de position précise d'une particule n'a pas
cours en Mécanique quantique, sinon en tant qu'approximation grossière.

L'évolution d'un système est calculée, en Mécanique quantique, à l'aide de lois


physiques parfaitement déterministes (au sens scientifique traditionnel) en utilisant un
formalisme appelé « hamiltonien » parce qu'il est basé sur l'énergie totale de la
particule. Lorsqu'on applique ces lois déterministes, le résultat d'évolution est
également parfaitement reproductible : une situation (état du système) donnée produit
toujours le même ensemble de comportements, décrits par un même ensemble de
résultats – ensembles qui ont en général plusieurs éléments, voire une infinité.
Exemple : dans une molécule d'ammoniac NH3 les 4 atomes sont reliés par des
forces électriques, les liaisons chimiques ; celles-ci imposent une structure où
l'atome d'azote N est à une certaine distance du plan des 3 atomes d'hydrogène
H, et à égale distance de chacun. Les calculs de Mécanique quantique montrent
qu'il y a 2 positions possibles de l'atome d'azote, de part et d'autre du plan des
atomes d'hydrogène, positions qui sont équiprobables et existent en même temps,
comme si l'atome d'azote oscillait entre elles : on dit que l'état de la molécule est
une superposition de deux états cohérents. (Détails)

L'ensemble des résultats d'évolution d'un système à partir d'un état initial ne décrit pas
un mouvement précis comme en mécanique classique, c'est-à-dire une trajectoire
définissant des positions successives précises à des instants précis. Il décrit

164
seulement, à chaque instant, des probabilités de présence et de vitesse de la particule
au voisinage de divers points de l'espace : la notion de trajectoire précise n'a plus
cours, comme dans la physique classique régie par le déterminisme traditionnel. Elle
est remplacée par une région de l'espace dont, à un instant précis, chaque point est
associé à une densité de probabilité de présence [28]. A chaque instant, la position de
la particule apparaît floue, elle est entachée d'imprécision ainsi que sa vitesse.

L'introduction de la notion de probabilité, mesurable par un nombre réel positif entre 0


et 1, est un progrès apporté par la démarche scientifique par rapport à la notion de
contingence des philosophes et au choix trop manichéen limité à "vrai" ou "faux".

3.5.7.3 Extension du déterminisme aux résultats imprécis et probabilistes


Nous devons donc, pour respecter la réalité physique, compléter le déterminisme
traditionnel par la possibilité qu'une situation de départ précise produise, pendant et
après une évolution, de multiples résultats, chacun accompagné d'une probabilité.

La Mécanique quantique prédit qu'une situation de départ peut, à l'arrivée, donner un


ensemble de 1, 2, 3… ou même une infinité de résultats. (On peut aussi dire qu'elle
prédit un ensemble d'évolutions possibles, chacune donnant un résultat unique.)

Après un état initial précis, la position d'un corpuscule à un instant donné est floue
(autour d'un point de probabilité maximum) et sa vitesse est distribuée selon une loi
de probabilités autour d'une vitesse moyenne.

L'interprétation probabiliste de la position d'un corpuscule mobile à un instant donné


ne doit donc pas être « il est à une position précise que nous ne pouvons connaître
qu'assortie de sa probabilité ». Elle doit être « il est à la fois à toutes les positions d'un
ensemble prédéterminé, chacune affectée d'une probabilité » : on parle de positions
superposées. Notre conception habituelle d'une présence en un seul point à un instant
donné doit donc être étendue, dans le cas de la physique quantique, à une présence
simultanée en un ensemble de points où la probabilité totale est 1. Une photographie
théorique à temps de pose nul d'un corpuscule mobile serait donc floue.

Dire que « chaque point de l'espace a une densité de probabilité de présence de la


particule » [28] est conforme à la vérité ; c'est une représentation utile pour des
phénomènes comme l'effet tunnel.

Nous verrons plus bas que la nature interdit de concevoir la dimension ou la position
d'une particule pesante en mouvement avec une précision meilleure que sa longueur
d'onde de Compton c ; pour un proton, par exemple, l'imprécision minimum c est de
l'ordre de son diamètre.

3.5.7.3.1 Le déterminisme statistique, complément du déterminisme scientifique


Nous avons évoqué plus haut le Déterminisme statistique de l'échelle macroscopique.
En voici le complément indispensable, fondement de la physique quantique.

L'équation fondamentale de la Mécanique quantique, dite « de Schrödinger », qui


décrit l'évolution d'un système à l'échelle atomique dans le temps et l'espace, donne
des résultats multiples (voire une infinité) distribués selon une loi statistique. C'est une

165
équation déterministe, mais ses solutions étant distribuées statistiquement, on doit
parler d'un nouveau type de déterminisme, le déterminisme statistique.

Si dans une expérience de physique atomique nous mesurons une variable (dont la
valeur est un opérateur mathématique [278]), nous pouvons trouver une ou plusieurs
valeurs (appelées valeurs propres de l'opérateur [278]), la Mécanique quantique
précisant leur nombre exact lorsqu'il n'y en a pas une infinité. Et si nous répétons la
même expérience un très grand nombre de fois en mesurant chaque fois la même
variable, nous constatons que chacun des résultats prévus par la théorie (chaque
valeur propre) apparaît un pourcentage prévu de fois ; selon l'expérience, les divers
résultats possibles sont parfois équiprobables et parfois associés à des probabilités
différentes.

Prédictions de résultats du déterminisme statistique


Le déterminisme statistique complète le déterminisme scientifique à l'échelle
atomique, en prédisant la distribution des résultats de mesures éventuelles et
l'évolution dans le temps et l'espace des valeurs des variables d'état d'un système.

Selon les postulats 3 et 4 de la Mécanique quantique, la mesure d'une grandeur


physique ne peut donner comme résultat qu'une des valeurs propres [278] de son
observable [30].
 Si le nombre de ces valeurs propres est fini (cas des variables discrètes),
chacune est affectée d'une probabilité de "sortir dans cette expérience" définie
par le postulat 4 (spectre discret).
 Si le nombre de ces valeurs propres est infini (variables continues), chacune est
affectée d'une densité de probabilité définie par le postulat 4 (spectre continu) ;
dans chaque volume dV autour d'une valeur propre [278], la probabilité que le
résultat soit dans ce volume est le produit de la densité par dV.

Stabilité du déterminisme statistique


Comme le déterminisme scientifique qu'il complète, le déterminisme statistique
respecte la règle de stabilité : pour une expérience donnée, l'ensemble des résultats
possibles est toujours le même.

3.5.7.3.2 Différence entre déterminisme statistique et hasard pur


Lorsque les résultats mesurés de l'évolution des variables d'état d'un système sont
distribués selon une loi statistique de probabilités dont les paramètres sont prévus par
la Mécanique quantique pour l'expérience considérée, ils ne relèvent pas du hasard
pur. Ces résultats (valeurs possibles de chaque variable d'état) appartiennent à un
ensemble prévu par la Mécanique quantique, chacun affecté d'une probabilité :
aucune valeur n'est quelconque. Plus précisément, cet ensemble est le spectre des
valeurs propres du dispositif de mesure : le hasard naturel est alors limité au choix
d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque
choix ; nous avons déjà vu cela. Parfois un ensemble de résultats ne comprend que
des nombres entiers, parfois c'est un ensemble de nombres réels, ou de nombres
complexes, ou de vecteurs.

166
Exemple de résultats multiples d'une évolution par déplacement
Considérons l'expérience de Young de diffraction de la lumière monochromatique à
travers deux fentes, réalisée avec un faisceau si faible que ses photons [117] sont
émis un par un. Ces photons successifs arrivent sur l'écran en des points différents,
bien qu'ils soient tous produits et acheminés de manière identique : chaque position
de point est un résultat prédit par la Mécanique quantique avec une certaine probabilité
de se produire ; c'est là un comportement qui contredit le déterminisme traditionnel,
qui voudrait que tous les photons arrivent au même point.

Si le nombre de photons devient très grand, l'image globale formée par les impacts
donne bien des franges d'interférences, comme le prédit la théorie ondulatoire de la
lumière (voir schéma ci-dessous) : chaque photon est passé par les deux fentes à la
fois, les deux parties de son onde ajoutant ou soustrayant leurs amplitudes en tenant
compte des différences de phase, ce qui produit des franges d'interférence. Dans cette
expérience, un photon peut donc interférer avec lui-même.

Expérience de Young : diffraction de la lumière à travers deux fentes ("slits")


Sur l'écran ("screen") apparaissent des franges d'interférences

Un photon a une masse nulle [117], mais nous allons maintenant voir une possibilité
semblable de trajectoires simultanées pour des corpuscules pesants.

3.5.7.3.3 Dualité onde-particule, déterminisme dual et ondes de matière


L'expérience de Young, réalisée ci-dessus avec des photons, peut aussi être réalisée
avec des atomes, de masse non nulle et même des molécules. Elle illustre un aspect
fondamental de la physique quantique : selon l'expérience, une particule de masse
non nulle peut tantôt être considérée comme un corpuscule de matière, tantôt comme
un « paquet d'énergie » propagé par une onde. Cette onde est analogue à l'onde
électromagnétique d'un photon, à cela près que c'est une onde de probabilité ; et c'est
la superposition de deux telles ondes résultant du passage par les fentes qui produit
le phénomène d'interférence.

167
Les ondes de matière de Louis de Broglie
Le physicien français Louis de Broglie a été récompensé en 1929 par un prix Nobel
pour avoir découvert les « ondes de matière » associées aux électrons (et aux
particules de matière en mouvement en général) et affirmé :
A toute particule matérielle de masse m et de vitesse v doit être associée une
onde stationnaire de matière de longueur d'onde  stable telle que :

h

mv

où h est la constante de Planck, h = 6.6261 .10-34 joule.seconde.

C'est ainsi que la longueur d'onde associée à un atome isolé de fer 56Fe se déplaçant
à 1000 m/s est de 7 fermis (1 fm = 10-15m), à peine moins que le diamètre de son
noyau, qui est de 9.2 fm [137]. Mais la longueur d'onde d'un objet de taille
macroscopique, même en déplacement lent, est si petite que ses propriétés
ondulatoires sont impossibles à mettre en évidence : pour un caillou de 20 g lancé à
10 m/s on trouve  = 3.3 .10-18 fm.

La théorie des ondes de matière explique le fait que des électrons ne peuvent parcourir
de manière stable, autour d'un noyau atomique, que certaines orbites avec des
niveaux d'énergie précis. Pour être stable (stationnaire), une onde doit avoir une
longueur d'onde de matière sous-multiple entier de la longueur de la trajectoire
circulaire d'un électron. De Broglie a pu ainsi retrouver et confirmer l'orbite de l'électron
d'un atome d'hydrogène calculée par Niels Bohr, avec son rayon de 0.529 Å.
(Dans l'hypothèse simplificatrice de Bohr, un électron d'un atome décrit des orbites
circulaires autour du noyau. L'existence des ondes de matière explique que cet
électron ne puisse parcourir que des trajectoires comprenant un nombre entier
d'ondes de matière, trajectoires qui correspondent à des états énergétiques bien
précis ; si la longueur d'une trajectoire ne correspondait pas à un nombre entier
d'ondes de matière, ces ondes s'annuleraient par interférences ; la trajectoire
étant alors instable, l'électron la quitterait pour une trajectoire stable.)

Une telle dualité onde-particule, impossible dans le cadre du déterminisme traditionnel,


est tout sauf intuitive : comment de la matière peut-elle aussi se comporter comme une
onde ? L'explication relève de la Mécanique quantique, et de son déterminisme
statistique. Pour avoir proposé cette théorie unificatrice en 1924, De Broglie peut être
considéré comme « le père de la Mécanique quantique ».

3.5.7.3.4 Trajectoire d'un corpuscule


Les résultats de la Mécanique quantique contredisent souvent notre intuition. Ils nous
obligent à comprendre la nature à travers des modèles mathématiques (voir détails).

Fonction d'onde
Au concept classique de trajectoire d'un corpuscule la Mécanique quantique substitue
celui d'état dépendant du temps t. Exemple : en négligeant le spin [22], l'état quantique
d'un corpuscule de masse non nulle tel que l'électron, avec ses composantes de
position et d'impulsion définissant un vecteur d'état, est caractérisé par une fonction

168
d'onde (r, t), prenant ses valeurs dans le corps des nombres complexes [126], qui
contient toutes les informations que l'on peut connaître sur le corpuscule ; dans (r, t),
la variable vectorielle r a pour composantes les coordonnées de position r x ; ry ; rz et la
variable t représente le temps (l'instant). Une fonction d'onde (r, t) donnée appartient
à un espace vectoriel dit "de Hilbert" [326].

La fonction d'onde évolue dans le temps de manière parfaitement déterministe au sens


traditionnel. Elle est interprétée comme une amplitude de probabilité de présence,
nombre complexe ayant un module et une phase. Les positions possibles, dont les
coordonnées définissent un vecteur r, forment un continuum (espace continu). La
probabilité pour que la particule soit, à l'instant t, dans un élément de volume
d3r = dxdydz autour du point r(rx ; ry ; rz) est proportionnelle à d3r et infinitésimale : on
la note dP(r, t). La densité de probabilité [28] correspondante est |(r, t)|² si l'on pose
dP(r, t) = C|(r, t)|² d3r, où C est une constante de normalisation définie par :

1
  |  (r, t) |2 d 3 r
C

Ne pas confondre le nombre réel positif ou nul densité de probabilité |(r, t)|² et le
nombre complexe amplitude de probabilité (r, t) : |(r, t)|² est le carré scalaire [127]
de (r, t), produit de (r, t) par son complexe conjugué *(r, t).

L'évolution dans le temps de l'état du corpuscule (notion qui se substitue à celle de


trajectoire) est alors décrite par les solutions de l'équation de Schrödinger - solutions
déterministes au sens traditionnel - et toute combinaison linéaire [29] de telles
solutions correspondant à une distribution de probabilités.

Nature de ces ondes


Les ondes dont il s'agit ici ne sont pas des ondes électromagnétiques comme la
lumière, ou des ondes de pression comme celles des sons, mais des ondes
d'amplitude de probabilité de présence. Une telle onde ne décrit pas les variations d'un
champ électrique ou d'une pression, elle décrit la manière dont une particule de
matière en mouvement se déplace ; c'est une fonction du temps et de la position,
nombre complexe avec son amplitude et sa phase par rapport à une origine.

Nous devons accepter cette dualité corpuscule-onde de probabilité, avec ses


conséquences déterministes qui la font apparaître tantôt comme de la matière, tantôt
comme une onde, selon les circonstances expérimentales. Ce déterminisme dual, qui
implique deux aspects très différents d'une même réalité, est loin du déterminisme
traditionnel de la physique de Newton ; il nous faut pourtant l'admettre et accepter
lorsque c'est nécessaire d'avoir deux représentations mentales de la réalité, avec des
comportements distincts qui se complètent sans jamais se contredire. Cette dualité de
représentations fait l'objet du principe de complémentarité.

Remarque : un double modèle de la réalité existe aussi concernant la masse au repos


m d'une quantité de matière et son énergie E, ces deux variables étant reliées par la
célèbre équation d'Einstein E = mc2, équation qui décrit comment l'une des formes
(par exemple la masse) se transforme en l'autre (ici l'énergie).

169
Conséquences de l'existence des ondes de probabilité de la fonction d'onde
Ces ondes pénètrent des barrières de potentiel d'un champ de force comme un son
pénètre un mur ; elles traversent la matière comme la force de gravitation. Exemple :
un noyau atomique lourd peut subir une désintégration radioactive et se décomposer
en un noyau plus léger et une particule alpha (noyau d'atome d'hélium comprenant
deux protons et deux neutrons). Bien que la particule alpha n'ait pas assez d'énergie
pour vaincre la barrière de force électrique entourant le noyau atomique lourd, sa
nature ondulatoire fait qu'elle a une probabilité non nulle de passer à travers cette
barrière et de s'éloigner du noyau, d'où la désintégration.

La nature ondulatoire d'un électron ou d'un proton lui permet :


 D'être en plusieurs endroits à la fois, avec des probabilités précises fonction de
l'endroit ;
 D'avoir une infinité de vitesses à la fois, proches d'une vitesse moyenne ;
 De parcourir une infinité de trajectoires à la fois, autour d'un parcours moyen.

Etat quantique et information


La Mécanique quantique postule à la fois le déterminisme scientifique et le
déterminisme statistique.
 Des informations complètes sur un système (son état quantique) à un instant
donné déterminent toute son évolution ultérieure (l'évolution de son état
quantique) ; aucune histoire d'évolution n'est prise en compte.
 Si, au début de l'évolution d'un système, on dispose de toute l'information
concernant ce système (pour autant de variables qu'il a de de degrés de liberté),
on doit disposer de la même quantité d'information à la fin de l'évolution ; aucune
perte d'information n'est concevable [304].
En outre, une particule peut se déplacer, mais à tout moment elle est quelque
part : sa probabilité totale de présence dans l'espace reste égale à 1.

Trajectoires d'un électron autour d'un noyau atomique : orbitales


Les déplacements et les configurations stables de particules, prévues par la
Mécanique quantique, résultent de l'équation de Schrödinger, que nous verrons un
peu plus loin ; elles sont surprenantes. C'est ainsi que, loin de tourner autour d'un
noyau atomique selon une trajectoire plane elliptique comme celle de la Terre autour
du Soleil, un électron peut parcourir, selon son énergie, une région de l'espace
(appelée orbitale) en forme de sphère, de paire de lobes, etc. (voir figure ci-dessous)
et il faudra interpréter ces "orbites" à trois dimensions comme des régions de l'espace
proche du noyau où chaque petit volume autour d'un point a une densité de probabilité
de présence de l'électron [28]. Dans la figure ci-dessous, issue de [124], les surfaces
en forme de sphère, à gauche, et de paire de lobes, à droite, représentent la partie de
l'espace autour du noyau où un électron a une probabilité maximale de se trouver.

170
Orbitales électroniques en forme de sphère ou de lobes
("nucleus" désigne le noyau de l'atome)

Dans le graphique ci-dessous, issu de [105] page 863, l'éloignement r du noyau (en
abscisse) est exprimé en rapports r/r1, où r1 est le rayon théorique de "l'atome
d'hydrogène de Bohr", r1 = 0.5 Å (où 1Å = 10-10m). La probabilité de trouver l'électron
à l'intérieur d'une coquille sphérique de rayons r et r+dr est W(r)dr=4r²|(r)|²dr, où
(r) est la fonction d'onde. On voit que :
 La probabilité de présence très près du noyau (où r tend vers 0) est non nulle
pour chacune des trois couches électroniques ! Ceci ne se produit que lorsque le
nombre quantique l de moment angulaire orbital [104] vaut l=0.
 La couche de niveau d'énergie n=1 a une distance de densité de probabilité [28]
maximum. La couche de niveau n=2, supérieur de 10.2 électronvolts (eV) au
niveau d'énergie de la couche 1, en a deux. La couche n=3, de niveau 12.1 eV,
en a trois.

Densité radiale de probabilité de présence de l'électron W(r)=4r²|(r)|²


dans les couches n=1, 2 ou 3 pour un atome d'hydrogène

171
On voit à quel point les "trajectoires" tridimensionnelles réelles de l'électron sont
éloignées du modèle "planétaire" plan. En fait, le mot trajectoire ne s'applique pas du
tout à la rotation d'un électron autour de son noyau ; il vaut mieux parler de position
floue par superposition ou de région de présence. Enfin, le "diamètre" même d'un
atome varie avec son énergie, et si on pouvait le voir à un instant donné avec ses
électrons l'image serait floue.

3.5.7.3.5 Théorie de la résonance chimique


Certaines molécules chimiques comme le benzène C6H6 ont plusieurs structures
possibles où les atomes de carbone sont reliés, entre eux et à des atomes
d'hydrogène, par des liaisons de valence partageant des électrons. On démontre en
Mécanique quantique que la structure stable (état stationnaire) d'une telle molécule,
correspondant à l'énergie potentielle la plus faible, a une fonction d'onde combinaison
linéaire des diverses fonctions d'onde des structures possibles. On peut considérer
que la structure stable de la molécule oscille en résonance entre les diverses
structures équiprobables de base. Nous verrons cela en détail avec l'équation de
Schrödinger.

3.5.7.3.6 Conséquences pour le déterminisme


A l'échelle atomique, le déterminisme naturel peut donc produire plusieurs
conséquences simultanées (dites "en superposition") à partir d'une même cause, alors
que le jet d'un dé peut produire une valeur parmi 6 seulement.
Il nous faut accepter cette forme étendue de déterminisme même si elle nous
paraît intuitivement déroutante. Si nous acceptons qu'une fonction de la forme
y = ax2 + bx + c, modèle de la composante verticale de la trajectoire d'un boulet
de canon, puisse avoir deux solutions (positions où le boulet est à une certaine
hauteur) et non une, pourquoi n'accepterions-nous pas que l'équation d'évolution
de Schrödinger en ait aussi plus d'une ?

Mesurée à un instant donné, la valeur d'une variable de l'état résultant est choisie
parmi celles d'une distribution statistique de valeurs prévues par la Mécanique
quantique, l'ensemble des valeurs propres [278] de l'opérateur représentant la
variable. Le hasard n'est pas, dans le cas d'une mesure, le résultat d'une connaissance
insuffisante de ce qui se passe. C'est la manière de la nature de choisir statistiquement
un résultat dans un ensemble prévu par la théorie, résultat muni d'une probabilité
calculable d'être trouvé si l'on refait une même expérience un grand nombre de fois.
Nous l'avons déjà vu en analysant la notion de hasard.

Notons bien que la valeur de chaque résultat de mesure possible n'est pas due au
hasard, c'est une valeur précise appartenant à un ensemble bien défini ; c'est le choix
entre les divers résultats possibles lors d'une mesure qui est fait au hasard comme
dans toute distribution statistique.

Résultat d'une mesure


En physique quantique, le résultat d'une mesure est un ensemble connu avant la
mesure, et le choix par la nature d'un élément de cet ensemble résulte du hasard
statistique (3ème et 4ème postulats de la Mécanique quantique). Il faut donc considérer
ce choix au hasard lors d'une mesure comme une évolution particulière de la
nature, évolution dont le résultat n'est prédictible qu'au niveau de l'ensemble,
pas à celui de l'élément choisi, tout comme l'ordre de décomposition radioactive des

172
atomes d'un échantillon d'uranium 238. Ce sont là des cas où la nature refuse de
satisfaire notre volonté de prédire de manière unique l'élément choisi.

Certains comportements déterministes de la nature,


comme les positions superposées d'un corpuscule en mouvement
et les choix aléatoires parmi les valeurs précises d'un ensemble,
impliquent de l'imprédictibilité.

Le déterminisme naturel n'est donc pas incompatible avec des


cas bien définis de comportement aléatoire, imprécis ou
imprédictible ; le déterminisme étendu en tient compte.

Le choix au hasard d'une valeur, discrète ou continue, par la nature (c'est-à-dire d'un
élément particulier d'un ensemble prédéterminé de solutions d'un modèle
mathématique) se produit dans un cas et un seul : en physique quantique, lors du
passage du niveau atomique au niveau macroscopique, phénomène d'évolution
physique dit « de décohérence », rencontré lors d'une mesure (où le dispositif de
mesure interagit avec le système mesuré) ou de l'interaction du système en
superposition à l'échelle atomique avec son environnement macroscopique. Je ne
connais pas d'autre cas où le hasard intervient dans une évolution naturelle. Et
comme la Mécanique quantique prévoit la probabilité de chaque choix de valeur par la
nature, on en a fait le 4ème postulat de la Mécanique quantique. Comme les autres
postulats de la Mécanique quantique, celui-ci a été vérifié d'innombrables fois depuis
des décennies et n'a jamais été contredit.

Chaîne et arborescence de causalité


Compte tenu de l'existence possible à l'échelle atomique de multiples conséquences
d'une cause donnée, on doit donc décrire l'évolution possible en termes
d'arborescence de causalité plutôt que de chaîne de causalité. Chaque état du
système est représenté par un nœud de l'arborescence qui peut être suivi de plusieurs
branches conséquences, voire d'une infinité. L'évolution effective d'un système, dont
on suit une variable (scalaire [126] ou vectorielle [127]) à l'échelle macroscopique, est
donc décrite par la suite unique des nœuds-états atteints dans l'arborescence des
évolutions possibles, suite qui représente la chaîne effective de causalité.

Position floue plutôt qu'aléatoire - Interprétation de la décohérence


Nous verrons au paragraphe suivant que l'équation fondamentale de la Mécanique
quantique, l'équation de Schrödinger, ne prédit pas de position aléatoire, mais des
positions superposées floues associées à des paquets d'ondes de probabilité. C'est la
mesure d'une variable qui introduit un choix aléatoire, et plus précisément le passage
de l'échelle atomique à l'échelle macroscopique avec son échange irréversible
d'énergie : on dit alors qu'il y a décohérence, avec réduction de la fonction d'onde.

173
Nous ne savons pas aujourd'hui pourquoi ce changement d'échelle provoque le choix
d'un élément de l'ensemble des valeurs possibles, ni pourquoi ce choix est aléatoire.
[91] suppose qu'il existe une influence non prise en compte par la Mécanique
quantique, probablement due à la gravitation et à la Relativité ; de son côté, la théorie
de Hugh Everett, mathématiquement inattaquable, exclut la décohérence en
introduisant un basculement de l'Univers qui conserve la fonction d'onde.

Irréversibilité du passage de l'échelle atomique à l'échelle macroscopique


La transition entre l'échelle atomique et l'échelle macroscopique introduit une évolution
régie par un déterminisme particulier, d'un type nouveau inconnu du déterminisme
classique, la décohérence. C'est une évolution irréversible qui se produit dès qu'une
mesure, ou l'interaction du système atomique avec son environnement
macroscopique, a perturbé le résultat ensembliste. Cette évolution a un résultat non
calculable ; on suppose qu'il le restera tant qu'il n'existe pas de théorie relativiste de la
physique quantique [325], basée sur une interaction gravitationnelle quantifiée [18].

Nous avons vu plus haut que la décohérence est le seul cas où le hasard statistique
intervient dans une évolution naturelle ; et ce cas disparaît en admettant la théorie de
Hugh Everett. (Voir en fin de texte la table résumant les cas d'imprédictibilité.)

3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger)


L'équation fondamentale qui décrit l'évolution dans le temps du vecteur d'état
(ket |(t)> en notation de Dirac) d'un objet quantique en fonction de l'observable [30]
H(t), opérateur associé à l'énergie totale du système (son hamiltonien), est l'équation
différentielle de Schrödinger. Elle s'écrit :

iä d/dt|(t)> = H(t)|(t)>

où i2=-1 et ä est un quantum de spin [22] qui vaut ä = 1.0542 .10-34 joule.seconde
(ä = h/2 où h est la constante de Planck).

Cette équation décrit une évolution invariante par une symétrie temporelle qui change
le sens du temps. Elle est du premier ordre par rapport au temps t et complètement
déterministe : les mêmes conditions initiales produisent le même ensemble de
solutions, c'est-à-dire la même évolution dans le temps et l'espace. L'équation de
Schrödinger décrit donc une évolution déterministe.

Cette équation de description de l'évolution temporelle et spatiale d'un corpuscule en


Mécanique quantique joue le même rôle que les équations du mouvement qui
déterminent une trajectoire en mécanique classique, équations elles aussi
déterministes et symétriques par rapport au temps. Mais un résultat de l'équation de
Schrödinger est un vecteur d'état |(t)> fonction du temps, d'où on peut déduire la
densité de probabilité [28] de présence de l'objet en chaque point de l'espace à chaque
instant t. Ce n'est pas une trajectoire, et à un instant donné l'objet n'est pas en un point
précis mais en tous les points à la fois d'un voisinage de ce point, où la probabilité de

174
le trouver est maximale et diminue avec l'éloignement ; et l'instant suivant, son
mouvement l'emportera un peu plus loin.

Contrairement, donc, aux interprétations erronées que l'on trouve ici et là sur ses
résultats, l'équation de Schrödinger est parfaitement déterministe. Mais ses solutions
qui s'appliquent à un déplacement ne décrivent pas une trajectoire de particule, elles
décrivent l'évolution de son vecteur d'état en fonction du temps, dont on peut déduire
à tout instant donné une position nécessairement floue de probabilité maximum.

Combinaison linéaire d'états, superposition et imprécision


Le caractère linéaire de l'équation de Schrödinger fait que toute combinaison linéaire
[29] de ses vecteurs solutions (associés à des fonctions d'onde) est aussi une solution,
à condition que sa probabilité de présence dans l'espace tout entier soit 1. Il en résulte :
 La possibilité pour un état quantique d'être la somme (cas particulier d'une
combinaison linéaire) de deux états ou plus. Exemple : l'état d'un électron qui
serait à deux endroits à la fois. On dit qu'un tel état est une superposition d'états.
 La possibilité pour une fonction d'onde d'être combinaison linéaire d'une infinité
de fonctions d'onde dont la superposition définit un paquet d'ondes de probabilité
accompagnant une particule en mouvement. La position de cette particule à un
instant donné a alors un caractère flou ; imprécise, elle ne peut être définie à
mieux qu'une demi-largeur près du paquet d'ondes qui l'accompagne.

Combinaison linéaire d'une infinité de fonctions d'onde (superposition)


Une solution de l'équation de Schrödinger combinaison linéaire d'un nombre infini de
fonctions d'onde, où le coefficient (« poids ») de chaque fonction est tel que la
probabilité de présence dans l'espace entier est 1, peut se traduire par l'interprétation
suivante, due à Feynman : pour aller d'un point A à un point B, un corpuscule emprunte
simultanément toutes les trajectoires possibles entre ces deux points, chaque
trajectoire étant affectée d'une probabilité correspondant à son poids dans la
combinaison linéaire : on dit qu'il y a superposition des trajectoires-solutions [275].

Une combinaison linéaire d'un nombre infini de fonctions d'onde permet aussi de
passer des états de position d'une particule à ses états d'impulsion, ou inversement
[125]. Cette possibilité purement mathématique de deux descriptions différentes traduit
l'unicité de la réalité physique : ces deux types d'états d'une particule sont
conséquences des mêmes lois de mouvement et de la même énergie totale ; ce sont
donc des formulations de la même fonction d'onde (r, t) dans deux bases différentes
d'espaces vectoriels de fonctions.

Un postulat fondamental
L'équation de Schrödinger fait partie des postulats de la Mécanique quantique.

3.5.7.4.1 Impossibilité de décrire des phénomènes sans symétrie temporelle


La Mécanique quantique remplace les trajectoires exactes de la mécanique classique
par des zones de présence floues sans renoncer à la symétrie temporelle. Cette
symétrie entraîne une limitation lourde de conséquences : basée sur l'équation
fondamentale de Schrödinger ci-dessus et la symétrie CPT, la Mécanique quantique,
est inadaptée à la description de phénomènes où le temps ne peut aller que du présent
vers le futur, notamment ceux qui sont irréversibles.

175
Pourtant, ces phénomènes sont nombreux à l'échelle de la physique quantique.
Exemples :
 Désintégration spontanée de particules par radioactivité, où une particule
désintégrée ne peut spontanément se recomposer ;
 Désexcitation d'un atome qui revient à son état d'énergie fondamental en
émettant un photon [117], et qui ne peut de lui-même s'exciter de nouveau pour
revenir à l'état précédent ;
 Mesure d'un résultat, qui interfère nécessairement avec le système mesuré,
nous l'avons déjà signalé : toute mesure de physique quantique entraîne une
irréversibilité. Il y a là un problème que la physique quantique a donc été obligée
de prendre en compte en dépassant l'équation fondamentale de Schrödinger.
Nous dirons plus bas quelques mots sur l'irréversibilité au sens Mécanique
quantique et au sens thermodynamique.
Insistons sur un point : l'équation de Schrödinger décrit l'évolution dans le temps
et l'espace d'un système tant que celle-ci est réversible. Elle ne décrit pas
l'évolution irréversible qu'est la décohérence, qui transforme une superposition
d'états en un état unique choisi parmi les valeurs propres [278] de l'observable du
dispositif. Ce choix d'état unique est fait statistiquement, la Mécanique quantique
prévoyant la fréquence d'apparition de chaque valeur possible.

3.5.7.4.2 Inadaptation à la gravitation et à son espace courbe relativiste


La Mécanique quantique suppose aussi un espace plat [109], donc l'absence d'effet
gravitationnel de courbure de l'espace, résultant de la présence d'une masse selon la
Relativité Générale. Les efforts des scientifiques depuis les années 1930 pour
développer une physique à la fois quantique et relativiste n'ont abouti qu'à des progrès
modestes.

Il est possible, comme le suggère [91] pages 475 et suivantes, que la décohérence -
choix aléatoire d'un état parmi tous ceux qui existent simultanément en superposition
- provienne de l'influence perturbatrice de la gravitation, avec sa courbure d'espace ;
la gravitation est la seule des 4 forces fondamentales [18] à pouvoir agir sur l'état
quantique cohérent lorsqu'on passe de l'échelle atomique à l'échelle macroscopique.
Cette possibilité est vraisemblable au vu des conclusions de l'expérience de
décohérence faite au laboratoire LKB de l'Ecole Normale Supérieure, mais nous
n'avons pas encore de théorie unifiant la Mécanique quantique et la Relativité (voir le
paragraphe "Validité des lois de la Mécanique quantique à l'échelle macroscopique").

3.5.7.5 Etats finaux d'un système macroscopique


La possibilité que l'état initial d'un système ait pour conséquences possibles après
évolution plusieurs états finaux, équiprobables ou non, existe même à l'échelle
macroscopique dans des situations particulières. C'est ainsi que lors de l'écoulement
turbulent d'un fluide (écoulement dont le vecteur vitesse en un point critique peut subir
des variations irrégulières de direction et de grandeur), un point caractéristique P de
son espace des phases peut évoluer vers n'importe lequel des points P1, P2, P3, etc. :
on dit qu'il y a « diffusion » dans l'espace des phases.

176
La diffusion est un phénomène chaotique faisant passer, à chaque transformation, un
système d'un état initial avant un point critique de bifurcation à un état final après
bifurcation choisi parmi plusieurs états finaux plus ou moins dispersés. Ce phénomène
est irréversible et augmente l'entropie du système [25].

Parfois, après une certaine évolution de ce type, la présence du point représentatif de


l'état du système est beaucoup plus probable au voisinage de certains points de
l'espace des phases appelés « attracteurs », points vers lesquels l'évolution converge.

A l'évidence, l'existence et le caractère chaotique du phénomène de diffusion à


l'échelle macroscopique, ainsi que la convergence de son état vers un point attracteur
choisi parmi plusieurs, nous obligent à étendre le déterminisme même en dehors de
l'échelle atomique lors du franchissement d'un point de bifurcation (et seulement dans
ce cas) :
 un état initial avant bifurcation peut avoir pour conséquences possibles après
bifurcation un ensemble d'états finaux, dont un seul se réalisera à l'issue de
chaque transformation ;
 une transformation peut être chaotique et/ou irréversible. (Nous reviendrons plus
bas sur l'irréversibilité.)

3.5.8 2e extension du déterminisme : superpositions et décohérence


Dans l'exposé précédent, l'état d'un système était "choisi" par une mesure entre
plusieurs états possibles, chacun assorti d'une probabilité (ou d'une densité de
probabilité) qui décrit une fréquence d'apparition lorsqu'on multiplie les mesures ; ces
états s'excluaient mutuellement. Une expérience donnée ne produisait donc qu'un
résultat mesuré unique, même si celui-ci faisait partie d'un ensemble de résultats
possibles.
Exemple : à un instant donné, la mesure d'énergie d'un atome donnait une valeur
unique, choisie par l'appareil de mesure (macroscopique) parmi l'ensemble des
valeurs prévues par la Mécanique quantique (valeurs propres [278] de l'opérateur
représentant le dispositif de mesure).

Le choix étant imprévisible, même s'il a lieu avec une probabilité prédéterminée dans
un ensemble prédéterminé, on dit que cette évolution de la nature relève d'un
déterminisme statistique, qu'il faut se garder de confondre avec un hasard pur où le
résultat serait n'importe quoi. Dans ce cas-là, en physique quantique, une évolution
déterministe produit un résultat reproductible qui est un ensemble.

Il est indispensable que le choix du résultat unique d'une mesure soit limité à des
valeurs de l'ensemble qui ne contredisent pas une loi de la physique, comme la
conservation de l'énergie ou du moment cinétique du début à la fin de l'expérience.

3.5.8.1 Superposition d'états et décohérence


Mais ce choix de résultat n'est pas nécessairement instantané : il peut arriver qu'un
certain nombre d'états de l'ensemble coexistent pendant un certain temps, avant que
l'un d'eux soit choisi par une interaction avec l'environnement macroscopique telle
qu'une mesure et perdure. Les états qui coexistent temporairement sont alors appelés
« états cohérents » ou « états superposés ».

177
Une mesure est une transcription à l'échelle macroscopique (la position d'une
aiguille...) de l'état d'un système quantique [1] ; c'est une opération de choix qui en
retient un seul à l'échelle macroscopique, une évolution particulière appelée
décohérence. Tant que la décohérence n'a pas eu lieu, l'état qu'elle choisirait n'existe
que virtuellement et on ne peut le connaître.
(Rappelons-nous qu'on peut aussi interpréter la multiplicité d'états superposés
comme le fait qu'un état de départ a pour conséquences un ensemble
d'évolutions, chacune terminée au bout d'un certain temps par un état unique, dont
celui choisi par la nature lors de la décohérence (voir l'expérience du laboratoire
LKB.)

C'est ainsi qu'à un instant donné :


 Une molécule peut se trouver simultanément dans plusieurs états d'énergies
différentes ; son état quantique global (unique, par définition) est une
superposition d'états.
 Un photon peut se trouver dans deux états de polarisation opposés.
 Un électron peut se trouver simultanément en deux endroits différents, ou même
dans l'infinité d'endroits de son paquet d'ondes.
 Le "chat de Schrödinger" pourrait être à la fois mort et vivant, dans ces deux
états superposés, si l'interaction avec leur environnement ne limitait pas si
fortement la durée de vie superposée de systèmes macroscopiques, où l'état
visible unique a été choisi statistiquement.

La fonction d'onde d'une superposition d'états quantiques est une combinaison linéaire
des fonctions d'onde de chacun des états quantiques composants.

Une superposition d'états quantiques formant un état quantique unique est analogue
à la superposition des sons émis par plusieurs cordes de piano vibrant simultanément
pour produire un son unique. Lorsqu'une mesure d'une superposition produit une
décohérence donnant un résultat unique, les probabilités des divers résultats possibles
dépendent des proportions relatives avant décohérence des divers états quantiques
superposés, proportions prédites par la Mécanique quantique sous forme de
probabilités.

Il n'y a pas d'équivalent macroscopique d'un état global superposition de plusieurs


états cohérents, car sa durée serait trop faible pour être observée. La superposition
d'états est un exemple de plus de réalité naturelle qui défie notre intuition, et nous
devons étendre la définition du déterminisme pour la prendre en compte.

3.5.8.2 Superposition de trajectoires


Nous avons déjà vu dans l'expérience précédente des « fentes de Young », réalisée
avec des atomes au lieu de photons [117], un exemple de parcours de deux
trajectoires en même temps : un atome parcourt en fait simultanément deux chemins
dans l'appareil, entre source et détection, passant par les deux fentes à la fois comme
le ferait une onde lumineuse. Comme il est impossible d'observer la figure
d'interférence et en même temps de savoir par quelle fente un atome donné est passé
(en vertu du principe de complémentarité), il faut considérer que dans cette expérience

178
l'atome s'est comporté comme une onde de probabilité passant par les deux fentes à
la fois, pas comme un corpuscule matériel obligé de passer par une seule des fentes.

3.5.8.3 Conclusions sur la superposition d'états ou de trajectoires


Il faut nous faire violence pour accepter la vérité physique représentée par la
superposition d'états ou de trajectoires, notre intuition marquée par le déterminisme
traditionnel ne parvenant pas à imaginer comment un atome peut être en plusieurs
endroits à la fois ou parcourir deux trajectoires différentes en même temps, surtout si
elles ont des points distants de plusieurs milliers de diamètres atomiques !
(La difficulté pour la compréhension intuitive humaine vient de la représentation
d'un corpuscule en mouvement par des ondes de probabilité, qui passent par deux
fentes à la fois aussi facilement que les ondes électromagnétiques. Elle vient aussi
de notre difficulté d'accepter qu'une cause soit suivie de multiples conséquences
(évolutions) simultanées, superposées en combinaison linéaire d'états, et qui
restent distinctes jusqu'à la décohérence.)

Cette pluralité expérimentale est d'autant plus difficile à accepter que toute mise en
évidence expérimentale des chemins parcourus par un atome n'en trouve qu'un seul,
du fait de la décohérence qui se produit automatiquement lors de cette mise en
évidence au passage de l'échelle microscopique à l'échelle macroscopique. Il a fallu
aux chercheurs du laboratoire LKB de l'Ecole Normale Supérieure beaucoup de génie
pour réaliser l'expérience célèbre qui prouve la superposition et observe la
décohérence au bout d'un certain temps [1] - [10].

La décohérence est d'autant plus rapide que :


 le système observé est plus grand, donc soumis à davantage d'interactions (par
échange de photons et/ou de chaleur) avec le milieu environnant ;
 la distance énergétique entre les états cohérents est plus grande, produisant une
plus grande instabilité de la superposition d'états.

En pratique, la durée de cohérence (durée d'une superposition avant décohérence)


peut aller d'une fraction de seconde si courte qu'elle n'est pas mesurable à un certain
nombre de minutes, voire plus. Un système peut être dans un état superposition de
plusieurs états quantiques même s'il a des milliards d'atomes, même si sa température
atteint des centaines de degrés [365].

Nous sommes donc conduits à compléter le déterminisme par la possibilité d'existence


d'un état global d'un système qui combine (superpose) un certain nombre d'états de
base avant que l'échange d'énergie avec l'environnement en choisisse un au hasard
au bout d'un certain temps.
L'état unique choisi après décohérence a donc plusieurs prédécesseurs ayant
coexisté en superposition, une situation considérée comme impossible par le
déterminisme et la physique traditionnels !

Après une décohérence, nous devons considérer la superposition d'états qui l'a
précédée comme un état global unique, combinaison linéaire [29] d'états élémentaires
superposés dont l'un est devenu permanent. En utilisant la description par fonctions
d'ondes, en superposition d'états la fonction d'onde  d'un système est une

179
combinaison linéaire de vecteurs propres i [278], alors qu'après décohérence la
fonction d'onde est réduite à celui de ses vecteurs propres qui a été choisi au hasard,
k. La transformation d'un système par décohérence produit donc une « réduction de
sa fonction d'onde ».

En somme, l'évolution d'un système à l'échelle atomique est celle d'une superposition
d'états régie par l'équation de Schrödinger tant qu'il n'y a pas eu échange d'énergie
avec l'environnement (notamment par mesure), puis par sa fonction d'onde réduite à
un vecteur d'état choisi au hasard, après : toute mesure détruit la superposition et
change l'état du système d'une manière qui n'est prévisible qu'en probabilité.
Dérangeant, non ?

Irréversibilité
La décohérence est un processus irréversible : après le choix au hasard d'un état final
unique k par décohérence, on ne peut revenir en arrière et reconstituer l'état
superposé . On ne peut même pas "passer le film des événements à l'envers"
comme dans un phénomène à symétrie temporelle, car il n'y a pas d'équation de
décohérence où on pourrait changer la variable t en -t.

En fait, une décohérence n'est pas à proprement parler une évolution régie par une loi
physique décrite par l'équation de Schrödinger. C'est pourquoi Hugh Everett a proposé
de la considérer comme un choix d'un Univers parmi l'ensemble de ceux qui étaient
superposés avant la décohérence, un basculement qui emporte l'expérimentateur qui
ne constate que l'existence de l'unique état après évolution qu'il contient ; l'équation
de Schrödinger s'applique alors jusqu'au bout.

Unicité philosophique de la chaîne de causalité en remontant le temps


Plus généralement, il faut remplacer le postulat d'unicité de la chaîne de causalité du
déterminisme philosophique [200] dans le sens qui remonte le temps par la certitude
que toute situation a une cause au moins. En général on ne peut pas reconstituer le
passé en pensée en remontant une chaîne de prédécesseurs uniques d'un état.
Exemple : si après une addition nous avons comme résultat le nombre 8, avant
l'addition la paire de nombres ajoutés pouvait être (1+7), ou (2+6), etc.
A un état final d'un système peuvent correspondre plusieurs prédécesseurs.
A l'échelle atomique (et seulement à cette échelle-là) l'état précédent peut avoir
été une superposition d'états cohérents.

3.5.8.4 Déterminisme arborescent à univers parallèles de Hugh Everett III


Pour éliminer l'embarrassante question sur l'absence de mécanisme physique et de
loi expliquant et décrivant la décohérence et le résultat aléatoire que produit sa
réduction, le physicien américain Hugh Everett a posé en 1957 un postulat radical :

La fonction d'onde est irréductible.

180
Pour lui il n'y a jamais de décohérence, puisque l'évolution d'un système est toujours
déterministe, toujours unitaire et régie par la même équation de Schrödinger, qu'il y ait
une mesure ou non. [323]

Everett a proposé une fonction d'onde universelle, représentant un système à la fois


aux échelles atomique et macroscopique. Cette fonction d'onde intègre toujours des
variables de mesure macroscopique d'une expérience en plus des variables
microscopiques. Un résultat macroscopique donné est toujours possible dès le début
d'une évolution décrite par l'équation de Schrödinger, avec une probabilité connue.
Lorsqu'un observateur en constate un en particulier, c'est qu'il a évolué avec le reste
du système de la façon qui le fait constater la valeur qu'il lui trouve.

Pour Everett, donc, il faut considérer l'ensemble du système expérimental - y compris


un éventuel appareil de mesure et l'homme qui observe le résultat - comme un tout,
un univers décrit par une fonction d'onde universelle. La mesure fait passer sans
décohérence de l'état superposé de ce système à l'état macroscopique, par une
évolution régie par l'équation de Schrödinger du départ.

Tout se passe comme si l'expérience transformait l'Univers unique du début en une


superposition comprenant autant d'univers qu'il y a de résultats possibles, chacun avec
son expérience et son expérimentateur. En vertu de l'équation de Schrödinger tout ce
qui peut arriver arrive !

Lors de la mesure d'un système à l'état superposé, chaque expérimentateur (toujours


dans un état unique) suit son système dans une branche de l'arborescence des
possibilités d'évolution superposées créées par l'expérience à partir du nœud de l'état
avant mesure. Pour lui, le déterminisme de l'équation de Schrödinger a fait évoluer
l'univers tout entier – appareil de mesure et lui-même inclus – vers l'état correspondant
à la valeur propre qu'il mesure. Les autres univers (système et observateur) existent
désormais en même temps, en superposition. Mais ils sont invisibles pour lui, qui ne
peut voir que l'univers dans lequel il vit et fait son expérience depuis le début : chaque
observateur croit toujours être unique, la même équation de Schrödinger n'ayant
jamais cessé de s'appliquer pour décrire l'évolution du système ; il n'y a plus de
décohérence à expliquer, plus de hasard.

Bien entendu, ce déterminisme arborescent régit toutes les transformations dont les
lois ont des solutions multiples, avec ou sans observateur ou dispositif de mesure. Il
contredit l'interprétation classique de la physique quantique (dite « interprétation de
Copenhague » parce qu'elle était proposée par le Danois Niels Bohr), interprétation
selon laquelle les solutions et prédictions de la Mécanique quantique ne s'appliquent
pas au domaine macroscopique. Mathématiquement irréfutable, l'élégante
interprétation d'Everett est acceptée de nos jours par certains physiciens. Elle est
ignorée par les autres, qui ne l'aiment pas bien qu'ils ne puissent prouver qu'elle est
fausse ; ils se contentent de dire qu'une mesure réduit la fonction d'onde du système
par décohérence, et que le croire ne les empêche pas de faire des calculs justes.

Avec cette interprétation :


 La célèbre expérience de pensée du chat de Schrödinger crée simultanément
deux chats, l'un mort et l'autre vivant ; et selon l'Univers où l'observateur a
basculé, il voit le chat mort ou vivant sans avoir pu prédire le résultat.

181
 L'expérience du comportement non séparable de deux photons intriqués ne
prouve plus la non-séparabilité : quel que soit l'Univers où on a basculé lors de
l'émission simultanée des deux photons dont les états quantiques sont
superposés, la mesure donne toujours un résultat cohérent, sans qu'il soit
nécessaire d'envisager une transmission d'information ou une non-séparabilité.
 Le caractère surprenant de la valeur de tant de constantes de l'Univers, qui
semblent choisies « juste comme il faut » pour que l'homme ait pu naître, n'a
plus rien de surprenant, le choix faisant partie des choix possibles. L'étonnement
des idéalistes partisans du principe anthropique n'a donc plus de raison d'être.

L'objection de la dualité onde-particule invisible à l'échelle macroscopique


L'équation de Schrödinger prévoit que la superposition des résultats d'une évolution a
tantôt un aspect particule, tantôt un aspect onde. L'aspect onde produit des
interférences ; il permet par exemple à une particule de passer par deux fentes à la
fois et à un objet d'être en plusieurs endroits à la fois.

De son côté, l'équation universelle d'évolution de Hugh Everett, qui s'applique aux
objets macroscopiques comme aux particules, prévoit qu'un objet macroscopique peut
parfois avoir un comportement ondulatoire, existant par exemple en deux endroits à la
fois ou sujet à des interférences. Or on a eu beau faire soigneusement des
expériences, on n'a jamais pu mettre en évidence un tel comportement ; voici
pourquoi.

Représentation de la fonction d'onde généralisée par une matrice de densité


On peut représenter une fonction d'onde généralisée par une matrice de densité ([68]
page 436), tableau qui regroupe les informations de la fonction d'onde et celles d'une
connaissance de ses résultats mesurés (ce que l'on sait, en probabilité). Cette
matrice est régie par une équation fondamentale de la Mécanique quantique,
équivalente à celle de Schrödinger mais formulée par Born, Heisenberg et Jordan.
Son élément ligne i colonne j appelé ρij, se calcule à partir du nombre complexe i
associé à la valeur propre i de la fonction d'onde  par ρij = ij* où j* est le
conjugué de j. Ainsi, par exemple :
 Les deux valeurs propres équiprobables de la fonction d'onde auront des
probabilités de 0.5 situées sur la diagonale principale d'une matrice 2x2.

0.5
0.5

 L'incertitude sur la connaissance de ces valeurs propres est représentée par les
deux nombres de l'autre diagonale, par exemple deux fois 0 s'il n'y a pas
d'incertitude (connaissance certaine). Il y a eu alors décohérence et une des
valeurs propres est mesurée avec certitude, mais nous ne savons pas laquelle.

0.5 0
0 0.5

182
Si ces deux dernières probabilités sont aussi égales à 0.5, le système est dans un
état de superposition ; nous ne savons pas laquelle des valeurs propres serait
choisie lors d'une décohérence, et quelle serait sa valeur scalaire.

0.5 0.5
0.5 0.5

Exemple : mesure utilisant le spin d'un électron polarisé


Si par exemple le résultat macroscopique de l'expérience est donné par la mesure du
spin [22] d'un électron parfaitement polarisé, celle-ci tiendra compte de la décohérence
éventuelle et nous pourrions savoir qu'il y a ou non superposition. Mais si l'électron est
non-polarisé ou s'il y a trop d'électrons pour une mesure de polarisation, le spin est
dans un état indéterminé et nous ne pouvons conclure sur la superposition (valeurs
propres multiples ou valeur propre isolée).

C'est ce genre de difficulté qui gêne dans la mise en évidence d'un éventuel état
superposé d'un objet macroscopique que nous voyons : nous en recevons trop de
photons à la fois, des milliards de milliards donnant une image unique qui nous paraît
nette : les autres images sont atténuées par la décohérence avant que nous puissions
les voir. Et si nous mesurons la polarisation d'un électron que nous avons omis de
polariser dans l'expérience, celle-ci ne pourra évidemment pas conclure.

Il y a même une difficulté supplémentaire. Une mesure effectuée à l'aide d'une


particule (comme un photon ou un électron) ne pouvant être plus précise que la demi-
largeur de son paquet d'ondes, il restera toujours une incertitude sur la possibilité de
distinguer entre états superposés et non-superposés, en même temps qu'une
probabilité non-nulle de trouver chacune des valeurs propres, comme dans l'effet
tunnel.

L'interprétation par univers parallèles de Hugh Everett est donc utilisable.

Voir aussi [324].

Pourquoi notre cerveau ne nous permet de voir des objets qu'après décohérence
Sources : [136]-Tegmark et [325]

Lorsque notre œil reçoit des images provenant d'un objet macroscopique, le nerf
optique et divers neurones transmettent ces images à l'inconscient [353] du cerveau.
Celui-ci les analyse et ne les passe à la conscience que s'il les juge suffisamment
prometteuses ou menaçantes, et nous ne les percevons que dans ce cas-là et après
ce traitement cérébral [339].

Ce processus comprend un certain nombre de transmissions d'informations entre


neurones, en passant par leurs axones (émetteurs) et dendrites (récepteurs). Comme
le nerf optique, un neurone soumet une éventuelle superposition quantique à une
décohérence, car il ne peut transmettre à travers un axone qu'une seule information à
la fois et qu'il est un objet macroscopique interférant avec l'échelle atomique ; en outre,
cette décohérence se produit avant l'évaluation par la barrière de conscience et
infiniment plus vite qu'elle [1]. La transmission d'une région du cerveau à une autre par

183
plusieurs neurones en parallèle ne change rien à la décohérence, qui survient toujours
avant l'évaluation par la barrière de conscience.

Conclusion : lorsque nous sommes conscients de voir un objet nous n'en voyons
qu'une seule image, même si l'objet est à l'état de superposition.

3.5.9 3e extension du déterminisme : quantification et principe d'incertitude

3.5.9.1 Quantification des niveaux d'énergie et des échanges d'énergie


L'étude des spectres d'émission et d'absorption de rayonnements électromagnétiques
des divers types d'atomes a mis en évidence un fait inexplicable avec les lois à
variation continue d'énergie de la physique traditionnelle : ces spectres sont constitués
de raies fines. L'interprétation de cette finesse est la suivante : un atome d'un type
donné n'émet ou n'absorbe que des photons de certaines fréquences - donc certaines
énergies et longueurs d'onde - bien déterminées. L'énergie potentielle d'un atome est
donc quantifiée : elle ne peut prendre que certaines valeurs discrètes. Chaque
absorption ou émission d'un photon [117] de fréquence  par un atome fait varier
l'énergie de celui-ci de la valeur exacte h, où h est une constante universelle appelée
"constante de Planck" ou "quantum d'action" et valant h = 6.6261 .10-34 joule.seconde.

3.5.9.2 Les trois constantes les plus fondamentales de l'Univers


On mesure une grandeur en la comparant à une unité. Il y a des constantes de
l'Univers qui constituent des unités fondamentales, qu'il est judicieux de poser a priori
pour en faire dépendre d'autres unités. En voici trois :
 La constante de Planck, h = 6.6261 .10-34 joule.seconde, dont on utilise aussi
une valeur dérivée appelée ä ("h barre") : ä = h/2 = 1.05 .10-34 joule.seconde.
 La vitesse de la lumière dans le vide, c = 299 792 458 m/s (un peu moins de
300 000 km/s). C'est là une valeur exacte, une unité internationale.
 La constante universelle de gravitation G = 6.67.10-11 Nm2/kg2 (voir [110])

Il y en a plusieurs dizaines d'autres, comme la charge électrique de l'électron


e = 1.602 .10-19 coulomb. Voir aussi Distance, temps, densité et masse de Planck.

3.5.9.3 Position et vitesse d'une particule


Nous avons vu ci-dessus à propos de la trajectoire d'un corpuscule qu'en Mécanique
quantique la position et la vitesse d'un corpuscule à un instant donné doivent être
interprétées avec une certaine probabilité dans un volume donné autour d'une position
de probabilité maximum. De ce fait :
Les descriptions des états initial et final ont une précision limitée : elles sont
entachées d'incertitude, les positions et les vitesses sont approximatives.

3.5.9.4 Paquet d'ondes et étalement dans le temps

3.5.9.4.1 Description d'un paquet d'ondes de probabilité


Une autre caractéristique des solutions de l'équation de Schrödinger est encore plus
déroutante : l'étalement dans le temps des paquets d'ondes de probabilité. La position
d'une particule matérielle qui se déplace conformément à l'équation de Schrödinger
est décrite par un paquet d'ondes, superposition d'un ensemble d'ondes d'amplitude

184
de probabilité. Ces ondes sont souvent planes et monochromatiques, de fréquences
et phases différentes ; leurs amplitudes s'ajoutent en donnant une probabilité
maximum de présence de la particule au centre du paquet, et une probabilité
s'annulant rapidement dès que l'on s'éloigne du centre.

C'est ainsi qu'un paquet d'ondes de probabilité à une dimension se déplaçant dans la
direction des x croissants de l'axe Ox a une équation de la forme :

1 
 ( x, t ) 
2 
f (k )e i ( kx t ) dk

où :
 (x, t) est un nombre complexe donnant l'amplitude et la phase d'une onde de
probabilité de la particule au voisinage de la position x à l'instant t ;
 à chaque valeur de k entre - et + correspond une onde du paquet ;
  est la pulsation (fréquence multipliée par 2), reliée à k, à la masse m de la
particule et à la constante ä = h/2 par la relation :

k 2

2m

 t est l'instant considéré ;


 f(k) est la fonction d'amplitude qui détermine la distribution des amplitudes des
diverses ondes composantes du paquet en fonction de la variable k ;
 le rapport /k est appelé v, vitesse de phase de l'onde correspondant à k, égale
à c dans le vide mais égale à c/n(k) dans un milieu dispersif dont l'indice vaut
n(k).

L'amplitude du paquet d'ondes à un instant t donné est représentée par le graphique


ci-dessous, qui montre que la probabilité n'est significative que dans un petit intervalle
Δx et diminue puis s'annule rapidement en dehors.

Amplitude du paquet d'ondes à l'instant t d'une particule se déplaçant à la vitesse v

185
En somme, un paquet d'ondes accompagne une particule qui se déplace, et c'est
parce que ce paquet d'ondes a une largeur approximative Δx non nulle que la position
de la particule à un instant donné ne peut être définie avec une précision meilleure
qu'une demi-largeur de paquet autour de son centre, et que la particule apparaîtrait
floue si on pouvait la voir.

3.5.9.4.2 Etalement du paquet d'ondes de position d'une particule


La vitesse de déplacement de la particule et de son paquet d'ondes, v, vaut 2 fois la
vitesse de phase v de l'onde dont le maximum est au centre du paquet. Le temps
passant, les ondes de probabilité se rattrapent et se chevauchent, et le paquet d'ondes
s'étale tout en se déplaçant. Le graphique ci-dessous illustre cet étalement, en
montrant que t secondes après l'instant initial t=0 sa densité de probabilité [28]
maximum |(x)|2 a diminué et sa largeur Δx a augmenté.

Densité de probabilité maximum |(x)|2 aux instants 0 et t d'un paquet d'ondes

La conséquence de cet étalement est qu'après un calcul de position qui a donné un


résultat x à l'instant t (à l'incertitude Δx près), l'incertitude sur la position de la particule
en déplacement augmente. En quelque sorte, l'image de la particule devient
rapidement encore plus floue.
En Mécanique quantique la précision de position en mouvement après une
estimation se dégrade rapidement, contrairement à la physique classique.

Mais (surprise !) cette dégradation n'existe pas pour la quantité de mouvement Δp [20]
d'une particule : l'étalement du paquet d'ondes de quantité de mouvement à l'instant
d'une évaluation reste le même après cette évaluation :

Δp(t=0) = Δp(t>0)

186
Cela se comprend facilement si l'on se souvient qu'une particule libre (c'est-à-dire qui
n'est pas accélérée par un changement de potentiel) a une quantité de mouvement
constante.

3.5.9.4.3 Cas d'une onde de photon


Nous venons de voir l'étalement du paquet d'ondes accompagnant une particule de
masse non nulle, c'est-à-dire un corpuscule. Pour un photon, de masse toujours nulle
[117], les choses sont un peu différentes. L'onde électromagnétique du photon dure le
temps  que met un atome (ou une molécule) à l'émettre en passant d'un niveau
d'énergie à un niveau inférieur. La vitesse de cette onde et du photon est la vitesse de
la lumière, c. Si on connaît l'émetteur (atome ou molécule), on connaît ses divers
niveaux d'énergie, la fréquence  du photon, et la longueur de l'onde émise (celle de
sa suite d'alternances) c. L'incertitude sur la fréquence  du photon et sa longueur
d'onde  = c/ proviennent des incertitudes sur les différences entre deux niveaux
d'énergie de l'émetteur. L'incertitude Δx sur la position du photon est égale à sa
longueur d'onde, et l'incertitude sur son impulsion s'en déduit en appliquant le principe
d'incertitude de Heisenberg (voir ci-dessous). Il n'y a pas d'étalement dans le temps.

Si on fait passer de la lumière monochromatique à travers une fente qu'on ouvre


pendant un court instant puis qu'on referme, il y a une incertitude sur la durée
d'ouverture de la fente, donc une incertitude sur la longueur du train d'ondes
lumineuses qui l'a franchie (voir ci-dessous).

3.5.9.5 Incertitude sur la détermination simultanée de 2 variables (Heisenberg)


La Mécanique quantique impose une limite inattendue sur les précisions de la position
et de l'impulsion [20] d'un système en évolution comme le mouvement d'une particule
lorsqu'on les mesure simultanément : le produit des incertitudes (exactement : des
indéterminations) sur la position Δx et l'impulsion Δp doit être toujours supérieur à un
minimum de l'ordre de ½ä (prononcer "h barre"), où

h

2

h est une constante universelle appelée "constante de Planck" ou "quantum d'action"


et valant h = 6.6261 .10-34 joule.seconde ; donc ä = 1.05 .10-34 joule.seconde et
½ä = 0.527 .10-34 joule.seconde.

L'inégalité traduisant ce produit minimum s'écrit :

Δx . Δp  ½ä (a)

La contrainte décrite par l'inégalité (a) est le « principe d'incertitude de Heisenberg »,


découvert en 1927. Voici sa signification : plus le volume considéré autour d'une
position de particule en mouvement est petit (plus cette position est déterminée avec
précision) et plus l'incertitude sur l'impulsion (ou la quantité de mouvement pour un
corpuscule pesant, donc sa vitesse) en ce point est grande, et réciproquement.
 Lorsque la particule a une masse, l'incertitude sur l'impulsion est en fait une
incertitude sur sa quantité de mouvement [20], c'est-à-dire sur sa vitesse si sa
masse est constante comme la Mécanique quantique le suppose.

187
Exemple 1 : un atome de fer ayant un rayon de 1.26 angström (1Å = 10-10 m),
supposons que l'imprécision sur la position d'un électron soit du même ordre, soit
Δx = 1Å. L'incertitude sur la quantité de mouvement de l'électron est alors d'au
moins ½ä/Δx = 0.53 .10-24 kg.m/s ; et puisque la masse au repos de l'électron est
0.9 .10-30kg, l'incertitude sur sa vitesse est 0.6 106 m/s, c'est-à-dire 600 km/s ! Par
contre, si l'on accepte une incertitude de 1mm sur la position, l'incertitude sur la
vitesse tombe à 6 cm/s.
Exemple 2 : les incertitudes sur la position et l'impulsion d'un objet de taille
macroscopique sont insignifiantes. Un grain de poussière de diamètre
1 m = 10-6 m, pesant environ m = 10-15 kg et se déplaçant à la vitesse de 1 mm/s,
dont on mesure la position avec une précision extrême de 0.01 m a une
incertitude sur son impulsion de Δp = mΔv = 0.5 .10-26 kg.m/s, c'est-à-dire une
incertitude sur sa vitesse de 0.5 .10-8 mm/s : La précision sur la vitesse est
meilleure qu'un cent-millionième de mm/s.
 Lorsque la particule mesurée n'a pas de masse, comme c'est le cas pour un
photon [117], il n'y a pas d'incertitude sur sa vitesse - toujours égale à c - mais il
y a incertitude sur sa position du fait de sa longueur d'onde. Pour augmenter la
précision d'une mesure de position utilisant un rayonnement électromagnétique il
faut donc diminuer sa longueur d'onde, c'est-à-dire accroître son énergie.
 L'incertitude sur deux mesures simultanées doit être comprise axe par axe. C'est
ainsi que la composante selon l'axe Oz de l'impulsion, p z, peut être mesurée en
même temps que la composante selon l'axe Ox de la position, x, sans que la
limitation Δx . Δpz  ½ä intervienne.
 Ne pas confondre l'incertitude due au principe de Heisenberg, qui porte sur des
estimations simultanées de la position et de la vitesse, avec la dégradation de la
précision de positionnement d'une particule en mouvement due à l'étalement de
son paquet d'ondes avec le temps qui passe.

Le principe d'incertitude exprime une forme d'incompatibilité entre précisions des


déterminations simultanées de la position et de l'impulsion, incompatibilité qui existe
aussi pour un autre couple de variables, l'énergie ΔE et la durée Δt :

ΔE . Δt  ½ä (b)

L'inégalité (b) peut être interprétée comme une instabilité de l'énergie, une non-
reproductibilité d'expériences mesurant une énergie répétées trop peu de temps l'une
après l'autre : si on fait l'expérience "2" longtemps après l'expérience "1", Δt est grand
et ΔE peut être très petit, la reproductibilité peut être excellente ; mais plus tôt on
réalise l'expérience "2" après l'expérience "1", plus ΔE pourra être grand, ce qui
dégradera la reproductibilité. Le manque de reproductibilité est dû à une instabilité
naturelle, des fluctuations traduisant un refus de précision et de stabilité de la nature.

L'inégalité (b) peut aussi être interprétée comme l'impossibilité de mesurer avec
précision l'énergie d'un phénomène extrêmement bref, ou l'impossibilité de dater avec
précision l'échange d'une très faible quantité d'énergie. Exemple : lorsqu'un atome
perd une énergie ΔE par l'émission d'un photon, la durée de cette transition et de

188
l'émission du photon ne peut être déterminée avec une imprécision meilleure que
ä/2ΔE.

Enfin, le principe d'incertitude joue aussi pour la position angulaire α et le moment


cinétique L en imposant que Δα . ΔL  ½ä.

3.5.9.6 Remarques sur l'incertitude et l'imprécision


En toute rigueur mathématique le principe d'incertitude de Heisenberg décrit une
relation entre les largeurs des spectres de valeurs propres [278] de deux opérateurs
qui ne commutent pas (opérateurs de position et d'impulsion, d'énergie et de durée,
etc.), largeurs qui ne sont pas à proprement parler des incertitudes.

Il y a aussi une incertitude sur la position d'un corpuscule conséquence de la largeur


du paquet d'ondes accompagnant le déplacement d'une masse non nulle. Il y a
également une incertitude due au fait que, souvent, une particule n'est pas ponctuelle
et n'a pas de dimension précise, bien qu'elle soit tout à fait réelle et porteuse d'énergie,
tant pis si ce caractère flou défie notre intuition !
C'est ainsi que dans l'expérience des fentes de Young réalisée avec des atomes,
un même atome sort des deux fentes avec deux distributions de probabilité de
présence, chacune munie de points de probabilité maximum, et les probabilités
de ces distributions vont s'ajouter en amplitude et en phase sur l'écran en
produisant des franges d'interférences. L'atome aura bien emprunté deux chemins
distincts en même temps, avec deux ondes de probabilité se propageant chacune
avec son amplitude et sa phase, d'où les interférences lors de leur rencontre. Cette
existence de deux parcours simultanés est une forme de superposition de
résultats, nous l'avons déjà signalé.

Mais l'habitude d'appeler « incertitude » une largeur de paquet d'ondes est devenue
une véritable tradition, qui fait oublier à certains que toutes les valeurs d'amplitude d'un
intervalle d'incertitude n'ont pas la même probabilité.

Quelle que soit l'interprétation, la conséquence de ces deux types d'incertitude (la
largeur du paquet d'ondes et le principe d'incertitude de Heisenberg) sur le
déterminisme demeure : la précision de nombreuses déterminations est limitée, inutile
d'espérer des progrès techniques ! Mais attention : précision limitée ne signifie pas
inexistence de la particule, ou indéterminisme au sens « conséquence imprévisible
d'une cause ».
Ce n'est pas parce qu'un voltmètre a une précision de 0.5 % que la différence de
potentiel réelle qu'il mesure n'existe pas, ou qu'elle est une conséquence non
déterministe des paramètres du circuit : elle existe avec une valeur probabiliste,
de probabilité maximale au milieu d'un intervalle dont la largeur est 0.5 % de la
tension maximale mesurable ; nous aurions préféré que cette valeur soit précise
avec une infinité de décimales, mais la réalité se moque de nos préférences.
Voir aussi plus bas : "Exemple : portée des forces et masse des particules".

L'imprécision :
 Limite la précision d'une mesure, dont la valeur réelle existe mais est définie
dans un intervalle au lieu d'être exacte. En langage statistique, l'intervalle est de

189
type « intervalle de confiance » et signifie, par exemple, que la valeur réelle a
une probabilité de 95 % d'être entre ses bornes, et une probabilité faible mais
non nulle d'être à l'extérieur aussi loin que l'on voudra.
 Limite notre aptitude à prévoir le résultat exact d'une mesure, donc la
conséquence précise d'une évolution. Et après une mesure de position d'une
particule de masse non nulle en mouvement, (mesure qui a la précision qu'elle
peut), la valeur prédite « s'étale » jusqu'à la prochaine mesure, si on en fait une.

Cette imprécision est un phénomène naturel incontournable, qui nous oblige donc à
revoir notre conception du déterminisme : une évolution ne peut toujours être prévue
avec une précision infinie. Ce phénomène est dû au rapport étroit qui existe, à l'échelle
atomique, entre un corpuscule en mouvement et le paquet d'ondes qui l'accompagne.

Nous verrons aussi, plus bas, que pour des valeurs extrêmement petites de la longueur
ou du temps (longueur et temps de Planck) nos lois physiques ne s'appliquent plus.

3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure


Dans certaines circonstances de physique atomique il y a des variables qui sont
instables : leur valeur peut changer d'une mesure à l'autre sans cause autre que le
temps qui passe ; dans ces cas-là, le postulat de causalité ne s'applique pas.
Exemple : l'énergie potentielle en un point quelconque de l'espace (d'un atome,
d'une galaxie…) peut fluctuer autour d'une valeur moyenne par « emprunts de
courte durée » d'énergie potentielle à l'espace environnant.

A l'échelle atomique, l'incertitude de Heisenberg interdisant de mesurer avec précision


la valeur d'une variable lorsqu'on mesure précisément celle d'une autre, et que les
deux variables font partie d'un couple « incompatible » (couple d'observables dont les
opérateurs associés ne commutent pas), est due à la brutalité d'une mesure, opération
physique irréversible qui fait passer de l'échelle atomique à l'échelle macroscopique.
Cette brutalité entraîne une perte d'information sur l'état quantique du système
atomique, perte qui est à l'origine de l'incertitude.
Exemple : une tentative de mesurer avec précision la vitesse d'un électron en
mouvement à l'aide de photons suffisamment énergétiques pour que cette mesure
soit précise déplace l'électron de manière assez brutale et imprévisible pour
perturber gravement une mesure de sa position. Des détails sur ce phénomène
sont fournis par l'analyse de l'effet Compton.

Mais l'incertitude énergétique due aux fluctuations quantiques n'est pas mesurable, on
ne la connaît que par calcul, et les particules qu'elle crée pendant un court instant sont
considérées comme virtuelles.

3.5.9.7 Incertitude contextuelle


L'incertitude de Heisenberg concerne des couples d'observables A et B mesurées
simultanément, observables « incompatibles » en ce sens qu'elles ne commutent pas
(l'observable produit AB n'est pas égal à l'observable produit BA, ce qu'on écrit
[A,B]0). Mais voici une autre condition d'incompatibilité, dite « contextuelle »,
découverte par Simon Kochen et Ernst Specker en 1967 [43].

190
Considérons trois grandeurs, A, B et C, telles que les observables de B et C
commutent avec celle de A ([A,B]=0 et [A,C]=0) mais pas entre elles ([B,C]0). D'après
le principe d'incertitude, une mesure de A étant compatible avec une mesure
simultanée de B ou de C, on s'attend à ce que la valeur propre [278] trouvée pour A
soit la même en présence de B ou en présence de C. Or le théorème de Kochen-
Specker montre que ce n'est pas le cas : à chaque mesure, la valeur propre trouvée
pour A dépend de la totalité du système, et notamment des autres grandeurs
mesurées : on dit qu'une mesure de physique quantique est toujours contextuelle.

A la différence de l'incertitude de Heisenberg, il ne s'agit pas ici d'une indétermination,


d'une précision limitée. Il s'agit du choix d'une valeur propre dans l'ensemble des
valeurs propres possibles, choix qui peut dépendre d'autres variables du système,
variables de Mécanique quantique mais jamais variables « cachées ».

Le caractère contextuel de la Mécanique quantique est un argument supplémentaire


contre l'existence de valeurs de variables indépendamment de toute mesure, comme
en physique macroscopique. On ne peut donc pas, en physique quantique, affirmer
qu'une variable a une valeur indépendamment de tout système de mesure. Malgré
tout, il existe des propriétés de physique quantique indépendantes des mesures,
comme les formes, dimensions et niveaux d'énergie des orbitales électroniques d'un
atome donné.

3.5.9.8 Incertitude due à l'effet Compton


Une autre conséquence des ondes de matière découvertes par Louis de Broglie est
l'effet Compton, qui en fut la première preuve expérimentale en 1923. Un rayonnement
électromagnétique de haute énergie (rayon X ou gamma) interagit avec la matière qu'il
atteint de trois façons :
 En provoquant la création d'une paire particule-antiparticule électron-positon ;
(on dit aussi positron au lieu de positon) ;
 En extrayant des électrons d'atomes de la matière par effet photoélectrique ;
 Par diffusion élastique des photons par des électrons libres ou à faible énergie
de liaison, diffusion appelée effet Compton.
Lorsqu'un photon incident de longueur d'onde  rencontre un électron, il produit
un photon diffusé de longueur d'onde ' et l'électron recule dans une direction qui
fait un angle  avec celle du photon incident. L'impulsion et l'énergie du photon
incident se trouvent partagées entre le photon diffusé et l'électron de recul. En
appelant me la masse de l'électron, la relation de l'effet Compton est :

h
  ' (1  cos  )
mec

où le terme h/mec est appelé longueur d'onde de Compton de l'électron.


La longueur d'onde de Compton d'une particule de masse m est celle pour laquelle
l'énergie des photons est égale à l'énergie au repos de la particule, mc2.

191
La relation de l'effet Compton montre que la position ou la dimension d'une particule
de masse m ne peuvent être définies à mieux que sa longueur d'onde de Compton
près. [134] Cette forme d'incertitude est négligeable en physique macroscopique.

3.5.9.9 Mesures, incertitude et objectivité

3.5.9.9.1 Toute mesure de physique quantique modifie la valeur mesurée


En physique quantique, toute expérience réalisée avec un appareil à l'échelle
macroscopique modifie le système microscopique qu'elle manipule ; elle détruit son
état initial, devenant de ce fait irréversible.

On ne peut pas, par exemple, mesurer ou simplement observer le passage d'un photon
sans le détruire ; la seule manière de le prendre en compte dans une expérience est
de lui faire céder son énergie, toute son énergie h  car elle est quantifiée, c'est-à-dire
indivisible [117].
On peut quand même absorber le photon en excitant un atome puis le recréer
lorsque celui-ci se désexcite ; mais il faut alors prendre en compte le temps
nécessaire à ce processus, qui peut introduire une incertitude sur l'état du photon
[21].
On peut également, en utilisant l'énergie d'un champ auxiliaire, faire que la
rencontre d'un photon et d'un atome provoque le changement de niveau
énergétique de celui-ci sans absorption du photon [174].

En physique quantique on ne peut même pas copier un état quantique tout en laissant
l'état d'origine inchangé, comme on copie un fichier en informatique ou une page dans
un photocopieur : voir ci-dessous.

3.5.9.9.2 Mesure souhaitée et mesure effectuée : exemple


Soit à déterminer expérimentalement la direction d'un mouvement dans un plan,
détermination qui exige de repérer cette direction par l'angle qu'elle fait avec un des
axes orthogonaux constituant notre repère. Supposons, pour fixer les idées, qu'il s'agit
de déterminer le vecteur unitaire up qui décrit la direction de polarisation d'une onde
lumineuse plane monochromatique, c'est-à-dire de connaître les composantes de ce
vecteur par rapport aux axes du repère Ox et Oy.

Pour déterminer la direction du vecteur up, nous disposons d'un analyseur de


polarisation, appareil qui a deux directions privilégiées dont nous appellerons les
vecteurs de longueur unité ux et uy. Cet analyseur transmet les polarisations parallèles
à ux et absorbe les polarisations parallèles à uy. Derrière l'analyseur il y a une cellule
photoélectrique qui nous informe sur les photons qui l'ont franchi. (Rappel : ou un
photon franchit l'analyseur, ou il est absorbé, il n'y a pas de photon partiellement
transmis, nous venons de le voir.)

Nous supposerons que tous les photons à analyser ont exactement la même direction
de polarisation up, par exemple parce que nous leur avons fait franchir un polariseur
(la réflexion sur un simple miroir incliné, par exemple) avant l'analyseur.

192
x
ux

up

Direction de propagation

uy
y

Si nous envoyons les photons polarisés un par un vers l'analyseur, certains photons
le traverseront et d'autres seront absorbés. A moins que tous les photons soient
transmis (ce qui prouverait que up = ux), ou que tous soient absorbés (ce qui prouverait
que up = uy), l'expérience ne nous permet pas de savoir quels angles up fait avec ux
et uy. D'où une première conclusion :
Un appareil ne mesure que ce qu'il a été fait pour mesurer, pas ce que nous
souhaiterions mesurer.

Dans l'exemple précédent, l'analyseur mesure dans deux directions privilégiées et


elles seules. Les résultats donnés par l'appareil sont les valeurs propres [278] de son
observable, conformément au 3e postulat de la Mécanique quantique ; avec un
analyseur comme le précédent il y en a deux, associées à ses vecteurs propres ux et
uy. Plus précisément, l'analyseur ne mesure que dans la seule direction ux, pour
laquelle il ne fournit qu'une réponse de type binaire : OUI si un photon a été transmis,
NON dans le cas contraire ; dans la direction uy il ne fournit que des NON. Il est donc
impossible de déterminer la direction de polarisation d'un photon avec un analyseur
en s'y prenant comme nous venons de le faire.

La conclusion ci-dessus - impossibilité de mesurer la direction de polarisation d'un


photon - est vraie pour beaucoup d'autres grandeurs de physique quantique ;
exemple : la direction d'un vecteur spin [22]. On ne peut souvent déterminer qu'une
réponse de type binaire pour une valeur testée (comme la direction ux), et encore en
perturbant la grandeur mesurée. Et on ne peut pas connaître la valeur avant la mesure,
c'est-à-dire en l'absence de mesure : à part le cas particulier où l'état du système
correspond déjà à une valeur propre avant toute mesure, on ne peut pas, en physique
quantique, supposer qu'un résultat mesuré existe avant sa mesure ; c'est cette mesure
qui crée le résultat, en choisissant une valeur propre !

3.5.9.9.3 Copie d'un état quantique. Clonage par copie moléculaire


Des physiciens astucieux ont eu l'idée de copier un état quantique, en reproduisant la
particule ou le système d'origine à l'identique. Ils voulaient ainsi disposer d'une copie,

193
voire d'un grand nombre de copies identiques, pour pouvoir effectuer les mesures à
loisir. Mais cette idée est vouée à l'échec : à l'échelle atomique (celle de la physique
quantique) toute copie implique une action sur l'objet copié, donc un échange
d'énergie, donc une perturbation, exactement comme une mesure. Et une mesure
donne une certitude sur l'état après elle, pas sur l'état avant, où elle n'avait pas encore
perturbé l'objet. En physique quantique on ne peut donc copier l'état quantique d'un
système ou une particule sans le (la) détruire ou en modifier l'énergie.

Impossibilité du clonage par copie de structure moléculaire et de la téléportation


Il résulte de ce qui précède que le clonage par copie exacte de structure moléculaire
envisagé dans [96] est impossible, donc que la « téléportation » imaginée par les
auteurs de science-fiction l'est aussi. Mais cette impossibilité théorique peut être
contournée, toujours en théorie, grâce à l'effet Einstein-Podolsky-Rosen [368].

3.5.9.9.4 Mesure grâce à un grand nombre de particules


La loi d'optique expérimentale de Malus nous apprend que si on envoie à l'entrée de
l'analyseur ci-dessus un très grand nombre de photons par seconde représentant une
intensité lumineuse i, l'intensité transmise à la sortie sera icos², où  est l'angle de up
avec ux, c'est-à-dire qu'on aura up = uxcos + uysin (figure ci-dessus).
Ce comportement est dû à la nature d'une onde plane, qui se comporte comme la
résultante de deux vibrations dans des plans perpendiculaires. Une onde plane
d'amplitude A se décompose ainsi en deux ondes de même fréquence et
d'amplitudes respectives Acos et Asin. Et comme l'intensité d'un rayonnement
est proportionnelle au carré de son amplitude, les intensités mesurées dans deux
directions perpendiculaires seront proportionnelles respectivement à cos² et
sin². L'intensité étant proportionnelle au nombre de photons par seconde, la
probabilité que des photons traversent l'analyseur est proportionnelle à cos².

Le vecteur d'état up cherché est combinaison linéaire des vecteurs de base ux et uy


de l'analyseur. La probabilité qu'un des photons incidents franchisse l'analyseur est
donc proportionnelle au carré de cos, et la probabilité qu'il soit arrêté est
proportionnelle au carré de sin.

D'où les conclusions :


 Avec une mesure unique (un photon) nous ne pouvons pas connaître la
polarisation avant la mesure, et après la mesure elle ne peut être que ux ou uy :
l'analyseur a perturbé la mesure sans pour autant nous fournir le résultat
souhaité.
 Avec un très grand nombre de mesures (le rayonnement lumineux analysé
durant un certain temps), nous pouvons estimer les probabilités des divers
résultats de mesure, qui seront les carrés des composantes du vecteur cherché
up par rapport aux vecteurs de base ux et uy.

3.5.9.9.5 Conclusions sur la réalité objective et la réalité mesurable en physique


quantique
 La réalité objective d'un système, c'est-à-dire indépendante de toute mesure et
de tout observateur, existe bien avant une mesure : par définition c'est son état,

194
repéré par un point ou un vecteur de l'espace des états ; elle peut être, par
exemple, une superposition d'états.
Le problème est que cette réalité nous est inaccessible, puisque sans mesure on
ne la connaît pas et avec une mesure on la perturbe en la mesurant !
 La réalité ne nous est accessible qu'à travers une mesure, qui la perturbe tout en
donnant un résultat certain... mais choisi avec une certaine probabilité parmi les
valeurs propres de l'observable [278] mesurée par l'expérience. Et après une
mesure, la réalité d'avant n'existe plus. Il faut même, parfois, un grand nombre
de mesures pour estimer des probabilités pour les coefficients des vecteurs de
base.

A l'échelle atomique, l'inaccessibilité de la réalité objective autrement que par un


modèle mathématique (qui la prédit à partir de postulats, et qu'on estime conforme du
fait de la précision de ses prédictions et de l'absence d'expériences qui la réfuteraient)
fait affirmer à des gens qui ont mal compris la physique quantique que cette réalité
objective n'existe pas, nous en verrons un exemple ci-dessous. Leur raisonnement
implicite est que la réalité physique est limitée à ce qui est perceptible. Pourtant ces
personnes, qui ne voient pas les électrons, croient à leur existence après avoir touché
les fils nus d'une prise de courant !

Et comme ils aggravent parfois leur cas en interprétant le principe d'incertitude de


Heisenberg comme une preuve de non-existence de la réalité - autre preuve de leur
ignorance - nous allons voir quelques détails complémentaires de ce principe.

3.5.9.9.6 Contraintes de non-indépendance de variables


La contrainte de non-indépendance de certaines variables par rapport à d'autres
formant avec elle un couple de variables dites complémentaires, comme l'énergie ΔE
et la durée Δt ci-dessus, est une particularité de la physique quantique susceptible
d'en perturber les mesures : nous avons vu que le produit d'incertitudes ΔE.Δt des
variables d'un tel couple, lorsqu'on les mesure simultanément, est au moins égal à ½ä.

Exemple de non-indépendance : portée des forces et masse des particules


Voici un exemple d'impact de la non-indépendance de certaines variables
complémentaires formant un couple d'observables qui ne commutent pas,
conformément au principe d'incertitude de Heisenberg : l'existence d'une portée
maximale des forces résultant des interactions [18]. Comme nous le verrons un peu
plus loin, les interactions sont quantifiées, c'est-à-dire matérialisées par des échanges
de particules ayant une énergie E qui équivaut d'après la Relativité Restreinte à une
certaine masse m : E = mc2.

Considérons donc une particule porteuse d'une force d'interaction et ayant une masse
m. Cette particule va être émise et se propagera pendant un temps court Δt avant
d'être absorbée et de céder son énergie ΔE = mc2 correspondant à sa masse m. Or le
principe d'incertitude démontre que l'énergie d'un phénomène qui a une durée Δt ne
peut être définie à mieux que ä/(2ΔE) = ä/(2mc2) près. Comme la particule se
déplacera à une vitesse nécessairement inférieure à celle de la lumière, c, la distance
maximale qu'elle pourra atteindre est d = cΔt = ä/(2mc) : c'est l'ordre de grandeur de
la portée de la force correspondant à la particule d'interaction.

195
 Si la particule a une masse nulle, comme un photon, la distance d peut être
infinie : c'est pourquoi la portée de l'interaction électromagnétique est infinie.
La force de gravitation ayant aussi une portée infinie, si comme les trois autres
forces [18] elle est due à une particule, celle-ci a nécessairement une masse nulle.
 Si la particule a une masse non nulle, la portée de l'interaction correspondante
est de l'ordre de ä/(2mc). C'est ainsi que pour la particule appelée méson , dont
la masse est 0.24 .10-27 kg, la portée est de l'ordre de 0.7 .10-15 m, (environ
1 fermi), voisine du diamètre d'un noyau atomique, environ 100 000 fois plus
petit que celui de l'atome.

La notion de portée d'une force apparaît et s'explique en Mécanique quantique ; elle


n'a pas d'équivalent en physique classique, où l'effet du principe d'incertitude est
négligeable. Il faut donc, là aussi, enrichir notre définition du déterminisme.

Voici la portée approximative des 4 forces fondamentales [18] en fermi (fm), où


1 fm = 10-15m :
 Interaction faible : 2 .10-3 fm ;
 Interaction forte : 1 fm ;
 La force de gravitation est beaucoup plus faible que la force électromagnétique ;
exemple : entre deux protons, la force de gravitation est environ 10 36 fois plus
faible que la force électrostatique de Coulomb [341] ; mais la portée de ces deux
forces est infinie.

Voir le schéma du Modèle standard [59].

3.5.9.9.7 Objectivité des mesures


En physique macroscopique une loi déterministe permet des prévisions de résultat
indépendantes de l'expérience, donc aussi objectives et indépendantes de
l'observateur. Par contre, selon certains non-physiciens, une mesure de physique
quantique est nécessairement perturbée par l'interprétation de l'expérimentateur, ce
qui l'empêche d'être objective. Nous allons d'abord voir la différence entre mesures
actives et mesures passives, puis développer le sujet de l'objectivité.

Mesures actives
J'appelle mesure active une mesure dont le dispositif expérimental échange
nécessairement de l'énergie avec l'objet ou le phénomène mesuré ; c'est le cas, par
exemple, de toutes les mesures de physique quantique. Une telle mesure ne peut pas
ne pas perturber son résultat, même si c'est souvent de manière négligeable en
physique macroscopique ; et la perturbation causée est toujours irréversible.
Exemple : si je mesure au laser la distance de la Terre à la Lune, en émettant un
faisceau laser de la Terre qui se réfléchit sur un réflecteur posé sur la Lune, puis
en calculant la distance à partir du temps mis par la lumière à faire l'aller-retour,
un non-physicien croit que j'effectue une mesure qui ne perturbe pas la distance
Terre-Lune, contrairement à une mesure de physique quantique. Pourtant, en
toute rigueur, la mesure au laser produit une impulsion [20] lumineuse qui exerce
une poussée sur le réflecteur lunaire, modifiant ainsi la distance mesurée. L'erreur

196
ainsi introduite est si minime qu'il n'est pas question d'en tenir compte
quantitativement, mais elle existe.
Autre exemple : une mesure de tension au voltmètre perturbe la tension mesurée
du fait de la petite consommation de courant du voltmètre, dont l'aptitude à peu
perturber se mesure en ohms par volt ; un voltmètre à 20 000 ohms/volt est plus
perturbateur qu'un voltmètre à 100 000 ohms/volt.

Mesures passives
J'appelle mesure passive une mesure qui n'échange pas d'énergie avec l'objet ou le
phénomène mesuré. Si je mesure la hauteur d'une étoile au-dessus de l'horizon grâce
à la lumière que j'en reçois, je ne perturbe pas ma mesure par un échange d'énergie ;
de même si je mesure la largeur d'un livre en la comparant à la graduation d'une règle
posée à côté.

Objectivité d'une mesure - Les erreurs de certains non-physiciens


Lorsque des non-physiciens considèrent que la perturbation introduite par une mesure
en physique quantique en perturbe aussi l'objectivité, ils se trompent. Le résultat d'une
telle mesure est une valeur propre de l'observable mesurée [278], valeur qui dépend
de l'expérience mais pas de l'expérimentateur. Mais un non-physicien ne sait pas ce
qu'est une valeur propre d'opérateur auto-adjoint associé à une quantité mesurable…

Certains non-physiciens - notamment certains philosophes – considèrent à tort qu'une


mesure ne perturbe ce qu'elle mesure que si elle est mal organisée. Et lorsqu'ils
apprennent qu'en physique quantique toute mesure perturbe la grandeur mesurée,
certaines personnes qui ont mal compris la physique quantique en déduisent qu'à cette
échelle-là il n'existe pas de réalité objective, mais seulement des cas particuliers de
réalité associés à un contexte où l'homme qui mesure intervient nécessairement par
ses représentations mentales de la réalité.

3.5.9.9.8 La « mathématicophobie » et l'ignorance


Beaucoup de personnes sont intimidées par les sciences à base de mathématiques
comme la physique et l'astronomie. Elles sont victimes d'une pédagogie déficiente,
pas d'une incapacité pour une intelligence normale à assimiler des outils
mathématiques, incapacité qui n'existe pas plus que l'incapacité à maîtriser
l'orthographe.

L'impossibilité de décrire une réalité en soi à l'échelle atomique à partir de concepts


issus de nos sens adaptés à l'échelle macroscopique, et l'obligation de la décrire à
l'aide des mathématiques de la Mécanique quantique paraît à certains un vice
rédhibitoire de la méthode scientifique. Cette attitude est puérile, car elle postule
l'obligation de faire découler toute représentation du monde de concepts issus de nos
sens. Et comme nos sens ne peuvent percevoir ni les sons trop aigus ou trop graves,
ni les ondes électromagnétiques hors du spectre visible (longueur d'onde 0.4 à 0.7
μm), ni bien d'autres phénomènes, refuser toute représentation abstraite non basée
sur nos sens est absurde.
Décrire quelque chose exige d'en construire une représentation abstraite, et rien
n'impose de limiter les abstractions à celles issues directement de nos sens ; celles
issues de concepts a priori de l'entendement comme les outils mathématiques
conviennent tout aussi bien sinon mieux, car ils sont moins ambigus.

197
Polémique
Je constate que je n'ai rencontré de personnes qui contestent l'existence d'une réalité
en soi (comme la matière) que parmi les philosophes comme l'immatérialiste Nietzsche
[205]. Ces personnes tentent de justifier les intuitions de leur doctrine (voir discussion
sur l'objectivité et la subjectivité). En niant l'existence d'une réalité en soi, ces
philosophes veulent réfuter le déterminisme, pour faire triompher la croyance en une
intervention transcendante de l'esprit dans tout ou partie des phénomènes physiques ;
leur combat est idéologique. C'est pourquoi, dans le débat [61], le philosophe
matérialiste André Comte-Sponville a répondu à l'un d'entre eux :
"Vous avez écrit 500 pages pour enfoncer une porte ouverte : montrer que la
croyance en Dieu est toujours possible. Mais qui le nie ? Vous ne verrez aucun
philosophe sérieux affirmer qu'il est impossible de croire en Dieu ! D'un point de
vue logique et métaphysique [371], chacun sait depuis longtemps - lisez Kant ou
Hume, Pascal ou Montaigne - que la croyance en Dieu est possible, que nous ne
pouvons prouver ni son existence ni son inexistence !"

Certains idéalistes invoquent "l'interprétation de Bohr" pour nier que la physique


quantique soit une représentation de la réalité. En 1927, Bohr avait conseillé aux
physiciens qui n'arrivaient pas à croire au modèle contre-intuitif de la Mécanique
quantique de faire confiance à ses mathématiques (équation de Schrödinger, etc.)
pour faire des calculs et des prédictions justes dans chaque expérience, sans essayer
d'interpréter ses résultats comme une description de la réalité perceptible. Cette réalité
existe bien objectivement, mais chaque expérience en est un cas particulier où la
mesure accessible à l'homme intervient par passage irréversible à l'échelle
macroscopique qui ne fournit qu'un résultat après mesure, pas avant.
80 ans après la prise de position de Bohr, le consensus des scientifiques sur les
modèles mathématiques de la Mécanique quantique est le suivant :
 Ces modèles représentent bien - et en totalité - la réalité physique. Ils en
décrivent tout ce qu'on peut savoir, les postulats qui l'affirment n'ayant jamais été
réfutés mais ayant été confirmés un nombre immense de fois.
 Ces modèles et les résultats des mesures sont objectifs, c'est-à-dire
indépendants de l'observateur et de ce que son esprit comprend ou non.

Nous devons admettre qu'à l'échelle atomique la réalité a pour représentation des
équations produisant des fonctions d'onde probabilistes, et des opérateurs auto-
adjoints appelés "observables" avec leurs valeurs propres [278]. Ces notions ne sont
pas issues des sens ; et c'est parce que notre esprit doit se faire violence en admettant
des représentations si abstraites que Bohr conseillait de ne pas perdre de temps à
s'en faire des représentations mentales, mais d'accepter les prévisions calculées, y
compris avec les limitations de précision dues aux incertitudes.

3.5.9.10 Quantification des interactions et conséquences sur le déterminisme


L'existence du quantum d'action h révèle une propriété fondamentale de toute
interaction : pour qu'une source influence physiquement une cible (action mécanique,
électrique, échange thermique, rayonnement, etc.) elle doit émettre un nombre entier
de quanta d'interaction qui se propageront jusqu'à cette cible. Par exemple l'influence
d'un champ électromagnétique échange des quanta d'interaction appelés photons
[117] ; cette influence est un rayonnement. La propagation se fait à une vitesse qui ne

198
peut dépasser celle de la lumière dans le vide, appelée c, et valant exactement (par
définition, car c'est une unité fondamentale) c = 299 792.458 km/s. Il y a 4 types
d'interaction physique [18].
Exemple : tout échange d'énergie par rayonnement électromagnétique (par
exemple lorsqu'un corps chaud se refroidit en émettant un rayonnement) met en
jeu un nombre entier de photons. L'énergie d'un photon de fréquence  est
exactement égale à h, et l'échange d'énergie par rayonnement de fréquence 
ne peut se faire que par quantités discontinues multiples de h.

Voir aussi le paragraphe "Nécessité d'une interaction avec échange d'énergie".

3.5.9.10.1 Différence entre quantification et imprécision


Le caractère discontinu d'un échange d'énergie électromagnétique, qui pour chaque
fréquence  échange une quantité d'énergie multiple de h, introduit une impossibilité
d'échanger certaines quantités non multiples de h. Il ne faut pas confondre cette
impossibilité, qui rend discrète la variable énergie, avec une imprécision qui
empêcherait de préciser sa valeur.

Voici un exemple de différence entre une variable discrète (ici l'énergie d'un
rayonnement électromagnétique) et une variable continue à valeur imprécise (ici une
position dans l'espace). Une source lumineuse monochromatique de fréquence 
rayonne chaque seconde une quantité d'énergie sous forme d'ondes
électromagnétiques, quantité discontinue multiple entier du quantum h. Mais la
position d'un électron en mouvement sous l'action d'un champ électrique est une
grandeur continue, dont la détermination à un instant donné est entachée d'une
incertitude au moins égale à la plus grande des deux largeurs suivantes :
 La demi-largeur du paquet d'ondes accompagnant le déplacement de l'électron,
qui rend sa position imprécise ;
 L'existence d'une longueur d'onde de Compton associée à la masse de l'électron
[134], longueur qui détermine une précision maximale de taille ou de position.

3.5.9.10.2 Echanges quantifiés d'énergie et conservation de l'énergie


Lorsque des particules chargées électriquement comme les électrons interagissent,
elles le font par échange de photons [117]. Conformément au 1 er principe de la
thermodynamique [25], chaque échange conserve l'énergie totale, entre le moment où
il débute et un photon est émis, et le moment où il prend fin et le photon est absorbé.
Mais pendant le court instant Δt où l'échange a lieu, il n'y a pas nécessairement
conservation de l'énergie : le principe d'incertitude de Heisenberg permet une variation
d'énergie ΔE telle que ΔE.Δt ≥ ½ä : tout se passe comme si le photon échangé
"empruntait" une quantité d'énergie de l'ordre de ΔE pendant environ Δt secondes à
l'énergie potentielle du milieu (vide) environnant, et la restituait ensuite à la fin de
l'échange. Ce photon à énergie empruntée puis restituée est appelé « virtuel », car on
ne peut le mettre en évidence expérimentalement ; et il existe des particules virtuelles
soumises au principe d'incertitude pour toutes les interactions [18], sauf peut-être la
gravitation.
Voir aussi les paragraphes "Exemple : portée des forces et masse des particules"
et "Un vide plein d'énergie".

199
La non-conservation de l'énergie pendant un emprunt à l'espace environnant,
phénomène bien réel mais négligeable en physique classique, nous oblige elle aussi
à revoir la notion de déterminisme que nous devons à Newton et Lagrange.

3.5.9.10.3 Conséquences de la quantification des interactions : extension du


déterminisme
Le déterminisme des lois physiques doit donc être étendu pour tenir compte du
caractère discret et quantifié de toutes les interactions (sauf peut-être la gravitation),
contrairement à l'intuition qui nous faisait croire qu'elles étaient continues parce que le
quantum d'action h est extrêmement petit à l'échelle humaine (il faut l'énergie de 12
milliards de milliards de photons [117] de lumière orangée pour chauffer 1 gramme
d'eau de 1 degré C !).

Nous avons vu ci-dessus qu'une cause de départ, origine d'une interaction, pouvait
avoir plusieurs conséquences, dont une seule sera choisie au hasard lors de la
décohérence. Nous savons maintenant, en plus, que toute interaction (toujours sauf
peut-être la gravitation) est quantifiée et qu'à l'échelle atomique certaines valeurs
numériques associées à un état conséquence d'une interaction sont discrètes.

Le déterminisme des lois physiques doit donc être étendu pour tenir compte de la
nature quantifiée des interactions, ainsi que de la nature discrète possible des
variables d'état d'une conséquence.

Voir la citation du mathématicien René Thom sur le hasard [226].

3.5.9.10.4 Quantification des vibrations - Phonons et frottements


Toute action sur de la matière agit sur ses atomes [108]. L'énergie des vibrations
mécaniques en tout genre est aussi quantifiée. Le quantum d'énergie vibratoire est
appelé phonon. Lorsqu'un groupe d'atomes vibre, qu'il s'agisse de vibrations par ondes
sonores ou par réaction à des champs électromagnétiques alternatifs, l'énergie de
chacun de ses atomes est quantifiée, contrairement à notre intuition qui voudrait la
croire capable de varier de manière continue. Un atome qu'une vibration a écarté de
sa position d'équilibre par translation ou rotation transmet un écart à ses voisins, la
perturbation s'étendant de proche en proche. Du reste, il n'y a pas que l'énergie
échangée qui soit quantifiée, l'impulsion [20] et le moment cinétique le sont aussi.

A part les divers types de vibrations, le quantum qu'est le phonon intervient dans toutes
sortes de phénomènes de physique du solide comme la conductivité électrique, la
chaleur spécifique, la conductivité thermique, la supraconductivité, la ferroélectricité…

Nous devons donc nous habituer à ce que toutes sortes de phénomènes soient
quantifiés, donc discontinus et n'apparaissant qu'au-delà d'un certain seuil minimum.
C'est ainsi que lorsque deux objets sont en contact et que l'on veut déplacer l'un par
rapport à l'autre, l'existence de frottements a des effets atomiques et entraîne
l'existence d'un effort minimum et d'un bond minimum : un déplacement avec
frottement ne peut être continu. Notre déterminisme intuitif doit être révisé aussi dans
tout ce qui concerne les vibrations et les mouvements avec frottement.

200
3.5.9.10.5 Effets mécaniques et thermiques de la lumière
L'absorption ou l'émission de lumière - ou plus généralement des photons [117] d'un
rayonnement électromagnétique - par de la matière a trois sortes d'effets mécaniques
ou thermiques :
 Un échange d'énergie thermique ;
 Un échange d'impulsion lumineuse des photons contre de la quantité de
mouvement de l'objet matériel, qui a tendance à prendre ou céder de la vitesse
en vertu du principe de conservation de l'impulsion ;
Un photon de longueur d'onde  a une impulsion p = h/ [20]. Malgré sa petitesse,
cette impulsion peut avoir un effet perceptible à l'échelle macroscopique :
lorsqu'un rayonnement lumineux tombe sur une surface ou en part, celle-ci subit
une poussée mécanique. Cette poussée se manifeste, par exemple :
 Par la rotation d'un petit tourniquet à ailettes ;
 Par la stabilité de certaines étoiles, dont l'enveloppe gazeuse subit une
pression des rayonnements venus du noyau qui équilibre la gravitation ;
 Par la poussée que subit la Terre sous l'influence du rayonnement solaire :
environ 6 109 newtons (~600 000 tonnes-force), ce qui est peu par rapport à
la force de gravitation.
La lumière émise exerce une pression qui repousse la surface qui l'émet.
 Un échange de moment cinétique entre les photons et l'objet matériel.
C'est ainsi qu'une lumière polarisée circulairement exerce un couple de rotation
sur une surface sur laquelle elle tombe, couple extrêmement faible mais non
nul ; chaque photon apporte un moment cinétique multiple entier de ä :
-2ä, -1ä, 0, +1ä, +2ä… dont le signe dépend du sens de rotation.
Voici des exemples de fronts d'onde polarisées circulairement cités par [330] :

-1ä 0ä +1ä +2ä +3ä

Fronts d'onde de lumière polarisée circulairement

Les phénomènes d'échange de chaleur sont connus de tout le monde, mais les
phénomènes d'échange d'impulsion et de moment cinétique ne sont connus que par
peu de personnes. Ils peuvent pourtant être lourds de conséquences :
 En 28 mois, l'orbite du satellite artificiel Vanguard 1 ("Pamplemousse"), de 16 cm
de diamètre, a été déplacée de 1600 m par la pression du rayonnement solaire,
selon [105] page 823.
 L'une des méthodes envisagées pour protéger l'humanité contre un astéroïde
qui risquerait de percuter la Terre consiste à y envoyer une équipe qui en
recouvrirait une partie d'un matériau réfléchissant comme une feuille de

201
plastique aluminisé, changeant ainsi la poussée de la lumière solaire sur lui,
donc sa trajectoire.

3.5.9.10.6 Effets photoélectriques


Lorsque de la lumière est absorbée par de la matière, il y a – en plus des effets
mécaniques et thermiques ci-dessus – trois effets dits photoélectriques :
 L'émission photoélectrique : lorsque de la lumière frappe de la matière avec une
énergie suffisante, elle détache des électrons de certains atomes, électrons qui
peuvent être attirés ou repoussés par un champ électrique.
 La photoconductivité : augmentation de la conductivité d'un semi-conducteur qui
absorbe la lumière. Cette propriété peut être utilisée, par exemple, pour mesurer
la quantité de lumière.
 L'effet photovoltaïque : transformation directe de la lumière en énergie
électrique, qui apparaît sous forme de différence de potentiel entre les deux
côtés d'une jonction. Cette propriété est utilisée, par exemple, dans des
panneaux solaires qui produisent de l'électricité.

3.5.9.11 Conséquences des diverses imprécisions sur le déterminisme


 L'imprécision sur des valeurs de variables introduit dans certaines
transformations à étapes multiples l'existence de branches supplémentaires
dans l'arborescence de conséquences issue de l'état initial. Elle ne fait ainsi que
multiplier les évolutions possibles entre lesquelles un choix s'opère.
Le déterminisme des lois physiques doit être étendu pour tenir compte des
imprécisions, qui introduisent des branches supplémentaires dans l'arborescence
de conséquences issue d'un état initial.

Exemple du mouvement brownien : considérons un récipient cubique fermé de


quelques centimètres de côté, supposé parfaitement vide à l'exception d'une
molécule de gaz unique. Du fait de la température, cette molécule se déplace tout
le temps, son énergie cinétique résultant de la température. Dans son
déplacement, la molécule rebondit sur les parois. Pour fixer les idées, la vitesse
d'une telle molécule est de l'ordre de 1 km/s ; elle rebondit donc chaque seconde
de nombreuses fois sur les parois et sa trajectoire est une ligne brisée très
complexe. Du fait de l'incertitude sur les positions d'impact due à la largeur d'un
paquet d'ondes, chaque point où on prévoit que la molécule heurtera la paroi est
en fait une petite surface ayant une certaine étendue, et le vecteur vitesse du choc
est lui-même défini avec une certaine imprécision - en grandeur comme en
direction.
Comme à l'échelle atomique la surface du récipient présente des aspérités, le
moindre déplacement d'un point d'impact peut introduire une variation importante
de la direction dans laquelle la molécule rebondit, direction qui s'avère donc
imprévisible car entachée de trop d'incertitude. Le rebond suivant pourra donc être
très différent selon la direction du rebond précédent.
En plus, lorsqu'il y a plus d'une molécule dans le récipient et que deux
molécules A et B entrent en collision, un choc de A à un endroit légèrement

202
différent de B - ou avec un vecteur vitesse légèrement différent - pourra faire
rebondir A et B avec des vecteurs vitesse très différents.
On voit donc que les trajectoires possibles de la molécule (unique ou non), à partir
d'un point précis donné où elle avait un vecteur vitesse précis, peuvent être
représentées par une arborescence de conséquences où chaque nœud
représente un rebond et chaque branche une direction possible à partir de ce
nœud. Il y a bien multiplication des branches possibles de l'arborescence de
conséquences : la prévision d'une trajectoire à multiples rebonds est impossible,
on sait seulement que la trajectoire qui sera effectivement observée est l'une des
trajectoires possibles, associée à l'une des innombrables chaînes de
conséquences de l'arborescence des évolutions possibles.

Convergence possible des fins de trajectoires multiétapes, c'est-à-dire des


conséquences finales d'une cause de départ - Attracteurs
En pratique, il peut arriver que les diverses chaînes de causalité de l'arborescence
des trajectoires possibles ne soient pas équiprobables. On observe alors parfois
des points - (ou dans l'espace des phases des couples {point, vecteur vitesse en
ce point}) - au voisinage desquels la probabilité de fin d'une trajectoire est bien
plus grande qu'ailleurs. Ces points sont appelés « attracteurs », parce que les fins
de trajectoires possibles convergent dans leur voisinage ; nous avons déjà évoqué
cette notion. Pour d'autres exemples d'attracteurs voir "Attracteurs multiples" et
"Accidents de la réplication du génome".

Impossibilité de remonter d'une conséquence à sa cause


Autre conséquence de cette incertitude sur la trajectoire d'une molécule, on ne
peut pas remonter à son origine : à partir d'un point P atteint après des milliers de
rebonds, même si on connaît les incertitudes sur la position P et la vitesse en P,
ces grandeurs mesurées ne permettent pas de reconstituer la trajectoire de la
molécule, c'est-à-dire de savoir où elle se trouvait une seconde auparavant,
contrairement à ce que voudrait le déterminisme philosophique [200].
Pourtant, au niveau macroscopique de la thermodynamique, le comportement du
gaz est déterministe au sens classique. A volume de récipient constant, par
exemple, la pression du gaz intérieur est strictement proportionnelle à sa
température absolue [121], d'après la loi des gaz parfaits pv=nRT.
 Du fait des incompatibilités de détermination simultanée de certains couples de
variables, leurs valeurs ne peuvent pas être déterminées de manière
indépendante dans une expérience donnée. La connaissance de la plage d'une
des valeurs contraint (limite) ce qu'il est possible de connaître de l'autre,
déterminant ainsi sa propre plage de valeurs : une plage impacte l'autre.
Le déterminisme des lois physiques doit aussi être étendu pour tenir compte de la
non-indépendance de certaines variables d'état et de l'interdépendance de leurs
imprécisions.
 Des principes considérés comme évidents en physique macroscopique peuvent
être violés en physique quantique. Nous devons donc réviser nos notions sur
l'évidence, notamment celles sur la causalité. Voici des exemples.

203
 Le principe de conservation de l'énergie peut être violé dans des
expériences où l'intervalle de temps Δt est très court : du fait de la relation
ΔE . Δt  ½ä, une paire particule-antiparticule peut naître en empruntant son
énergie à l'espace environnant, se propager sur une courte distance et
disparaître par recombinaison en restituant l'énergie empruntée.
Cela se produit notamment lorsqu'un trou noir « s'évapore » en rayonnant des
particules et des antiparticules, processus connu sous le nom « d'effet (ou
rayonnement) Hawking ». Du fait du principe d'incertitude, plus l'intervalle de
temps Δt considéré est petit, plus la violation temporaire de la conservation
de l'énergie peut être grande (ΔE grand).
Autres violations possibles pendant un temps court : la conservation de
l'impulsion ; la conservation du nombre de particules (certaines peuvent
apparaître, d'autres peuvent disparaître ou se transformer…)
 « L'effet tunnel » permet à un corpuscule de franchir une barrière de
potentiel, alors qu'en principe son énergie est insuffisante. C'est ainsi que,
dans certains transistors, un électron peut passer à travers un isolant. C'est
là un effet de la nature également ondulatoire de ce corpuscule : les ondes
de probabilité de présence traversant la matière, il existe une probabilité de
présence non nulle des deux côtés de la barrière (nous l'avons déjà vu).
Une mise en évidence expérimentale de la position d'une particule subissant
l'effet tunnel ne peut donner qu'un seul résultat, comme lors d'une
décohérence, alors que la particule a une probabilité de présence non nulle
dans toute une région de l'espace.
 Autre paradoxe : la règle relativiste qui empêche une interaction de se
propager plus vite que la lumière conduit dans certains cas à l'apparition
dans les calculs de particules d'énergie négative. En renversant le sens du
temps, c'est-à-dire de la causalité, une énergie négative se comporte
comme une énergie positive. On interprète donc une particule d'énergie
négative qui remonte le temps comme une antiparticule d'énergie positive
qui le descend, l'antiparticule ayant la même masse que la particule d'origine
mais une charge électrique opposée.
Antiparticule : Pour que la causalité se produise bien dans le sens du présent
vers l'avenir, il faut qu'existe pour chaque particule chargée électriquement
une antiparticule de charge opposée et de même masse : l'électron de charge
négative -e [150] a pour antiparticule le positon (on dit aussi positron) de
charge +e ; au proton correspond l'antiproton ; à l'atome d'hydrogène
proton + électron correspond l'antihydrogène antiproton + positon, etc. C'est
ainsi que Dirac a découvert les antiparticules par raisonnement, avant que
leur existence soit prouvée expérimentalement. Et lorsqu'une particule
rencontre son antiparticule, elles s'annihilent en libérant de l'énergie et/ou en
créant une autre paire particule-antiparticule…
 La validité du principe d'incertitude rend très approximatif le modèle atomique
proposé par Niels Bohr en 1913, modèle où un électron de masse m tourne à la
vitesse v autour de son noyau d'atome d'hydrogène selon une trajectoire
circulaire de rayon r analogue à celle de la Terre autour du Soleil [341].
En effet, pour que ce modèle soit plausible il faudrait que les incertitudes Δx sur
la position x de l'électron, et Δp sur son impulsion p = mv, soient négligeables

204
devant r et p respectivement, ce qui est loin d'être le cas pour les trajectoires de
niveau d'énergie habituel. (Nous avons déjà présenté les trajectoires
électroniques).

3.5.10 4e extension du déterminisme : lois de conservation et symétries


Voici quelques détails supplémentaires concernant l'uniformité de l'Univers.

3.5.10.1 Invariance de valeurs, invariance de lois physiques


Certaines lois physiques de conservation sont connues depuis longtemps et nous
paraissent évidentes, relevant du simple bon sens et du déterminisme traditionnel.
Exemples :
 La conservation de la charge électrique impose que toute évolution d'un système
fermé conserve sa charge électrique totale, qui ne peut ni croître ni décroître.
 Masse m et énergie E sont deux propriétés indissociables d'un système, dont les
variations sont reliées par la célèbre équation d'Einstein ΔE = Δm.c². Toute
évolution d'un système fermé conserve la somme masse + énergie.

Les deux exemples ci-dessus illustrent des conservations de valeurs de variables


(charge électrique, masse + énergie…) lorsqu'un système évolue. Mais puisque toute
évolution physique est déterministe (obéit à des lois stables), on doit aussi se poser la
question de l'invariance des lois qui régissent les évolutions : par exemple, que devient
une de ces lois lorsque l'on change le repère des coordonnées d'espace-temps ?

Par définition, si une équation représentant une loi physique reste invariable lors d'un
changement, on dit qu'elle est symétrique par rapport à ce changement : la symétrie
est ici synonyme d'invariance.

3.5.10.2 Invariance de lois physiques par rapport à l'espace et au temps


 L'invariance par déplacement (translation et rotation) traduit l'homogénéité et
l'isotropie de l'espace : un changement du repère R(Ox ;Oy ;Oz) en repère
R'(O'x' ;O'y' ;O'z'), où R' se déduit de R par déplacement de l'origine des axes
d'un vecteur OO' suivi d'une rotation autour d'un axe quelconque, laisse la loi et
son équation inchangées. C'est le cas, par exemple, pour la loi fondamentale de
la dynamique f = mr'', où r'' est la dérivée seconde du vecteur r par rapport au
temps.
Ce type de symétrie est appelé symétrie euclidienne, car elle traduit deux
propriétés de l'espace euclidien, l'homogénéité et l'isotropie.
 L'homogénéité de l'espace a pour conséquence la conservation du vecteur
mv, quantité de mouvement [20] d'un corps de masse m, et celle du vecteur
impulsion p d'une particule sans masse.
 Moment cinétique - L'isotropie de l'espace a pour conséquence la
conservation du vecteur moment cinétique r  mv ou r  p, où :
 r est le vecteur associé à la distance OA entre le point matériel A de
masse m et vitesse v, et le point O par rapport auquel on évalue le
moment cinétique ;
 p est le vecteur impulsion d'une particule sans masse ;
  est l'opérateur de produit vectoriel.

205
 L'invariance par translation dans le temps traduit la stabilité des lois physiques
dans le temps. Si on change l'origine des temps, par exemple en faisant
commencer notre calendrier au début du XXI e siècle, le 1er janvier 2001, les lois
physiques sont inchangées. Cette invariance a une conséquence importante, la
conservation de la masse et de l'énergie d'un système isolé.
Ce type de symétrie est appelé symétrie temporelle, dénomination qui introduit
une confusion possible avec celle qui laisse invariante une équation par
changement de t en -t.
 Invariance par changement de repère galiléen. Par définition, un changement de
repère galiléen fait passer d'un repère R(Ox ;Oy ;Oz) à un repère
R'(O'x' ;O'y' ;O'z') d'axes parallèles à ceux de R et en mouvement rectiligne
uniforme parallèle à Ox à la vitesse v par rapport à R ; à l'instant t=0, les origines
des deux repères O et O' coïncident. Dans un tel changement, un vecteur r de R
devient r - vt dans R'.
Cette symétrie traduit le fait que certaines lois physiques sont les mêmes pour
deux observateurs en mouvement rectiligne uniforme l'un par rapport à l'autre. Elle
implique notamment le « principe d'additivité des vitesses » [36], dont voici un
exemple : si, dans un train qui roule à 100 km/h, je marche de l'arrière vers l'avant
à la vitesse de 5 km/h, ma vitesse par rapport au sol est 100 + 5 = 105 km/h.
Ce type de symétrie est appelé symétrie galiléenne du nom du physicien Galilée.
Elle fait partie des hypothèses de base de la mécanique rationnelle de Newton
[110], qui suppose l'existence d'un espace (et d'un temps) absolus. Ces
hypothèses et la symétrie galiléenne sont des approximations, acceptables
seulement lorsque les vitesses sont négligeables par rapport à la vitesse de la
lumière, c : nous allons voir cela à propos de l'invariance relativiste.
 Invariance relativiste. En 1887, Michelson et Morley ont observé que la vitesse
de la lumière est constante dans toutes les directions de l'espace. Elle ne
s'ajoute donc pas à la vitesse de déplacement de la Terre autour du Soleil
(30 km/s), à celle du Soleil en direction de l'étoile  de la Lyre (20 km/s), à celle
due à la rotation de la Galaxie, etc. La vitesse de la lumière est donc une donnée
invariante, une constate de l'Univers.
Pour tenir compte de cette invariance, Lorentz a proposé en 1904 une
transformation linéaire permettant un changement de repère qui préserve
l'invariance des lois de la dynamique. Il suffit de remplacer la loi galiléenne
r' = r - vt par une loi qui change simultanément l'espace et le temps ; on passe
alors du repère (R) où les coordonnées sont (x ; y ; z ; t) à un repère (R') où elles
sont (x' ; y' ; z' ; t') comme suit :

𝑣

𝑥 − 𝑣𝑡 𝑡− 𝑥
𝑥 = 𝑡′ = 𝑐²
y'  y z'  z
√1 − 𝑣² √1 − 𝑣²
𝑐² 𝑐²

Transformation de Lorentz utilisée en Relativité Restreinte

206
(On a choisi les axes de (R) et (R') parallèles, le mouvement de (R') par rapport à
(R) parallèle à Ox à vitesse constante v, et l'instant 0 de (R) coïncidant avec
l'instant 0 de (R') ).
Ce type de symétrie est appelé symétrie relativiste ; c'est celle de la théorie de la
Relativité Restreinte d'Einstein [49].
Lorsque la vitesse relative v est très faible par rapport à c, cette loi de changement
de repère équivaut à la loi galiléenne d'additivité des vitesses :
x' = (x - vt) ; y' = y ; z' = z ; t' = t
La symétrie relativiste :
 Contracte ou dilate l'espace (les longueurs) selon le sens du déplacement
par rapport à un observateur ; mais (surprise !) une sphère en mouvement
reste sphérique, elle ne devient pas un ellipsoïde.
 Dilate le temps pour une horloge en mouvement, qui prend du retard par
rapport à une horloge fixe (par exemple lors des voyages en avion).
 Sépare deux événements simultanés distincts de (R), distants de Δx, à la
fois dans l'espace et dans le temps dans (R').
La relativité affecte la causalité, donc le déterminisme : si deux événements
situés en des endroits distincts A et B sont simultanés, l'un ne peut être cause
de l'autre ; mais vus d'un troisième point, C, distinct de A et B, ils ne sont plus
simultanés. Si l'observateur en C ne connaît pas l'emplacement spatial de A
et B et ne sait pas qu'ils sont simultanés, il peut croire que l'un est cause de
l'autre. Pour plus de détails voir l'espace-temps de Minkowski.
La symétrie relativiste conserve les lois de la dynamique à condition de
transformer les longueurs, les durées et les masses conformément aux équations
de Lorentz. C'est ainsi, par exemple, que la masse m d'un corps qui vaut m0 au
repos varie avec la vitesse v selon la loi

m0
m

1

qui implique l'impossibilité pour un corps pesant d'atteindre la vitesse de la lumière


c, où sa masse m serait infinie. L'énergie relativiste totale de ce corps est :

m0 c ²
E

1

Cette énergie tend vers l'infini lorsque v tend vers c : pour accélérer une masse
au repos m0 jusqu'à la vitesse c, il faudrait une énergie infinie ; aucun corps pesant
ne peut donc atteindre la vitesse de la lumière, et les plus puissants accélérateurs
de particules ne peuvent accélérer celles-ci au-delà d'une énergie de l'ordre de

207
10 000 GeV (1.6 .10-6 joule), correspondant pour un proton à 99.9999995 % de la
vitesse de la lumière.

3.5.10.3 Invariances et lois de conservation (lois fondamentales de la physique)


En 1918, Emmy Noether a démontré que l'invariance d'une théorie physique par
rapport à une transformation continue se traduit toujours par l'existence d'une loi de
conservation d'une quantité. Toutes les symétries que nous venons de voir sont
continues, qu'il s'agisse de la symétrie euclidienne, de la symétrie temporelle, de la
symétrie galiléenne ou de la symétrie relativiste. Il y en a d'autres, dont voici des
exemples.
 La conservation de la charge totale dans toute transformation est vraie
séparément pour la charge électrique, la charge baryonique et la charge
leptonique.
 La symétrie par rapport à un plan, celle qui intervient dans la formation d'une
image dans un miroir, laisse inchangées les interactions gravitationnelle,
électromagnétique et nucléaire décrites dans [18], mais pas l'interaction faible.
Les lois fondamentales de la dynamique sont invariantes par cette symétrie.
On parle alors de conservation de la parité ou de « symétrie P ». La symétrie
d'opérateur P génère une image miroir de la fonction d'onde : P(r) = (-r).
 La symétrie par changement du sens du temps est en fait un renversement de
l'évolution, un « déroulement du film à l'envers ». Nous en avons vu un exemple.
Les interactions fondamentales, dont les quatre types sont cités dans [18], sont
invariantes par cette symétrie, appelée « symétrie T ».
Les lois fondamentales de la dynamique sont aussi invariantes par symétrie T.
 La conjugaison de charge, appelée aussi « symétrie C » est celle qui fait passer
d'une particule à son antiparticule dans les équations. Toute particule a son
antiparticule, qui a même masse et même durée de vie, mais des nombres
quantiques de charge opposés. Ne pas confondre la conjugaison de charge
avec la conservation de la charge ci-dessus.
Les lois fondamentales de la dynamique sont invariantes lorsque toutes les
charges sont remplacées par des charges de signe opposé.
Comme les symétries d'opérateurs P et T, la symétrie d'opérateur C a la propriété
suivante : deux opérations successives ramènent à l'état initial.
Pour respecter la symétrie de conjugaison de charge, l'Univers devrait être
électriquement neutre et avoir autant de particules de chaque espèce que
d'antiparticules. Mais, hélas, les observations montrent qu'il n'en est rien et la
raison de cette asymétrie est inconnue.
 L'invariance CPT est celle des lois d'évolution qui se conservent si on applique
simultanément les trois symétries C, P et T. Une telle loi serait identique dans
notre Univers et dans un univers hy