Determinism e
Determinism e
Daniel MARTIN
http://www.danielmartin.eu/contact.htm
1
Remerciements
A Hervé Barreau, dont les critiques et suggestions m'ont permis d'éviter bien des
erreurs.
A André Comte-Sponville, dont les textes et les objections m'ont beaucoup fait
réfléchir.
2
Objectifs de ce texte
Ce livre montre d’abord que le déterminisme philosophique ne tient pas ses promesses
lorsqu’il affirme la possibilité de prédire l’avenir et de reconstituer en pensée le passé.
Il précise ensuite ces principes, et en étend la définition pour qu’ils régissent les
propriétés d’évolution de toutes les lois de la physique. Ces lois relèvent alors du
déterminisme étendu, que sa définition constructive structure comme une axiomatique.
Le texte complet étant long, environ 570 pages [Livre], il est conseillé de lire d’abord
le texte d'introduction "Principes de logique", repris au début de la 3e partie et qu'on
pourra alors sauter.
3
Conseils de lecture
4
Table des matières
1. Où en sont les preuves de l'existence de Dieu ? ......................... 16
1.1 Définitions de Dieu et de la religion ................................................................16
1.2 Raisons psychologiques de croire en Dieu, science et laïcité .....................17
1.3 L'homme conçoit Dieu à son image ................................................................19
1.4 Comment prouver l'existence de Dieu ? .........................................................20
1.5 Les preuves logiques de l'existence de Dieu .................................................21
1.5.1 Croire en Dieu ou en la science : il faut choisir ! ............................................... 21
1.5.1.1 Définitions : Univers, phénomène, représentation, Monde ....................21
1.5.1.2 Critique scientifique du concept de créateur de l'Univers ......................24
1.5.1.3 Critique de Kant de la possibilité de création transcendante .................24
1.5.1.4 Conclusion logique : il ne peut exister de Dieu physique ......................25
1.5.1.5 Théologie proposée par Kant ................................................................25
1.5.2 Les 3 preuves possibles de l'existence de Dieu ................................................ 26
1.5.2.1 Preuve ontologique de l'existence de Dieu............................................27
1.5.2.2 Preuve cosmologique de l'existence de Dieu ........................................28
1.5.2.3 Preuve physico-théologique de l'existence de Dieu ..............................29
1.5.3 Raisons de croire en un Dieu transcendantal.................................................... 31
1.6 Compléments philosophiques des tentatives de prouver Dieu ....................31
1.6.1 La notion d'un Dieu créateur intelligent est contradictoire .............................. 31
1.6.2 Reproche idéaliste de contredire le 2e principe de la thermodynamique ........ 33
1.6.2.1 Notion d'entropie ...................................................................................33
1.6.2.2 Entropie de Boltzmann, entropie statistique et entropie d'information ...34
1.6.2.3 Comprendre le deuxième principe de la thermodynamique ..................36
1.6.2.4 Etre vivant et thermodynamique ............................................................37
1.6.2.5 L'objection thermodynamique des idéalistes et la réponse de
Prigogine ...............................................................................................37
1.6.3 Agnosticisme et athéisme ................................................................................... 39
1.6.3.1 Le malheureux pari de Pascal ...............................................................39
1.6.3.2 Athéisme, positivisme et altruisme ........................................................40
1.6.3.3 Existe, n'existe pas ou existe autrement ? ............................................40
1.7 Conclusions sur les preuves logiques de l'existence de Dieu .....................41
1.8 Références ........................................................................................................41
2. Matérialisme et idéalisme ............................................................... 44
2.1 Matérialisme et idéalisme : définitions ...........................................................44
2.1.1 Définition succincte du matérialisme ................................................................. 44
2.1.2 Définition succincte de l'idéalisme ..................................................................... 45
2.1.3 Ce qui oppose matérialistes et idéalistes .......................................................... 45
2.1.4 Qu'est-ce qui précède l'autre : l'esprit ou la matière ? ...................................... 47
5
2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni infirmés ...........48
2.3 La critique nietzschéenne ................................................................................48
2.4 Références ........................................................................................................51
3. Le déterminisme étendu - une contribution pour la pensée
rationnelle ......................................................................................... 53
3.1 Prédictions d'évolutions ..................................................................................53
3.1.1 Première définition du déterminisme ................................................................. 54
3.1.2 Définition, promesses et critique du déterminisme philosophique ................. 55
3.1.2.1 Le déterminisme philosophique est contredit par des faits ....................55
3.1.2.2 Définition succincte du déterminisme scientifique .................................57
3.1.3 Le postulat de causalité ...................................................................................... 58
3.1.3.1 Définition du postulat de causalité .........................................................58
3.1.3.1.1 Causalité étendue 58
3.1.3.1.2 Principe de la conservation de l'information dans l'Univers 59
3.1.3.2 Causalité, réalisme et idéalisme ............................................................61
3.1.3.3 Causalité, nécessité et explication du monde........................................61
3.1.4 Principe de raison suffisante .............................................................................. 62
3.1.4.1 Les 4 domaines régis par le principe de raison suffisante .....................63
3.1.4.2 Principe de raison suffisante du devenir - Déterminisme ......................64
3.1.4.3 Principe de raison suffisante du connaître ............................................64
3.1.4.4 Principe de raison suffisante de l'être (possibilité de représentation) ....65
3.1.4.5 Principe de raison suffisante de vouloir, ou loi de la motivation ............66
3.1.4.6 Réciproques d'une raison suffisante d'évolution....................................66
3.1.4.7 Raison suffisante et chaîne de causalité ...............................................67
3.1.5 Principe d'homogénéité ...................................................................................... 67
3.1.5.1 Seul l'esprit humain peut ignorer le principe d'homogénéité..................68
3.1.5.2 Déterminisme et principe d'homogénéité ..............................................69
3.1.5.3 Domaine de vérité d'une science et principe d'homogénéité .................70
3.1.6 Le déterminisme scientifique .............................................................................. 70
3.1.6.1 Règle de stabilité ...................................................................................70
3.1.6.2 Importance de la vitesse et de l'amplitude d'une évolution ....................71
3.1.6.3 Définition du déterminisme scientifique .................................................72
3.1.6.3.1 Déterminisme des évolutions régies par des équations différentielles 73
3.1.6.3.2 Déterminisme des formules, algorithmes et logiciels 73
3.1.6.4 Déterminisme scientifique et obstacles à la prédiction ..........................74
3.1.6.4.1 L'ignorance de la loi d'évolution 75
3.1.6.4.2 L'imprécision 75
3.1.6.4.3 Le caractère stochastique - Déterminisme statistique 77
3.1.6.4.4 La complexité 80
3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire 87
3.1.7 Déterminisme statistique de l'échelle macroscopique...................................... 88
3.1.8 Ensemble de définition d'une loi déterministe .................................................. 88
3.1.8.1 Structure................................................................................................88
3.1.8.2 Ensemble de définition d'une loi déterministe .......................................91
3.1.8.3 Une erreur de certains philosophes.......................................................92
3.1.9 Hasard .................................................................................................................. 92
3.1.9.1 Le hasard dans l'évolution selon une loi de la nature ............................92
3.1.9.2 Prédictibilité statistique d'une évolution .................................................93
3.1.9.3 Définition de René Thom .......................................................................94
6
3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes -
Hasard par ignorance ............................................................................94
3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes 95
3.1.9.4.2 Rencontre imprévisible de chaînes de causalité distinctes 95
3.1.9.5 Définition par la quantité d'information ..................................................96
3.1.9.6 Des suites ou des ensembles de nombres sont-ils aléatoires ? ............96
3.1.9.7 Hasard postulé et hasard prouvé ..........................................................96
3.1.9.8 Différences entre déterminisme statistique, fluctuations quantiques et
hasard ...................................................................................................98
3.1.9.9 Hasard et niveau de détail d'une prédiction ...........................................99
3.1.9.10 Premières conclusions sur le hasard et la prédictibilité ....................... 100
3.1.9.11 Différences entre hasard, imprécision et indétermination en Mécanique
quantique ............................................................................................ 100
3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle ....... 101
3.1.9.13 Evolutions attribuées à tort au hasard ................................................. 101
3.1.9.14 Conséquences multiples d'une situation donnée - Décohérence ........ 102
3.1.9.15 Il faut admettre les dualités de comportement ..................................... 103
3.1.10 Chaos.................................................................................................................. 104
3.1.10.1 Définition ............................................................................................. 104
3.1.10.2 Prédictibilité des phénomènes chaotiques – Chaos déterministe........ 104
3.1.10.3 Conditions d'apparition d'une évolution chaotique – Série de Fourier . 105
3.1.10.4 Fluctuations faussement aléatoires d'un phénomène apériodique ...... 106
3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg .. 108
3.1.10.6 Fluctuations de variables macroscopiques dues à des variations
microscopiques ................................................................................... 108
3.1.10.7 Amplification génétique et évolution du vivant vers la complexité ....... 109
3.1.10.8 Domaines où on connaît des évolutions chaotiques ........................... 110
3.1.10.9 Exemples de phénomènes chaotiques................................................ 110
3.1.10.9.1 Problème des 3 corps 110
3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe 112
3.1.11 Turbulence ......................................................................................................... 113
3.1.12 Le déterminisme étendu .................................................................................... 114
3.1.12.1 Propriétés des lois de l'Univers ........................................................... 114
3.1.12.1.1 Uniformité des lois de la nature 114
3.1.12.1.2 Postulat de causalité 116
3.1.12.2 Définition du déterminisme étendu ...................................................... 116
3.1.12.2.1 Définition constructive du déterminisme étendu 117
3.1.12.2.2 Validité de cette approche 117
3.1.12.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme 118
3.1.12.2.4 Limites de la règle de stabilité du déterminisme 118
3.1.12.3 Stabilité des lois d'évolution et situations nouvelles ............................ 120
3.1.12.3.1 Apparition d'une loi d'évolution 120
3.1.12.3.2 Restriction du postulat de causalité 120
3.1.12.3.3 Exemples d'apparitions 121
3.1.12.3.4 Conséquences philosophiques de la possibilité d'apparitions 122
3.1.12.4 Conclusions sur le déterminisme étendu et la causalité ...................... 122
3.1.12.4.1 Déterminisme étendu : un principe et un objectif 122
3.1.12.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique 123
3.2 Imprédictibilité de la pensée humaine .......................................................... 126
3.2.1 La barrière de complexité .................................................................................. 127
3.2.2 Rigueur des raisonnements déductifs ............................................................. 128
3.2.3 Champ d'application du déterminisme et de la causalité ............................... 129
7
3.3 Compléments philosophiques sur le déterminisme physique ................... 129
3.3.1 Trois cas particuliers de déterminisme de la nature ....................................... 129
3.3.2 Symétrie temporelle et réversibilité du déterminisme traditionnel ................ 130
3.3.2.1 Différence entre symétrie temporelle et réversibilité ............................ 131
3.3.2.2 Phénomène irréversible ...................................................................... 132
3.3.2.3 Exemple de loi symétrique par rapport au temps et réversible ............ 133
3.3.2.4 Système conservatif ou dissipatif – Force conservative ou
dissipative............................................................................................ 134
3.3.3 Portée du déterminisme : locale ou globale .................................................... 134
3.3.3.1 Principe de moindre action de Maupertuis .......................................... 135
3.3.3.2 Principe de Fermat (plus court chemin de la lumière) ......................... 135
3.3.3.3 Quasi-cristaux ..................................................................................... 135
3.3.3.4 Variables complémentaires ................................................................. 136
3.3.3.5 Conclusion sur le déterminisme global ................................................ 136
3.3.3.6 Caractère humain, artificiel, de la notion d'échelle .............................. 137
3.3.3.7 Déterminisme des algorithmes et calculabilité..................................... 137
3.3.4 Compléments sur le déterminisme philosophique .......................................... 137
3.3.4.1 Critique de l'enchaînement des causes et des conséquences ............ 138
3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution 138
3.3.4.1.2 Les transformations irréversibles contredisent aussi le déterminisme
philosophique 139
3.3.4.2 Déterminisme, mesures et objectivité.................................................. 139
3.3.4.3 Déterminisme et libre arbitre de l'homme ............................................ 140
3.3.4.4 Conclusions critiques sur le déterminisme traditionnel ........................ 140
3.4 Pourquoi ce texte et les efforts qu'il suppose .............................................. 141
3.4.1 Inconvénients de l'ignorance, avantages de la connaissance ....................... 141
3.4.2 Ambition limitée de ce texte .............................................................................. 143
3.5 Le déterminisme en physique ....................................................................... 144
3.5.1 Système et état .................................................................................................. 144
3.5.1.1 Degrés de liberté d'un système ........................................................... 144
3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté 145
3.5.2 Espace des phases – Stabilité des lois physiques d'évolution ...................... 146
3.5.2.1 Représentation de l'évolution d'un système ........................................ 148
3.5.2.1.1 Evolution d'un système représentée par des équations différentielles 149
3.5.2.2 Lignes de force d'un espace des phases et unicité de l'évolution ....... 149
3.5.2.3 Stabilité de l'évolution d'un système conservatif .................................. 151
3.5.2.4 Considérations sur la prévisibilité de l'évolution d'un système ............ 151
3.5.2.5 Système dissipatif par frottements - Attracteur .................................... 152
3.5.2.6 Système dissipatif périodique avec échange d'énergie – Cycle limite . 152
3.5.2.7 Système à évolution quasi périodique ................................................. 153
3.5.2.8 Déterminisme et prédictibilité des systèmes – Autocorrélation............ 154
3.5.2.9 Imprédictibilité et hasard ..................................................................... 154
3.5.2.10 Systèmes apériodiques – Attracteurs étranges ................................... 155
3.5.2.11 Changement de loi d'évolution par bifurcation – Valeur critique .......... 156
3.5.3 Etat quantique d'un système ............................................................................ 158
3.5.3.1 Vecteur d'état ...................................................................................... 158
3.5.3.2 Espace des états ................................................................................. 158
3.5.3.3 Réalité physique et représentation dans l'espace des états ................ 158
3.5.3.4 Espace des phases d'un champ et espace des états associé ............. 159
3.5.3.5 Equipartition de l'énergie dans un champ – Stabilité des atomes ....... 160
3.5.4 Les contradictions de la physique traditionnelle et de son déterminisme .... 160
8
3.5.5 Des forces physiques étonnantes .................................................................... 161
3.5.6 L'évolution nécessite une interaction avec échange d'énergie ...................... 162
3.5.7 1ère extension du déterminisme : fonctions d'onde et pluralité des états ...... 163
3.5.7.1 Notions de Mécanique quantique ........................................................ 163
3.5.7.2 De la contingence à la probabilité ....................................................... 164
3.5.7.3 Extension du déterminisme aux résultats imprécis et probabilistes ..... 165
3.5.7.3.1 Le déterminisme statistique, complément du déterminisme scientifique 165
3.5.7.3.2 Différence entre déterminisme statistique et hasard pur 166
3.5.7.3.3 Dualité onde-particule, déterminisme dual et ondes de matière 167
3.5.7.3.4 Trajectoire d'un corpuscule 168
3.5.7.3.5 Théorie de la résonance chimique 172
3.5.7.3.6 Conséquences pour le déterminisme 172
3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger) ..... 174
3.5.7.4.1 Impossibilité de décrire des phénomènes sans symétrie temporelle 175
3.5.7.4.2 Inadaptation à la gravitation et à son espace courbe relativiste 176
3.5.7.5 Etats finaux d'un système macroscopique .......................................... 176
3.5.8 2e extension du déterminisme : superpositions et décohérence ................... 177
3.5.8.1 Superposition d'états et décohérence ................................................. 177
3.5.8.2 Superposition de trajectoires ............................................................... 178
3.5.8.3 Conclusions sur la superposition d'états ou de trajectoires ................. 179
3.5.8.4 Déterminisme arborescent à univers parallèles de Hugh Everett III .... 180
3.5.9 3e extension du déterminisme : quantification et principe d'incertitude ....... 184
3.5.9.1 Quantification des niveaux d'énergie et des échanges d'énergie ........ 184
3.5.9.2 Les trois constantes les plus fondamentales de l'Univers ................... 184
3.5.9.3 Position et vitesse d'une particule ....................................................... 184
3.5.9.4 Paquet d'ondes et étalement dans le temps ........................................ 184
3.5.9.4.1 Description d'un paquet d'ondes de probabilité 184
3.5.9.4.2 Etalement du paquet d'ondes de position d'une particule 186
3.5.9.4.3 Cas d'une onde de photon 187
3.5.9.5 Incertitude sur la détermination simultanée de 2 variables
(Heisenberg)........................................................................................ 187
3.5.9.6 Remarques sur l'incertitude et l'imprécision ........................................ 189
3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure 190
3.5.9.7 Incertitude contextuelle ....................................................................... 190
3.5.9.8 Incertitude due à l'effet Compton ......................................................... 191
3.5.9.9 Mesures, incertitude et objectivité ....................................................... 192
3.5.9.9.1 Toute mesure de physique quantique modifie la valeur mesurée 192
3.5.9.9.2 Mesure souhaitée et mesure effectuée : exemple 192
3.5.9.9.3 Copie d'un état quantique. Clonage par copie moléculaire 193
3.5.9.9.4 Mesure grâce à un grand nombre de particules 194
3.5.9.9.5 Conclusions sur la réalité objective et la réalité mesurable en physique
quantique 194
3.5.9.9.6 Contraintes de non-indépendance de variables 195
3.5.9.9.7 Objectivité des mesures 196
3.5.9.9.8 La « mathématicophobie » et l'ignorance 197
3.5.9.10 Quantification des interactions et conséquences sur le déterminisme 198
3.5.9.10.1 Différence entre quantification et imprécision 199
3.5.9.10.2 Echanges quantifiés d'énergie et conservation de l'énergie 199
3.5.9.10.3 Conséquences de la quantification des interactions : extension du
déterminisme 200
3.5.9.10.4 Quantification des vibrations - Phonons et frottements 200
3.5.9.10.5 Effets mécaniques et thermiques de la lumière 201
3.5.9.10.6 Effets photoélectriques 202
9
3.5.9.11 Conséquences des diverses imprécisions sur le déterminisme .......... 202
3.5.10 4e extension du déterminisme : lois de conservation et symétries ................ 205
3.5.10.1 Invariance de valeurs, invariance de lois physiques ............................ 205
3.5.10.2 Invariance de lois physiques par rapport à l'espace et au temps ........ 205
3.5.10.3 Invariances et lois de conservation (lois fondamentales de la
physique) ............................................................................................. 208
3.5.10.4 Un vide plein d'énergie ........................................................................ 209
3.5.10.4.1 Le vide de la physique quantique 209
3.5.10.4.2 Champ et boson de Higgs 211
3.5.10.4.3 Distance, temps, densité et masse de Planck 212
3.5.10.4.4 Le vide de l'espace cosmique 213
3.5.10.4.5 Expansion de l'Univers visible 214
3.5.10.5 Conclusions sur les symétries et lois de conservation ........................ 216
3.5.11 5e extension du déterminisme : complexité, imprévisibilité, calculabilité ..... 217
3.5.11.1 Combinaison de nombreux phénomènes déterministes ...................... 218
3.5.11.1.1 Mécanique statistique 219
3.5.11.2 Déterminisme + complexité = imprévisibilité........................................ 219
3.5.11.3 Modélisation des systèmes complexes, notamment ceux du vivant.... 220
3.5.11.3.1 Des avancées très prometteuses en matière de modélisation 221
3.5.11.4 Analyse statistique de systèmes complexes ....................................... 222
3.5.11.5 Complexité et décisions médicales ..................................................... 223
3.5.11.6 Résultats remarquables de certains processus calculables ................ 225
3.5.11.6.1 Algorithme de calcul de Pi - Suite pseudo-aléatoire de nombres entiers 225
3.5.11.6.2 Dynamique des populations 226
3.5.11.7 Déterminisme et durée ........................................................................ 228
3.5.11.7.1 Nombres réels et problèmes non calculables 229
3.5.11.7.2 Il y a infiniment plus de réels non calculables que de réels calculables 231
3.5.11.7.3 Propositions indécidables 232
3.5.11.8 Calculabilité, déterminisme et prévisibilité ........................................... 233
3.5.11.8.1 Calculabilité d'une prédiction 235
3.5.11.8.2 Phénomènes déterministes à conséquences imprévisibles et erreurs
philosophiques 236
3.5.11.8.3 Calculabilité par limitations et approximations 237
3.5.11.9 Déterminisme et convergence des processus et théories ................... 238
3.5.11.10 Logique formelle. Calcul des propositions. Calcul des prédicats ......... 239
3.5.11.10.1 Logique formelle et logique symbolique 239
3.5.11.10.2 Calcul des propositions 240
3.5.11.10.3 Calcul des prédicats 241
3.5.11.11 Problèmes insolubles. Théorème de Fermat. Equations
diophantiennes .................................................................................... 242
3.5.11.12 Certitude de l'existence d'une démonstration dans une axiomatique .. 243
3.5.11.13 Génération de nombres "aléatoires" avec une formule déterministe ... 243
3.5.11.14 Attracteurs multiples ............................................................................ 244
3.5.11.15 « Accidents » de la réplication du génome et évolution vers la
complexité ........................................................................................... 245
3.5.11.16 Approche heuristique du déterminisme ............................................... 247
3.5.12 6e extension du déterminisme : irréversibilité thermodynamique .................. 248
3.5.12.1 Evolution unidirectionnelle du temps ................................................... 248
3.5.12.2 Radioactivité naturelle et stabilité des particules atomiques ou
nucléaires ............................................................................................ 249
3.5.12.3 L'irréversibilité est une réalité, pas une apparence ............................. 251
10
3.5.12.4 Décroissance de l'entropie. Structures dissipatives. Auto-
organisation ......................................................................................... 251
3.5.12.5 Programme génétique et déterminisme .............................................. 253
3.5.12.5.1 Gènes et comportement humain 254
3.5.12.5.2 Renouvellement biologique et persistance de la personnalité 255
3.5.12.5.3 Evolution du programme génétique 256
3.5.12.5.4 Evolution d'une population 257
3.5.12.5.5 Evolution due à une modification de l'expression de gènes 258
3.5.12.5.6 Conclusion sur le déterminisme génétique 259
3.5.12.6 Vie, organisation, complexité et entropie ............................................. 260
3.5.12.6.1 Apparition de la vie et évolution des espèces 260
3.5.12.6.2 Preuves de l'évolution darwinienne des espèces 261
3.5.12.6.3 L'obstination des tenants du créationnisme 262
3.5.12.7 Effondrement gravitationnel et irréversibilité. Trous noirs .................... 262
3.5.12.7.1 Principe d'exclusion de Pauli 263
3.5.12.7.2 La masse limite de Chandrasekhar - Supernova 264
3.5.12.7.3 Les étoiles à neutrons 265
3.5.12.7.4 Les trous noirs 266
3.5.12.7.5 Masses et dimensions dans l'Univers 267
3.5.12.7.6 Attraction gravitationnelle au voisinage d'une étoile effondrée 268
3.5.12.7.7 Déroulement dans le temps de la chute d'un corps vers un trou noir 271
3.5.12.7.8 Irréversibilité des fusions stellaires et d'un effondrement gravitationnel 271
3.5.12.7.9 Caractéristiques d'un trou noir 272
3.5.12.7.10 Et en plus, un trou noir s'évapore ! 274
3.5.12.7.11 Quantité d'information dans un volume délimité par une surface 275
3.5.12.7.12 Surface nécessaire pour décrire une évolution - Principe holographique 276
3.5.12.8 Le Big Bang, phénomène irréversible ................................................. 276
3.5.12.9 Univers à plus de 4 dimensions........................................................... 277
3.5.13 7e extension du déterminisme : Relativité, écoulement du temps ................. 278
3.5.13.1 Relativité et irréversibilité .................................................................... 280
3.5.13.2 Particules virtuelles. Electrodynamique quantique .............................. 280
3.5.14 Attitude face au déterminisme .......................................................................... 281
3.5.14.1 Conséquences des lois de la nature sur le déterminisme ................... 282
3.5.14.1.1 Validité des lois de la Mécanique quantique à l'échelle macroscopique 282
3.5.14.1.2 Le déterminisme étendu peut abolir les distances et les durées 285
3.5.14.1.3 Multiplicité des conséquences possibles 286
3.5.14.1.4 Imprévisibilité de l'évolution et de l'état final 287
3.5.14.1.5 Difficulté de préciser la situation de départ ou le processus 287
3.5.14.1.6 Impossibilité de remonter l'arborescence de causalité 288
3.5.14.1.7 Irréversibilité 288
3.5.14.1.8 Relativité 289
3.5.14.1.9 Matérialisme et déterminisme des lois du vivant 289
3.5.14.2 Attitude recommandée face au déterminisme ..................................... 289
3.5.14.2.1 Critique des méthodes de réflexion de quelques philosophes français 290
3.5.14.2.2 La liberté d'esprit et d'expression 291
3.5.14.2.3 L'ouverture d'esprit 292
3.5.14.2.4 Une loi est toujours vraie, elle ne peut être probable 293
3.5.14.2.5 Le « principe anthropique » 294
3.6 Le déterminisme humain ................................................................................ 297
3.6.1 Niveaux d'abstraction et déterminisme ............................................................ 298
3.6.1.1 Définition d'une représentation - Différences avec une essence ........ 298
3.6.1.2 Définition d'un concept ........................................................................ 299
3.6.1.3 Densité et profondeur d'abstraction ..................................................... 300
11
3.6.1.4 Compréhension par niveaux d'abstraction .......................................... 303
3.6.1.5 Penser par niveaux d'abstraction ........................................................ 304
3.6.1.6 Introduction à la Théorie informationnelle du psychisme ..................... 304
3.6.1.6.1 La machine de Turing 304
3.6.1.6.2 Hiérarchie des langages de l'informatique 305
3.6.1.6.3 Penser la complexité par niveaux hiérarchiques 306
3.6.1.6.4 Processus d'abstraction et de mémorisation 307
3.6.1.7 Niveaux d'information biologique et déterminisme génétique .............. 308
3.6.1.7.1 L'information du logiciel génétique 309
3.6.1.7.2 Etres vivants artificiels définis à partir de leur seul code génétique 310
3.6.1.8 Objections idéalistes et leur réfutation................................................. 310
3.6.1.8.1 Un vieux débat : la conscience est-elle transcendante ? 311
3.6.1.9 Les pensées ne sont que des interprétations de l'état du cerveau ...... 312
3.6.1.10 A chaque niveau fonctionnel son niveau logiciel ................................. 313
3.6.1.11 Critères de valeur et d'efficacité, et mécanismes d'évaluation ............ 314
3.6.1.12 Une signalisation permanente dans le cerveau ................................... 315
3.6.1.13 Hiérarchie logicielle de la pensée - Modélisation informationnelle ...... 316
3.6.1.14 Reconnaissance de formes, structures, processus et intentions ......... 317
3.6.1.15 Intuition d'abord, justification après ..................................................... 318
3.6.1.16 Evaluation permanente parallèle de situations hypothétiques ............. 319
3.6.1.17 "Le monde comme volonté et représentation" de Schopenhauer........ 319
3.6.1.18 Mémorisation et acquisition d'expérience - Déterminisme culturel ...... 320
3.6.1.18.1 Mécanismes physiologiques de la mémoire 320
3.6.1.18.2 Acquisition d'expérience 321
3.6.1.18.3 La mémoire sélective 323
3.6.1.19 Désirs et satisfaction artificiels. Drogues ............................................. 323
3.6.1.20 Des pensées peuvent aussi se comporter comme des drogues ......... 324
3.6.2 Mécanismes psychiques non algorithmiques ou imprévisibles .................... 325
3.6.2.1 Définitions............................................................................................ 325
3.6.2.1.1 Mécanisme psychique algorithmique 325
3.6.2.1.2 Mécanisme psychique déterministe 326
3.6.3 La conscience .................................................................................................... 326
3.6.3.1 Conscience morale.............................................................................. 327
3.6.3.2 Conscience de..................................................................................... 327
3.6.3.2.1 La conscience de, ETAT du psychisme 327
3.6.3.2.2 La prise de conscience de, ACTION du psychisme 328
3.6.3.2.3 La conscience de est un couple {Objet + Schéma d'attention} 331
3.6.3.2.4 Le champ d'attention 332
3.6.3.2.5 La conscience de soi 333
3.6.3.2.6 Conscience d'un objet quelconque 333
3.6.3.2.7 Modèle prévisionnel de l'évolution d'un objet - Intention d'agir 334
3.6.3.2.8 Conscience d'autrui - La Théorie de l'esprit 334
3.6.3.3 Conscience.......................................................................................... 334
3.6.3.4 Conclusion sur la conscience .............................................................. 336
3.6.3.5 Théorie informationnelle du psychisme ............................................... 336
3.6.3.6 Considérations philosophiques sur la conscience ............................... 337
3.6.3.6.1 Conscience et pensée non algorithmique 339
3.6.3.6.2 Conclusion sur le caractère non-algorithmique et non-déterministe de la
pensée 343
3.6.3.6.3 La pensée naît-elle du corps avec son cerveau ? 343
3.6.4 Le modèle informatique de l'homme ................................................................ 344
3.6.4.1 La pensée en tant que processus d'interprétation ............................... 344
12
3.6.4.2 Modèle logiciel à couches du psychisme ............................................ 345
3.6.4.3 Le fonctionnement du psychisme n'est pas souvent déterministe ....... 345
3.6.4.4 Autres raisonnements humains inaccessibles à un ordinateur ............ 346
3.6.5 Libre arbitre, imprévisibilité et transgressions ................................................ 346
3.6.6 Différences entre représentations mentales de personnes différentes ......... 348
3.6.7 Déterminisme des évolutions ou décisions selon le niveau ou l'échelle....... 350
3.6.7.1 Difficulté d'expliquer un comportement macroscopique à partir de
phénomènes au niveau atomique ....................................................... 350
3.6.7.2 Niveau des phénomènes naturels ....................................................... 351
3.6.7.3 Niveau des phénomènes sociétaux..................................................... 351
3.6.7.4 Autonomie des niveaux et compréhension holistique .......................... 352
3.6.7.5 Holisme ............................................................................................... 353
3.6.8 Complexité, ouverture d'esprit et causes occultes : discussion polémique . 354
3.6.9 Etre intelligent, déterminisme et prévisibilité .................................................. 357
3.6.9.1 Equité, confiance, coopération et déterminisme psychologique .......... 359
3.6.9.1.1 Le jeu "Prends ou laisse" 359
3.6.9.1.2 Le point de vue de Kant 360
3.6.10 Le besoin de tromper ses adversaires. Les deux types d'incertitude ............ 360
3.6.10.1 Recherches sur les stratégies de bluff et décision en ambiance
d'incertitude ......................................................................................... 362
3.6.10.2 Concurrence entre raison et affects. Connaissances cachées ............ 362
3.6.10.2.1 Importance des automatismes dans la pensée humaine 365
3.6.10.2.2 Coup de foudre 366
3.6.10.2.3 Connaissances cachées 366
3.6.11 Mécanismes de l'intuition.................................................................................. 367
3.6.11.1 La concurrence entre raison et intuition .............................................. 368
3.6.11.1.1 Le jeu du "Dilemme des voyageurs" 368
3.6.11.1.2 L'homme ne suit que les conclusions conformes à ses valeurs 369
3.6.11.1.3 Un raisonnement critiquable 370
3.6.11.1.4 La science économique est basée sur un postulat contestable 370
3.6.12 Ordinateur et compréhension humaine ........................................................... 371
3.6.13 Compréhension, imagination et certitude ........................................................ 373
3.6.14 Les deux étapes d'une décision consciente .................................................... 374
3.7 Le déterminisme dans notre société - La mondialisation ........................... 374
3.7.1 Théories utilitaires des XVIIe et XVIIIe siècles .................................................. 375
3.7.2 Craintes et regrets d'aujourd'hui ...................................................................... 376
3.7.3 Une analogie entre évolution darwinienne et économie de marché .............. 377
3.7.4 La mondialisation, résultat de la concurrence et des communications ........ 378
3.7.4.1 Lois de la physique et lois de l'économie ............................................ 379
3.7.4.2 Conséquences économiques de la mondialisation.............................. 379
3.7.4.3 Mondialisation : causes et inconvénients pour l'homme ...................... 382
3.7.4.3.1 L'homme, perpétuel insatisfait qui accuse parfois la mondialisation 383
3.7.4.3.2 Frustration due aux désirs insatisfaits et réactions 384
3.7.4.4 Accepter donc la mondialisation .......................................................... 384
3.8 Le déterminisme du vivant ............................................................................. 385
3.8.1 Définitions du vivant .......................................................................................... 385
3.8.2 Etres vivants et déterminisme .......................................................................... 385
3.8.3 Possibilité thermodynamique d'une complexification naturelle .................... 386
3.8.4 Possibilité de créer artificiellement un comportement vivant ........................ 386
3.8.4.1 Synthèse d'acides aminés ................................................................... 386
3.8.4.2 Génie génétique .................................................................................. 387
3.8.5 Modélisation informatique/neuropsychique du vivant .................................... 387
13
3.8.5.1 Transmission nerveuse : un mécanisme tout-ou-rien .......................... 387
3.8.5.2 Organisation architecturale et organisation fonctionnelle .................... 389
3.8.5.3 Algorithmes d'action et algorithmes d'évaluation ................................. 390
3.8.5.4 Modèle informatique et fonctions de base de la vie............................. 390
3.8.6 Conclusions sur le déterminisme du vivant et sa prévisibilité ....................... 391
3.9 Critique du déterminisme ............................................................................... 392
3.9.1 Conditions de prise en défaut du déterminisme .............................................. 392
3.9.2 Conclusion : il faut postuler le déterminisme .................................................. 394
3.9.3 La causalité elle-même peut-elle être remise en question ? ........................... 394
3.9.3.1 Objections à la causalité contestant la méthode scientifique .............. 394
3.9.3.2 Causalité et théorie de la Relativité ..................................................... 396
3.9.3.3 Définitions approfondies d'une cause et de la causalité ...................... 397
3.9.3.4 Horizon de prédiction ou de reconstitution du passé ........................... 398
3.9.3.5 Critique de la notion de cause première (cause ultime) ...................... 400
3.9.3.5.1 Définition et problématique 400
3.9.3.5.2 Un temps cyclique, pure spéculation 402
3.9.3.5.3 Théorie cosmologique de la gravitation quantique 402
3.9.3.5.4 Conséquences de la cosmologie sur le « début de la causalité » 402
3.9.3.5.5 Conséquences de la Relativité sur l'unicité de la cause première 403
3.9.3.6 Autres problèmes de la notion de causalité ......................................... 404
3.9.3.6.1 Objections de multiplicité 404
3.9.3.6.2 Objections de complexité et de chaos 404
3.9.3.6.3 Objection de séparabilité 404
3.9.3.6.4 Légitimité d'une recherche de causalité 404
3.9.4 Critique de la méthode scientifique et de la vérité scientifique ...................... 405
3.9.4.1 Les formalistes .................................................................................... 405
3.9.4.2 Les intuitionnistes ................................................................................ 405
3.9.4.3 Les platoniciens................................................................................... 406
3.9.4.4 Les rationalistes du XVIIIe siècle......................................................... 406
3.9.4.5 Les empiristes ..................................................................................... 407
3.9.4.6 Le rationalisme critique de Karl Popper ............................................... 407
3.9.4.6.1 Définition d'une vérité scientifique 408
3.9.4.6.2 Définition d'une théorie appliquée à un domaine pratique 409
3.9.4.6.3 Critères à respecter pour qu'une théorie scientifique soit acceptable 410
3.9.4.6.4 Risques et inconvénients d'une vérité scientifique par consensus 411
3.9.4.6.5 Une théorie peut-elle être probable ? 412
3.9.4.6.6 Définition d'une théorie scientifique objective 412
3.9.4.6.7 Comparaison du rationalisme critique avec l'empirisme 412
3.9.4.6.8 Polémique entre le rationalisme critique et le conventionalisme 413
3.9.4.6.9 Objection holistique à la falsifiabilité 414
3.9.4.6.10 Les systèmes interprétatifs 414
3.9.4.6.11 Sciences dures et sciences molles 415
3.9.4.6.12 Evolution d'une vérité, de la science et du monde selon Popper 416
3.9.4.6.13 Critique de la position de Popper sur le déterminisme 417
3.9.4.7 Dogmatisme de ma méthode de travail ............................................... 418
3.10 L'homme est-il libre malgré le déterminisme ? ..................................... 418
3.10.1 L'homme est toujours insatisfait ...................................................................... 418
3.10.2 Les 3 déterminants de la conscience et l'imprévisibilité de l'homme ............ 418
3.10.3 Désirs conscients de l'homme et critères d'appréciation ............................... 419
3.10.4 L'homme ne maîtrise ni ses valeurs, ni ses désirs.......................................... 419
3.10.5 Définitions du libre arbitre et de la liberté ........................................................ 420
3.10.6 Exclusions de la discussion qui suit sur le libre arbitre ................................. 421
14
3.10.7 Le libre arbitre selon Sartre .............................................................................. 424
3.10.8 Conclusion sur le libre arbitre .......................................................................... 424
3.10.9 Libre arbitre, déterminisme et responsabilité .................................................. 425
3.10.9.1 Point de vue idéaliste .......................................................................... 425
3.10.9.2 Point de vue matérialiste ..................................................................... 426
3.10.9.3 La société passe avant l'individu ......................................................... 426
3.10.9.4 Pas de tyrannie de la majorité ............................................................. 427
3.10.9.5 Morale naturelle, morale acquise et responsabilité de l'homme .......... 427
3.11 Conclusions et recommandations pratiques......................................... 428
3.12 Références et compléments.................................................................... 430
3.13 Annexe : l'espace-temps de Minkowski ................................................. 547
3.13.1 La Relativité Restreinte ..................................................................................... 547
3.13.2 L'espace-temps .................................................................................................. 547
3.13.3 Diagramme d'espace-temps.............................................................................. 547
3.13.4 Intervalle d'espace-temps ................................................................................. 551
3.13.5 Condition de causalité entre deux événements............................................... 552
3.13.6 Indépendance entre deux événements et relation de causalité ..................... 553
3.13.7 Conclusions sur la causalité ............................................................................. 556
3.13.8 Remarque sur la simultanéité ........................................................................... 556
3.13.9 Ligne d'univers .................................................................................................. 557
3.13.10 Relativité Générale. Mouvement accéléré. Inclinaison du cône de lumière .. 557
3.13.11 Paradoxe du voyageur de Langevin ................................................................. 558
3.13.12 Quadrivecteur énergie-impulsion ..................................................................... 559
3.14 Scientifiques et philosophes cités ......................................................... 561
3.15 Résumé des cas d'imprédictibilité.......................................................... 565
15
Première partie
Avant André Comte-Sponville, le sociologue Durkheim avait donné en 1912 [5-a] une
définition un peu différente de la religion, dont André Comte-Sponville s'est inspiré :
"La religion est « un système solidaire de croyances et de pratiques relatives à
des choses sacrées (c’est-à-dire séparées, interdites), croyances et pratiques qui
unissent en une même communauté morale, appelée Eglise, tous ceux qui y
adhèrent »."
Ces deux définitions de la religion ne font pas référence à un dieu mais à des choses
sacrées, ce qui permet de prendre en compte les religions animistes et de classer le
bouddhisme (croyance sans dieu) parmi les religions.
En outre, la définition de Durkheim a l'avantage de rappeler le nom donné à une
« communauté morale ou spirituelle » : une Eglise.
En tant que système de croyances, une religion fait partie d'une culture.
Compte tenu de ces définitions, voyons quelles sont les raisons psychologiques de
croire en Dieu de certains hommes.
16
1.2 Raisons psychologiques de croire en Dieu, science et laïcité
17
de raisonnement à la base de ce postulat au paragraphe « Le principe
anthropique ».
L'homme a un besoin instinctif de relier entre eux des faits, des événements ou
des pensées diverses, pour les comprendre, c'est-à-dire leur donner une structure
et situer celle-ci par rapport à d'autres connaissances qu'il a déjà. L'absence de
structure ou de lien avec des connaissances préexistantes induit instinctivement
dans son esprit une crainte de l'inconnu et des dangers éventuels qu'il peut
comporter. Tous les hommes sont ainsi, depuis des milliers d'années que leur
esprit pense : il a besoin de sens. [D10]
Expliquer ce qu'on ne comprend pas par l'existence et la volonté de Dieu évite de
continuer à chercher une réponse en restant dans l'incertitude. Et lorsque des
hommes influents, prêtres ou rois, disent croire à l'explication divine, lorsqu'autour
de soi tout le monde y croit comme au Moyen Age, l'existence du Dieu créateur
devient une évidence.
Le besoin de valeurs bien définies [70], comme le Bien et le Mal, le Sacré et le
Profane, le Juste et l'Injuste, la Charité et l'Indifférence, etc. Dans un monde où
le mal est inévitable et source de tant de souffrances, l'homme peut se consoler
en pensant que Dieu lui apportera le bonheur dans l'au-delà. Face à l'injustice,
l'homme peut espérer la justice divine. Le pauvre peut espérer la charité, etc.
On prête à Dieu la défense des valeurs positives auxquelles on veut croire et qui
consolent. Les textes sacrés définissent des règles de morale [70] et des principes
de justice grâce auxquels les sociétés ont pu se donner des règles vie en commun
acceptables et les hommes ont pu créer du lien social.
Il est important de savoir que le besoin psychologique de valeurs de certaines
personnes peut être satisfait sans religion ni foi en Dieu, comme le montre [5].
18
Historiquement, les grandes religions monothéistes ont eu deux rôles importants dans
les sociétés humaines : un apport culturel et moral et un lien social entre les croyants,
qui étaient la grande majorité. Ces deux influences ont beaucoup diminué dans
certaines sociétés : c'est le cas notamment de la France, et les retombées
sociologiques constatées sont graves [D6].
Les grandes religions sont donc des religions révélées, c'est-à-dire présentées comme
vérités a priori, à accepter telles quelles sans démonstration. Pour elles, la recherche
de preuves logiques de l'existence de Dieu - que nous allons aborder ci-dessous - n'a
donc pas de raison d'être. Si tant de religieux et de philosophes croyants y ont travaillé,
c'était seulement pour convaincre les non-croyants de croire. En France, par exemple,
Pascal et Descartes ont milité en ce sens.
Alors que des parents cherchent à protéger leur enfant (qui risque de faire des bêtises
parce qu'il n'a pas encore l'âge de raison) en l'empêchant de les faire, Dieu, notre
Père, nous laisse les faire, quitte à nous punir ensuite : incohérence !
19
convient seul à Dieu, d'où vient donc le mal, ou pourquoi Dieu ne le supprime-t-il
pas ? »
La quatrième hypothèse, la seule qui soit conforme à notre idée de Dieu, est
donc réfutée par le réel même (l'existence du mal). Il faut en conclure qu'aucun
Dieu n'a créé le monde, ni ne le gouverne, soit parce qu'il n'y a pas de Dieu, soit
parce que les dieux (telle était l'opinion d'Épicure) ne s'occupent pas de nous, ni
de l'ordre ou du désordre du monde, qu'ils n'ont pas créé et qu'ils ne gouvernent
en rien..."
Le judaïsme, puis le christianisme et enfin l'islam sont des religions révélées. Chacune
affirme l'existence de Dieu et précise ses commandements en demandant à l'homme
de les croire sans démonstration ou preuve expérimentale. Chacune a des textes
sacrés qui citent la parole de Dieu sans preuve factuelle ou rationnelle, en demandant
à l'homme de faire acte de foi pour les croire.
Avant le siècle des Lumières [47] (qui a pris fin avec le décès de Kant, en 1804) seuls
quelques philosophes et quelques saints se sont préoccupés de convaincre leurs
semblables de croire en Dieu en apportant des preuves logiques - ou ce qu'ils
croyaient être des preuves logiques. Constatant l'absence de valeur de ces preuves,
point sur lequel nous revenons plus bas, Kant a voulu reprendre à zéro l'étude du sujet
et soumettre l'existence de Dieu - en même temps que le reste de notre savoir - au
« tribunal de la raison ». Il a écrit en 1781 dans la préface de la Critique de la raison
pure [M3] :
"Notre siècle est particulièrement le siècle de la critique à laquelle il faut que tout
se soumette. La religion, alléguant sa sainteté et la législation sa majesté,
veulent d'ordinaire y échapper ; mais alors elles excitent contre elles de justes
soupçons et ne peuvent prétendre à cette sincère estime que la raison accorde
seulement à ce qui a pu soutenir son libre et public examen."
Le texte suivant aborde la théodicée. C'est une copie du texte "Les preuves logiques
de l'existence de Dieu" http://www.danielmartin.eu/Philo/Dieu-Preuves.pdf.
20
1.5 Les preuves logiques de l'existence de Dieu
Ce texte présente les trois types d'arguments cités au cours des siècles pour prouver
l'existence de Dieu avec un raisonnement logique. Les personnes ayant une culture
philosophique n'y trouveront rien de neuf.
Ce texte précise aussi quelques détails d'une telle preuve à la lumière des
connaissances cosmologiques actuelles.
Univers
Selon le dictionnaire
(Philosophie et langage courant) : ensemble de tout ce qui existe, la totalité des
êtres et des choses.
(Univers physique, sensible) : ensemble des choses et des phénomènes
physiques perçus par l'homme et objets de la science.
(Astronomie – Univers avec une majuscule) : ensemble des galaxies,
considérées dans leur évolution dans l'espace et dans le temps.
(Physique de la Relativité générale) : tout ce qui a existé, existe et existera dans
le même espace-temps (continuum quadridimensionnel) que la Terre.
Connaissances scientifiques
Naissance : notre Univers est né d'une explosion colossale, le Big Bang, il y a
13.8 milliards d'années.
Nous ne savons pas s'il a existé quelque chose (espace-temps ou matière-
énergie) avant ce Big Bang, nous n'avons à ce sujet que des conjectures. Nous
ne savons même pas si l'espace-temps n'est pas apparu en même temps que la
matière-énergie de l'Univers lors du Big Bang.
Structure : La Relativité générale d'Einstein nous apprend que l'Univers est un
continuum (espace continu) quadridimensionnel : 3 dimensions d'espace + 1
dimension de temps, le tout formant l'espace-temps. Le temps est une
dimension nécessaire de cet espace-temps, dont on ne peut concevoir un
espace réel sans temps ou un temps réel sans espace.
Dimension : l'Univers observable depuis la Terre est l'intérieur d'une sphère de la
surface de laquelle la lumière a mis 13.8 milliards d'années pour nous parvenir
21
depuis le Big Bang : son rayon est défini par un temps de parcours, pas par une
distance.
Expansion : l'Univers est en expansion depuis le Big Bang : les galaxies
lointaines s'éloignent de nous d'autant plus vite qu'elles sont loin [111].
La vitesse d'expansion de l'Univers a varié depuis le Big Bang, décroissant
pendant les 8 à 9 premiers milliards d'années, puis croissant depuis.
Du fait de cette vitesse d'expansion variable, les galaxies les plus lointaines jamais
créées depuis le Big Bang sont à une distance de 47 milliards d'années-lumière,
à la surface d'une sphère appelée Univers physique actuel. Cet Univers contient
environ 1011 galaxies, 1023 étoiles.
On appelle Volume de Hubble l'intérieur de la sphère à la surface de laquelle les
galaxies s'éloignent de nous à la vitesse de la lumière. Les galaxies situées au-
delà émettent une lumière qui ne nous atteindra jamais, car elle se propage moins
vite que l'Univers ne se dilate.
La surface de l'Univers observable s'éloigne de nous environ 6 fois plus vite que
la vitesse de la lumière c = 299 792 458 m/s (un peu moins de 300 000 km/s). Une
telle vitesse ne contredit pas la Relativité Générale, car celle-ci ne limite à c que
les vitesses de ce qui est matière ou rayonnement, pas celle de l'expansion.
Phénomène
1er sens (scientifique) : fait objectif, observé, susceptible de se reproduire.
C'est une réalité extérieure perçue par l'homme.
Un type de phénomènes est un concept, classe dont les membres partagent les
propriétés.
Exemple : phénomènes de propagation de la lumière, d'attraction universelle.
Les phénomènes physiques sont régis par des lois déterministes ; exemple :
la chute d'une pierre est un phénomène de la classe des effets de la pesanteur.
2ème sens (philosophique) : une situation dont on prend conscience, qui peut se
reproduire, acquérir une valeur objective et faire l'objet d'une connaissance.
Représentation
Le mot représentation a deux significations :
Acte par lequel l'esprit du sujet se représente quelque chose (son objet, par
exemple un phénomène) tel qu'il est à un instant donné. C'est une mise en
relation de l'objet avec l'ensemble de données mentales qui le représentent dans
l'esprit du sujet. L'objet peut être externe (empirique) ou interne (a priori).
L'objet qu'un sujet se représente est présent à son esprit.
Résultat de cet acte : l'ensemble de données mentales précédent traitées par le
sens interne, donc ordonnées, connectées et mises en rapport ; physiquement,
22
c'est un état de certains neurones et de leurs interconnexions. Cet ensemble
(état cérébral interprété par les fonctions psychiques) décrit l'objet d'une manière
synthétique, schématique.
Monde
Kant distingue l'Univers défini plus haut, espace réel contenant tous les objets
existants, et le Monde, dont voici les définitions.
Le monde sensible
Le monde sensible (celui que perçoit notre sens externe à l'instant présent) est défini
comme la totalité des phénomènes (tout ce qui existe sous forme perceptible). Kant
écrit :
"Le monde sensible ne contient rien d'autre que des phénomènes, mais ceux-ci
sont de simples représentations…"
Différences entre Monde et Nature définis tous deux comme totalité des
phénomènes
Monde : totalité des phénomènes de l'Univers, résultant d'une synthèse par réunion
de ses parties ou de la décomposition d'un phénomène en ses parties. Kant écrit :
"Par monde, se trouve compris l'ensemble global de tous les phénomènes"
"Le terme de monde […] signifie l'absolue totalité de l'ensemble global des
choses existantes"
Nature : totalité des phénomènes dont la succession par causalité a produit l'ensemble
unifié de tout ce qui existe aujourd'hui. Nature a deux sens :
Un sens déterministe indiquant la succession des déterminations d'une chose
due aux évolutions physiques, toujours conformes au principe de causalité.
23
Un sens d'ensemble global des phénomènes "en tant qu'ils forment un ensemble
systématique [organisé] complet en vertu d'un principe interne de la causalité."
24
La Relativité générale exclut la possibilité d'une interaction transcendante
La Relativité générale exclut la possibilité d'un déplacement de matière-énergie plus
vite que la lumière. C'est pourquoi, par exemple, un voyage vers l'étoile la plus proche,
Proxima Centauri, située à 4.2 années-lumière du Soleil, prendra toujours plus de 4.2
années, quels que soient les progrès scientifiques futurs.
25
Tout en affirmant clairement l'impossibilité physique de ce Dieu (qualifié à l'occasion
d'Intelligence suprême, d'Etre originaire ou d'Etre suprême) Kant encourage ses
lecteurs à lui attribuer des propriétés anthropologiques, c'est-à-dire à « concevoir Dieu
à l'image de l'homme qui le conçoit », avec des valeurs et des sentiments – à condition
de ne pas oublier que c'est une idée transcendantale régnant seulement sur un
système unifié de concepts.
L'homme n'a pas accès à la réalité physique, dont il perçoit seulement des
phénomènes que son esprit transforme en représentations mentales. Tout se passe
comme si ces représentations sont la réalité et leurs lois d'évolution sont celles de
l'Univers physique.
Il n'y a donc pas d'inconvénient à imaginer que toutes ces représentations et
toutes les lois naturelles d'évolution proviennent d'un Dieu transcendantal, être parfait.
Ce paradigme ne contredit nullement la causalité matérielle de l'Univers réel
inaccessible, les lois naturelles déduites par l'homme des phénomènes perçus lui
permettant bien d'en prévoir l'évolution.
26
[Preuve cosmologique]
ou bien elles ne prennent empiriquement pour fondement qu'une expérience
indéterminée, c'est-à-dire une existence quelconque ;
[Preuve ontologique]
ou bien enfin elles font abstraction de toute expérience et concluent entièrement
a priori, à partir de simples concepts, à l'existence d'une cause suprême.
Je démontrerai que la raison parvient à tout aussi peu de résultats sur l'une de ces
voies (la voie empirique) que sur l'autre (la voie transcendantale), et que c'est en vain
qu'elle déploie ses ailes pour s'élever au-delà du monde sensible par la seule force de
la spéculation."
(Fin de citation)
Le premier mérite de Kant est d'avoir ainsi classé les preuves spéculatives (c'est-à-
dire purement déductives) possibles en 3 catégories :
Une preuve dite physico-théologique basée sur une expérience déterminée,
c'est-à-dire une constatation qu'un homme peut faire en considérant un
phénomène particulier (une vision de ce qui l'entoure à un instant donné) ;
Une preuve dite cosmologique, basée sur ce qu'un homme peut voir en général
quand il considère un phénomène comme le précédent (la cosmologie est
l'étude de l'ensemble de tous les phénomènes du monde) ;
Une preuve dite ontologique, basée sur la logique a priori du raisonnement
humain, donc ignorant tout phénomène possible.
(L'ontologie est la partie de la philosophie qui a pour objet l'étude des propriétés
les plus générales de l'être, telles que l'existence, la possibilité, la durée, le
devenir ; synonyme : philosophie première.
Pour Kant, l'ontologie est une science qui prétend connaître Dieu par son concept,
sans passer par l'expérience, et qui tombe sous le coup de la critique de la preuve
ontologique. Il écrit :
"…la malheureuse preuve ontologique, qui ne véhicule avec elle rien qui pût
satisfaire ni l'entendement naturel et sain ni l'examen méthodique.")
Quelle que soit la définition de Dieu, elle ne peut être basée que sur des jugements lui
attribuant des qualités, pouvoirs et actes ; mais un tel jugement est une opinion, pas
un phénomène constaté. Il n'a donc pas valeur probante, il peut avoir été pensé par
erreur. Kant écrit :
"Tous les exemples avancés [pour montrer l'existence d'un être absolument
nécessaire] sont, sans exception, tirés uniquement de jugements, et non pas de
27
choses et de leur existence. Mais la nécessité inconditionnée des jugements
[simple opinion] n'est pas une nécessité absolue des choses."
En outre, ce n'est pas parce qu'un homme a pensé la description de quelque chose
qu'elle existe. Une même description (ensemble d'informations) pouvant correspondre
à zéro, une ou plusieurs occurrences d'un objet, l'existence éventuelle de cet objet est
une information séparée ; elle ne peut donc être déduite de la description. Kant écrit :
"La détermination est un prédicat qui s'ajoute au concept du sujet et l'accroît. Il
faut donc qu'elle ne s'y trouve point déjà contenue."
Conclusion
Il n'existe pas de preuve ontologique de l'existence de Dieu. Kant écrit :
"C'était une démarche totalement contre nature, et qui constituait un simple
renouvellement de l'esprit scolastique, que de vouloir tirer d'une idée forgée de
façon entièrement arbitraire l'existence de l'objet correspondant à cette idée."
28
à-dire à une règle s'appliquant à l'existence nécessaire, sans laquelle règle il n'y
aurait pas même de nature.
[Soit S une situation d'un objet précédée d'une situation P, qui en est la
cause d'après une loi de la nature. Si S était contingente, la situation P
aurait pu ne pas avoir pour conséquence S, ce qui contredit l'exigence de
causalité qui rend la conséquence S certaine après P pour respecter la loi
de la nature. Donc ce qui arrive (ici : S) devait arriver.]
Par conséquent, le principe : rien n'arrive par un hasard aveugle est une loi a
priori de la nature ; de même : aucune nécessité intervenant dans la nature n'est
une nécessité aveugle…".
(Fin de citation)
Du point de vue logique (en ignorant le Big Bang), notre Univers a peut-être
toujours existé, sans avoir été créé. Mais du point de vue scientifique, sa
création a peut-être eu lieu dans un autre Univers : nous avons des théories
possibles mais non prouvées (les théories des Multivers) qui le supposent.
Conclusion
Il n'existe pas de preuve cosmologique de l'existence de Dieu.
Problème posé
Dans sa Critique de la raison pure [D2], Kant définit le problème de cette preuve :
"Chercher si une expérience déterminée, par conséquent celle des choses
appartenant au monde présent autour de nous, si la façon dont elle est constituée et
structurée ne fournissent pas un argument probant qui pût nous procurer avec sûreté
la conviction de l'existence d'un être suprême. Une telle preuve, nous l'appellerions
physico-théologique.
29
Si elle devait elle aussi être impossible, il n'y aurait jamais aucune preuve
suffisante qui fût possible, à partir de la raison simplement spéculative, pour démontrer
l'existence d'un être correspondant à notre Idée [de Dieu]."
Solution de Kant
Une expérience déterminée (un phénomène) a nécessairement une cause, d'après le
postulat de causalité. Toute conclusion (et notamment une existence nécessaire)
qu'on pourrait déduire d'un phénomène donné résulterait d'informations de ce
phénomène et/ou de ceux dont il est le résultat, et seulement de ces phénomènes. Or
tous ces phénomènes appartiennent à la chaîne de causalité du phénomène de
l'expérience (sa cause, la cause de cette cause, etc.)
En remontant la chaîne de causalité, on parcourt une série de causes qui sont toutes
des phénomènes du Monde. Or nous avons vu à l'occasion de la preuve ontologique
qu'aucun phénomène du Monde ne peut avoir créé le Monde, et ce pour deux raisons :
Il ne peut être transcendant (situé en dehors du Monde pour éviter
l'autocréation) ;
Il ne peut préexister au Monde.
Conclusion : on ne peut déduire d'une expérience déterminée quoi que ce soit qui soit
transcendant et préexistant au Monde ; il n'y a donc pas de preuve physico-
théologique de l'existence de Dieu.
L'Idée transcendantale d'un être originaire qui soit nécessaire et totalement suffisant
est si démesurément grande, elle dépasse de si haut tout ce qui est empirique et se
trouve toujours conditionné, que
d'une part on ne peut jamais dégager de l'expérience assez de matière
[d'informations] pour remplir un tel concept,
et que d'autre part on tâtonne toujours au milieu du conditionné [des
circonstances] en ne cessant de chercher en vain l'inconditionné [les
circonstances absolues à l'origine du Monde entier], dont aucune loi de quelque
30
synthèse empirique que ce soit ne nous fournit un exemple ou ne procure le
moindre indice."
(Fin de citation)
31
Ce raisonnement a été fait par Spinoza, qui en a conclu que l'existence d'un Dieu
créateur intelligent est une absurdité, ce qui rend également absurde la notion de
finalité divine gouvernant le monde, donc aussi celle de Divine providence.
Comme certains philosophes l'ont remarqué, Dieu est donc une illusion, une projection
irrationnelle de nos désirs, de nos peurs et de nos espoirs : l'homme a conçu Dieu à
son image, et celle-ci est pleine de contradictions.
Hélas, il n'est pas possible de représenter l'infinité de Dieu à l'aide d'une image, d'un
schéma ou d'une équation ; on ne peut le définir qu'avec des règles comme "Il est plus
grand que tout", "Il sait tout" ou "la divine Providence est infiniment secourable", et ces
règles ne sont pas représentables de manière sensible.
32
Exemple : si on me propose un emploi d'un type nouveau pour moi, avant de
l'accepter ou de le refuser je dois me représenter concrètement, au moyen
d'exemples, mon activité dans le cadre de cet emploi. Que ferai-je chaque jour, en
serai-je capable, serai-je heureux de le faire, etc.
On trouvera une discussion plus approfondie de ce sujet dans l'ouvrage de Luc Ferry
[7], qui résume bien le problème, et notamment la citation [D9].
Nous montrerons plus bas que ce raisonnement est faux, car le principe
thermodynamique de l'entropie toujours croissante ne s'applique qu'aux systèmes en
équilibre, qui n'échangent pas d'énergie avec leur environnement. Or le métabolisme
d'un être vivant échange l'énergie contenue dans sa nourriture avec de la production
de chaleur, de mouvement et de cellules nouvelles. Voyons ce que dit la
thermodynamique.
Définition thermodynamique
L'entropie d'un système matériel est sa quantité d'énergie thermique par degré de
température qu'on ne peut transformer en travail utile. L'entropie mesure le
mouvement désordonné (l'agitation thermique) de ses molécules, donc l'inorganisation
du système qu'elles constituent, ce qu'on ignore sur lui.
Soit un système matériel que l'on met en contact avec plusieurs sources de chaleur,
de températures absolues T 1, T2, etc. Il échange alors avec ces sources des quantités
de chaleur respectives Q1, Q2, etc. Chacune de ces quantités peut être positive ou
négative, selon le sens du transfert de chaleur. Nous supposerons que l'échange de
chaleur du système se fait de manière réversible : à tout moment le système est si
près de l'équilibre thermique qu'un faible changement de sens de la différence de
température entre lui-même et l'extérieur inverserait le sens de l'échange de chaleur.
ΔS Q1/T1 + Q2/T2 + …
33
Cette inégalité, due au physicien Clausius, exprime le deuxième principe de la
thermodynamique : l'entropie d'un système isolé qui subit des transformations est
toujours croissante. En particulier, on peut affirmer que l'énergie convertissable en
travail de l'Univers s'épuise peu à peu. (Définitions de la thermodynamique : [25])
Statistiques moléculaires
Le nombre de molécules d'un système macroscopique est colossal ; par exemple,
dans 18 g d'eau (quantité qu'on appelle une mole) il y a 6.02 .1023 molécules (nombre
d'Avogadro). Le nombre (immense !) d'ensembles de vitesses (d'agencements) que
ces molécules peuvent avoir en s'agitant pour se répartir une énergie macroscopique
totale donnée est appelé W, nombre que nous n'aurons jamais à écrire,
heureusement !
34
Par exemple, si un système a 3 molécules dont l'énergie peut varier de 0 à 9, et
que son énergie totale est 5, les agencements possibles des molécules sont :
(5,0,0) ; (4,1,0) ; (4,0,1) ; (3,2,0) ; (3,0,2) ; (3,1,1) ; (2,3,0) ; (2,0,3) ; (2,2,1), etc.
Nous pouvons alors interpréter W comme une mesure du désordre du système : plus
le système est structuré, plus ses molécules sont liées entre elles, moins elles sont
indépendantes et moins il y a d'agencements W conduisant à une énergie donnée.
Dans un corps à l'état solide dont on ne voit pas les molécules individuelles, on ne
peut décrire qu'une énergie totale : W = 1 et P = 1.
Exemple : soit un système constitué de 12 g de carbone pur solide (1 mole) et
32 g d'oxygène pur gazeux (2 moles). Soumettons-le à la transformation qui fait
brûler le carbone dans l'oxygène : C + O2 CO2. Le résultat – 44 g de gaz
carbonique (1 mole = 6.02 .1023 molécules) - est dans un état plus désordonné
que l'état initial : son W a augmenté.
On voit que W et S varient dans le même sens : l'entropie S est donc aussi une mesure
du désordre du système, du nombre d'agencements microscopiques possibles cachés
quand on ne voit que l'état macroscopique du système.
Entropie statistique
Soit un système dont chacun des états possibles xi a une probabilité 𝑝𝑥𝑖 comprise entre
0 et 1, la somme des 𝑝𝑥𝑖 étant exactement égale à 1 (certitude). On définit alors
l'entropie statistique H du système comme :
35
où :
Le logarithme est soit népérien, soit en base 10, soit en base 2 ; son choix se
répercute alors sur la valeur de k puisqu'on passe d'une base à une autre par
simple multiplication : log2 x = (Loge 10 / Loge 2) * log10 x = 3.322 log10 x.
La constante k est arbitraire ; c'est par exemple la constante de Boltzmann
k = 1.38066.10-23 joule par degré Kelvin pour des logarithmes népériens.
Lorsque les états sont équiprobables leur nombre étant W, la probabilité de chacun
est 1/W. La formule ci-dessus donne alors une entropie statistique égale à l'entropie
de Boltzmann : H = k logW. Lorsque les états sont équiprobables l'entropie H est
maximale : c'est lorsqu'aucun événement ne diffère des autres qu'on a le moins
d'information sur l'état global.
Entropie d'information
Cette notion apparaît lorsqu'on se pose la question de l'entropie d'un trou noir : avant
absorption dans le trou, la matière a une entropie statistique. Que devient l'information
représentée par l'entropie transférée ?
Réponse : après absorption son entropie a été absorbée dans le trou et stockée
sur sa sphère horizon, mais un observateur éloigné ne peut plus en voir d'effet et peut
la croire perdue. L'entropie du trou noir a augmenté au moins autant que l'apport
extérieur, à cause de l'inégalité de Clausius qui régit les transformations irréversibles.
Les formules de [133] décrivent la quantité d'information (l'entropie) sur la sphère
horizon du trou noir.
36
On oublie souvent que cette affirmation n'est valable que pour un système au
voisinage de l'équilibre, dont les variables d'état (énergie, forme géométrique, masse,
etc.) sont pratiquement constantes dans le temps.
A l'équilibre, le système qui se transforme n'échange avec l'extérieur ni chaleur
(qui est une forme d'énergie), ni masse ; son entropie est constante.
Au voisinage de l'équilibre, les propriétés d'une petite région donnée du système
varient de manière continue : elles ne changent jamais beaucoup sur de petites
distances, ce qui suppose que les forces agissant sur la région sont faibles.
Par contre, un système globalement loin de l'équilibre peut comporter des zones
proches de l'équilibre auxquelles le deuxième principe de la thermodynamique
s'applique. L'évolution d'un système en déséquilibre global peut faire passer l'état
d'une de ses régions d'une situation de déséquilibre (par exemple chaotique ou
turbulent) à une situation d'équilibre, ou inversement ; les états stables correspondent
à des minima locaux d'énergie, certains en équilibre et d'autres en déséquilibre [289].
Contrairement à ce que croient beaucoup de gens, la thermodynamique n'exclut pas
l'évolution du désordre vers l'ordre en certaines régions d'un système loin de l'équilibre.
Lorsque les états microscopiques sont équiprobables pour chaque état global d'un
système macroscopique qui évolue, le deuxième principe de la thermodynamique
affirme que l'état final le plus probable de l'évolution du système macroscopique global
est l'état d'équilibre correspondant au maximum de l'entropie, c'est-à-dire au maximum
de désordre.
Pour les idéalistes, cette exigence d'ordre semble incompatible avec le deuxième
principe de la thermodynamique, qui affirme que l'état final d'évolution le plus probable
d'un système isolé est l'état d'équilibre désordonné correspondant au maximum
37
d'entropie. Ils pensent que « si le matérialisme avait raison, la matière inerte et
désorganisée des aliments se transformerait en être vivant complexe, hautement
organisé, ce qui contredit le deuxième principe ».
Enoncée de cette manière, l'objection ne tient pas : la nourriture inerte ne se
transforme pas toute seule en être vivant complexe, elle le fait dans le cadre d'un
système être vivant + nourriture + environnement ; la complexité qui se crée dans
l'être vivant (par exemple lorsqu'un bébé qui grandit devient enfant) est accompagnée
de désorganisation dans son environnement, l'entropie de l'ensemble augmentant
bien.
38
Conclusion
En opposant le deuxième principe de la thermodynamique à l'explication matérialiste
d'apparition et d'évolution de la vie, certains idéalistes contredisent des faits
scientifiques établis.
A mon avis, le pari de Pascal est le genre de raisonnement qui passe bien auprès d'un
auditoire pendant le discours d'un orateur habile, parce qu'il a l'air correct et que
l'orateur est sympathique, mais pas un raisonnement qu'on peut soutenir par écrit pour
des gens qui réfléchissent.
39
1.6.3.2 Athéisme, positivisme et altruisme
Le choix d'être athée est aussi justifié - ou peu justifié - que celui d'être croyant. Les
philosophes positivistes ont cru que la connaissance scientifique (démontrable ou
justifiable par l'expérience) pouvait et devait remplacer la foi révélée en Dieu. Ils ont
donc accusé les croyants d'avoir inventé, dans leur religion, un mythe basé sur une
illusion destinée à consoler les malheureux, à leur laisser espérer qu'après leur mort
ils obtiendront bonheur et justice. Athée, Freud disait que la religion procède toujours
d'une illusion, provenant du désir infantile de protection et de consolation.
En fait, que l'on soit croyant ou non, chacun doit adopter, à l'échelle individuelle comme
à l'échelle sociétale, une morale, c'est-à-dire des règles de comportement permettant
une vie en société harmonieuse. Le problème est alors de définir et justifier des règles
où l'égoïsme de l'individu passe après l'intérêt de la société.
Avec la religion, ce problème est résolu et les règles sont clairement enseignées,
avec menace d'aller en Enfer si on les enfreint et promesse de Paradis après
une vie vertueuse : la carotte et le bâton.
Sans religion, Kant a montré que la raison ne pouvait pas justifier l'altruisme et
l'universalité [D5] (pourquoi sacrifier mon intérêt personnel à celui d'autrui ou de
la société, en l'absence de crainte de punition divine ou d'espoir de récompense
dans l'au-delà ?).
Kant a donc proposé, aux croyants comme aux athées, un axiome de valeur
suprême remplaçant la vérité révélée : le devoir. Un homme doit faire son devoir,
donc être vertueux, parce que c'est son devoir, que c'est la seule manière d'avoir
une conduite méritante. En fait, il doit incorporer à son inconscient [353] les règles
morales si parfaitement qu'il puisse se passer de la peur du châtiment divin ou du
gendarme, et de tout espoir de récompense ; sa raison d'être vertueux doit être le
sens du devoir qu'il a en lui-même, et être acquise peu à peu par éducation et
imitation des hommes sages.
Nous verrons dans la 3e partie de cet ouvrage que la confiance de Kant dans le
pouvoir de la raison d'imposer à un homme de faire son devoir est un vœu pieux.
Comme Freud l'a montré, ce n'est pas le cas : tout homme a un ensemble ordonné
de valeurs, et si son désir d'être vertueux et de faire son devoir est moins fort qu'un
autre désir, il ne peut vouloir faire son devoir, il s'efforcera de satisfaire son désir
le plus fort.
40
possibilité d'échapper au moins en partie au déterminisme, ou toutes ses décisions
sont-elles déterminées par des causes internes à notre Univers ? » Ces points sont
abordés dans la 3e partie de cet ouvrage.
Croire en Dieu reste donc une possibilité pour les hommes qui veulent une justification
religieuse du devoir d'une conduite morale, mais en tant que postulat personnel. Et
pour ce qui est d'expliquer par l'existence de Dieu la création et le fonctionnement du
monde physique, ainsi que de lui donner une finalité, c'est indémontrable et ne peut
résulter que d'un choix personnel purement arbitraire, par exemple dans le cadre d'une
des religions qui apportent une réponse.
Cet ouvrage-ci soutient qu'on peut se passer de croire en Dieu et en son intervention
pour expliquer le monde et la vie, notamment celle de l'homme, intelligent et libre. Et
il laisse soupçonner que Dieu a été inventé par l'homme pour répondre à des besoins
psychologiques comme donner un sens à sa vie et au monde, répondre aux problèmes
du salut et du besoin de justice, etc.
Le livre [5], publié en septembre 2006 par le philosophe français André Comte-
Sponville, montre avec un texte clair et facile à lire qu'on peut se passer de religion et
trouver une morale et une spiritualité sans Dieu, sans religion révélée, sans Eglise.
Le court texte de J-P Sartre "L'existentialisme est un humanisme" [15] apporte un point
de vue intéressant sur l'existence de Dieu et la liberté de l'homme. Pour un débat plus
large, voir la 2ème partie de cet ouvrage-ci.
1.8 Références
[D1] "Tu n'auras pas d'autres dieux devant ma face" et autres interdictions concernant
d'autres dieux dans la Bible http://www.onlinebible.org/html/fre/ : Exode 20-3, 22-20,
23-13 ; Deutéronome 5-7, 6-14, 7-4, 8-19, 11-16 ; Josué 23-16, etc.
41
[D4] The New York Times, citant le Cardinal Schönborn : "Leading Cardinal
Redefines Church's View on Evolution" (09/07/2005)
http://select.nytimes.com/search/restricted/article?res=FB0D13FE3E590C7A8CDDA
E0894DD404482
Citations :
"The cardinal, Christoph Schönborn, archbishop of Vienna, a theologian who is
close to Pope Benedict XVI, staked out his position in an Op-Ed article in The
New York Times on Thursday, writing, 'Evolution in the sense of common
ancestry might be true, but evolution in the neo-Darwinian sense -- an unguided,
unplanned process of random variation and natural selection -- is not.' ''
"In his essay, Cardinal Schönborn asserted that he was not trying to break new
ground but to correct the idea, 'often invoked,' that the church accepts or at least
acquiesces to the theory of evolution."
[D6] "Valeurs perdues, bonheur perdu : pourquoi notre société déprime - Sociologie
de la sinistrose française" http://www.danielmartin.eu/Cours/Sinistrose.pdf
42
qui me précède et que je dois découvrir, suivre et qui donne en fin de compte un
sens à ma vie."
La position du pape, qui admet l'évolution, contredit sur ce point celle du cardinal
Schönborn [D4].
43
Deuxième partie
2. Matérialisme et idéalisme
44
2.1.2 Définition succincte de l'idéalisme
L'idéalisme est une doctrine philosophique qui affirme que tout objet de l'Univers est
réductible à une idée, c'est-à-dire à une abstraction. Cette doctrine s'oppose au
matérialisme.
Plus généralement, pour un idéaliste tous les objets réels sont des copies d'Idées
transcendantes, l'Idée étant la seule réalité objet de la connaissance. Les vérités
mathématiques, même si ce sont de pures abstractions comme la théorie des
ensembles ou l'arithmétique, sont absolues, éternelles et objectives, bref universelles ;
elles seraient tenues pour vraies même par les habitants d'un autre système solaire.
Pour plus de détails, voir le paragraphe sur les platoniciens.
Réalisme et idéalisme
Du temps des anciens Grecs comme aujourd'hui, les philosophes se sont opposés sur
la question de savoir ce qui est réel.
Certains philosophes, les matérialistes, considèrent que les objets matériels
existent vraiment, que la réalité objective existe aussi et qu'elle est perceptible
par nos sens : « Je vois une table, donc elle existe et elle existe objectivement
aussi pour mon voisin. » Descartes, se demandant s'il existait bien, a fini par
conclure : « Je pense, donc je suis [c'est-à-dire j'existe] ». (Détails : voir [372])
Postulat de réalité
Le matérialisme postule que la réalité (l'Univers physique) existe
indépendamment de l'homme qui se la représente mentalement, bien que l'esprit
d'un homme soit incapable de distinguer entre la réalité et sa représentation (voir
citation de Kant). Ce postulat d'indépendance entre la réalité et ses
représentations mentales est connu sous les noms de « postulat de réalité »,
« postulat de réalisme » ou « postulat de réalisme métaphysique ».
Le postulat opposé au réalisme est l'idéalisme, qui n'admet pas que la réalité
externe soit la cause de nos représentations :
45
Soit parce que la réalité matérielle n'existe pas, car seul existe réellement
l'esprit qui la perçoit (postulat d'immatérialisme de Berkeley et Nietzsche) ;
Soit parce que toute réalité externe est une représentation d'une conscience
ou d'un sujet pensant ;
Soit parce qu'il confond et désigne d'un même mot, comme Platon,
l'existence et l'essence (chose en soi abstraite, ensemble de propriétés qui
sont des Idées) : l'homme ne voit que la projection de la réalité sur le mur de
la caverne.
Dans le langage courant, un matérialiste est une personne qui s'attache
essentiellement aux valeurs, aux biens et aux plaisirs matériels. Nous n'utiliserons
pas ce sens du mot dans la suite du texte, où le mot matérialisme ne nous
intéressera que dans son sens philosophique : principe métaphysique [371]
affirmant que « tout est matière ou issu de la matière ».
Les philosophes non matérialistes, appelés spiritualistes ou idéalistes,
considèrent qu'il existe un principe spirituel, l'âme, distinct et indépendant du
corps de l'homme, et que l'esprit est « supérieur » à la matière. (Je n'ai jamais vu
d'énoncé clair et convaincant des supériorités de l'esprit sur la matière.)
Les idéalistes pensent que les concepts et opérations intellectuelles de l'homme
ne peuvent s'expliquer par les seuls phénomènes physiologiques : penser
implique nécessairement une transcendance (voir aussi [339]). Ils pensent aussi
qu'il y a dans l'homme deux types de besoins différents :
les besoins physiologiques (manger, dormir...)
les désirs proprement humains (être apprécié…)
Pour un idéaliste comme Descartes l'homme a deux dimensions : l'âme et le
corps, l'âme étant supérieure au corps (toujours sans définition précise de l'âme
et sans qu'on sache clairement en quoi réside cette supériorité) (Voir [372]).
Pour une description plus complète de la doctrine idéaliste de Platon voir [343].
Résumé
Alors que le matérialisme affirme que l'esprit d'un homme et ses idées sont
conséquences du fonctionnement physiologique de son corps, sans lequel ils ne
peuvent exister, l'idéalisme affirme que la matière n'est qu'une émanation de l'esprit,
seule réalité ultime.
46
Mythe de la caverne
Platon a décrit l'illusion de la vision (représentation) humaine dans un texte célèbre,
"l'allégorie de la caverne", appelé aussi "mythe de la caverne" [M1]. Ce texte affirme
que l'homme prend souvent l'image construite par son esprit (la représentation qu'il
croit voir ou même qu'il a envie de voir) pour la réalité. Platon en a déduit qu'il ne faut
pas chercher à connaître la réalité matérielle, qui restera toujours cachée ou déformée
par nos sens et le processus de représentation de notre esprit. Il affirme qu'il existe
une organisation et une harmonie du monde qui précèdent toute matière : Platon était
donc idéaliste (voir aussi l'exemple chrétien de l'idéalisme [D7]).
En somme pour Platon, et depuis son époque pour tous les idéalistes, l'Idée
(l'essence, le plan, les propriétés) d'une chose matérielle existe toujours avant cette
chose, qui n'en est qu'une copie. L'homme accède à cette réalité spirituelle
uniquement au moyen de son imagination, qui lui en fournit une « connaissance
immédiate ». Pour Platon, cette réalité de l'essence est objective, elle existe
indépendamment de l'homme (comme, par exemple, les nombres entiers), et c'est la
seule réalité, la réalité physique étant inaccessible.
L'Idée est donc aussi la réalité ultime, celle à laquelle on parvient en analysant la réalité
perçue : la table est faite de bois, le bois est fait d'atomes (les Grecs Empédocle,
Leucippe, Démocrite, Épicure… concevaient intuitivement l'atome, plus petite partie
d'un objet parce qu'elle est indivisible) et cet atome matériel (avec ses propriétés)
dérive de l'Idée d'atome, réalité ultime.
Il est clair que ces deux conceptions s'excluent mutuellement. Pour un matérialiste
« l'existence précède l'essence », comme disait Sartre dans [15] à propos de l'homme,
qui s'invente lui-même après sa naissance en exerçant son libre arbitre ; l'essence ne
précède l'existence que lorsque l'homme fait un plan d'un objet avant de le fabriquer.
47
Pour un idéaliste comme le pape Benoît XVI, c'est le contraire : l'essence précède
l'existence.
Un matérialiste cohérent est athée, alors qu'un idéaliste croit en Dieu ou en un Esprit
créateur du monde et de l'homme.
On peut donc qualifier aussi bien le matérialisme que l'idéalisme de doctrines non
falsifiables (dont on ne peut démontrer la fausseté) [203]. On peut aussi qualifier des
propositions comme « être matérialiste est cohérent » ou « être idéaliste est
cohérent » d'indécidables (dont on ne peut prouver ni la véracité ni la fausseté) [6].
48
de la justice dans un monde qui n'en a pas parce qu'il est indifférent à nos
valeurs ; croire en l'idole Dieu est puéril, dérisoire ; c'est une fuite devant la
réalité. Nietzsche déplore que les croyants refusent la réalité et son absence de
sens.
Par extension, Nietzsche considère comme un refus puéril de la réalité
l'idéalisme des philosophes des Lumières [47] comme Kant ou celui de
Rousseau, philosophes qui espéraient que la Raison et la Science apporteraient
aux hommes la connaissance, le bonheur et la fin des tyrannies. Croire en un tel
idéal, pour Nietzsche, c'est aussi fabriquer des idoles et y croire, car pour lui le
monde n'a aucun sens, c'est un chaos que l'homme ne comprendra et ne
maîtrisera jamais.
Nietzsche considère aussi comme utopique un idéal matérialiste comme celui de
Karl Marx, qui remplaçait la foi des croyants dans le salut (la rédemption) par un
bonheur ici-bas, après avoir transformé la société bourgeoise capitaliste en
société communiste par révolution prolétarienne. Pour Nietzsche, l'idéal
matérialiste est aussi puéril que l'idéal religieux, c'est aussi une idole créée de
toutes pièces pour être adorée, consoler et donner un espoir.
Nietzsche critique donc la foi des philosophes des Lumières ou du communisme dans
des idéaux et des valeurs qu'il considère comme chimériques :
Les Droits de l'homme, la Science, la Raison, la Démocratie, le Socialisme,
l'égalité des chances, etc. Il accuse ces philosophes d'être en fait des croyants,
qui ont simplement remplacé la foi religieuse par de nouveaux dieux qu'il baptise
« idoles », et qui cherchent toujours à inventer un monde idéal meilleur que le
vrai.
Les valeurs transcendantes (abstraites, absolues, supérieures et extérieures à la
vie de notre Univers).
Mais Nietzsche n'en est pas resté à cette philosophie pessimiste, cette déconstruction
des philosophies idéalistes, pour en montrer le caractère vain et puéril. Il a proposé
d'accepter le présent, même si on ne le comprend pas, si on n'en voit pas la finalité et
s'il n'apporte pas d'espoir. Pour lui, le triomphe de la raison consiste précisément à
accepter ce qui est, dans l'instant présent, sans en chercher le sens profond, sans
nostalgie du passé (qui ne reviendra pas) ou espoir d'un futur meilleur (qui n'est pas
encore là), c'est-à-dire en se passant de ces non-réalités. La sagesse consiste même
à connaître et aimer cette réalité présente et le destin, attitude que Nietzsche appelle
« le gai savoir ». (Voir dans [48] la célèbre citation "Dieu est mort !", et d'autres détails
sur la philosophie de Nietzsche et les philosophes postmodernes : [190])
49
Je constate que cette acceptation d'une réalité, qui nous dérange parce qu'elle est
nihiliste, ne console pas du passé et ne promet rien pour l'avenir, est conforme au
déterminisme que je présente et défends dans ce texte. Tout en l'approuvant, je
propose cependant de la dépasser. Voici comment.
Dans tous les cas, l'homme qui a un tel idéal est prêt à se dépasser pour le réaliser, à
risquer sa carrière, sa santé, voire sa vie. Dans cet idéal, issu de la vie quotidienne et
tendu vers un objectif bien terrestre, le dépassement de soi est une transcendance,
une vocation qui ignore ou même méprise les objections de la raison.
De tels idéaux suscitent notre approbation, voire notre admiration. A la différence des
idoles que dénonce Nietzsche, ils ne nient pas la réalité mais travaillent à l'améliorer.
En quoi un athlète qui refuse la réalité de ses performances actuelles et s'entraîne
pour les dépasser se fait-il nécessairement des illusions ? En quoi le rêve de Charles
de Gaulle pour la France était-t-il utopique et l'idéal communiste de Marx une idole ?
Un progrès majeur paraît souvent inaccessible tant qu'il n'a pas été réalisé. Quand
Einstein, ingénieur inconnu de 26 ans, s'est attaqué aux bases mêmes de la physique
en refusant les contradictions du principe newtonien d'espace et de temps absolus,
qu'il a osé remplacer par la Relativité [49], il ne créait pas une idole, il en détruisait
une, l'hypothèse a priori de vérité absolue de Newton.
En tant que concept, une idole a un caractère a priori : c'est alors une vérité de
substitution admise sans démonstration. Elle peut se révéler fausse s'il en résulte une
contradiction ou une prévision erronée. Mais l'existence de Dieu ne peut pas être
démontrée : Nietzsche a donc qualifié la religion d'idole en montrant à quel point ses
révélations exigent une croyance sans démonstration, une foi basée sur l'imagination
ou sur la fuite devant la réalité, donc à quel point la religion était suspecte. Ses
accusations sont soutenables, mais ce ne sont pas des preuves ; la qualification d'idole
est souvent un jugement sans preuve.
50
des altermondialistes sont pour le moment des utopies, à en juger par la difficulté des
hommes à se mettre d'accord sur des enjeux bien plus modestes.
2.4 Références
[M1] Platon, "La République", livre VII (écrit vers l'an 400 avant J. C.) : l'allégorie
de la caverne - http://www.cvm.qc.ca/encephi/CONTENU/TEXTES/REPUB7.HTM
[M3] Kant :
"Critique de la raison pure" (1781) Editions Flammarion, traite des limites de la
raison et des connaissances ; contient la fameuse démonstration de
l'impossibilité de prouver que Dieu existe ou qu'il n'existe pas.
"Critique de la raison pratique" (1790) Editions Flammarion, traite de la loi
morale.
"Critique de la faculté de juger" (1788) Editions Flammarion, traite du jugement
de goût et de la finalité téléologique.
[M4] Physical Review Letters 77, 4887-4890 (1996) "Observing the Progressive
Decoherence of the “Meter” in a Quantum Measurement"
http://prola.aps.org/abstract/PRL/v77/i24/p4887_1
Extrait:
"A mesoscopic superposition of quantum states involving radiation fields with
classically distinct phases was created and its progressive decoherence
observed. The experiment involved Rydberg atoms interacting one at a time with
a few photon coherent field trapped in a high Q microwave cavity. The
mesoscopic superposition was the equivalent of an “atom+measuring apparatus”
system in which the “meter” was pointing simultaneously towards two different
directions—a “Schrödinger cat.” The decoherence phenomenon transforming
this superposition into a statistical mixture was observed while it unfolded,
providing a direct insight into a process at the heart of quantum measurement."
51
52
Troisième partie
3. Le déterminisme étendu -
une contribution pour la pensée rationnelle
Le texte qui suit est repris de l'introduction ci-dessous, publiée séparément ; pour le
sauter, cliquer ici.
53
cohérentes entre elles. Le but de ce texte est de bien cerner les limites de ce qu'on
peut prédire lors d'une évolution.
54
3.1.2 Définition, promesses et critique du déterminisme philosophique
L'expression déterminisme traditionnel désigne tantôt une doctrine philosophique,
tantôt un principe scientifique. Ce texte étudie le déterminisme au sens :
Des conséquences d'une cause ;
Du déroulement du processus d'évolution qui fait passer un système d'un état de
départ à un état d'arrivée au bout d'un certain temps ;
De la possibilité de prévoir l'avenir ou de reconstituer le passé connaissant le
présent.
55
nombreux phénomènes de la nature cités dans ce livre. Comme un seul contre-
exemple suffit pour contredire une affirmation qui ne peut être que vraie ou fausse, en
voici un.
56
erroné, bien que la définition ci-dessus figure dans certains dictionnaires
philosophiques.
Nous verrons qu'il faut une autre définition du déterminisme, le déterminisme
statistique, pour prendre en compte les phénomènes comme la radioactivité
naturelle et définir quelles questions sont possibles concernant la prédiction de
l'évolution future ou la reconstitution du passé. Avec ce déterminisme-là, basé sur
une définition étendue de la causalité, la prédiction de l'avenir et la reconstitution
du passé de son « démon » redeviendraient théoriquement possibles.
Principe de fatalisme
Lorsque nous constatons un phénomène physique (situation ou évolution d'un objet),
nous devons admettre que ce phénomène devait arriver, qu'il était inévitable, même si
nous éprouvons un sentiment de surprise, de peur ou de contrariété :
Soit S une situation d'un objet précédée d'une situation P, qui en est la cause
d'après une loi de la nature. Si S était contingente (si elle pouvait se produire ou
ne pas se produire), la situation P aurait pu ne pas avoir pour conséquence S, ce
qui contredit l'exigence de causalité qui rend la conséquence S certaine après P
pour respecter la loi de la nature. Donc ce qui arrive (ici : S) devait arriver.
57
3.1.3 Le postulat de causalité
Depuis qu'il existe, l'homme a remarqué certains enchaînements : pour un système
physique, une même situation S est toujours suivie du phénomène d'évolution P. Par
une démarche naturelle d'induction, il en a déduit un postulat général : « Les mêmes
causes produisent toujours les mêmes conséquences ». Et en réfléchissant aux
conditions qui régissaient les enchaînements observés il en a déduit le postulat de
causalité, que j'énonce comme suit sous forme de condition nécessaire et suffisante.
Dans certains cas favorables, le postulat de causalité répond aux besoins de la pensée
rationnelle de comprendre et de prévoir :
La condition nécessaire permet d'expliquer au moins en partie une constatation
(évolution ou situation), en remontant le temps jusqu'à sa cause ;
La condition suffisante permet de prévoir une conséquence, en suivant le temps
vers l'avenir depuis sa cause : l'évolution est déclenchée à coup sûr.
58
Contrainte d'action d'une cause efficiente: rester dans les limites de l'Univers
L'action d'une cause efficiente est régie par les lois de la physique. Elle se déroule et
s'achève dans l'espace de l'Univers et le temps de l'Univers, aucun franchissement
des frontières de l'espace-temps n'étant possible car il contient tout ce qui existe, a
existé et existera.
Connaissant la situation présente, pour prévoir une situation future ou reconstituer une
situation passée, les philosophes passent d'une situation à la suivante ou à la
précédente ; ils ont alors un problème en remontant dans le passé (démarche appelée
régression) : si toute situation a une cause, la chaîne de causalité est infinie, il n'y a
pas de cause première, et le postulat de causalité doit être abandonné ou modifié pour
admettre une cause sans cause, comme Dieu créateur de l'Univers.
Avec la définition présentée ci-dessus, la conséquence d'une situation n'est pas une
autre situation mais une évolution régie par une loi de la nature. Cette loi est un
ensemble E de fonctions du temps t, au sens mathématique : la situation au temps tn
du passé ou de l'avenir est donnée par les valeurs de toutes des fonctions de E pour
t=tn. Le déterminisme postule alors que ces fonctions soit sont toujours définies, soit
ont un domaine d'existence, par exemple « à partir du Big Bang ».
59
d'écoulement du temps (comme si on « passait le film des événements à
l'envers »), on retrouve à un instant t1 qui précède t2 l'état A qu'il avait.
Cela ne veut pas dire qu'on peut changer le sens de l'écoulement du temps de
l'Univers physique (notamment parce que la thermodynamique l'interdit), mais
seulement qu'on peut reconstituer théoriquement l'information qui décrit un état
quelconque du passé d'un système fermé. C'est une conséquence de l'existence
d'une loi d'évolution de la nature, postulée réversible et stable dans le temps par
le déterminisme.
Cet état reconstitué est unique : il n'y a eu, à l'instant t1<t2 qu'un seul état, A, qui
est devenu B. Donc tout se passe comme si la nature conservait l'information de
tous ses états passés : c'est une conséquence du postulat de déterminisme et de
la réversibilité temporelle de l'équation universelle d'évolution de Schrödinger.
Conséquence : toutes les équations des lois physiques de la mécanique
macroscopique (comme les lois de Newton), de la mécanique quantique, de
l'électromagnétisme, de la force nucléaire (interaction forte) et de la relativité
(gravitation) sont réversibles par rapport au temps - à de rarissimes exceptions
près qui ne sont pas encore expliquées :
Lorsqu'un corps céleste disparaît dans un trou noir, l'information qui le
décrivait disparaît peut-être (si elle est conservée, on n'est pas encore sûr
de l'endroit, peut-être à la surface de l'horizon du trou noir) ;
La décomposition d'un méson K0 (force faible) en mésons + et - est
irréversible, mais on ne sait pourquoi ;
L'expansion de l'Univers, également irréversible et en plus accélérée, est
due à un champ de force encore inconnu.
Le passage du temps n'altère donc pas la quantité totale d'information d'un
système physique, même s'il s'agit de l'Univers entier ; cette quantité étant finie,
le nombre d'états possibles de l'Univers est immense, mais fini. Mais cette
l'information préservée peut être altérée par l'évolution physique d'un système
d'une manière telle qu'on ne sache plus où elle est stockée, même si elle existe
toujours.
Il existe une probabilité non nulle qu'un état donné de l'Univers ou de tous les
atomes d'un système quelconque se reconstitue spontanément, mais les calculs
montrent que cela se produirait pour la première fois au bout d'un temps qui se
compte en milliers de milliards d'années : quand je renverse du café de ma
tasse, la probabilité pour qu'il y remonte tout seul est vraiment faible, même si on
lui restitue l'énergie thermique dispersée par le renversement !
60
Laplace ne connaissait pas la décomposition radioactive. Mais son déterminisme
redevient exact si on en remplace la causalité traditionnelle par notre causalité
étendue, qui régit tous les phénomènes parce qu'elle prend en compte l'équation de
Schrödinger et son déterminisme statistique.
Selon le domaine de connaissance considéré, une des deux approches peut être
préférée à l'autre.
En physique traditionnelle, la doctrine réaliste permet de décrire au moyen de
lois et formules des phénomènes ou situations réels, et le passage d'une
situation à sa conséquence. Par exemple, une formule permet de prévoir avec
une précision acceptable ce qui se passera dans une situation donnée, c'est-à-
dire comment elle évoluera. La causalité est alors précise et fiable.
En psychologie, la doctrine idéaliste s'impose, car la réalité de l'esprit humain est
trop complexe pour être représentée de manière complète et claire. On ne
connaît que certains mécanismes mentaux et de manière approximative, avec
beaucoup de cas particuliers et peu ou pas d'informations chiffrées [339]. La
causalité est alors peu précise et peu fiable, faisant parfois appel à des non-dits.
La seule manière de connaître et d'étudier le psychisme humain est de s'en
construire des modèles mentaux simplifiés, qu'on confronte ensuite avec les
résultats ou mesures de l'expérience.
61
La cause explique pourquoi cela existe, est arrivé ou arrivera, connaissance plus
approfondie qu'une simple certitude d'existence. L'existence de la cause implique
nécessairement la conséquence, mais attention à la réciproque : si on ne connaît pas
la loi d'évolution qui y a conduit, une situation constatée peut avoir plusieurs causes
possibles.
Exemple : un homme trouvé mort a 3 balles dans la tête. Il n'a donc pu se suicider,
mais plusieurs personnes qui l'ont fréquenté peuvent l'avoir assassiné.
Nous étudierons ci-dessous en détail le principe de raison suffisante, qui énonce une
relation certaine, nécessaire : l'existence de la cause implique nécessairement la
conséquence (l'évolution qui en résulte).
62
3.1.4.1 Les 4 domaines régis par le principe de raison suffisante
Remarques préalables
Toute connaissance est une relation entre un sujet qui connaît et un objet qu'il
connaît ; sans l'une de ces notions, l'autre n'a pas de sens.
Un sujet ne peut se connaître lui-même complètement, car il ne peut se placer
« à l'extérieur » de lui-même, où il connaîtrait par exemple sa connaissance,
c'est-à-dire l'état actuel et le fonctionnement de sa conscience. [339]
63
3.1.4.2 Principe de raison suffisante du devenir - Déterminisme
Le principe de raison suffisante du devenir affirme la nécessité physique de l'évolution
d'une situation initiale dont elle est la conséquence par l'action d'une loi de la nature,
c'est-à-dire le déterminisme physique. Il implique une succession dans le temps :
la conséquence suit la situation qui la cause.
Le plus souvent, affirmer qu'une évolution est déterministe c'est affirmer que son
résultat est prévisible par application d'une loi physique, éventuellement en appliquant
une formule ou en déroulant un algorithme ; c'est aussi affirmer que ce résultat ne sera
pas dû au hasard. Nous verrons plus bas en détail des exceptions importantes à cette
prévisibilité.
Une situation décrit des objets physiques, indépendants ou non. C'est la situation
initiale (l'état initial) qui est cause de l'évolution de ces objets, pas les objets eux-
mêmes ; et la conséquence de la situation initiale est cette évolution, pas l'état de
l'ensemble des objets de la situation finale.
Une situation est une abstraction, une représentation sous forme de « photographie
instantanée ». Ce n'est pas elle qui est visible, ce sont ses objets. Une situation est
une représentation construite par l'esprit de ces objets et des relations entre eux, et
c'est elle (non ses objets ou relations) qui est cause de son évolution.
L'évolution affecte les objets et leurs relations, pas la situation initiale, photographie
d'un passé immuable. L'état d'ensemble de ces objets, à un instant qui suit l'état initial,
définit une nouvelle situation. Le caractère final éventuel de celle-ci est purement
arbitraire, l'instant de fin de l'évolution étant lui-même une décision humaine ; une
même situation initiale, cause de son évolution, a donc une infinité de situations
conséquences, selon l'instant de chacune.
64
possible. C'est un résultat de l'application de nos facultés logiques à des concepts a
priori (créés par l'esprit indépendamment de toute expérience). Exemple d'affirmation :
« Il existe des nombres entiers (concept a priori) et des opérations sur ces
nombres entiers comme l'addition ou la comparaison »
Vérité métalogique
C'est l'un des principes de la logique [99], base de toute pensée rationnelle et des
axiomatiques dans le cadre desquelles on démontre des vérités formelles [67]. Les
facultés logiques utilisées pour construire des vérités transcendantales et des vérités
logiques sont basées sur des vérités métalogiques.
Attention : une vérité formelle n'a pas de valeur sémantique. Une proposition
formellement vraie n'est vraie que dans sa forme, établie dans le cadre logique de son
axiomatique. Une éventuelle vérité sémantique ne peut se juger qu'avec des
comparaisons avec des objets extérieurs à l'axiomatique : voir [67a] et [220].
Vérité empirique
C'est une vérité résultant de nos sens ou d'une expérience. On la considère comme
vraie par application du postulat réaliste.
65
Les concepts nécessaires pour représenter une réalité matérielle en sont déduits par
perception, mesure expérimentale et/ou abstraction. Les formules et opérations
mathématiques sont utilisées soit pour modéliser une loi physique, soit pour situer un
concept d'objet par rapport à d'autres tels que des unités, des axes orientés, etc.
Dans les deux cas, ce principe implique une succession de représentations : le motif
est suivi par l'acte.
Du fait même qu'il est conscient, un homme veut quelque chose à tout instant. Chaque
volonté a des degrés, depuis un faible désir jusqu'à une passion, et chacune
correspond à une valeur au moins. Chaque affect [253] d'un homme correspond à une
valeur et à quelque chose qu'il veut ; chaque état de conscience [339] d'un sujet
comprend au moins un affect et une volonté. Le sujet qui connaît (par sa conscience)
est le même que celui qui apprécie une valeur et celui qui veut : dans le psychisme
[347] connaissance, jugement de valeur et volonté sont indissociables. Mais, à un
instant donné, un sujet connaît mieux ce qu'il veut que lui-même, c'est-à-dire ce qu'il
est.
Consciemment (ou plus souvent inconsciemment), l'homme juge la situation selon ses
valeurs. Ces jugements sont des raisons suffisantes pour une action destinée à en
savoir davantage ou à obtenir un résultat désirable. Il y a là une forme de causalité, un
automatisme très rapide régissant le psychisme humain, causalité due au lien entre
les trois dimensions d'un sujet : conscient, appréciant et voulant.
Par contre :
L'absence d'une raison suffisante d'évolution n'entraîne pas l'absence de sa
conséquence, si l'évolution correspondante peut résulter d'une autre raison
suffisante.
66
Exemple : l'absence de clou sur la chaussée ne garantit pas que mon pneu avant
droit ne se dégonflera pas ; il pourrait le faire parce qu'il est mal monté sur sa jante
ou parce que j'ai heurté un trottoir.
L'existence (la constatation) d'une évolution n'entraîne celle d'une raison
suffisante particulière que si d'autres raisons suffisantes n'auraient pas pu
produire le même effet. Exemples :
La victime est morte d'une balle de pistolet tirée à deux mètres ; on ne peut
être sûr que l'assassin est son beau-frère, qui la détestait et a un pistolet de
ce calibre-là, que si aucun autre porteur de ce type de pistolet n'a pu être
présent lors du meurtre.
Une statistique montre que 40 % des gens qui ont pris un certain remède
homéopathique ont guéri en un mois au plus ; pour en déduire que la prise
de ce remède guérit 40 % des malades il faudrait être sûr qu'aucune autre
cause de guérison n'était possible : ni guérison spontanée, ni effet placebo,
ni autre traitement concomitant, etc.
Relation de physique
Une comparaison n'est possible qu'entre grandeurs de même type :
Les relations A = B ; A B et A B ne sont possibles que si A et B sont tous
deux des masses (ou des longueurs, ou des durées, etc.).
Toute mesure comparant une grandeur à une unité, on ne peut mesurer une
masse en unités de charge électrique ou de longueur : on dit que ces grandeurs
sont incommensurables entre elles.
Toutefois, on peut passer d'un genre à un autre lorsqu'on dispose d'un intermédiaire
qui est des deux genres [16-a (2)], intermédiaire appelé schème par les philosophes
67
[372]. Ainsi, lorsqu'on parle de l'aire d'un champ de blé (exemple : 100 hectares) et
d'un poids récolté en quintaux, on peut passer de l'aire à la récolte correspondante par
l'intermédiaire d'un rendement (exemple : 70 quintaux à l'hectare) qui est à la fois du
genre aire et du genre poids.
Une idée n'est cause ou conséquence de quelque chose que par l'intermédiaire d'un
esprit humain, ou de Dieu pour les croyants. Une réalité ne peut être cause d'une idée
que dans un esprit qui pense.
Ils se trompent : les neurosciences expliquent que la pensée est la perception humaine
du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones.
C'est cette interprétation qui transforme un état matériel de neurones en abstractions ;
elle constitue la seule mise en relation entre concepts de genres différents qui ne viole
pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer
n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes
de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions
entre eux. Le besoin intuitif d'« autre chose » de ces philosophes résulte du caractère
imprévisible de certaines pensées, dû à notre incapacité de décrire rationnellement les
68
mécanismes inconscients [353] ; ils considèrent comme « besoin » un effet de
l'ignorance humaine de ces mécanismes. Détails : [339].
Un postulat est une abstraction pure, une base pour construire nos représentations
mentales du monde, elles-mêmes des abstractions. Le principe d'homogénéité interdit
de déduire un phénomène, une existence physique d'objet ou un état physique d'une
abstraction ; une telle déduction doit demeurer une hypothèse, valable seulement dans
la mesure où cette abstraction modélise la réalité avec une précision suffisante, et
seulement tant que la constatation d'une erreur ou imprécision n'amène pas à remettre
le modèle en cause. Violer ce principe conduit à des raisonnements faux, comme :
Les preuves cosmologiques de l'existence de Dieu ;
Une décision par l'Eglise catholique de considérer comme miraculeuse (d'origine
divine) une guérison jugée inexplicable ou impossible dans l'état actuel de nos
connaissances ; (l'ignorance de la cause ne justifie pas qu'on l'attribue à Dieu).
Déduire de la conception d'une essence ("Idée" de Platon, "chose en soi" de
Kant, description complète, cahier des charges…) l'existence d'un objet
physique, d'une situation ou d'un phénomène est une erreur ontologique :
une essence n'est cause de rien de concret. Avoir conçu une essence ne prouve
même pas la possibilité que son objet existe, tant l'imagination humaine est
féconde. Une telle possibilité, comme l'existence elle-même, n'est envisageable
qu'en tant qu'hypothèse, ou dans un domaine de connaissances abstraites
comme les mathématiques. En somme, une essence ne justifie pas une preuve.
En mathématiques, toutefois, elle peut être une définition : un être mathématique
peut être défini par ses propriétés, si celles-ci ne contredisent aucun théorème
établi.
69
Aristote s'était déjà aperçu de l'absence de relation de causalité entre une abstraction
et une réalité matérielle [201].
Avant de poursuivre notre propos sur le déterminisme, nous avons besoin de préciser
le principe d'homogénéité.
Grâce à la règle de stabilité on peut induire une loi physique de la nature d'un ensemble
d'enchaînements cause-conséquence constatés : si j'ai vu plusieurs fois le même
70
enchaînement, je postule que la même cause (la même situation, le même état d'un
système) produit toujours la même conséquence (la même évolution dans le temps).
On peut alors regrouper le postulat de causalité et la règle de stabilité en un principe
qui régit les lois de la nature décrivant une évolution dans le temps, le postulat de
déterminisme scientifique énoncé ci-dessous.
Exemple
Au début d'un cours d'astronomie on considère seulement la direction dans laquelle
se trouve une étoile, en ignorant sa distance et son éventuel mouvement par rapport
à la Terre. Les étoiles sont alors censées se trouver sur une immense sphère appelée
« sphère des fixes », modèle cosmographique qui postule la fixité de la direction de
visée de chaque étoile. En effet, à l'échelle de quelques siècles et à fortiori à celle
d'une vie humaine, les étoiles paraissent immobiles sur la sphère des fixes : leurs
directions et leurs positions relatives ne changent pas.
En fait, l'immobilité apparente des étoiles n'existe que si on mesure leurs directions
angulaires avec une précision modeste, notamment lorsqu'un homme compare un ciel
de sa jeunesse, vu à l'œil nu, avec un ciel de son âge mur. Dès qu'on effectue des
mesures de vitesse précises par effet Doppler (déplacement des raies spectrales) on
s'aperçoit que les étoiles bougent par rapport à la Terre : les positions stables connues
ont été complétées par des lois mathématiques de déplacement.
Conclusions
La vitesse mesurée d'évolution d'un phénomène n'a pas de raison d'être
constante. Une évolution lente aujourd'hui peut avoir été beaucoup plus rapide
dans le passé. Exemples :
L'expansion de l'Univers observable, dont le rayon augmente aujourd'hui à
la vitesse de la lumière, c, a été des milliards de fois plus rapide peu après
la naissance de l'Univers (mais avant le Big Bang), pendant une phase
appelée inflation [313]. Cette expansion hyperrapide n'a duré qu'un très
court instant, moins de 10-35 seconde.
71
Considérons un système physique fermé (n'échangeant rien avec l'extérieur)
tel qu'un tube allongé plein d'air. Supposons qu'au début de l'expérience l'air
de la partie gauche du tube a été chauffé, pendant que l'air de la partie
droite restait froid. Lorsqu'on arrête le chauffage et qu'on laisse l'air du tube
fermé évoluer sans intervention extérieure, sa température tend vers une
température limite, uniforme, en variant de plus en plus lentement.
La température stable constatée au bout d'un temps assez long pour que
notre thermomètre de mesure ne bouge plus est le résultat d'une évolution
convergente, pas le résultat d'une absence d'évolution. Un observateur qui ne
voit qu'un thermomètre qui ne bouge pas aurait tort d'en conclure que l'air du
tube a toujours été à la même température.
En résumé : compte tenu de l'imprécision inévitable de toute mesure physique, on
ne peut conclure d'un état actuel de stabilité ni qu'il n'a jamais évolué, ni qu'il
n'évoluera jamais, ni depuis combien de temps il n'évolue pas, ni qu'il n'évoluera
pas beaucoup plus vite dans l'avenir…
Exemple : si on photographie le balancier d'un pendule oscillant avec un temps
d'exposition de un dixième de seconde lorsque ce balancier est au sommet de sa
course, on aura une photo nette car il bouge alors lentement ; mais une photo de
même temps d'exposition au point le plus bas du balancier sera « bougée ».
Le déterminisme scientifique est basé sur les lois vérifiées de la physique. Il n'est pas,
comme le déterminisme philosophique, basé sur la foi (issue des Lumières [47] et de
la doctrine de l'Idéalisme transcendantal de Kant [372]) en une Science qui permettra
un jour de tout comprendre et prévoir.
Remarque importante
Le déterminisme scientifique affirme donc que la nature déclenche automatiquement
et instantanément une évolution lorsque ses conditions sont réunies ; les
72
conséquences de ces conditions sont le déclenchement et le déroulement d'une
évolution définie par une loi, pas une situation à un instant futur (abstraction humaine).
Le déterminisme scientifique n'affirme rien sur la prédictibilité des valeurs des variables
d'état d'un système aux divers instants futurs, ni sur l'unicité de valeur d'une variable
à un instant donné. Nous verrons que la prévision de la valeur d'une variable d'un
système physique à un instant donné est parfois impossible ou imprécise, et parfois
que cette valeur n'est même pas unique.
Un algorithme de calcul est écrit dans le cadre d'une axiomatique [67] et un programme
est écrit dans un langage informatique. Chacune des règles de déduction de
l'axiomatique et chacune des instructions du programme respecte les conditions du
postulat de causalité et de la règle de stabilité : l'algorithme et le programme étant
donc des suites de processus déterministes, sont globalement déterministes.
Pourtant, le résultat d'un algorithme ou d'un calcul n'est pas prédictible à la seule vue
de leur texte. En particulier, on ne peut savoir s'ils produisent les résultats attendus
qu'en déroulant l'algorithme par la pensée et en exécutant le programme.
73
Théorème : il n'existe pas d'algorithme général permettant de savoir si un
programme donné s'arrête (donc fournit son résultat) ou non.
On ne peut pas, non plus, savoir si la progression vers ce résultat est rapide ou non :
un programme peut se mettre à boucler, repassant indéfiniment sur la même séquence
d'instructions, et un algorithme peut converger très lentement ou même ne pas
converger du tout ; si l'exécution d'un programme doit durer 100 ans aucun homme ne
l'attendra.
Nous voyons donc, sur cet exemple, que le déterminisme d'un processus n'entraîne
pas nécessairement la prédictibilité de son résultat. Approfondissons ce problème.
Prédire un résultat d'évolution d'une variable consiste à prédire quel élément de son
ensemble de définition résultera de l'application de la loi d'évolution, c'est-à-dire quel
élément de cet ensemble elle choisira à un instant donné. En physique atomique, la
prédiction utilise la Mécanique quantique et a pour résultat un ensemble connu de
valeurs munies de probabilités d'apparition.
Déterminisme et prédictibilité
Dans le cas général, le déterminisme d'une loi de la nature n'entraîne ni la prédictibilité
de ses résultats, ni leur précision.
Dans les définitions du postulat de causalité et du déterminisme scientifique nous
avons renoncé à prédire un résultat d'évolution. Mais comme nous savons qu'une
cause déclenche l'application d'une loi de la nature, le problème de prédire un résultat
d'évolution devient celui de prédire le résultat de l'application d'une telle loi.
74
Remarques philosophiques préalables
La nature "connaît" des situations-causes et les lois qu'elle applique automatiquement
à chacune, mais elle ne connaît pas la notion de résultat, notion et préoccupation
humaines. Nous pouvons donc éliminer tout de suite une cause d'impossibilité de
prévoir indépendante de la nature : l'intervention du surnaturel. Il est clair que si nous
admettons la possibilité qu'une intervention surnaturelle déclenche, empêche ou
modifie le déroulement d'une évolution naturelle, nous renonçons en même temps à
prévoir son résultat.
Nous postulerons donc le matérialisme. En outre, aucune intervention provenant
d'un éventuel extérieur de l'Univers n'est possible du fait de la Relativité Générale
[328], ce qui exclut toute intervention transcendante [334] de l'extérieur de l'Univers
vers l'intérieur ou de l'intérieur vers l'extérieur.
Nous exclurons aussi toute intervention provenant de l'intérieur mais n'obéissant
à aucune loi de la nature, en nous réservant de préciser plus bas la notion de hasard
et sa portée. Cette validation par l'expérience, la falsifiabilité [203] et l'absence de
preuve de fausseté ou de contradiction distinguent une théorie scientifique d'une
explication magique, surnaturelle ou fantaisiste.
3.1.6.4.2 L'imprécision
Le postulat de causalité et le déterminisme scientifique ne promettent pas la
prédictibilité d'un résultat, ni sa précision lorsqu'on a pu le prévoir ; pourtant la précision
est une préoccupation humaine. Voici des cas où la précision du résultat (calculé ou
mesuré) de l'application d'une loi d'évolution peut être jugée insuffisante par l'homme.
75
on recourt à « l'approximation des petites oscillations », qui assimile un sinus à
son angle en radians. Cette simplification entraîne des erreurs de prédiction du
mouvement qui croissent avec l'amplitude des oscillations.
Cette impossibilité traduit un refus de la nature de satisfaire notre désir de prévoir avec
précision l'évolution de certains systèmes.
Exemples. Ce phénomène se produit dans certains écoulements turbulents et
dans l'évolution génétique des espèces, avec apparition de solutions regroupées
autour de points particuliers de l'espace des phases appelés « attracteurs
étranges ». En pratique, cette amplification d'effet réduit beaucoup l'horizon de
prévisibilité.
76
Instabilité dans le temps d'une loi d'évolution
Même s'ils sont bien connus à un instant donné, certains paramètres d'une loi
d'évolution peuvent être instables d'une situation à une autre, entraînant l'impossibilité
de prédire une évolution trop longtemps à l'avance. C'est le cas, par exemple, pour
une loi d'évolution qui bifurque (se transforme en deux autres lois) du fait d'un
paramètre qui franchit ou non une valeur critique à cause d'un autre phénomène. Voir
aussi [281].
77
Il y a là une énorme différence avec la physique macroscopique, où la position
d'un corps existe qu'on la mesure ou non, et où une mesure ne perturbe pas
nécessairement l'objet mesuré.
L'évolution qu'est l'établissement ou la rupture d'une liaison chimique entre
atomes, molécules, ou atome et molécule est régie par l'équation de Schrödinger
et le principe d'exclusion de Pauli. Cette évolution se fait vers la structure la plus
stable, celle de moindre énergie potentielle, comme le veut la thermodynamique.
La Mécanique quantique montre qu'il y a souvent plusieurs résultats d'évolution
possibles, chacun avec sa probabilité.
Cette possibilité qu'une liaison chimique s'établisse ou se rompe avec une certaine
probabilité a des conséquences importantes en biologie moléculaire, où elle peut
être cause d'anomalies génétiques ou de variations d'expression de gènes.
On a montré expérimentalement dans les années 1920 qu'en favorisant les
perturbations accidentelles de l'énergie de liaison moléculaire du génome de
l'orge au moyen de rayons X on provoquait de multiples mutations artificielles.
On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou à bandes de
couleurs alternées. Depuis cette date, des mutations artificielles sont
déclenchées dans de nombreux pays pour obtenir des espèces nouvelles de
plantes ayant des propriétés intéressantes. On a ainsi obtenu des espèces
plus résistantes et d'autres donnant de meilleurs rendements.
Fluctuations quantiques
Le refus de précision et de stabilité de la nature peut se manifester par des
fluctuations d'énergie quantiques.
Exemple : en un point quelconque de l'espace vide, à l'intérieur d'un atome ou
même entre galaxies, l'énergie peut brusquement varier en l'absence de
perturbation, sans cause autre que le refus de la nature qu'elle soit définie avec
une valeur précise. Cette variation d'énergie ΔE peut être d'autant plus grande
que sa durée Δt sera brève. En moyenne, toutefois, l'énergie au point de
fluctuation reste constante : si la nature a "emprunté" une énergie ΔE au vide
environnant, elle la restitue en totalité environ Δt secondes après. L'énergie est
empruntée à l'énergie potentielle du champ de gravitation.
Ce phénomène d'instabilité de l'énergie viole la règle de stabilité du déterminisme
et empêche de définir des conditions de causalité ! Il survient brusquement, de
manière imprévisible, sans cause identifiable. C'est une instabilité dans le temps,
traduisant l'impossibilité de définir l'énergie en un point de l'espace vide avec une
incertitude sur l'énergie et un intervalle de temps tous deux arbitraires. Du point
de vue prévisibilité, on ne peut prévoir ni où une fluctuation se produira (il y en a
partout), ni quand, ni avec quelle variation d'énergie ΔE.
Ce phénomène n'a rien de négligeable : on lui attribue, peu après le début de
l'Univers, des variations de densité d'énergie à l'origine de la matière des
galaxies ! A l'échelle alors extrêmement petite de l'Univers, ces variations
d'énergie étaient si colossales, leur perturbation de l'espace-temps si
considérable, que les équations de la Relativité Générale ne pouvaient
s'appliquer. (Voir "Distance, temps, densité et masse de Planck")
Conclusion philosophique : à l'échelle atomique toute variation naturelle n'est pas
une évolution et n'est pas nécessairement déterministe ; il y a des cas d'instabilité.
78
Imprécision par évolutions simultanées à partir d'un même état initial - Décohérence
A l'échelle atomique, la nature permet des superpositions (combinaisons linéaires [29])
de solutions d'équations décrivant l'évolution d'un système dans le temps et l'espace.
C'est ainsi qu'un atome peut parcourir plusieurs trajectoires à la fois, produisant
des franges d'interférence avec lui-même lorsqu'il passe à travers deux fentes
parallèles, même distantes de milliers de diamètres atomiques.
C'est ainsi qu'une molécule peut être dans plusieurs états (structures) à la fois.
Exemple : la molécule d'ammoniac NH3 a une structure en forme de tétraèdre, où
le sommet (atome d'azote N) peut être « au-dessus » ou « au-dessous » du plan
des 3 atomes d'hydrogène. A un instant donné, la forme de la molécule peut être
« plutôt au-dessus et un peu au-dessous » ou le contraire, du fait de l'effet tunnel
(effet statistique de présence au-delà d'une barrière de potentiel électrique sans
cause physique de type force entraînant un quelconque déplacement). Les deux
formes, « au-dessus » et « au-dessous » de la molécule existent alors
simultanément : on dit qu'elles sont « en superposition », « cohérentes ».
Lorsque le temps passe, la molécule peut évoluer progressivement d'une forme à
l'autre par effet tunnel à une certaine fréquence, dite d'inversion. Lorsqu'un
dispositif macroscopique détermine cette forme à l'instant t, il la trouve dans un
seul des états, rendu stable par la mesure qui arrête l'oscillation d'inversion : on
dit alors que le dispositif a détruit la cohérence de la superposition, qu'il y a eu
« décohérence ». Si on refait l'expérience un grand nombre de fois, on trouvera
statistiquement 50% de présences « au-dessus » et 50% de présences « au-
dessous ».
Lorsqu'une expérience détermine la forme de la molécule NH 3, la nature choisit
au hasard celui des deux états symétriques qu'elle révélera à l'homme. Notons
que dans ce cas l'état révélé n'est pas quelconque, c'est un élément d'un
ensemble parfaitement prédéfini de 2 solutions appelé spectre des valeurs
propres [278] du dispositif de mesure : le hasard naturel est alors limité au choix
d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque
choix. Dans le cas de la molécule d'ammoniac précédente, la nature choisit entre
2 solutions symétriques de même forme géométrique : « au-dessus » et « au-
dessous ».
Ce phénomène est général en physique quantique [325] : lorsqu'une expérience
mesure une grandeur qui a plusieurs valeurs superposées, l'expérience en choisit
une sans que l'expérimentateur puisse prédire laquelle. Toutefois, les valeurs
possibles parmi lesquelles l'expérience choisit appartiennent à un ensemble
connu à l'avance : l'ensemble des valeurs propres du dispositif de mesure ; en
répétant l'expérience un grand nombre de fois, les diverses valeurs propres
"sortiront" avec une probabilité (ou une densité de probabilité) connue à l'avance.
(Voir postulats 3 et 4 de la Mécanique quantique.) Du point de vue déterminisme,
le hasard se limite au choix d'une valeur appartenant à un ensemble prédéterminé
et affectée d'une probabilité (ou une densité de probabilité) également
prédéterminée. On peut appeler hasard ce déterminisme de l'échelle atomique,
mais comme les résultats finaux ne sont pas quelconques puisqu'ils respectent
une distribution statistique, je préfère l'appeler déterminisme statistique, une forme
du déterminisme étendu.
79
Le refus de la nature de satisfaire le désir de l'homme de distinguer parfois deux
photons à trajectoires différentes atteint un sommet avec le phénomène de non-
séparabilité. Dans une expérience [10], deux photons qui ont la propriété
d'ensemble d'avoir des polarisations en sens opposé (photons dits intriqués ou
corrélés) restent un ensemble indivisible du fait de cette propriété même quand
ils se sont éloignés l'un de l'autre de 144 km : si on mesure la polarisation de l'un
– ce qui la change – la polarisation de l'autre change aussi aussitôt, la
conséquence se propageant de l'un à l'autre à vitesse infinie puisqu'ils ne font
qu'un dans l'ensemble de départ, qui conserve son unité tout en se déformant.
En somme, toute mesure faite au point A sur une particule peut instantanément
influencer une mesure en un point B, même très distant, sur une autre particule,
si les deux particules sont corrélées ; et après la mesure, l'interaction qui a corrélé
les particules a disparu, les photons ayant été absorbés par le dispositif de
mesure.
Explication : les deux photons ont été créés ensemble, avec une énergie
commune et une information d'existence commune. Mesurer un photon n'est
possible qu'en lui prenant son énergie, toute son énergie. Donc lorsqu'on mesure
(ou détecte) un des photons intriqués, on ne peut que prendre leur énergie
commune, en une fois, en détruisant l'information qui leur est commune pour la
céder à l'instrument de mesure. C'est pourquoi détecter un photon détruit l'autre.
3.1.6.4.4 La complexité
80
sans intervention du hasard. Mais il est impossible de connaître la position et la vitesse
à l'instant t d'une molécule donnée, car :
Elle a subi trop de rebonds contre d'autres molécules en mouvement et contre
les parois de l'enceinte pour que les calculs soient à la portée d'un ordinateur,
même très puissant ;
A l'échelle atomique, chaque rebond de molécule est affecté par sa forme
irrégulière, la rugosité locale de la paroi, et l'imprécision sur la position, la
direction et la vitesse d'un choc due à la largeur du paquet d'ondes
accompagnant chaque molécule. La loi des chocs élastiques est donc difficile à
appliquer avec précision, les conditions initiales de chaque choc étant entachées
d'erreurs non négligeables et aucune approche statistique n'étant possible.
Cette impossibilité de connaître le mouvement précis d'une molécule donnée est très
générale : la combinaison d'un grand nombre de phénomènes déterministes à
évolution individuelle prévisible produit une évolution imprévisible, que ces
phénomènes soient ou non du même type. Par combinaison il faut entendre ici :
soit une succession de phénomènes de même type comme les chocs élastiques
d'une molécule donnée ;
soit la simultanéité de phénomènes déterministes différents qui agissent
indépendamment ou interagissent pour produire un effet global ;
soit l'instabilité d'un phénomène qui change de loi d'évolution selon un paramètre
critique soumis à un autre phénomène d'évolution lors d'une bifurcation.
L'imprévisibilité par excès de complexité, qui n'existe pas en théorie dans la nature
(ses lois d'évolution étant déterministes), sévit hélas en pratique. Elle n'affecte pas la
nature, qui jamais n'hésite ou ne prévoit l'avenir, mais elle empêche l'homme de
prédire ce qu'elle va faire. Et l'imprévisibilité est d'autant plus grande que le nombre
de phénomènes successifs ou simultanés est grand, que leur diversité est grande, que
leurs interactions sont nombreuses et que l'imprécision quantique intervient.
Les interactions entre phénomènes ont un effet sur leur déterminisme lui-même. Une
évolution dont le résultat impacte les conditions initiales d'une autre évolution joue sur
la reproductibilité de cette dernière, ce qui handicape encore plus la prédiction de son
résultat.
81
C'est pourquoi les phénomènes les plus complexes (ceux des êtres vivants, du
psychisme [347] de l'homme et de sa société) ont beau ne comporter au niveau
biologie moléculaire que des évolutions physiques déterministes, leurs résultats sont
en général si imprévisibles que l'homme a l'impression que la nature fait n'importe quoi.
Enfin, ce qui se passe dans l'inconscient [353] est en général imprévisible, sauf peut-
être de manière approximative pour un psychanalyste.
On peut alors abandonner cette approche analytique au profit d'une approche plus
globale, holistique. Au lieu de tenter la synthèse d'un nombre immense de
phénomènes déterministes, on regroupera ceux-ci en « macro-phénomènes » dont on
étudiera le comportement.
Exemple 1 : au lieu de s'intéresser au comportement (sans intérêt !) de chacune
des milliards de molécules de gaz d'un récipient ou même d'une seule molécule
particulière, on s'intéresse à la température et à la pression qui règnent dans ce
récipient, variables macroscopiques rendant compte des propriétés d'ensemble
des molécules du récipient.
Exemple 2 : pour prévoir le chiffre d'affaires des ventes de vêtements d'hiver en
France pour une semaine donnée en fonction de la température ressentie, on
remplace l'interview de chaque acheteur potentiel (utopique !) par la considération
d'un « acheteur français moyen » (population dont on estime le nombre), et on
remplace les températures des divers jours ouvrables par la moyenne
hebdomadaire de leurs valeurs minimales.
Exemple 3 : l'écoulement turbulent d'un fluide est trop complexe à étudier et
décrire en fonction des 4 paramètres mesurables que sont sa densité, sa vitesse,
sa viscosité cinématique et la longueur d'un obstacle. On utilise une variable sans
dimension unique qui en dépend, le nombre de Reynolds [293].
82
La complexité limite l'applicabilité des modèles statistiques
L'économiste Prix Nobel Von Hayek distinguait deux types de domaines complexes.
Dans les domaines « à complexité non organisée », les difficultés de
compréhension et de modélisation du comportement dues à la complexité
peuvent être contournées grâce à des variables statistiques.
C'est le cas, par exemple, en Mécanique statistique, où le comportement d'un
volume de gaz ou de liquide comportant un nombre immense de molécules
animées de mouvements d'agitation thermique (dits "browniens") peut être
modélisé statistiquement à l'aide de moyennes de variables comme la
température absolue, la pression et l'énergie d'une molécule. Les lois d'évolution
de ces variables sont déterministes. Exemple : la loi des gaz parfaits pv=nRT.
Dans les domaines « à complexité organisée », les divers éléments d'un
système ont, en plus de propriétés individuelles et de fréquences d'apparition,
des interactions complexes et de types différents qu'on ne peut déterminer
quantitativement ou modéliser statistiquement du fait de leur complexité.
C'est le cas, par exemple, des marchés d'une économie, où interviennent de
nombreux acteurs interdépendants, et où les hypothèses économiques
traditionnelles de rationalité des acteurs et de concurrence pure et parfaite sont
loin d'être satisfaites. Dans ce cas, on ne pourra jamais connaître exhaustivement
toutes les variables décrivant les divers agents économiques et leurs interactions,
et on ne pourra donc pas – même avec un ordinateur puissant – modéliser le
marché et prévoir son évolution avec précision [301].
C'est pourquoi (Hayek a reçu un Prix Nobel d'économie pour l'avoir démontré)
l'économie communiste de l'ex-URSS n'a jamais pu avoir une planification
centralisée de la production et de la consommation qui fonctionne. L'organisme
administratif de planification (le Gosplan) n'a jamais pu connaître les détails précis
de ce qu'il était vraiment possible de produire et de transporter, ce qui était
effectivement produit, où et à quelle date, etc. Ce qu'il a pu savoir était toujours
fragmentaire et trop en retard sur la réalité. Il ne pouvait tenir compte d'aléas
climatiques locaux impactant l'agriculture ou les transports. Bref, il n'a jamais pu
disposer d'informations suffisantes pour piloter la production, le transport et la
consommation, d'où des pénuries et des gaspillages énormes.
En fait, la totalité des informations nécessaires pour déterminer l'évolution d'un
marché à partir d'une situation donnée n'est disponible que pour l'entité abstraite
qu'est le marché lui-même, pas pour un être humain ou une organisation humaine.
Et comme le comportement humain est souvent imprévisible parce que soumis à
des émotions irrationnelles et des anticipations, l'évolution d'un marché à partir
d'une situation donnée est non déterministe. Hayek a montré qu'on ne pouvait
alors établir que des lois qualitatives décrivant des relations entre variables
économiques et permettant de prévoir des tendances d'évolution ; en aucun cas
on ne pouvait prévoir le comportement d'un agent économique donné ou la
survenance d'un événement particulier comme la date d'éclatement d'une bulle
spéculative ou un effondrement boursier [301].
83
Exemple
Quelle politique adopter pour répondre à la crainte des Français d'une forte baisse de
leur niveau de vie ? Ils ont peur de perdre leur emploi, de gagner moins et de payer
plus d'impôts ; que doivent faire les politiciens au pouvoir ?
Certains politiciens proposent une solution simple : le déficit budgétaire, solution dite
keynésienne. D'après eux, l'Etat n'a qu'à dépenser beaucoup plus, par exemple en
augmentant les salaires des fonctionnaires et les investissements en infrastructure et
recherche. Avec plus d'argent en circulation, les dépenses des consommateurs
augmenteront, ce qui générera du travail, donc protégera du chômage et produira plus
d'impôts, permettant ainsi de payer les dépenses supplémentaires.
Ce triste exemple historique illustre une vérité très générale : lorsqu'un problème (ici
la croissance économique) a beaucoup de variables interdépendantes, toute solution
simple agissant sur une seule variable est inefficace. L'approche simpliste est en
général préconisée par des politiciens esclaves de leur idéologie, incompétents ou
démagogues, notamment parce qu'elle est facile à expliquer aux électeurs.
1er précepte
Ne considérer comme vrai que ce dont on est sûr, dit Descartes. La notion moderne
de vérité scientifique a été définie par Karl Popper, et les limites des raisonnements
déductifs (axiomatiques [67]) par Gödel et quelques autres logiciens du XXe siècle [6].
En simplifiant beaucoup :
La vérité d'une affirmation n'est pas « son accord avec les faits ». C'est le fait
qu'aucun spécialiste ne puisse démontrer qu'elle est fausse ou incomplète, ni
logiquement ni expérimentalement – alors qu'elle est falsifiable [203] ; on ne
démontre donc pas la vérité, on a un consensus de non-fausseté. Et l'affirmation
reste vraie provisoirement, jusqu'à ce qu'on trouve une raison incontestable de la
remplacer ou de la compléter.
84
Un raisonnement déductif se fait toujours sur la base d'hypothèses admises, les
axiomes. Il est impossible de vérifier la cohérence (non-contradiction) ou la
vraisemblance (sémantique) d'un système d'axiomes (axiomatique) en tant que
conséquence de ces axiomes.
Dans toute axiomatique on peut faire des affirmations (propositions) dont la
véracité ou la fausseté sont indémontrables (propositions dites indécidables). Au
sens du déterminisme, de telles propositions sans justification algorithmique n'ont
pas de cause identifiable, donc pas d'origine logique. Si on découvre dans l'esprit
d'un homme une telle proposition (ce qui arrive, voir l'important complément [92]
et aussi [141]) on peut qualifier sa présence dans le psychisme [347] de non
déterministe ; elle résulte souvent de l'inconscient, notamment d'une intuition.
2e précepte
Ce précepte a été interprété à tort comme recommandant de décomposer un problème
au maximum, en parcelles (sous-problèmes) aussi petites que possible, au prétexte
que plus un sous-problème est petit plus il est simple à résoudre. Ce n'est pas ce que
Descartes veut dire. En écrivant : "et qu'il serait requis pour les mieux résoudre", il
recommande de choisir la décomposition « qui marche le mieux », une décomposition
qui peut éventuellement comprendre des sous-problèmes assez complexes pour être
résolus de manière holistique, lorsqu'on sait les résoudre ainsi.
Une des approches holistiques est l'utilisation de modèles, par exemple
statistiques, lorsque c'est possible, c'est-à-dire lorsqu'un modèle mathématique de la
situation présente et/ou passée est assez stable et précis pour qu'on puisse s'en servir
pour généraliser à toute la population et prévoir l'avenir. Ce n'est pas souvent le cas
pour un problème de cours de bourse, par exemple, car on ne peut prévoir les
comportements moutonniers ou émotifs des intervenants, les événements politiques
susceptibles de changer des perspectives d'évolution de cours, etc.
85
P.E.R.T. [310] on peut connaître l'enchaînement d'étapes constituant un « chemin
critique » au sens délai ou coût.
3e précepte
Descartes recommande de résoudre les sous-problèmes un par un, parce que c'est
plus facile et plus clair, en commençant par les problèmes les plus simples à résoudre.
Chaque fois que tous les sous-problèmes d'un problème de niveau supérieur sont
résolus, on travaille à résoudre ce dernier en tenant compte des interactions. On
procède ainsi à des intégrations (synthèses) successives.
Il faut, chaque fois qu'on a résolu un sous-problème, vérifier la stabilité de sa
solution par rapport aux contraintes et risques connus, pour ne pas considérer cette
solution comme certaine et sans risque, notamment en ce qui concerne les délais et
les coûts.
Cette méthode est très utilisée en génie logiciel, où on procède aux tests de chaque
module logiciel avant de l'intégrer avec d'autres dans un module englobant, que l'on
testera à son tour. Dans certaines applications, après les tests logiques (l'algorithme
fait-il ce qu'on en attend dans tous les cas du cahier des charges ?), on procède aux
tests de résistance aux cas aberrants (au lieu de s'effondrer, le programme sait-il se
défendre contre des données d'entrée absurdes ou des situations aberrantes en
fournissant des réponses qui restent maîtrisées ?) et enfin aux tests de performance
(débit transactionnel) et temps de réponse. Enfin, on finalise la documentation du
logiciel (cahier des charges, mode d'emploi, organisation en modules et modèles de
données pour la maintenance, tests et résultats, délai et coût de réalisation).
Lorsqu'un problème est tel que certains paramètres, interactions et risques sont
inconnus ou incertains, il vaut mieux commencer sa résolution en étudiant les chances
d'aboutir : qu'est-ce qui permet d'espérer qu'on trouvera une solution satisfaisante ?
Que peut-il se passer si on n'en trouve pas ?
On construit ensuite le diagramme d'enchaînement des tâches de la résolution du
problème, pour déterminer les chemins critiques de difficulté, de risque, de coût, de
délai ; contrairement à ce que Descartes recommande, on ne commence pas par les
sous-problèmes les plus simples tant qu'on ne s'est pas assuré qu'on a une chance
d'aboutir.
4e précepte
Descartes recommande de vérifier qu'on n'a rien oublié. Il faut aussi vérifier qu'on ne
s'est pas trompé (tests logiques ci-dessus), que la solution résiste à des évolutions
imprévues mais possibles du cahier des charges (tests de résistance ci-dessus), que
les contraintes de coût et budget ont des chances d'être respectées.
86
Il est prudent, aussi, de progresser par étapes. Lorsque la solution d'un sous-
problème, mise en œuvre isolément, est possible et bénéfique, on peut la mettre en
œuvre sans attendre la solution d'ensemble. On vérifiera ainsi qu'elle est valable, et
on profitera de ses résultats avant que tout le problème initial soit résolu ; souvent
même, l'expérience de son utilisation entraînera une évolution de l'énoncé du
problème plus complexe dont elle fait partie, qu'il était donc urgent de ne pas résoudre
dans l'état initial de son cahier des charges.
Mon expérience d'informaticien m'a appris que de nombreuses applications
informatiques géantes, par exemple à l'échelle de toute l'armée de terre ou de toute
l'administration des impôts, ont échoué si gravement qu'elles ont été abandonnées
après investissement de millions d'euros. Elles ont été remplacées par des sous-
applications plus simples, moins ambitieuses, moins intégrées, mais qu'on a su
réaliser en respectant la qualité, (et parfois !) le délai et le budget.
Dans tous ces cas, la loi d'évolution que la nature applique ne peut fournir la précision
que nous voudrions. La loi de décomposition radioactive ne s'applique pas à un atome,
mais à une population où chaque atome a une probabilité de se décomposer en un
intervalle de temps donné : on ne peut lui faire dire quelque chose pour un atome.
Toutes ces impossibilités de savoir ce que nous voulons, ces obligations de savoir
seulement ce que la nature veut bien nous dire, ne mettent pas en cause le
déterminisme : chaque cause a bien sa (ou ses) lois-conséquence(s), que la nature
applique toujours et sans délai, mais c'est à l'homme d'accepter de la connaître sous
les formes qu'elle a, pas sous celles que nous voudrions qu'elle ait.
Ainsi, comme nous ne pourrons jamais voir une particule de l'échelle atomique,
nous devons nous contenter de la connaître par l'intermédiaire d'équations qui en
87
décrivent les propriétés, notamment de l'équation de Schrödinger qui en décrit
l'évolution dans le temps et l'espace. Nous devons renoncer à savoir, à un instant
donné, la position et la vitesse de la particule, dont nous n'aurons jamais que des
probabilités ou des densités de probabilité, c'est-à-dire une vision floue.
Nous devons aussi comprendre qu'une particule peut se trouver à une infinité
d'endroits à la fois, un volume donné autour d'un endroit donné ayant alors une
certaine probabilité de présence. Une particule peut aussi parcourir une infinité de
trajectoires à la fois. Toutes ces réalités ne font intervenir aucun hasard, mais des
distributions de probabilités - ce qui n'est pas la même chose.
Nous verrons aussi un cas très important de déterminisme statistique, celui de l'état
des systèmes à l'échelle atomique dans Déterminisme statistique : lois d'évolution
stochastiques.
3.1.8.1 Structure
Une structure est un agencement d'un ensemble construit d'éléments qui en fait un
tout cohérent à qui nous associons un nom. Elle a des relations :
propriétés statiques, qui décrivent les règles d'assemblage de ses éléments ;
propriétés dynamiques qui décrivent leur comportement d'ensemble.
Comme toute abstraction a priori (construite sans référence à une réalité) une structure
est éternelle : elle n'a pas été créée physiquement et ne peut disparaitre, c'est une
Idée au sens de Platon ; et elle peut exister même sans homme pour l'imaginer.
Une structure est aussi une classe d'ensembles munis des mêmes lois de définition et
de mise en relation (isomorphes) ; l'étude de certains problèmes relatifs à un ensemble
88
d'une classe donnée peut alors être remplacée par une étude sur un autre ensemble
de cette classe, si cette dernière est plus simple.
Une classe existe indépendamment du nombre de ses réalisations physiques, car
elle est définie par des propriétés dont l'existence ne peut faire partie. Le même
ensemble de propriétés peut décrire 0, 1, 2… ou une infinité d'objets physiques qui les
partagent ; ce n'est pas parce que j'imagine une classe des anges qu'il y en a.
Les propriétés (statiques ou dynamiques) d'une structure sont en général plus riches
que la réunion de celles de ses éléments, dont on ne peut les déduire.
On ne peut déduire des propriétés réunies du proton et de l'électron ni la possibilité
de lier deux atomes d'hydrogène en molécule, ni l'énergie dégagée. La Mécanique
quantique décrit les propriétés stationnaires et dynamiques de l'atome et de la
molécule d'hydrogène dans un champ électrique.
Exemples mathématiques
Une structure mathématique est un ensemble d'éléments muni d'une ou plusieurs lois
de définition et souvent aussi de lois de mise en relation. Exemples :
L'ensemble des solides réguliers, qui n'a que 5 éléments : le tétraèdre, le cube,
l'octogone, le décaèdre et l'icosaèdre.
Lois de définition d'un tel solide : les faces sont identiques ; ce sont des
polygones réguliers faisant entre arêtes des angles égaux ;
Lois de mise en relation : les faces ont même nombre de côtés, les sommets
ont le même nombre d'arêtes, les angles sont égaux.
L'ensemble des entiers positifs, nul ou négatifs {…-3, -2, -1, 0, 1, 2, 3, ….} est
muni de 2 relations :
Une loi d'addition, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 0 et d'un
élément opposé de chaque entier.
Une loi de multiplication, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 1 et
distributive par rapport à l'addition.
89
Richesse d'une structure en informations
Parce qu'elle a un comportement d'ensemble, une structure est décrite par plus
d'informations que ses éléments considérés séparément. Ce supplément
d'informations décrit des relations : interactions des éléments de la structure entre eux
et interactions de l'ensemble de la structure avec l'extérieur. Chaque définition
d'interaction peut exiger une description en langage ordinaire et un énoncé
d'algorithme ou d'équations. Exemple :
A partir de couples d'éléments de l'ensemble des entiers naturels auquel on a
ajouté une loi de division (sauf par 0) on peut définir l'ensemble des fractions
rationnelles. Cet ensemble est plus riche (il a plus d'éléments et permet plus
d'opérations) que celui des entiers naturels, car on a ajouté à ce dernier la
structure apportée par la loi de division.
On peut représenter les relations internes définissant une structure par un graphe dont
les sommets sont les éléments de l'ensemble et chaque arc entre deux sommets décrit
une relation interne avec son (ses) sens.
A
X
U
E D C
Les relations externes entre ensembles peuvent être représentées par des arcs reliant
des boîtes.
Dir. France
90
Le dessin d'un moteur de voiture ne permet d'en déduire ni la puissance maximum,
ni les courbes de couple et de consommation en fonction du régime. Ces
propriétés de fonctionnement dépendent de lois mécaniques et
thermodynamiques absentes du dessin, même si la conception du moteur en a
tenu compte.
Notre pensée rationnelle repose aussi sur des règles de manipulation des
propositions, qui nous paraissent tout aussi fondamentales, universelles (voir
Principes de logique). Elle repose également sur des règles fondamentales de calcul
comme 2 + 2 = 4 et des règles de logique formelle pour définir et manipuler des
ensembles, comme l'appartenance, la comparaison et l'ordre d'apparition.
Il est impossible de déduire de l'ensemble des propriétés des 4 bases ci-dessus celles
du génome humain : par sa structure en chaînes de bases, celui-ci constitue un
programme très riche qui régit les mécanismes cellulaires. Le fonctionnement de
chacun de ces mécanismes résulte de l'ordre des bases d'une chaîne particulière,
91
comme GAAGACT… Le déterminisme d'un tel mécanisme agit au niveau de sa chaîne
entière, constituant son ensemble de définition, pas au niveau d'une base.
Certains ont ainsi affirmé que le matérialisme était incapable d'expliquer les propriétés
d'un être vivant à partir de celles des molécules de ses cellules, donc que la vie était
« quelque chose de plus ». Raisonnement non probant : comme l'explique [339], la
pensée et la conscience de l'homme résultent de l'interprétation psychique d'états de
ses neurones à un instant donné - et seulement de cette interprétation. La conscience
est la manière dont notre cerveau perçoit son propre fonctionnement. Les mécanismes
psychiques ne se déduisent pas des seuls mécanismes électrochimiques des
neurones, leur description exige en plus des mécanismes élémentaires psychiques.
Le matérialisme n'a qu'un seul rapport avec cette démarche : il exclut les explications
magiques, basées sur des concepts fumeux comme « l'esprit » ou « l'âme ». Et sa
conséquence en matière d'évolution physique, le déterminisme, n'entraîne pas la
prédictibilité, ne serait-ce qu'à cause des mécanismes cachés de l'inconscient. [353]
3.1.9 Hasard
On ne doit pas attribuer au hasard une évolution naturelle sous le seul prétexte que
personne ne sait la décrire ou la prédire : on risquerait d'attribuer à la nature un hasard
résultant de l'ignorance humaine. Si elle existe, une évolution naturelle au hasard est
une caractéristique objective (indépendante de l'homme) et dont l'imprédictibilité est
soit démontrée, soit explicitement postulée pour des raisons scientifiques.
Remarque : hasard ou pas, la nature ne peut violer ses propres lois, par exemple de
conservation de l'énergie, de la charge électrique, du moment cinétique, de la quantité
d'information en Mécanique quantique, etc.
Les éléments d'un ensemble (de nombres, de chiffres ou d'éléments quelconques) qui
ont la même probabilité d'apparaître dans un certain tirage ne sont pas
92
nécessairement distribués au hasard : cette égale probabilité n'entraîne pas
nécessairement l'inexistence d'un algorithme de calcul.
Exemple : dans la suite périodique de décimales successives de
22/7 = 3.142857142857142857…, chacun des chiffres 1 ; 4 ; 2 ; 8 ; 5; 7
apparaît le même nombre fois, chacun des "nombres" 142857 aussi, etc.
Pourtant, l'écriture décimale de cette fraction n'est pas aléatoire, car elle est
calculable.
J'observe que l'opinion courante sur le caractère aléatoire diffère selon les
circonstances :
Nous attendons d'un dé, d'une roulette de casino et d'une machine à boules de
tirage de loto qu'ils produisent, dans un tirage, des nombres équiprobables.
Nous pensons que la distribution des résultats d'une même expérience entachés
d'erreurs expérimentales répartit ces résultats selon la loi de Gauss, appelée
d'ailleurs aussi loi normale [28]. Dans d'autres cas, nous nous attendons à des
distributions selon d'autres lois statistiques, comme la loi de Poisson ou la loi
binomiale…
Il n'existe pas d'algorithme capable de générer une suite de nombres dont le caractère
aléatoire soit certain : un tel caractère devra toujours être postulé.
Il y a des algorithmes de génération de suites de nombres dites « aléatoires »,
qu'un observateur trouve imprévisibles mais qui ne le sont pas puisqu'ils sont
calculables ; on peut seulement, pour certains de ces logiciels, choisir le premier
nombre de la suite.
Lors d'une telle évolution la nature refuse le résultat unique auquel l'homme s'attend ;
c'est l'ensemble auquel ce résultat appartient qui est unique et prédéterminé, chaque
expérience ayant un résultat appartenant à cet ensemble ; en outre, lors d'expériences
renouvelées, les résultats sont distribués selon une loi de probabilité elle-même
prédéterminée. On ne parle pas, alors, de résultat au hasard car il ne peut être
quelconque, totalement imprévisible ; on parle de déterminisme statistique car le choix
de résultat dans l'ensemble prédéterminé est entaché de hasard.
Nous rappelons plus bas qu'en dehors du déterminisme statistique la nature n'a pas
d'évolution entachée de hasard.
93
Voyons à présent les définitions du hasard autres que le déterminisme statistique.
René Thom qualifie donc d'aléatoire tout processus non modélisable par un algorithme
de calcul. Selon cette définition, la suite des décimales d'un nombre irrationnel – que
l'on sait générer par algorithme – n'est pas aléatoire, bien qu'elle n'ait aucune régularité
connue ; l'irrégularité n'est donc pas un critère suffisant de hasard. En complément,
voir la définition des nombres normaux de Borel [98].
Une personne qui n'avait pas prévu cette rencontre peut l'attribuer à tort au hasard.
Mais une définition plus large du système, prenant en compte l'ensemble des deux
phénomènes, élimine le hasard : à l'origine, toutes les conditions étaient réunies pour
que la tuile blesse l'homme. L'étonnement ou la rareté d'un phénomène ne justifient
pas qu'on attribue au hasard le résultat global de processus qui respectent tous les
lois déterministes de la nature (la seule loi naturelle où il se produit une évolution
comprenant une part de hasard statistique est la décohérence, phénomène de
Mécanique quantique relevant d'une prédictibilité statistique).
Cet exemple montre qu'une prévision basée sur le déterminisme doit prendre en
compte tous les paramètres susceptibles d'intervenir dans l'évolution à prévoir.
Refuser de prendre en compte la situation d'ensemble, c'est se complaire dans
l'ignorance et accepter le risque de prédictions fausses.
94
3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes
Si nous admettons, comme les astrophysiciens, que l'Univers est né et a commencé
son expansion à partir d'une région très petite où les atomes n'étaient pas encore
formés, il n'y avait en cet instant-là qu'une situation unique, cause première [16] de
toute l'histoire ultérieure de l'Univers [313]. Toutes les évolutions physiques ont
commencé à ce moment-là. L'Univers a donc une unité d'existence, de structure
(homogène et isotrope) et d'évolution conforme aux lois physiques, depuis cet instant-
là. Si notre pensée y distingue, à un autre moment, des situations partielles séparées,
celles-ci sont pures abstractions humaines, conséquences déterministes (au sens
déterminisme étendu) d'une même cause première, la « naissance » qui a précédé
d'environ 10-37 s l'inflation, elle-même suivie du Big Bang et d'une expansion qui dure
toujours [313].
95
L'existence de ces deux cas d'évolution imprévisible entraîne l'impossibilité de prévoir
le résultat de la rencontre de deux arborescences de causalité qui contiennent au
moins une évolution imprévisible. Mais il faut savoir qu'à l'échelle macroscopique on
n'observe pas de décohérence parce qu'on n'observe pas de superposition quantique.
A cette échelle, donc, les seules rencontres imprévisibles de chaînes de causalité
considérées ensemble sont celles où l'une au moins a subi une évolution chaotique.
Et comme ce type d'évolution ne doit rien au hasard (son imprédictibilité est due à une
impossibilité de mesurer et calculer avec une précision infinie, pas à un choix aléatoire
de la nature), on peut dire qu'à l'échelle macroscopique il n'y a pas de rencontre de
chaînes de causalité qui soit entachée de hasard, même quand son résultat est
imprévisible : le déterminisme scientifique est respecté.
A part le cas, n'apparaissant qu'en Mécanique quantique, où il est régi par un modèle
statistique, le hasard qui gouverne une évolution ne peut être défini que de manière
négative : le caractère imprévisible qu'il implique ne peut être défini que par une
impossibilité de déduction ou de caractérisation algorithmique.
96
Le hasard postulé
Il y a hasard postulé lorsqu'il existe un consensus de la communauté scientifique
postulant le caractère imprévisible du choix de l'élément, et où il n'existe pas de contre-
exemple prouvant que ce choix peut être prédit.
C'est ainsi que tous les physiciens postulent un choix au hasard d'une valeur propre
[278] d'opérateur dans chaque évolution de physique quantique par décohérence : ils
admettent alors les postulats 3 et 4 de la Mécanique quantique. A ma connaissance,
il n'y a pas en physique d'autre cas d'évolution où la communauté scientifique postule
un choix au hasard de résultat.
L'évolution par décohérence n'existe que dans des expériences de physique quantique
[325]. C'est un cas intéressant (dit « de déterminisme statistique » ou « à prédictibilité
statistique ») où le résultat, une valeur propre, fait partie d'un ensemble dont tous les
éléments sont prédictibles au départ de l'expérience, chacun avec une probabilité
connue. La prédictibilité du résultat est alors limitée à cet ensemble, la nature refusant
de choisir un résultat unique tant que l'évolution n'a pas détruit la cohérence, comme
le fait une mesure, nécessairement brutale et irréversible.
Un autre phénomène de physique quantique, l'effet tunnel, produit des
comportements analogues à la décohérence en permettant le choix au hasard
d'une valeur propre [278] parmi un ensemble de valeurs propres possibles,
correspondant à des états d'énergie entre lesquels un corpuscule peut passer,
osciller où simplement se trouver simultanément, chaque état avec sa probabilité.
Dans cet exposé nous rattachons l'effet tunnel à la décohérence parce qu'il
conduit au même type de choix au hasard, au même déterminisme statistique.
Le hasard prouvé
Pour une variable particulière d'une évolution naturelle donnée, le caractère "au
hasard" d'un résultat est considéré comme prouvé si et seulement si il existe une
démonstration de l'impossibilité de trouver un algorithme de prédiction.
Une éventuelle démonstration ayant nécessairement été faite dans le cadre d'une
axiomatique [67], elle a une valeur théorique qui doit, si possible, être validée par une
expérience. Et là il y a une difficulté : on ne peut pas prouver qu'une valeur est choisie
au hasard, c'est-à-dire qu'il n'existe pas de raison logique de ce choix.
Si une répétition d'expériences identiques pour une variable donnée produit des
résultats distribués selon une loi stable, et que la distribution ne résulte pas
d'erreurs expérimentales, le caractère aléatoire peut être supposé ; on peut alors
tenter de voir s'il suit une certaine loi statistique, avec des tests conformes à la
théorie des probabilités. Mais on n'aura pas une démonstration axiomatique
d'évolution au hasard, il ne s'agira pas de hasard prouvé.
Il n'y a pas, non plus, de critère pour prouver qu'une suite de valeurs ne présentant
pas de régularité évidente est une suite aléatoire.
97
Le déterminisme scientifique est incompatible avec un hasard prouvé. Si un résultat
d'évolution n'est pas reproductible et que cette évolution n'est pas une décohérence,
il n'y a que deux possibilités : ou la règle de stabilité des lois de la nature est en défaut,
ou il y a une erreur dans la réalisation de l'expérience ou la mesure d'un paramètre.
Cas particulier intéressant d'« erreur expérimentale » : l'évolution sensible aux
conditions initiales ci-dessus, où le calcul de l'évolution est possible mais son
résultat est inutilisable. Le hasard qui affecte le résultat n'est pas dû, dans ce cas,
à la loi d'évolution, qui reste déterministe au sens scientifique et à résultat
calculable avec une précision arbitraire ; il est dû aux erreurs expérimentales
inévitables, amplifiées par le modèle mathématique de la loi d'évolution.
Dans ces deux cas, l'évolution est régie par un déterminisme statistique. Elle a une
cause connue et elle est reproductible : une même cause (même dispositif
expérimental) produit une même évolution déterministe, qui produit le même ensemble
de résultats avec les mêmes probabilités ou densités de probabilités.
Une fluctuation quantique n'a pas de cause autre que l'instabilité de l'énergie du vide,
qui n'a de valeur définie ou stable à aucun instant, conformément au principe
98
d'incertitude de Heisenberg. Une fluctuation d'énergie n'est pas déterministe, car cette
instabilité ne relève ni du postulat de causalité ni de la règle de stabilité. Mais comme
elle respecte la limite minimum du principe d'incertitude ΔE . Δt ½ä, ainsi que la
conservation de l'énergie moyenne et de la charge électrique d'un volume d'espace et
d'un intervalle de temps, ce n'est pas un cas où la nature fait n'importe quoi. Elle est
imprévisible et ne peut être qualifiée de hasard que selon la définition de René Thom.
Le fait qu'on étudie des gaz ou des liquides à l'aide des méthodes et théorèmes de la
Mécanique statistique ne vient pas d'une évolution aléatoire des molécules de ces
fluides, qui se déplacent selon des lois de mouvement et de choc élastique
déterministes (et d'ailleurs symétriques par renversement du sens du temps) ; c'est
parce qu'on ne s'intéresse qu'à des propriétés macroscopiques de ces fluides
(température, pression, entropie, turbulence, etc.).
99
3.1.9.10 Premières conclusions sur le hasard et la prédictibilité
Il faut cesser de croire au hasard en tant que principe de comportement imprévisible
de la nature. Ce n'est pas parce que je ne sais pas expliquer un phénomène ou prévoir
son évolution que je peux invoquer le hasard. L'attribuer au hasard est aussi peu
justifié que l'attribuer à Dieu, et faire du hasard un refuge pour mon ignorance ne serait
pas rationnel.
Une variable qui suit une loi d'évolution ne peut ni échapper à son ensemble de
définition, ni évoluer en violant cette loi de la physique.
La nature limite ce que l'homme peut prévoir, mais elle n'est jamais fantaisiste : dans
une situation donnée elle réagit toujours de la même façon (stabilité de l'ensemble des
valeurs de chaque variable, éventuellement probabiliste) et obéit toujours à des lois
de conservation (de l'énergie, du moment cinétique, etc.) ; seule exception au
déterminisme de la nature, qui n'est pas une évolution : la fluctuation quantique.
100
3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle
101
ou sensibilité aux conditions initiales), ou dont le déroulement est trop complexe pour
pouvoir être modélisé et calculé par un algorithme prédictif.
Cas particulier : les fluctuations quantiques, qui ne sont des évolutions irréversibles
que lors de l'évaporation des trous noirs, ne relèvent pas du déterminisme et ne sont
régies que par l'inégalité de Heisenberg ΔE.Δt ≥ ½ä. On peut attribuer celles-ci au
hasard, mais seulement si on le définit comme René Thom.
Imprécision, complexité et choix statistique sont dus à la nature même des lois de
l'Univers, qu'il n'est pas question d'ignorer - particulièrement lors d'une prédiction
d'évolution.
102
Approfondissons. Nous avons vu plus haut que dans certaines situations la nature
réagissait de manière multiple :
Soit en déclenchant plusieurs lois d'évolution à la fois, dont chacune a un
déroulement indépendant et un résultat unique.
C'est le cas en physique quantique lorsque la trajectoire d'un corpuscule entre un
point de départ A et un point d'arrivée B peut être considérée comme une infinité
de trajectoires simultanées, empruntant des chemins différents avec des vecteurs
vitesse fonctions différentes du temps, mais qui se terminent toutes en B en même
temps.
C'est aussi le cas lorsque la trajectoire d'un corpuscule est définie à chaque instant
par un paquet d'ondes superposées, ondes de probabilité décrivant des
amplitudes de probabilité de présence du corpuscule qui s'ajoutent en amplitude
et en phase. Vu à un instant donné le corpuscule paraît alors flou, comme s'il était
composé d'une infinité de corpuscules superposés avec un décalage.
Mais, à son échelle macroscopique, l'homme ne voit jamais plusieurs
conséquences à la fois, il ne peut voir que leur résultat, nécessairement unique ;
et dans le cas d'un corpuscule accompagné d'un paquet d'ondes, ce résultat à un
instant donné est une position floue et une vitesse imprécise.
Soit en déclenchant une seule loi d'évolution donnant des résultats multiples
superposés, c'est-à-dire existant en même temps.
Cette superposition d'états simultanés n'est pérenne qu'à l'échelle atomique.
L'interaction entre la superposition microscopique et l'environnement
macroscopique (par exemple lors d'une mesure physique) met fin à la
superposition et révèle à l'échelle macroscopique un seul des états superposés,
choisi au hasard ; le passage de l'état superposé à l'état unique est appelé
« décohérence » et il est irréversible. ( Compléments sur la décohérence )
De son côté, la Relativité montre que l'énergie et la matière sont deux formes
complémentaires d'un même système ou d'une même région de l'espace, formes qui
peuvent se transformer l'une dans l'autre selon l'équation d'Einstein e=mc2. Elle
montre aussi que la gravitation peut être interprétée comme un champ de force ou
comme une courbure de l'espace-temps due à la présence d'une masse.
103
La physique moderne nous oblige donc à considérer qu'un phénomène de la nature
peut présenter deux aspects très différents, aspects qui se complètent lorsqu'on veut
comprendre ou prédire certaines évolutions.
3.1.10 Chaos
Par manque de rigueur, on considère souvent un phénomène naturel chaotique
comme régi par le hasard. Nous allons voir qu'en précisant la nature des évolutions
chaotiques il n'en est rien.
3.1.10.1 Définition
Je ne connais pas de définition précise du mot « chaos » en matière d'évolution. Les
divers textes sur la dynamique des systèmes dont j'ai connaissance s'accordent pour
qualifier de chaotique une évolution déterministe au sens mathématique :
Qui est non linéaire : l'effet d'une variation d'un paramètre n'est pas proportionnel
à cette variation ;
Qui est si sensible aux conditions initiales qu'on ne peut en prévoir le
déroulement à long terme avant son début, mais seulement un instant après,
quand elle est « lancée » ;
Ou dont la connaissance pendant un temps aussi long qu'on voudra ne permet
pas de prévoir le déroulement ultérieur à long terme, ce déroulement étant
apériodique (c'est-à-dire dépourvu de régularité) ;
Ou dont la courbe d'évolution dans l'espace des phases n'est :
Ni réduite à un point, comme celle d'un système qui n'évolue pas ;
Ni convergente vers un attracteur ponctuel, comme un système dissipatif qui
perd de l'énergie (définition de « dissipatif ») ;
Ni fermée, comme celle d'un pendule simple, système périodique conservatif
(définition de « conservatif ») ;
Ni inscrite sur un tore, comme celle de systèmes quasi périodiques.
Dont la courbe d'évolution dans l'espace des phases converge (lorsque le
système est dissipatif) vers un attracteur étrange, courbe à structure fractale où
toute évolution qui commence reste confinée, mais ne peut être prédite avant
son départ, du fait de sa sensibilité aux conditions initiales.
104
A une évolution prévisible à long terme si on connaît toutes les fréquences
d'amplitude non négligeable de sa décomposition en série de Fourier ;
N'a la sensibilité aux conditions initiales d'un phénomène chaotique que
lorsqu'il est dissipatif, sur l'attracteur étrange vers lequel il converge.
105
Un régime périodique peut évoluer par des doublements successifs de sa
période sous l'effet d'un paramètre de contrôle, jusqu'à atteindre un point
d'accumulation où la période est infinie et où commence l'évolution chaotique.
On rencontre ce type d'évolution en dynamique des populations.
Un régime périodique peut devenir quasi périodique sous l'effet d'un paramètre
de contrôle. L'évolution correspond alors à 2 fréquences, puis peut-être à 3, etc.
Si ces fréquences sont indépendantes et incommensurables (l'une au moins
n'étant une fraction exacte d'aucune autre), le régime peut devenir chaotique.
Conclusion : une évolution déterministe peut passer d'un régime stable et prévisible à
un régime chaotique, imprévisible en pratique, sous l'influence de divers paramètres,
sans cesser d'être déterministe (et décrite par des équations différentielles ou des
équations à dérivées partielles). [281]
Le hasard n'est pour rien dans de telles fluctuations. Tous les phénomènes
périodiques composant un phénomène apériodique ont une évolution calculable, donc
prévisible. L'attribution au hasard vient de l'ignorance des auteurs, due en partie à la
rareté des phénomènes d'amplification catastrophique, qui gêne leur étude
scientifique. Encore une fois, la nature ne connaît le hasard que lors du choix d'un
élément dans l'ensemble des valeurs de la solution du modèle mathématique
d'évolution, valeurs toutes prédéterminées et à probabilités connues.
106
Amplification d'une fluctuation par franchissement de valeur critique
Une fluctuation exceptionnelle mais d'amplitude intrinsèquement modeste (comme
une fluctuation moléculaire) peut entraîner une évolution d'ampleur spectaculaire
lorsqu'elle fait franchir une valeur critique à un paramètre, mettant alors en jeu une
énergie importante et changeant une loi d'évolution par bifurcation dans l'espace des
phases. Exemples :
Un lac à l'eau très pure qui devrait être gelé est en surfusion à une température
largement inférieure à zéro degré C. S'il n'y a pas de vent, sa surface est très
calme. Si on y lance un caillou minuscule l'eau peut geler instantanément, avec
une énergie de solidification des millions de fois plus importante que l'énergie
apportée par la chute du petit caillou.
Un rocher de plusieurs milliers de tonnes est en équilibre instable à flanc de
montagne. Le gel peut déstabiliser une petite pierre située au-dessus, et cette
pierre en tombant va desceller le rocher qui va tomber à son tour, avec un
échange d'énergie potentielle en énergie cinétique infiniment supérieur à
l'énergie cinétique de la petite pierre.
Une variable macroscopique qui fluctue du fait d'évolutions microscopiques peut donc
subir :
Soit une évolution masquée par les incertitudes sur les autres paramètres
macroscopiques.
Soit une évolution amplifiée par une sensibilité à des conditions initiales et/ou
une bifurcation entraînant un changement de loi d'évolution ; des bifurcations en
cascade peuvent alors changer un système stable en système chaotique,
comme c'est le cas pour certaines formes de turbulence.
Dans ces cas d'amplification le hasard n'est pour rien : les conditions (énergie,
instabilité) du déclenchement du phénomène spectaculaire existaient au départ, un
paramètre à valeur critique dépendant d'un phénomène fluctuant plus modeste.
En parlant d'« effet papillon », le météorologue Edward Lorenz écrivait : "un
battement d'ailes d'un tel insecte peut changer le temps qu'il fera à des milliers de
kilomètres". Il voulait ainsi illustrer l'extrême sensibilité aux conditions initiales de
certains phénomènes atmosphériques, sujet que nous avons évoqué plus haut.
Mais il ne faut pas prendre son affirmation au pied de la lettre, les variables
météorologiques étant connues avec une précision très inférieure à l'erreur
produite en considérant le battement d'ailes du papillon comme négligeable.
L'effet d'amplification par bifurcation en un point singulier de l'espace des phases (un
paramètre franchissant une valeur critique) ou par changement de bassin d'attraction,
peut aussi intervenir lorsque d'un côté au moins de ce point l'évolution du système est
fluctuante, par exemple de manière apériodique. Il suffit alors d'une oscillation un peu
plus forte pour que la valeur critique soit franchie et le système évolue brusquement
de manière spectaculaire. Mais comme précédemment, l'évolution du système n'a
jamais cessé d'être prévisible, donc dénuée de hasard.
107
3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg
La Mécanique quantique montre qu'au voisinage de tout point de l'Univers l'énergie
potentielle n'est pas définie et stable, mais qu'elle a une plage de variation qui dépend
de la largeur de l'intervalle de temps où on l'observe : l'énergie peut varier d'autant
plus que l'intervalle de temps est réduit. Bien entendu, le principe de conservation de
l'énergie reste respecté en moyenne : un « emprunt » momentané d'énergie à l'espace
environnant est restitué l'instant d'après. Ce phénomène a été évoqué plus haut et l'est
plus en détail là. Nous avons vu que ce n'est une évolution aléatoire que selon la
définition de René Thom.
Bien que, pour une enceinte isolée, le 2 ème principe de la thermodynamique affirme
que son entropie ne peut que croître jusqu'au « désordre maximum », sa valeur
instantanée fluctue constamment un peu autour de ce maximum, du fait du
mouvement brownien des molécules. On peut donc se demander si cette fluctuation
d'entropie (c'est-à-dire d'organisation-désorganisation) n'est pas un exemple de
hasard dans la nature, comme le croît notamment Prigogine.
En fait, il n'en est rien. L'entropie n'existe pas dans la nature : c'est une abstraction
commode pour modéliser l'état d'organisation d'un ensemble de molécules. Ses
fluctuations n'existent que parce qu'on fait des calculs probabilistes sur des
populations de molécules, ce ne sont pas des réalités physiques comme une variation
de l'énergie totale, impossible pour un système isolé.
108
par seconde (10 000 en moyenne par molécule). Pour passer d'un état d'équilibre, où
les N molécules sont réparties aléatoirement dans une enceinte, à un état plus
organisé où elles sont toutes dans une moitié prédéfinie de l'enceinte, il faut alors
environ 1015 ans, soit environ 70 000 fois l'âge de l'Univers. Les expériences ont
confirmé qu'un système macroscopique isolé ne voit jamais son entropie décroître de
manière mesurable : il ne s'organise pas davantage tout seul.
Conclusions :
Il n'y a pas de hasard dans un phénomène macroscopique résultant de
phénomènes déterministes à l'échelle atomique. Le hasard auquel croient
certains est un hasard par ignorance due à l'impossibilité de mesurer et calculer
les évolutions élémentaires.
Les fluctuations ponctuelles d'une variable statistique comme l'entropie,
regroupant des milliards de réalisations d'une variable à l'échelle moléculaire,
ont une amplitude dont la probabilité varie exponentiellement en raison inverse
du nombre de ces dernières. Elle décroît donc si vite qu'aucune mesure ne peut
en détecter un effet à une échelle accessible aux expériences.
109
3.1.10.8 Domaines où on connaît des évolutions chaotiques
Les évolutions chaotiques d'un système peuvent intervenir dans de nombreux
domaines. Exemples :
En physiologie, le fonctionnement synchrone des cellules musculaires du cœur
peut se désynchroniser, provoquant une arythmie accompagnée d'une
tachycardie que l'on soigne par défibrillation et avec des médicaments comme le
Cordarone ou le Sotalex.
En dynamique des populations animales, la densité d'une population dépend de
facteurs internes comme la résistance aux agressions de l'environnement, la
fécondité ou les habitudes de vie, et de facteurs externes comme les ressources
alimentaires, les prédateurs, etc. Les interactions de tous ces facteurs sont
complexes et mal connues. Des modèles mathématiques simplifiés montrent
qu'une densité de population peut être stable, ou varier de manière périodique
ou même chaotique (exemple).
Les propriétés optiques d'un milieu sont affectées par des variations de sa
température, de sa densité ou de sa concentration en particules opaques. De
telles variations affectent la vitesse de propagation de la lumière dans le milieu,
donc son indice de réfraction, et déclenchent des phénomènes d'absorption ou
de diffusion à certaines longueurs d'onde. Si ces variations sont chaotiques, les
images vues à travers le milieu (par exemple en astronomie) peuvent être
fortement perturbées ; c'est ainsi que les mouvements atmosphériques,
l'humidité et la pollution brouillent la vision des télescopes.
La turbulence d'un fluide accroît souvent ses échanges de chaleur ou ses
réactions chimiques avec les parois. Nous avons plus froid, par exemple, dans
un vent en rafales que dans un air calme à la même température. Les poils sur
la peau de certains animaux diminuent les échanges de température et
d'humidité en diminuant la turbulence des mouvements d'air. La peau des
requins a des écailles dont la taille, la forme et la rugosité diminuent fortement
les frottements lorsqu'il nage, augmentant ainsi considérablement l'efficacité de
ses efforts.
110
Pour résoudre ce problème, Poincaré dut inventer une nouvelle branche des
mathématiques, la topologie algébrique. Cette science étudie les transformations
continues d'objets géométriques en utilisant des structures algébriques.
111
A'
B
P S
A
B'
Divergence des trajectoires d'un petit corps attiré par le Soleil S et une planète P
112
On a représenté sur le graphique :
en bleu, la suite commençant à x0 = 0.7 ;
en rouge, la suite commençant à x0 = 0.697, valeur très proche de 0.7.
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
8
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
50
52
54
56
58
Divergence par chaos déterministe de la suite x n+1 = 2xn (modulo 1)
pour x0 = 0.7 et x0 = 0.697
On voit que les deux suites, pratiquement confondues jusque vers n = 4, divergent
ensuite de plus en plus. Ensuite (surprise !) elles convergent l'une après l'autre vers
zéro, valeur atteinte respectivement pour n = 52 et n = 53 dont elles ne peuvent plus
ensuite s'écarter [34]. A partir d'une formule de calcul de la suite parfaitement
déterministe au sens traditionnel, nous avons ainsi créé une évolution irréversible, car
en partant de x100 = 0 (par exemple) on ne peut retrouver de terme xk0, ni avec
k > 100, ni avec k < 100.
3.1.11 Turbulence
Un phénomène physique turbulent :
A un comportement de chaos déterministe, donc ne devant rien au hasard. Il
apparaît dans la plupart des systèmes non linéaires par franchissement de
bifurcations successives dans l'espace des phases.
Est irrégulier à petite échelle (au sens dimension ou durée), mais plus régulier à
grande échelle, les comportements aux diverses échelles étant interdépendants.
Cette différence de comportement entre échelles caractérise la non-linéarité.
N'a ni régularité ni mémoire des états passés, ce qui en rend l'évolution
imprédictible malgré le caractère déterministe des équations différentielles de
113
son modèle mathématique (qui sont parfois des équations aux dérivées
partielles non linéaires). En pratique, l'intégration même numérique de ces
équations différentielles peut être si difficile qu'on recourt à des approximations
statistiques ou à une étude purement expérimentale.
Les facteurs qui facilitent l'établissement d'un écoulement turbulent d'un fluide sont un
nombre de Reynolds grand [293], un nombre élevé de degrés de liberté et la non-
linéarité du système d'équations différentielles de son modèle.
Nous avons besoin d'un principe de déterminisme adapté à toutes les évolutions de la
nature, connues ou à découvrir. Un tel principe doit aussi être compatible avec le
déterminisme scientifique et le déterminisme statistique, dont on ne peut nier la valeur.
Nous allons en construire un par induction à partir de propriétés de l'Univers, et nous
l'appellerons « déterminisme étendu ».
114
L'espace est homogène et isotrope : il a les mêmes propriétés en tout point et
dans toutes les directions. Cette affirmation est le « Principe cosmologique »,
posé en tant qu'hypothèse pour simplifier des calculs de Relativité Générale.
L'homogénéité et l'isotropie de l'Univers avant et après le « Big Bang » sont
prouvées avec une très grande précision par la découverte en 1965 du fond diffus
cosmologique [233] : la densité d'énergie de l'Univers primitif était la même en
tous ses points, mais il se produisait (et il se produit toujours) des fluctuations
quantiques dont sont nées les galaxies [313]. La théorie de l'inflation explique
l'extrême homogénéité constatée aujourd'hui à grande échelle (100 millions
d'années-lumière et plus).
Les lois physiques sont stables (invariantes) dans le temps et l'espace. On le
voit, par exemple, en astronomie : regarder loin, à 3 milliards d'années-lumière,
c'est voir à cet endroit-là ce qui se passait il y a environ 1 milliard d'années [38] ;
et on constate, alors, que les lois physiques étaient les mêmes que sur Terre
aujourd'hui. Cette stabilité est l'origine de la règle de stabilité associée au
postulat de causalité dans le déterminisme scientifique.
Même lorsqu'une loi varie avec le temps il y a toujours une loi stable qui décrit ou
même explique cette variation. Exemple : le rayon de l'Univers varie [38] ; on s'en
est aperçu en 1927 en découvrant son expansion, matérialisée par une vitesse
d'éloignement des galaxies lointaines qui croît avec leur distance, mais reste la
même dans toutes les directions. Puis on s'est aperçu que la loi de croissance de
ce rayon variait elle-même : l'expansion de l'Univers est de plus en plus rapide.
Enfin, on a prouvé par raisonnement qu'au commencement de l'Univers, une
petite fraction de seconde après le « Big Bang » et pendant un court très instant,
sa vitesse d'expansion a été extraordinairement rapide, des milliards de fois plus
rapide que la vitesse de la lumière [38].
(Remarque : la vitesse d'expansion de l'espace n'est en rien limitée par celle de la
lumière, c, car elle ne déplace ni matière ni énergie [313].)
Les lois physiques de l'Univers sont cohérentes (non contradictoires) ; elles se
complètent sans jamais se contredire. Elles respectent trois principes
fondamentaux de la logique [99], formulés par induction à partir d'observations
de la nature : principe de non-contradiction, principe du tiers exclu et principe
d'identité. Elles respectent aussi le principe d'homogénéité - [16-b].
Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain
niveau de détail sans jamais contredire une loi d'un autre niveau. Exemples :
Les lois de la thermodynamique, par exemple, s'appliquent à un niveau
macroscopique sans contredire les lois mécaniques des mouvements et
chocs des molécules du niveau atomique.
Le Principe de moindre action de Maupertuis [62] constitue une loi globale
de mouvement qui ne contredit pas les lois locales de Newton.
La nature est complète : elle a toutes les lois qu'il faut pour réagir à toutes les
situations et expliquer tous les phénomènes ; c'est le postulat de détermination
complète de Kant. Il n'y a pas de situation sans loi d'évolution, loi immuable.
Une cause donnée produit donc toujours le même effet, d'où le déterminisme.
115
3.1.12.1.2 Postulat de causalité
L'existence et la stabilité des lois de l'Univers nous suggèrent le postulat de causalité
qu'on peut résumer sous la forme :
Tout ce qui existe et tout ce qui se produit dans l'Univers a une cause et obéit à
des lois.
Ce postulat est légitime dans la mesure où il est vérifié par d'innombrables expériences
et n'est contredit par aucune (voir la construction empirique d'une axiomatique [241]).
D'après la définition de la vérité scientifique du rationalisme critique ce postulat peut
être considéré comme une loi de causalité jusqu'à preuve du contraire. Voir aussi le
principe de raison suffisante.
Fluctuations quantiques
Ce phénomène naturel (déjà signalé et décrit en détail plus bas) ne respecte ni le
postulat de causalité, ni la règle de stabilité ! Il survient brusquement, de manière
imprévisible, sans cause identifiable. C'est une fluctuation, instabilité dans le temps
traduisant l'impossibilité de définir l'énergie potentielle en un point de l'espace vide
avec une incertitude sur l'énergie et un intervalle de temps tous deux arbitrairement
petits. Ce phénomène important, puisqu'il est cause de la naissance des galaxies peu
après le Big Bang, échappe donc au déterminisme ; il est dû au hasard, si on définit
celui-ci comme René Thom. Du point de vue prédictibilité, on ne peut prévoir ni où une
fluctuation se produira, ni quand, ni avec quelle variation d'énergie. Et à part le cas de
l'évaporation des trous noirs, ce n'est pas une évolution car chaque fluctuation s'annule
d'elle-même rapidement en restituant l'énergie qu'elle a emprunté à l'espace
environnant.
Cet énoncé du principe de déterminisme étendu doit être compatible avec la définition
du déterminisme scientifique donnée précédemment (condition nécessaire et
116
suffisante et règle de stabilité) et avec celle du déterminisme statistique, bien que
subsistent les obstacles à la prédiction cités. Le déterminisme statistique (introduit
précédemment et décrit en détail plus bas) complète le déterminisme scientifique pour
constituer le déterminisme étendu.
Construction
Le déterminisme étendu, comprenant le déterminisme scientifique et le déterminisme
statistique, peut à ma connaissance régir toutes les lois de la physique, pour permettre
toutes les prédictions d'évolution possibles compte tenu des obstacles cités.
117
La validité pratique de cette approche résulte de son respect de la méthode
scientifique, qui ajoute des lois nouvelles aux lois existantes ou les remplace, au fur et
à mesure du progrès des connaissances. Concernant le déterminisme étendu, on
ajoute de nouvelles règles d'évolution des causes aux conséquences au fur et à
mesure que de nouvelles connaissances l'exigent, en excluant les redondances et les
contradictions.
118
Conclusion : lorsqu'on suppose qu'une loi d'évolution est stable il faut être prudent,
et d'autant plus prudent que l'on considère une période longue.
Considérations relativistes
J'explique, en décrivant les propriétés relativistes de l'espace-temps dans l'annexe de
ce livre, qu'un événement A ne peut être cause d'un événement B que si, dans le
diagramme d'espace-temps, B est à l'intérieur du cône de lumière de A, c'est-à-dire si
la lumière partant du lieu de l'événement A et se propageant à sa vitesse habituelle
(c = 299 792 458 m/s dans le vide) a le temps d'arriver au lieu de l'événement B avant
la survenance de ce dernier.
Si B est hors du cône de lumière de A, il ne peut avoir été causé par A ou l'avoir
influencé, et des lois physiques différentes pourraient s'appliquer aux lieux et instants
de A et B sans conséquence sur la cohérence de l'Univers pour des observateurs en
A ou B. Par contre un autre observateur, en C, capable de voir les deux événements
A et B (donc situé dans leurs deux cônes de lumière) pourrait s'apercevoir d'une
éventuelle différence entre les lois de la nature s'appliquant en A et en B si cette
différence n'était pas négligeable.
Donc, vue de la Terre à notre époque, une éventuelle variation d'une loi de l'Univers
peut être visible ou invisible, selon son emplacement et sa date dans l'espace-temps
de l'Univers.
119
aux échelles (de temps, de longueur, d'énergie, etc.) où nous pouvons en être
impactés. La règle de stabilité n'a donc pas besoin d'être absolue.
Mais nous n'avons nullement postulé que la loi L doit exister avant la première
survenance de la situation S. Si elle existait avant, cette loi serait, au moins
provisoirement, sans objet ; un idéaliste comme Platon pourrait en envisager
l'existence, un matérialiste non. Pour l'homme, une loi physique est une abstraction
destinée à décrire un phénomène ou son évolution, ou à calculer un résultat. Si
l'homme imagine une loi s'appliquant à des situations qui ne se sont jamais produites,
comme il peut toujours le faire, cette loi restera pure spéculation jusqu'à ce que ses
conditions d'application soient réunies, ce qui arrivera ou non. Donc :
Nous limiterons la période d'application de la règle de stabilité d'une loi
d'évolution au temps qui suit l'apparition de la première situation où elle
s'applique.
Une loi d'évolution d'une situation qui ne s'est jamais produite, et dont la
survenance n'est pas certaine, est pure spéculation car elle est sans objet ; et
son énoncé est infalsifiable [203].
120
Bref, notre principe de causalité est fait pour prévoir l'avenir à partir du passé ; il n'exige
nullement que la chaîne de causalité remonte à l'infini dans le passé, tant pis pour les
philosophes qui ne s'en sont pas aperçu et se sont crus obligés de postuler une
« cause première », une « cause sans cause » comme Dieu.
Rien n'interdit que l'Univers ait toujours existé, si toutes ses lois d'évolution sont
stables après leur première application. Rien n'oblige une loi d'évolution physique
d'avoir existé avant la première fois où il existe une situation à laquelle elle doit
s'appliquer ; la physique n'a pas besoin des Idées éternelles de Platon.
Nous allons donc, dans le reste de cette section, conjecturer que des situations
vraiment nouvelles (sans cause préalable) peuvent apparaître dans l'Univers, pour voir
si cela permet une explication plausible de situations nouvelles constatées sans en
contredire d'autres ; nous appellerons apparitions de telles situations. Une apparition
est nécessairement accompagnée de sa loi d'évolution, qui peut être nouvelle ou être
une évolution de loi préexistante applicable universellement désormais.
Affirmer qu'une situation est une apparition parce que nous n'en connaissons aucune
cause et qu'elle n'a pas d'équivalent peut, évidemment, résulter d'une ignorance de
notre part, et se trouver démenti ultérieurement ; l'existence d'apparitions n'est donc
qu'une conjecture, conséquence d'une restriction du postulat de causalité.
Voici quelques cas que l'on peut considérer aujourd'hui comme des apparitions.
La naissance de l'Univers
Rien ne prouve qu'elle résulte d'une situation préexistante dans un Univers extérieur
préexistant, par application de lois préexistantes. On peut conjecturer que les lois
d'évolution de l'Univers sont nées avec lui, car leur existence antérieure est pure
spéculation indémontrable et leur existence ultérieure une certitude.
L'inflation
La courte période dite d'inflation [313], peu après le commencement de l'Univers mais
avant le Big Bang, a vu une expansion de l'Univers fantastiquement rapide, dilatation
de l'espace des milliards de fois plus rapide que la vitesse de la lumière et
accompagnée de création de matière.
121
Nous ne connaissons pas la cause précise de l'inflation. Nous pouvons seulement
conjecturer qu'elle est due à une fluctuation quantique. Cette énergie a pu apparaître
sans cause, pendant un temps très bref, par transformation d'énergie potentielle du
milieu environnant. L'inflation s'est terminée par la situation que nous appelons Big
Bang, elle-même suivie d'une expansion de l'Univers à un rythme beaucoup plus lent
et sans création de matière, expansion qui se poursuit de nos jours. ([136] Tegmark)
122
Le déterminisme étendu constitue un pont entre science et philosophie destiné à mieux
comprendre ce qui est et mieux anticiper ce qui sera.
123
Toute évolution physique d'un système laisse invariante la quantité
d'informations qui le décrit (conséquence de la réversibilité de l'équation de
Schrödinger).
Dans la nature, l'instabilité peut constituer une cause d'évolution.
L'instabilité peut résulter d'une énergie cinétique traduisant la température,
source de l'agitation incessante appelée mouvement brownien.
L'instabilité peut se manifester par des fluctuations énergétiques ; il s'agit
alors d'une indétermination régie par le principe d'incertitude.
L'instabilité des systèmes non linéaires (par exemple les systèmes
dissipatifs comme les êtres vivants, en déséquilibre thermodynamique), peut
être source d'auto-organisation (comme l'évolution des espèces).
L'instabilité peut résulter d'une solution particulière d'un modèle d'évolution,
comme l'inflation de l'Univers qui résulte de la Relativité Générale [313].
L'instabilité peut résulter de la nature même d'un système dynamique ; ses
lois d'évolution peuvent changer en certains points de bifurcation. [281]
La nature ne connaît pas le concept humain de « résultat d'une évolution » et
elle n'a pas de finalité (contrairement à la doctrine idéaliste).
Par définition, un résultat (notamment la durée d'un phénomène) est l'ensemble
des valeurs des variables qui nous intéressent, nous hommes, considérées à un
instant donné. Il peut venir d'une ou plusieurs des évolutions déclenchées par
une cause donnée.
Une cause donnée ne fait que déclencher un ensemble d'évolutions, dont elle ne
garantit ni la prédictibilité des résultats, ni la précision de chaque résultat,
préoccupations strictement humaines.
Chaque évolution déclenchée est gouvernée par une loi physique, selon le
principe déterministe « les mêmes causes produisent les mêmes effets »,
principe qui implique ce qui suit :
La stabilité (l'invariance) des lois physiques dans le temps et l'espace (au
moins à l'échelle qui nous est accessible).
L'absence de hasard dans le choix de la loi d'évolution d'une situation.
En Mécanique quantique, lors d'une évolution dont le modèle peut avoir
plusieurs solutions, celles-ci constituent un ensemble prédéterminé, dont
chaque élément a une probabilité connue d'apparaître si on fait un grand
nombre d'expériences identiques.
Ce choix statistique d'une valeur est donc un type d'évolution naturelle
particulier, faisant passer d'une superposition de valeurs à une valeur unique.
C'est le seul cas, dans la nature, où le hasard intervient ; et même lui disparaît
avec la théorie à univers multiples de Hugh Everett.
Dans le cas d'une bifurcation, la loi choisie dépend d'un paramètre de
contrôle qui a une valeur critique au point de bifurcation.
En cas d'évolution sensible aux conditions initiales, le résultat est
imprédictible à long terme au départ du fait d'une amplification
mathématique d'inévitables imprécisions de calcul ou physiques.
124
La nature a toutes les lois qu'il faut pour réagir à toutes les situations. Elle
« n'improvise » jamais de conséquence et n'en « oublie » jamais.
Il n'y a pas dans l'Univers de situation parfaitement stable pour l'éternité,
situation sans loi d'évolution quelle que soit la variable d'état considérée.
Les lois physiques constituent un ensemble cohérent : leurs effets se complètent
sans jamais se contredire.
Exemple : les différentes trajectoires éventuelles d'une particule unique, qui les
emprunte toutes à la fois, sont parcourues à des vitesses telles que la particule
arrive en une fois à une destination unique, pas à plusieurs dates dépendant des
diverses trajectoires. Mais des différences de longueur de trajectoires peuvent
produire des interférences.
La nature ignore les concepts d'échelle d'espace ou de temps, qui ne sont que
des abstractions commodes de l'esprit humain : c'est le principe de
correspondance.
Une loi physique s'applique à toutes les échelles, mais ses effets peuvent
être négligeables ou trop difficiles à calculer à certaines échelles.
Certains phénomènes sont modélisés par des structures géométriques dites
fractales, qui ont la même forme quelle que soit l'échelle, c'est-à-dire « le
grossissement ».
Les lois physiques respectent un certain nombre de symétries (invariances)
résultant de l'uniformité de l'Univers (homogénéité du temps et de l'espace,
isotropie), de la symétrie droite-gauche de l'espace, etc.
Il y a aussi des concepts universels, qui seraient les mêmes aussi pour des
habitants d'une autre galaxie : nombre entier, point, ligne droite, etc., ainsi que des
principes de logique [99]. Le déterminisme ne peut que les respecter.
La causalité et le déterminisme tiennent compte de la Relativité, de la
Mécanique quantique, de l'Electrodynamique quantique et de la
Chromodynamique quantique, qui sont des lois de la nature.
La causalité et le déterminisme s'appliquent aux situations et aux évolutions
physiques de la nature, pas à la pensée humaine. Nous allons voir ci-dessous
que celle-ci est non-déterministe et imprévisible.
Conclusions
Ce n'est pas à la nature de s'adapter à notre besoin de représentations mentales
simples, c'est à nous d'adapter celles-ci et l'échelle que nous considérons à la nature,
même si ces représentations sont abstraites, probabilistes, imprécises ou
indéterminées.
Le déterminisme régit l'évolution qui résulte de la cause initiale ; il ne garantit pas que
le résultat de cette évolution puisse être prédit avant, ou mesuré après avec une
précision arbitraire : le déterminisme, toujours respecté par les lois de la nature, ne
garantit ni la prédictibilité du résultat ni la précision de sa mesure ; il garantit seulement
que la cause déclenche une évolution selon la loi qui s'applique.
125
Voir en fin de texte la table résumant les cas d'imprédictibilité.
126
de chaque pensée, d'enchaînement de pensées par analogie, induction, déduction et
synthèse, etc. Le fonctionnement de ces mécanismes psychiques ne se déduit pas
des seuls mécanismes physiques qui les supportent, on ne peut les décrire qu'en
ajoutant des algorithmes décrivant des pensées et leur enchaînement : « le tout est
plus riche que la somme des parties ».
Inconscient (voir aussi [353])- Mais l'inconscient entretient constamment des pensées
qui échappent à tout contrôle de la conscience. Il y a, par exemple, la formation de
valeurs de l'individu qui vont ensuite guider toute sa pensée et toutes ses actions en
définissant le sens psychique des situations ; exemple : "voler est mal". Toute pensée
qui a un tel sens produit à son tour des affects [253], comme tout ce qui est désiré ou
qui est redouté.
Il y a aussi un très grand nombre de vérités et d'opinions a priori, aussi
injustifiables logiquement (indécidables [6]) que les pensées relevant de l' « esprit de
finesse » (intuition, sagacité, etc. [66] - [141]), mais accessibles à la conscience. La
connaissance des processus inconscients progresse, mais elle est encore très
embryonnaire. (Détails)
127
d'évaluation au premier coup d'œil. Cette fonction est si automatique qu'on ne peut la
bloquer, et il faut l'effort d'un raisonnement délibéré pour en changer les conclusions.
Cet effort est d'autant plus important que la situation est complexe. L'homme doit alors
trouver un compromis entre la qualité d'une décision et sa rapidité. L'habitude de juger
au premier coup d'œil est si forte que, face à une situation complexe, l'homme adopte
souvent la première idée qui lui vient, sans prendre le temps de faire le tour des
paramètres et des contraintes du contexte. Beaucoup de citoyens, par exemple, votent
pour un programme électoral qu'ils n'ont pas analysé en détail, voire dont ils n'ont lu
que le nom du candidat et de son parti.
En toute rigueur :
La 1ère proposition ci-dessus "Tous les hommes sont mortels" implique à elle
seule la conclusion, puisque Socrate est un homme : en l'affirmant on sous-
entend qu'on est déjà certain de cette conclusion. La 2 ème proposition ne sert
donc qu'à expliciter le raisonnement pour le clarifier et préparer la conclusion,
elle n'ajoute pas d'information à la 1 ère.
Une proposition de type "Tous les…" sous-entend en principe qu'on a la certitude
pour tous les éléments de l'ensemble concerné, par exemple parce qu'on a vérifié
la proposition pour chacun d'eux ou qu'on l'a prouvée logiquement pour tout
l'ensemble qu'ils forment. Mais comme il y a de nombreux cas où une telle rigueur
est impossible (ici on ne sait même pas combien il y a d'hommes, on ne peut les
joindre tous pour vérifier, etc.) la proposition repose alors sur une induction : on
sait qu'elle est vraie pour un nombre d'éléments suffisamment grand pour postuler
qu'elle doit être vraie pour tous ; on prend le risque de généraliser.
128
Tout raisonnement logique, notamment toute démonstration, repose sur des
prémisses admises sans démonstration. Il peut s'agir d'axiomes, de
généralisations par induction, de certitudes acquises avant ce raisonnement, etc.
Un raisonnement peut, à l'occasion, comprendre une infinité d'étapes : on parle
alors par exemple de « régression à l'infini » ou de récurrence. Le raisonnement
peut être parfaitement valable et concluant si la suite infinie de déductions
converge vers une conclusion : voir le paragraphe Déterminisme et convergence
des processus et théories.
Nous verrons plus bas en détail pourquoi il y a une classe de phénomènes, dont la
pensée fait partie, qui en général ne sont pas déterministes. Notons pour le moment
qu'il n'y a pas de contradiction entre le caractère déterministe des mécanismes
neuronaux de la pensée, résultant de celui des mécanismes génétiques sous-jacents,
et son caractère non déterministe : entre les premiers et la seconde, il y a toute une
logique de fonctionnement dont la complexité, la non-conscience et la sensibilité au
contexte (santé, etc.) expliquent l'instabilité.
129
défini ci-dessus le jet d'un dé est un phénomène déterministe sensible aux
conditions initiales, pas un phénomène aléatoire.
Le résultat d'une évolution physique donnée n'est pas nécessairement unique, il
peut s'agir d'un ensemble ; le déterminisme étendu exige seulement qu'une cause
donnée déclenche toujours le même phénomène ; son résultat peut avoir
plusieurs éléments lorsque le modèle mathématique qui le décrit a plusieurs
solutions. Seul le choix d'un élément unique de l'ensemble-résultat produit par une
évolution donnée peut être statistique, et cette évolution ne se produit qu'en
Mécanique quantique, sous le nom de décohérence.
Conclusion : la nature a ses propres limites ; elle ne permet pas toujours la
prédictibilité que l'homme souhaite, avec une solution unique et une précision
parfaite. C'est pourquoi, par exemple, la position et la vitesse d'un électron en
mouvement ne peuvent être connues qu'avec des probabilités dans un volume
autour de chaque point.
Le résultat d'un algorithme [69] calculé par un ordinateur est nécessairement
déterministe [114]. Le fait que la succession des décimales de Pi n'ait aucune
régularité connue, c'est-à-dire qu'elle semble aléatoire [98] bien que calculable
par un algorithme, montre qu'un algorithme peut générer des suites de nombres
paraissant aléatoires malgré son déterminisme (le caractère aléatoire n'est que
probablement vrai pour Pi, car aucun contre-exemple n'a jamais été trouvé et
nous avons vu qu'il n'existe pas de critère rigoureux de caractère aléatoire d'une
suite de nombres). Les logiciels générateurs de nombres « aléatoires » sont très
utilisés en informatique et pour concevoir des expériences de physique.
Nous verrons que la calculabilité d'un algorithme exige le déterminisme, mais la
modélisation informatique d'un processus déterministe ne conduit pas
nécessairement à un algorithme calculable. (Détails sur la calculabilité : [114])
Si, par une nuit noire, un désespéré se jette du haut d'un pont dans un fleuve
pour se noyer, et qu'un homme qu'il n'a pas vu plonge et le sauve, le sauvetage
était imprévisible. C'est un cas de déterminisme où il y a rencontre de deux
chaînes de causalité indépendantes (celles des deux hommes).
130
Chaîne de causalité unique du déterminisme traditionnel
Nous savons que pour le déterminisme philosophique, tout état d'un système a une
infinité de prédécesseurs et de successeurs, l'ensemble constituant une chaîne de
causalité unique, où chaque état a un prédécesseur unique et un successeur unique
[200]. L'avenir qui suit la situation à un instant t donné ne dépend que de cet instant-
là, on peut le prévoir à partir de cet instant-là sans tenir compte du passé qui précède
l'instant t, et le passé d'un présent donné peut être reconstitué en pensée.
Symétrie temporelle
La symétrie temporelle est une propriété des fonctions et équations invariantes quand
on inverse le sens du temps, ce qui revient à "dérouler à l'envers" le fil des
événements, du présent vers le passé.
Toutes les évolutions dues à une interaction électromagnétique ou une interaction
forte [18] sont régies par des lois symétriques par rapport au temps.
L'équation de Schrödinger, qui régit en principe toute évolution de système isolé
dans le temps et l'espace, est également réversible : elle permet, en théorie, de
reconstituer l'état passé du système. C'est pourquoi tout se passe comme si la
nature « se souvenait » de ses états passés, c'est-à-dire en conservait
l'information.
Réversibilité physique
La réversibilité physique est une propriété des évolutions ou transformations d'un
système ; exemple d'évolution : une réaction chimique. Lorsqu'une évolution
réversible change de sens, le temps continue à s'écouler dans le même sens, du
présent vers l'avenir.
131
Remarque philosophique sur la réversibilité
Dans [215] page 121, André Comte-Sponville cite l'Ethique à Nicomaque d'Aristote :
"Il y a une seule chose dont Dieu même est privé,
C'est de faire que ce qui a été fait ne l'ait pas été."
Il rappelle ainsi qu'on ne peut faire qu'un événement du passé n'ait pas eu lieu, même
si on aimerait bien qu'il n'ait pas eu lieu ; on ne peut pas, non plus, faire que le présent
soit autre que ce qu'il est : c'est le principe d'identité [16]). Mais la réversibilité ne
revient pas sur le passé, elle recrée le passé en effectuant une transformation en sens
inverse sans pour autant changer le sens du temps ; c'est une possibilité déterministe,
où l'action d'une loi réversible de la nature fait bien passer du présent au futur par une
évolution inverse de celle du passé.
Une équation qui décrit l'évolution d'un phénomène irréversible ne peut ni être
invariante par changement de sens du temps, ni avoir un domaine de validité
permettant d'envisager ce changement de sens.
132
Ni concernant la possibilité d'une inversion du sens d'écoulement du temps
qui permettrait de revenir à une situation physique du passé ;
Ni concernant la possibilité de phénomènes réversibles.
Attention : le terme « symétrie » est souvent utilisé par les physiciens pour parler
d'invariance.
La symétrie temporelle change le sens des vitesses, mais pas celui des accélérations ;
et elle ne change ni les grandeurs (valeurs absolues), ni les déplacements, ni la
vitesse, ni l'accélération.
Exemple
L'interprétation de cette symétrie se comprend dans l'exemple suivant. Supposons que
sur la Lune, donc en l'absence de frottements atmosphériques, on lance à l'instant 0
une balle à partir du sol avec un angle de 45° vers le haut et une vitesse dont chacune
des deux composantes, horizontale et verticale, vaut 2m/s. La balle décrit une
parabole d'axe vertical conforme à la loi :
x = 2t (1)
y = -½ gt² + 2t
Supposons qu'à l'instant t = 2s on relance la balle vers le haut avec une vitesse
opposée à celle qu'elle avait en arrivant : une vitesse horizontale de -2m/s et une
vitesse verticale de +1.27m/s. Si on choisit comme nouvel instant 0 l'instant de la
relance, la balle décrira une parabole d'axe vertical conforme à la loi :
x = -2t + 4 (2)
y = -½gt² + 1.27t + 0.73
On remarque que cette nouvelle parabole a le même coefficient -½g du terme t² que
la première, la fonction y(t) ayant la même dérivée seconde, comme prévu. A l'instant
t = 2 depuis la relance, la balle arrive au sol (x = y = 0).
133
y = (-1/8)gx² + x (3)
y = (-1/8)gx² + x (4)
Les deux trajectoires (3) et (4) sont bien identiques. La balle a parcouru au retour
exactement la même parabole qu'à l'aller, mais en sens inverse. On a donc bien une
symétrie par rapport au temps permettant de « dérouler le film des événements à
l'envers ».
Un système qui n'est pas conservatif (qui échange de l'énergie avec l'extérieur) est dit
dissipatif. Les équations différentielles qui en décrivent l'évolution changent lorsqu'on
remplace t par -t.
Une force est dite conservative si et seulement si le travail qu'elle produit lorsque son
point d'application se déplace de A à B est indépendant du chemin suivi ; elle dépend
alors d'un potentiel. Exemple : une force centrale (dépendant de l'attraction ou de la
répulsion d'un point, le centre, comme la force de gravité du Soleil ou la force électrique
d'un noyau atomique) est conservative (exemple : [313]).
Une force qui ne dépend pas d'un potentiel est dite dissipative. Lorsque son point
d'application se déplace de A à B, son travail dépend du chemin suivi.
134
Mais le principe de correspondance fait qu'aucune loi de portée donnée ne peut
faire évoluer une même situation de manière différente de celle d'une loi d'une
autre portée : la nature est cohérente.
Grouper un certain nombre de variables, en précisant une loi d'évolution globale
qui interdit de connaître l'évolution d'une des variables prise isolément ; nous
verrons cela ci-dessous avec le déterminisme statistique, les variables
complémentaires de la Mécanique quantique et ses particules corrélées.
Nous avons évoqué plus haut l'origine des échelles multiples du déterminisme.
3.3.3.3 Quasi-cristaux
Dernier exemple de déterminisme global (ou plus exactement « à grande distance ») :
la structure atomique des quasi-cristaux, dont la découverte par Daniel Schechtman a
été récompensée par le Prix Nobel de chimie 2011 [308]. Dans un cristal « normal »
la construction (cristallisation) se fait par ajout d'atomes un par un, à des
emplacements compatibles avec les atomes voisins, pour respecter des motifs simples
comme les symétries de rotation d'ordre 2, 3, 4 ou 6, les seules permises par la théorie
traditionnelle [149]. Dans un quasi-cristal (forme de matière découverte fortuitement
en 1984 et dont on connaît aujourd'hui plus de 100 variétés) la structure des atomes
est déterministe (non aléatoire), fortement ordonnée à grande distance (et non pas par
rapport aux seuls atomes voisins) et avec des symétries de rotation interdites par la
135
théorie des cristaux normaux. On trouve ainsi, par exemple, des symétries de rotation
en icosaèdre, solide régulier dont les 20 faces sont des triangles équilatéraux ! [147]
Tout se passe dans la construction d'un quasi-cristal comme s'il existait des
phénomènes de Mécanique quantique à grande distance caractéristiques d'un nouvel
état de la matière. Nous n'entrerons pas dans le détail du phénomène complexe et
insuffisamment connu des quasi-cristaux, car ce qui nous intéresse du point de vue
déterminisme apparaît suffisamment dans ce qui précède : il existe des phénomènes
dont le déterminisme est global et prend en compte des éléments beaucoup plus
nombreux ou plus éloignés que ceux auxquels on s'attend d'après le déterminisme
classique local. En outre, la Mécanique quantique s'applique aussi à des phénomènes
à une échelle bien plus grande que l'échelle atomique.
136
3.3.3.6 Caractère humain, artificiel, de la notion d'échelle
La notion d'échelle est une abstraction humaine dont la nature n'a que faire. L'homme
s'en sert pour mieux se représenter les situations et les phénomènes, notamment
lorsqu'il compare une chose à une autre. Mais la nature ne juge pas que quelque chose
est "grand" ou "petit" par rapport à autre chose ; dans chaque situation elle applique
la loi d'évolution qui convient : elle prend en compte l'ensemble des paramètres qui
s'appliquent, que l'homme considère cet ensemble comme local ou global,
macroscopique ou microscopique.
Dire qu'entre deux valeurs d'une même variable la différence relative est minime, car
elle n'est que de 10-15 (un millionième de milliardième), n'a pas de sens pour la nature.
Si cette différence suffit pour qu'une évolution soit autre, elle le sera d'après le principe
d'identité [16].
L'intérêt pratique des algorithmes vient de leur aptitude à modéliser un processus réel
dans des domaines aussi variés que la physique ou la dynamique d'une population.
Cette modélisation permet à la fois d'expliquer des phénomènes constatés et de
prévoir des évolutions : ses modèles sont déterministes.
Qu'il ait pour but de comprendre quelque chose, de prévoir une évolution et son
résultat ou de démontrer une proposition, un raisonnement d'une science exacte prend
toujours la forme d'un algorithme. Un algorithme étant par nature déterministe, un tel
raisonnement l'est toujours. Nous verrons plus bas qu'il existe des cas où l'on peut
démontrer à la fois qu'un nombre existe et qu'on ne peut pas le calculer ; la
démonstration d'existence est alors un algorithme déterministe auquel on ne pourra
jamais associer un algorithme de calcul de valeur.
137
Selon le déterminisme philosophique, appelé aussi "déterminisme de Laplace" [200] :
La chaîne de causalité reliant diverses situations qui se suivent dans le temps
est unique (il n'y a ni processus parallèles, ni rupture de la chaîne de causalité).
L'avenir est écrit d'avance et prédictible ;
Le passé d'une situation donnée peut être reconstruit en pensée sans ambiguïté.
Dans la mesure où on est certain à l'instant t de la situation S(t), le déterminisme
philosophique permet à la fois d'énoncer l'enchaînement d'événements après la
situation S(t-a) qui a conduit à S(t), et de prédire que S(t+b) se produira à
l'instant t+b.
3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution
138
Du point de vue causalité, les deux énoncés suivants sont équivalents :
Une cause donnée a une conséquence (évolution) unique pouvant produire
un ensemble de résultats simultanés ;
Une cause donnée a un ensemble de conséquences simultanées, chacune
pouvant produire un résultat unique.
Cette pluralité contredit le déterminisme philosophique, car elle remplace la
chaîne de conséquences unique par une arborescence de conséquences ; et
comme l'existence d'un seul contre-exemple fait qu'une loi proposée est fausse,
le déterminisme philosophique doit être considéré comme réfuté.
L'erreur de ces philosophes résulte peut-être de leur idéalisme, qui cherche à prouver
l'existence d'une idée abstraite à la base de toute réalité concrète, pour nier celle-ci ou
en faire une production de l'esprit humain ou divin. Ils déduisent donc de l'intervention
139
obligatoire et déterminante de l'expérimentateur - qu'ils ont affirmée à tort - que la
réalité objective n'existe pas, puisqu'elle n'existe qu'à travers l'expérimentateur ! Un
exemple d'une telle erreur d'idéaliste est donné plus bas.
140
Enfin, en tant que doctrine matérialiste, le déterminisme nie l'existence de
phénomènes qui font intervenir des causes surnaturelles (transcendantes), c'est-
à-dire externes à notre Univers ou échappant à ses lois physiques. Il refuse
d'envisager une éventuelle intervention surnaturelle dans l'apparition et le
déroulement des phénomènes, ainsi qu'une finalité éventuelle imposée au
déroulement des phénomènes par un Esprit transcendant qui dominerait la
matière.
Croire au déterminisme est une attitude rationnelle [210], scientifique, qui postule
l'existence d'une réalité objective indépendante de toute idée et opinion humaines et
la possibilité pour l'homme de la trouver, souvent par approximations successives
résultant de critiques. Cette attitude s'oppose à la croyance dans des vérités révélées
sans preuve (et d'ailleurs infalsifiables [203]) par une religion ou une philosophie,
vérités qui prétendent expliquer le monde et comptent sur l'intuition ou l'obéissance de
certains pour les convaincre, au lieu d'en appeler à leur raison et leurs connaissances
factuelles, vérifiables et objectives.
141
Une perte d'estime de soi (car « on n'est pas à la hauteur ») et des tendances
nihilistes (rien n'a de valeur, rien ne mérite d'effort et de respect).
L'impossibilité de prendre une décision ou l'obligation de décider sans savoir,
donc de prendre un risque non calculé.
La première cause d'une telle peur est l'ignorance : tout homme a instinctivement peur
de ce qu'il ne connaît pas, notamment lorsqu'il imagine alors le pire. Et la peur entraîne
souvent le rejet de l'autre, le refus de le respecter, de dialoguer avec lui, de lui faire
confiance, de lui offrir du travail ; c'est une des sources de l'exclusion, de la xénophobie
et du racisme.
Beaucoup de Français ont une peur irraisonnée des nourritures contenant des OGM.
Ils ne savent pas que, rien qu'en Amérique du Nord, plus de 400 millions de personnes
en mangent depuis les années 1980 sans qu'aucune pathologie n'en ait résulté.
Beaucoup ont aussi peur des ondes radio des téléphones portables, de l'énergie
nucléaire, etc.
Nous sommes le seul peuple à s'être ridiculisé en mettant dans notre Constitution
le « principe de précaution », qui oblige l'Etat à intervenir en cas de danger
environnemental grave, comme s'il fallait une telle loi pour faire respecter l'évidence.
Ce principe a servi à des juges pour faire démonter des antennes de téléphonie
simplement parce que des riverains en avaient peur : merci, président Chirac !
Savoir paie
Des études sociologiques approfondies ont montré que la plus grande longévité des
intellectuels (cadres, enseignants, professions libérales…) par rapport aux travailleurs
manuels ne vient pas, comme l'affirment les syndicats, d'une différence de pénibilité
du travail. Elle vient d'une différence d'instruction : connaissant mieux les règles
d'hygiène de vie que les manuels, les intellectuels ont une meilleure santé qui entraîne
une plus grande longévité ; en notre siècle, celui qui ne sait pas vit moins bien et moins
longtemps.
142
Accumuler une expérience utile et espérer en avoir de plus en plus avec le
temps ; et savoir, c'est pouvoir ;
Prendre la meilleure décision possible, d'où un sentiment de satisfaction (savoir
est indispensable pour être satisfait).
Cette contrainte d'impossibilité est très générale : aucun énoncé ne peut se décrire lui-
même ou se comparer à lui-même, par exemple pour se juger par rapport à la vérité.
Toute description d'une notion doit se faire à partir d'autres notions ; toute comparaison
d'un objet a besoin de faire référence à au moins un autre objet. (Voir détails et solution
dans [220].)
143
description et comparaison nécessiteraient des énoncés à axiomatique externe à
l'Univers (inconcevable pour nous, êtres de l'Univers) ou faisant référence à une vérité
absolue (à supposer que celle-ci existe, débat que nous abordons dans [220]).
L'ensemble des énoncés basés sur les axiomes est donc nécessairement incomplet :
notre connaissance scientifique de l'Univers ne peut ni être complète, ni contenir des
connaissances externes à cet Univers, ni comparer des concepts scientifiques de
notre Univers à des concepts ou des vérités qui seraient externes ou absolus comme
Dieu, Ses qualités et Ses pouvoirs.
144
s'agitent sans cesse du fait de leur température) il faut 6X variables pour décrire toutes
les positions et vitesses des molécules du système, qui a 6X degrés de liberté.
Le nombre de degrés de liberté peut être réduit par des contraintes comme :
L'obligation de se déplacer à la surface d'une sphère (la position n'a plus, alors,
que deux degrés de liberté, appelés par exemple longitude et latitude) ;
L'obligation de tourner autour d'un axe, comme un pendule oscillant, dont la
position peut être décrite par une seule variable, l'angle avec la verticale.
Plus généralement, si l'état d'un système est décrit par N variables et C contraintes,
on dit qu'il a N-C degrés de liberté.
Conséquences
Agitation thermique - Mouvement brownien des molécules
Nous avons déjà vu que l'énergie cinétique d'un atome ou d'une molécule
est proportionnelle à sa température absolue. Celle-ci étant toujours
supérieure au zéro absolu, atomes et molécules ne peuvent s'empêcher de
bouger ! Dans un solide, chaque atome vibre et/ou oscille autour d'une
position moyenne. Dans un liquide ou un gaz, où chaque molécule est
entourée de vide, les diverses molécules bougent sans cesse en
s'entrechoquant et en rebondissant sur les parois de temps en temps : on dit
qu'elles sont en mouvement brownien. Il est remarquable que les chocs
entre les molécules et sur les parois soient parfaitement élastiques et sans
perte d'énergie par frottement, et que la température soit une cause
nécessaire et suffisante de mouvement : tout cela n'avait rien d'intuitif et
notre déterminisme doit en tenir compte.
L'énergie cinétique d'une molécule ne dépend pas de la masse moléculaire,
résultat qui n'a rien d'intuitif puisqu'on aurait tendance à penser qu'une molécule
plus lourde emmagasine plus d'énergie cinétique qu'une plus petite. C'est ainsi
qu'une molécule d'oxygène pesant 16 fois plus qu'une molécule d'hydrogène a la
même énergie cinétique qu'elle à une température T donnée. Comme une
énergie cinétique donnée Ec est reliée à la masse m et la vitesse v par la formule
Ec = ½mv2, à une masse 16 fois plus grande correspond une vitesse moyenne 4
fois plus petite, car 42 = 16 : à température égale, une molécule d'oxygène se
déplace 4 fois moins vite qu'une molécule d'hydrogène.
145
Equipartition de l'énergie potentielle
La règle d'équipartition de l'énergie s'applique aussi à l'énergie potentielle éventuelle
des molécules (due par exemple à un champ de force comme un champ électrique ou
un champ gravitationnel [313]) : chaque degré de liberté associé à une énergie
potentielle apporte, lui aussi, une énergie de ½kT, portant donc l'énergie totale à 3kT
par molécule ou atome de solide. C'est ainsi qu'un atome d'un corps à l'état solide qui
vibre autour de sa position moyenne a une énergie moyenne totale de 3kT, cette
vibration permanente et sans frottement étant la manifestation de la température du
solide. L'énergie potentielle affectant les atomes du solide est due aux forces de liaison
entre ces atomes en équilibre, forces attractives et répulsives.
𝑑2 𝑔
+ 𝑠𝑖𝑛 = 0
𝑑𝑡 2 𝑙
Cette équation, non linéaire à cause du sinus, le devient lorsque, l'angle étant petit,
on peut l'assimiler à son sinus ; le mouvement prend alors la forme :
Dans un espace des phases rapporté aux axes et ' avec des unités judicieusement
choisies, la courbe d'évolution dans le temps de l'angle du pendule est un cercle,
parcouru une fois à chaque période d'oscillation (figure suivante).
146
'
-0 0
147
P
A B
148
Chaque point de l'espace des phases représente l'état du système à un instant donné.
Ces états ne sont pas nécessairement équiprobables : à un instant donné t, ou entre
deux instants t1 et t2, chaque point isolé P a une certaine probabilité d'être atteint et
chaque point non isolé Q (c'est-à-dire entouré d'autres points associés à des états
possibles) a une certaine densité de probabilité associée [28].
149
Particules de fer alignées le long des lignes de force du champ d'un aimant rouge
Dans l'espace des phases d'un système, chaque courbe représentant une évolution
dans le temps est une ligne de force de l'espace : en tout point d'une telle courbe,
l'évolution se fait selon la tangente en ce point.
En général cette tangente est unique, sauf éventuellement en un petit nombre de
points singuliers comme :
Un point d'équilibre, où le système n'évolue pas ;
Un point de bifurcation, où la loi d'évolution change en fonction d'un
paramètre externe.
L'unicité de la tangente en tout point non singulier de la courbe d'évolution d'un
système illustre une propriété de son déterminisme : le modèle mathématique
représentant l'évolution du système a une solution unique, une situation donnée
ne peut évoluer que d'une seule façon.
Lorsqu'une situation donnée peut évoluer de plusieurs façons distinctes, les
évolutions possibles sont représentées par des courbes distinctes de l'espace
des phases. A partir d'une certaine situation, correspondant par exemple à une
valeur critique d'un paramètre, l'évolution peut présenter une bifurcation, avec
des branches distinctes issues d'un même point ; elle peut aussi présenter une
discontinuité. Au-delà de ce point, elle se poursuit selon une courbe ou une
autre, la courbe choisie dépendant de la valeur du paramètre critique.
C'est le cas, par exemple, pour des écoulements de fluides dont le paramètre
critique est le nombre de Reynolds [293], proportionnel à la vitesse ; selon la
valeur de ce nombre, l'écoulement peut être turbulent ou non ; il peut même
produire des oscillations périodiques de pression à la fréquence du décrochement
des tourbillons, oscillations que l'on entend par exemple dans le bruit des
éoliennes ; mais de toute manière, il reste déterministe.
150
3.5.2.3 Stabilité de l'évolution d'un système conservatif
Lorsqu'un système conservatif évolue, ses états successifs décrivent une courbe
(ligne de force) de l'espace des phases à 2n dimensions rapporté aux coordonnées :
positions généralisées qi (i=1,2…n) et moments cinétiques généralisés pi (i=1,2…n).
Le théorème de Liouville démontre que, lors de cette évolution, l'aire d'un petit élément
de surface qipi de l'espace des phases se conserve, sans nécessairement que
l'élément de surface conserve la même forme ; cette aire reste la même qu'à l'instant
initial t0 de l'évolution. Des conditions initiales d'évolution très voisines sont
représentées par des points très voisins de l'espace des phases, points qu'on peut
englober dans un élément de surface petit ; lors de l'évolution, l'aire de cet élément se
conserve et reste petite.
Dans un espace des phases qui n'a que deux dimensions, q et p, la conservation
de l'aire d'un petit élément de surface au cours de l'évolution a pour
conséquence que des trajectoires d'évolution parties de points voisins restent
proches. Il y a là une forme de stabilité : une petite variation des conditions
initiales n'entraîne qu'une variation petite des évolutions correspondantes.
Mais dans un espace des phases qui a plus de deux dimensions, quatre par
exemple, la conservation de l'aire d'un petit élément de "surface" q1p1q2p2
peut aussi être obtenue lorsque cet élément rétrécit fortement pour un couple de
variables tout en s'allongeant fortement pour l'autre. C'est le cas, par exemple, si
q1 varie dans le temps comme e at tandis que q2 varie comme e-at, le produit
eate-at restant égal à 1. Deux trajectoires d'évolution parties de points très
proches peuvent alors diverger considérablement au bout d'un certain temps,
traduisant une instabilité du système par hypersensibilité aux conditions initiales.
Cette propriété mathématique a des conséquences physiques souvent
spectaculaires.
Une prédiction d'évolution par extrapolation à partir de conditions où une évolution est
stable risque donc d'être gravement faussée lorsqu'elle concerne des conditions où
l'évolution est instable sans qu'on le sache. Même une prédiction par interpolation
risque d'être fausse si elle se base sur deux points A et B de l'espace des phases où
les lois d'évolution sont différentes, par exemple parce qu'il y a un point critique entre
A et B.
Il est évident que les prédictions par extrapolation et interpolation supposent la stabilité
des lois d'évolution, qui fait partie des hypothèses de base du déterminisme
scientifique ; oublier cette contrainte conduit à des erreurs de raisonnement. Les
paragraphes suivants montrent des cas d'instabilité d'une loi physique d'évolution.
151
3.5.2.5 Système dissipatif par frottements - Attracteur
Beaucoup de systèmes physiques qui évoluent sont soumis à des frottements,
internes ou externes, qui leur font perdre de l'énergie. Exemple : lorsque le pendule
simple de l'exemple 1 précédent est soumis à une force de frottement proportionnelle
à sa vitesse angulaire et de sens opposé, son évolution dans l'espace des phases
rapporté aux axes et ' est décrite par une spirale qui converge vers l'origine ='=0
lorsque t∞ : l'oscillation finit par s'arrêter.
Il est très remarquable, alors, que les courbes d'évolution dans l'espace des phases
convergent toujours vers le même point, l'origine, quelles que soient les conditions
initiales ; ce point est appelé « attracteur ». En outre, l'aire d'un petit élément de
surface de cet espace diminue en moyenne au cours d'une évolution, propriété
cohérente avec la convergence des courbes d'évolution vers un attracteur. Comme
dans le cas des systèmes conservatifs, cette diminution en moyenne d'aire peut avoir
lieu avec divergence dans une direction de l'espace et convergence plus rapide dans
une autre.
Par contre, l'évolution d'un système conservatif dépend des conditions initiales et ne
converge pas vers un attracteur.
152
Discussion déterministe
Du point de vue du déterminisme scientifique, il arrive qu'une loi d'évolution :
Dont on ignore la convergence vers une loi-attracteur, ou qu'on considère avec
un horizon de prévision d'évolution assez court, ne respecte pas le critère de
stabilité dans le temps. On doit alors la considérer comme non déterministe.
Dont on sait qu'elle converge vers une loi-attracteur, peut être considérée
comme déterministe dans le cadre d'une prévision d'évolution à long terme.
Exemple. Un satellite placé sur une orbite basse perd peu à peu de l'altitude du fait du
frottement avec la haute atmosphère. Son orbite, elliptique sur quelques semaines, est
en fait une spirale descendante ; sa vitesse de descente accélère même au fur et à
mesure que son altitude lui fait rencontrer des couches d'air plus denses. Pour le
maintenir le plus longtemps possible sur l'orbite désirée (et pour contrôler son
orientation) on prévoit d'éjecter un peu de gaz de temps en temps, mais le réservoir
de gaz s'épuise tôt ou tard, limitant la durée de vie du satellite.
153
La période d'évolution due à la rotation de la Terre autour du Soleil (une
année, soit 365.2425 jours) ;
La période d'évolution due au mouvement de précession de l'axe de rotation
de la Terre, qui décrit un cône en 25800 ans ;
La période d'évolution due au mouvement de nutation de l'axe de rotation de
la Terre, mouvement qui le fait osciller légèrement de part et d'autre de son
cône moyen de précession (période 19 ans).
Lorsqu'un système à évolution quasi périodique est dissipatif, l'évolution converge vers
un attracteur torique. C'est ainsi que l'évolution d'un système à deux fréquences de
base converge vers une courbe attracteur tracée à la surface d'un tore dans l'espace
habituel à 3 dimensions ; la courbe a deux fréquences de rotation : celle autour de
l'axe du tore et celle autour de la ligne centrale de son "cylindre".
Si on connaît une évolution par une suite de valeurs mesurées à des instants
successifs, qu'on ne connaît pas la cause de cette évolution, et que la suite de valeurs
ne présente aucune régularité au test d'autocorrélation, on peut être tenté de l'attribuer
154
à un hasard postulé. S'il s'agit d'un phénomène naturel, il faut pourtant se garder de le
faire, ces phénomènes relevant tous du déterminisme étendu, où le hasard n'intervient
qu'en tant que choix d'un élément d'un ensemble de solutions du modèle du
phénomène ou en tant que conséquence d'un excès de complexité ; et l'évolution du
phénomène peut être apériodique ou chaotique, nous le verrons plus bas. Il vaut donc
mieux chercher scientifiquement à comprendre le phénomène.
Un tel attracteur est dit « étrange » parce que la dissipation d'énergie y fait converger
les courbes d'évolution en même temps que la sensibilité extrême aux conditions
initiales y fait diverger des évolutions commençant en des points très voisins.
155
Le chaos déterministe est donc un type d'évolution dont le résultat est calculable, mais
seulement quand il est trop tard, ce qui le rend inutilisable. Cette évolution n'est pas
quelconque (au hasard), elle respecte la position sur l'attracteur étrange (quand le
système est dissipatif) et les lois physiques, notamment celles de la thermodynamique.
𝑑𝑥
= 𝑝( 𝑦 − 𝑥 )
𝑑𝑡
𝑑𝑦
= −𝑥𝑧 + 𝑟𝑥 − 𝑦
𝑑𝑡
𝑑𝑧
= 𝑥𝑦 − 𝑏𝑧
𝑑𝑡
Dans un espace des états où l'un des axes représente le paramètre à valeur critique
, et un autre axe une grandeur caractéristique x de la loi d'évolution considérée, la
courbe représentant x en fonction de présente une bifurcation au point critique =c ;
cette bifurcation peut présenter deux ou plusieurs branches. Le point critique est un
point singulier du diagramme des phases. Une bifurcation correspond à la transition
d'un premier bassin d'attraction avec son attracteur à un autre bassin d'attraction avec
son attracteur.
156
Il peut ainsi arriver que, tant que <c, un système dissipatif évolue vers un point
attracteur, et dès que >c il évolue vers un cycle limite. La valeur =c est appelée
valeur critique du paramètre . Lorsque celui-ci franchit la valeur c, la solution des
équations d'évolution change. Ce changement peut être progressif, par exemple
lorsque la courbe d'évolution du système passe de la convergence vers un point
attracteur à la convergence vers un cycle limite de taille ponctuelle, qui grossit à
mesure que s'éloigne de c. Le changement peut aussi faire passer d'une évolution
stable à une évolution instable, où l'une des variables de l'espace des états grandit
indéfiniment. On voit aussi sur l'exemple de la bifurcation le danger d'extrapoler ou
interpoler. Au sujet des bifurcations, voir aussi la turbulence [300].
Exemple. Le diagramme des phases d'un corps pur comme l'eau ci-dessous
représente les courbes de changement d'état en fonction du couple de variables
température et pression :
1 – courbe de sublimation
2 – courbe de fusion
3 – courbe de vaporisation
Pour une température et une pression au-delà du point critique, le changement de
phase entre liquide et gaz se produit sa façon continue, sans qu'une surface
séparatrice apparaisse. Au point triple, les trois phases coexistent.
Pression
Etat
Etat 2 liquide point
solide critique
point Etat
1 triple gazeux
Température
Il peut, enfin, arriver que le paramètre présente une valeur critique c1 lorsque
augmente, et une autre valeur critique, c2, lorsque diminue. Cela se produit, par
exemple, lorsqu'il y a surfusion d'une eau très pure qui reste liquide à une température
inférieure à sa température de solidification à la pression donnée (courbe 2 du
diagramme ci-dessus) ; la surfusion cesse (l'eau se transforme brusquement en glace)
lorsque la température atteint environ -40°C ou lorsqu'on agite l'eau.
157
exemple d'instabilité de loi d'évolution en cosmologie : l'expansion de l'Univers
accélère depuis quelques milliards d'années. Voir aussi [313].
Deux électrons ont même masse et même charge électrique, caractéristiques qui sont
constantes et identiques pour tous les électrons, donc ne sont pas des variables, donc
ne font pas partie de leur état quantique. On peut distinguer deux électrons seulement
par une différence d'état quantique, c'est-à-dire une différence de position, de vitesse
ou de spin. Même remarque pour deux protons ou d'autres paires de particules : deux
particules de même type sont toujours identiques, interchangeables, elles ne diffèrent
que par une ou plusieurs valeurs de variables de leur état quantique.
158
L'évolution de ce vecteur d'état dans le temps représente tout ce que l'on peut
savoir de l'évolution du système.
Ces postulats reviennent à affirmer que la seule réalité physique, objective et digne de
confiance pour prédire les évolutions, qui nous soit accessible lorsqu'il s'agit de
l'échelle microscopique, est cette représentation mathématique ; aucune
représentation issue de nos sens ou de notre intuition n'est suffisamment objective et
précise pour comprendre et prévoir, notamment pour les échelles infiniment petite et
infiniment grande par rapport à l'homme.
En somme, puisqu'il est impossible de voir un électron ou sa trajectoire, nous
devons faire confiance à la représentation mathématique qu'en donne la
Mécanique quantique. Puisqu'il est impossible de voir la courbure de l'espace
astronomique, nous devons faire confiance aux équations de la Relativité
Générale [328]. Puisqu'il est impossible de voir un trou noir, nous devons déduire
sa présence et sa masse des effets qu'il a sur l'espace environnant et sa matière.
Et lorsque nous verrons, dans la suite de ce texte, que cette représentation de la réalité
est souvent probabiliste, quantifiée, et plus généralement inaccessible à l'intuition née
de nos sens (quand elle ne la contredit pas carrément), nous devrons l'accepter quand
même, parce qu'elle a fait ses preuves par la qualité des explications de la réalité et
des prédictions de son évolution qu'elle fournit, et qu'elle n'a jamais été démentie.
Polémique
En matière de connaissance scientifique, les personnes qui refusent de « croire les
mathématiques » pour s'en tenir aux intuitions issues de leurs sens font preuve de
rigidité intellectuelle et d'excès de confiance en leur jugement. Elles postulent que
l'Univers est suffisamment simple pour que l'homme le comprenne d'instinct, ou que
l'homme est suffisamment génial pour que toute connaissance puisse être basée sur
ce qu'il sent ou imagine. Elles persistent dans leur erreur parce qu'elles ne mettent pas
leur représentation du monde à l'épreuve de la réalité, à laquelle elles croient moins
qu'à leur imagination et à leurs préjugés. (Voir le paragraphe "Intuition d'abord,
justification après" et l'exemple).
3.5.3.4 Espace des phases d'un champ et espace des états associé
Jusqu'ici nous avons considéré un système comprenant un nombre fixe n de
constituants, par exemple n points matériels pesants, et nous avons défini son
évolution dans l'espace des phases en fonction du temps. Cet espace des phases
avait un nombre fini de dimensions, par exemple 6n pour représenter les 6
composantes des positions et des vitesses des n points matériels.
159
Pour décrire l'état de l'infinité des points de l'espace des phases du champ, l'espace
des états associé aura un nombre infini de dimensions, à raison de 9 dimensions pour
chaque point géométrique du champ. Ce sera un espace vectoriel [127].
Cette instabilité des atomes - supposés avoir une structure "planétaire" composée d'un
noyau central positif autour duquel tournent des électrons négatifs - est prédite aussi
par les lois de Maxwell [123]. D'après celles-ci, les électrons – charges électriques
tournant autour d'un noyau - devraient émettre des ondes électromagnétiques, donc
perdre de l'énergie emportée par ces ondes ; cette perte d'énergie les ferait s'écraser
rapidement sur le noyau.
En 1900, la physique butait aussi sur le désaccord entre les résultats du calcul des
échanges d'énergie électromagnétique par rayonnement entre un corps chaud et un
160
corps froid, et les observations expérimentales. Cette contradiction ne fut résolue que
lorsque Max Planck proposa, cette année-là, que l'on considère la quantité d'énergie
d'une émission d'ondes de fréquence comme discontinue, multiple d'un minimum h
où apparaît une constante universelle, le quantum d'action h, ce qui fait de cette
énergie une grandeur quantifiée. Cette approche ouvrit la porte à la physique
quantique.
Puis, en 1905, Einstein utilisa la théorie de Planck pour décrire les échanges d'énergie
entre lumière et électrons constatés dans l'effet photoélectrique, ce qui lui valut le prix
Nobel [60]. Une des conséquences de ces travaux était considérable : les ondes
électromagnétiques, donc la lumière, avaient à la fois un caractère ondulatoire (par
définition) et corpusculaire, ce qui contredisait la physique classique et son
déterminisme ! Ce déterminisme traditionnel finit d'être jeté bas la même année,
lorsqu'Einstein - encore lui - publia la théorie de la Relativité Restreinte [49], qui met
un terme au caractère absolu de l'espace et du temps de la physique newtonienne à
la base de ce déterminisme.
Hélas il n'en est rien, et la Mécanique quantique que nous aborderons plus bas
explique certaines lois pour le moins surprenantes, dont voici des exemples.
La force de Casimir due à la polarisation du vide avec apparition de paires
particule-antiparticule est "en 1/d4".
La loi de Van der Waals qui décrit l'attraction électrique entre deux atomes ou
molécules neutres assez proches est "en 1/d7", produisant des forces
extraordinairement intenses à courte distance (quelques angströms). Ces forces
sont dues aux fluctuations quantiques des dipôles électriques formés par deux
atomes voisins, qui s'attirent alors du fait d'une force dite "faible".
Ces forces sont responsables de la cohésion entre molécules de liquides. Elles
expliquent aussi l'aptitude d'un petit lézard, le gecko, à marcher sur n'importe
quelle surface solide en y adhérant facilement. Il peut ainsi marcher sur la face
inférieure d'une plaque horizontale de verre parfaitement lisse, à laquelle ses
pattes adhèrent grâce à des poils incroyablement fins (moins de 0.25 micron de
diamètre) dont les molécules attirent celles de la plaque de verre grâce aux forces
de Van der Waals.
La force de répulsion moléculaire due au potentiel de Lennard-Jones est en
"1/d12". Elle apparaît quand il y a superposition des nuages de charge de deux
systèmes atomiques.
La force nucléaire agit de manière attractive entre quarks du noyau atomique
pour en maintenir la cohésion sous forme de protons et neutrons, bien que deux
protons ayant des charges de même signe tendent à se repousser ; le quantum
d'interaction correspondant est appelé gluon [18].
161
Sa portée est très faible (environ 1 fermi = 10-15 m, un dixième du rayon d'un
noyau atomique [137]) et son intensité augmente avec la distance ! (Détails)
J'ai cité ces forces étonnantes pour illustrer le fait que le déterminisme n'a rien
d'évident ou d'intuitif lorsqu'on veut comprendre les lois physiques et prédire certains
comportements, et qu'il faut souvent recourir à la Mécanique quantique pour expliquer
ce qui se passe.
162
Dans l'exemple 2, le champ de cohésion du ressort exerce une force
électrostatique de pression sur les atomes de la masse ; le champ de cohésion de
la masse exerce une force de réaction sur les atomes du ressort, égale à la
précédente et de sens opposé.
Dans les deux exemples ci-dessus, les champs des processus d'interaction sont
toujours de type électromagnétique. En fait, il existe quatre types de champs de
force (voir [18]).
L'outil Mécanique quantique n'est justifié que par la rigueur de ses démonstrations et
l'adéquation à la réalité physique de ses modèles mathématiques. Cette adéquation
est prouvée par la vérification, faite d'innombrables fois, que les résultats des calculs
de Mécanique quantique sont conformes à la réalité expérimentale, que ce soit pour
expliquer une expérience qu'on vient de faire, ou prédire le résultat d'une expérience
qu'on va faire. En somme, la Mécanique quantique est une science mathématique ;
elle a la rigueur de toute science exacte.
163
La Mécanique quantique nous oblige à réviser notre conception du déterminisme, si
nous voulons qu'il décrive toutes les conséquences des lois physiques de la nature.
Voici comment.
Les hommes se sont aperçus que le concept de contingence ne suffisait pas pour
rendre compte de certaines situations, dont une description plus fidèle nécessitait une
probabilité d'existence. Exemple : si je lance un dé, le fait de sortir un 3 est contingent,
cela peut arriver ou non. Mais si je dis que la probabilité de sortir un 3 est d'une chance
sur six, je prédis le résultat du jet de dé avec plus de précision.
L'ensemble des résultats d'évolution d'un système à partir d'un état initial ne décrit pas
un mouvement précis comme en mécanique classique, c'est-à-dire une trajectoire
définissant des positions successives précises à des instants précis. Il décrit
164
seulement, à chaque instant, des probabilités de présence et de vitesse de la particule
au voisinage de divers points de l'espace : la notion de trajectoire précise n'a plus
cours, comme dans la physique classique régie par le déterminisme traditionnel. Elle
est remplacée par une région de l'espace dont, à un instant précis, chaque point est
associé à une densité de probabilité de présence [28]. A chaque instant, la position de
la particule apparaît floue, elle est entachée d'imprécision ainsi que sa vitesse.
Après un état initial précis, la position d'un corpuscule à un instant donné est floue
(autour d'un point de probabilité maximum) et sa vitesse est distribuée selon une loi
de probabilités autour d'une vitesse moyenne.
Nous verrons plus bas que la nature interdit de concevoir la dimension ou la position
d'une particule pesante en mouvement avec une précision meilleure que sa longueur
d'onde de Compton c ; pour un proton, par exemple, l'imprécision minimum c est de
l'ordre de son diamètre.
165
équation déterministe, mais ses solutions étant distribuées statistiquement, on doit
parler d'un nouveau type de déterminisme, le déterminisme statistique.
Si dans une expérience de physique atomique nous mesurons une variable (dont la
valeur est un opérateur mathématique [278]), nous pouvons trouver une ou plusieurs
valeurs (appelées valeurs propres de l'opérateur [278]), la Mécanique quantique
précisant leur nombre exact lorsqu'il n'y en a pas une infinité. Et si nous répétons la
même expérience un très grand nombre de fois en mesurant chaque fois la même
variable, nous constatons que chacun des résultats prévus par la théorie (chaque
valeur propre) apparaît un pourcentage prévu de fois ; selon l'expérience, les divers
résultats possibles sont parfois équiprobables et parfois associés à des probabilités
différentes.
166
Exemple de résultats multiples d'une évolution par déplacement
Considérons l'expérience de Young de diffraction de la lumière monochromatique à
travers deux fentes, réalisée avec un faisceau si faible que ses photons [117] sont
émis un par un. Ces photons successifs arrivent sur l'écran en des points différents,
bien qu'ils soient tous produits et acheminés de manière identique : chaque position
de point est un résultat prédit par la Mécanique quantique avec une certaine probabilité
de se produire ; c'est là un comportement qui contredit le déterminisme traditionnel,
qui voudrait que tous les photons arrivent au même point.
Si le nombre de photons devient très grand, l'image globale formée par les impacts
donne bien des franges d'interférences, comme le prédit la théorie ondulatoire de la
lumière (voir schéma ci-dessous) : chaque photon est passé par les deux fentes à la
fois, les deux parties de son onde ajoutant ou soustrayant leurs amplitudes en tenant
compte des différences de phase, ce qui produit des franges d'interférence. Dans cette
expérience, un photon peut donc interférer avec lui-même.
Un photon a une masse nulle [117], mais nous allons maintenant voir une possibilité
semblable de trajectoires simultanées pour des corpuscules pesants.
167
Les ondes de matière de Louis de Broglie
Le physicien français Louis de Broglie a été récompensé en 1929 par un prix Nobel
pour avoir découvert les « ondes de matière » associées aux électrons (et aux
particules de matière en mouvement en général) et affirmé :
A toute particule matérielle de masse m et de vitesse v doit être associée une
onde stationnaire de matière de longueur d'onde stable telle que :
h
mv
C'est ainsi que la longueur d'onde associée à un atome isolé de fer 56Fe se déplaçant
à 1000 m/s est de 7 fermis (1 fm = 10-15m), à peine moins que le diamètre de son
noyau, qui est de 9.2 fm [137]. Mais la longueur d'onde d'un objet de taille
macroscopique, même en déplacement lent, est si petite que ses propriétés
ondulatoires sont impossibles à mettre en évidence : pour un caillou de 20 g lancé à
10 m/s on trouve = 3.3 .10-18 fm.
La théorie des ondes de matière explique le fait que des électrons ne peuvent parcourir
de manière stable, autour d'un noyau atomique, que certaines orbites avec des
niveaux d'énergie précis. Pour être stable (stationnaire), une onde doit avoir une
longueur d'onde de matière sous-multiple entier de la longueur de la trajectoire
circulaire d'un électron. De Broglie a pu ainsi retrouver et confirmer l'orbite de l'électron
d'un atome d'hydrogène calculée par Niels Bohr, avec son rayon de 0.529 Å.
(Dans l'hypothèse simplificatrice de Bohr, un électron d'un atome décrit des orbites
circulaires autour du noyau. L'existence des ondes de matière explique que cet
électron ne puisse parcourir que des trajectoires comprenant un nombre entier
d'ondes de matière, trajectoires qui correspondent à des états énergétiques bien
précis ; si la longueur d'une trajectoire ne correspondait pas à un nombre entier
d'ondes de matière, ces ondes s'annuleraient par interférences ; la trajectoire
étant alors instable, l'électron la quitterait pour une trajectoire stable.)
Fonction d'onde
Au concept classique de trajectoire d'un corpuscule la Mécanique quantique substitue
celui d'état dépendant du temps t. Exemple : en négligeant le spin [22], l'état quantique
d'un corpuscule de masse non nulle tel que l'électron, avec ses composantes de
position et d'impulsion définissant un vecteur d'état, est caractérisé par une fonction
168
d'onde (r, t), prenant ses valeurs dans le corps des nombres complexes [126], qui
contient toutes les informations que l'on peut connaître sur le corpuscule ; dans (r, t),
la variable vectorielle r a pour composantes les coordonnées de position r x ; ry ; rz et la
variable t représente le temps (l'instant). Une fonction d'onde (r, t) donnée appartient
à un espace vectoriel dit "de Hilbert" [326].
1
| (r, t) |2 d 3 r
C
Ne pas confondre le nombre réel positif ou nul densité de probabilité |(r, t)|² et le
nombre complexe amplitude de probabilité (r, t) : |(r, t)|² est le carré scalaire [127]
de (r, t), produit de (r, t) par son complexe conjugué *(r, t).
169
Conséquences de l'existence des ondes de probabilité de la fonction d'onde
Ces ondes pénètrent des barrières de potentiel d'un champ de force comme un son
pénètre un mur ; elles traversent la matière comme la force de gravitation. Exemple :
un noyau atomique lourd peut subir une désintégration radioactive et se décomposer
en un noyau plus léger et une particule alpha (noyau d'atome d'hélium comprenant
deux protons et deux neutrons). Bien que la particule alpha n'ait pas assez d'énergie
pour vaincre la barrière de force électrique entourant le noyau atomique lourd, sa
nature ondulatoire fait qu'elle a une probabilité non nulle de passer à travers cette
barrière et de s'éloigner du noyau, d'où la désintégration.
170
Orbitales électroniques en forme de sphère ou de lobes
("nucleus" désigne le noyau de l'atome)
Dans le graphique ci-dessous, issu de [105] page 863, l'éloignement r du noyau (en
abscisse) est exprimé en rapports r/r1, où r1 est le rayon théorique de "l'atome
d'hydrogène de Bohr", r1 = 0.5 Å (où 1Å = 10-10m). La probabilité de trouver l'électron
à l'intérieur d'une coquille sphérique de rayons r et r+dr est W(r)dr=4r²|(r)|²dr, où
(r) est la fonction d'onde. On voit que :
La probabilité de présence très près du noyau (où r tend vers 0) est non nulle
pour chacune des trois couches électroniques ! Ceci ne se produit que lorsque le
nombre quantique l de moment angulaire orbital [104] vaut l=0.
La couche de niveau d'énergie n=1 a une distance de densité de probabilité [28]
maximum. La couche de niveau n=2, supérieur de 10.2 électronvolts (eV) au
niveau d'énergie de la couche 1, en a deux. La couche n=3, de niveau 12.1 eV,
en a trois.
171
On voit à quel point les "trajectoires" tridimensionnelles réelles de l'électron sont
éloignées du modèle "planétaire" plan. En fait, le mot trajectoire ne s'applique pas du
tout à la rotation d'un électron autour de son noyau ; il vaut mieux parler de position
floue par superposition ou de région de présence. Enfin, le "diamètre" même d'un
atome varie avec son énergie, et si on pouvait le voir à un instant donné avec ses
électrons l'image serait floue.
Mesurée à un instant donné, la valeur d'une variable de l'état résultant est choisie
parmi celles d'une distribution statistique de valeurs prévues par la Mécanique
quantique, l'ensemble des valeurs propres [278] de l'opérateur représentant la
variable. Le hasard n'est pas, dans le cas d'une mesure, le résultat d'une connaissance
insuffisante de ce qui se passe. C'est la manière de la nature de choisir statistiquement
un résultat dans un ensemble prévu par la théorie, résultat muni d'une probabilité
calculable d'être trouvé si l'on refait une même expérience un grand nombre de fois.
Nous l'avons déjà vu en analysant la notion de hasard.
Notons bien que la valeur de chaque résultat de mesure possible n'est pas due au
hasard, c'est une valeur précise appartenant à un ensemble bien défini ; c'est le choix
entre les divers résultats possibles lors d'une mesure qui est fait au hasard comme
dans toute distribution statistique.
172
atomes d'un échantillon d'uranium 238. Ce sont là des cas où la nature refuse de
satisfaire notre volonté de prédire de manière unique l'élément choisi.
Le choix au hasard d'une valeur, discrète ou continue, par la nature (c'est-à-dire d'un
élément particulier d'un ensemble prédéterminé de solutions d'un modèle
mathématique) se produit dans un cas et un seul : en physique quantique, lors du
passage du niveau atomique au niveau macroscopique, phénomène d'évolution
physique dit « de décohérence », rencontré lors d'une mesure (où le dispositif de
mesure interagit avec le système mesuré) ou de l'interaction du système en
superposition à l'échelle atomique avec son environnement macroscopique. Je ne
connais pas d'autre cas où le hasard intervient dans une évolution naturelle. Et
comme la Mécanique quantique prévoit la probabilité de chaque choix de valeur par la
nature, on en a fait le 4ème postulat de la Mécanique quantique. Comme les autres
postulats de la Mécanique quantique, celui-ci a été vérifié d'innombrables fois depuis
des décennies et n'a jamais été contredit.
173
Nous ne savons pas aujourd'hui pourquoi ce changement d'échelle provoque le choix
d'un élément de l'ensemble des valeurs possibles, ni pourquoi ce choix est aléatoire.
[91] suppose qu'il existe une influence non prise en compte par la Mécanique
quantique, probablement due à la gravitation et à la Relativité ; de son côté, la théorie
de Hugh Everett, mathématiquement inattaquable, exclut la décohérence en
introduisant un basculement de l'Univers qui conserve la fonction d'onde.
Nous avons vu plus haut que la décohérence est le seul cas où le hasard statistique
intervient dans une évolution naturelle ; et ce cas disparaît en admettant la théorie de
Hugh Everett. (Voir en fin de texte la table résumant les cas d'imprédictibilité.)
iä d/dt|(t)> = H(t)|(t)>
où i2=-1 et ä est un quantum de spin [22] qui vaut ä = 1.0542 .10-34 joule.seconde
(ä = h/2 où h est la constante de Planck).
Cette équation décrit une évolution invariante par une symétrie temporelle qui change
le sens du temps. Elle est du premier ordre par rapport au temps t et complètement
déterministe : les mêmes conditions initiales produisent le même ensemble de
solutions, c'est-à-dire la même évolution dans le temps et l'espace. L'équation de
Schrödinger décrit donc une évolution déterministe.
174
le trouver est maximale et diminue avec l'éloignement ; et l'instant suivant, son
mouvement l'emportera un peu plus loin.
Contrairement, donc, aux interprétations erronées que l'on trouve ici et là sur ses
résultats, l'équation de Schrödinger est parfaitement déterministe. Mais ses solutions
qui s'appliquent à un déplacement ne décrivent pas une trajectoire de particule, elles
décrivent l'évolution de son vecteur d'état en fonction du temps, dont on peut déduire
à tout instant donné une position nécessairement floue de probabilité maximum.
Une combinaison linéaire d'un nombre infini de fonctions d'onde permet aussi de
passer des états de position d'une particule à ses états d'impulsion, ou inversement
[125]. Cette possibilité purement mathématique de deux descriptions différentes traduit
l'unicité de la réalité physique : ces deux types d'états d'une particule sont
conséquences des mêmes lois de mouvement et de la même énergie totale ; ce sont
donc des formulations de la même fonction d'onde (r, t) dans deux bases différentes
d'espaces vectoriels de fonctions.
Un postulat fondamental
L'équation de Schrödinger fait partie des postulats de la Mécanique quantique.
175
Pourtant, ces phénomènes sont nombreux à l'échelle de la physique quantique.
Exemples :
Désintégration spontanée de particules par radioactivité, où une particule
désintégrée ne peut spontanément se recomposer ;
Désexcitation d'un atome qui revient à son état d'énergie fondamental en
émettant un photon [117], et qui ne peut de lui-même s'exciter de nouveau pour
revenir à l'état précédent ;
Mesure d'un résultat, qui interfère nécessairement avec le système mesuré,
nous l'avons déjà signalé : toute mesure de physique quantique entraîne une
irréversibilité. Il y a là un problème que la physique quantique a donc été obligée
de prendre en compte en dépassant l'équation fondamentale de Schrödinger.
Nous dirons plus bas quelques mots sur l'irréversibilité au sens Mécanique
quantique et au sens thermodynamique.
Insistons sur un point : l'équation de Schrödinger décrit l'évolution dans le temps
et l'espace d'un système tant que celle-ci est réversible. Elle ne décrit pas
l'évolution irréversible qu'est la décohérence, qui transforme une superposition
d'états en un état unique choisi parmi les valeurs propres [278] de l'observable du
dispositif. Ce choix d'état unique est fait statistiquement, la Mécanique quantique
prévoyant la fréquence d'apparition de chaque valeur possible.
Il est possible, comme le suggère [91] pages 475 et suivantes, que la décohérence -
choix aléatoire d'un état parmi tous ceux qui existent simultanément en superposition
- provienne de l'influence perturbatrice de la gravitation, avec sa courbure d'espace ;
la gravitation est la seule des 4 forces fondamentales [18] à pouvoir agir sur l'état
quantique cohérent lorsqu'on passe de l'échelle atomique à l'échelle macroscopique.
Cette possibilité est vraisemblable au vu des conclusions de l'expérience de
décohérence faite au laboratoire LKB de l'Ecole Normale Supérieure, mais nous
n'avons pas encore de théorie unifiant la Mécanique quantique et la Relativité (voir le
paragraphe "Validité des lois de la Mécanique quantique à l'échelle macroscopique").
176
La diffusion est un phénomène chaotique faisant passer, à chaque transformation, un
système d'un état initial avant un point critique de bifurcation à un état final après
bifurcation choisi parmi plusieurs états finaux plus ou moins dispersés. Ce phénomène
est irréversible et augmente l'entropie du système [25].
Le choix étant imprévisible, même s'il a lieu avec une probabilité prédéterminée dans
un ensemble prédéterminé, on dit que cette évolution de la nature relève d'un
déterminisme statistique, qu'il faut se garder de confondre avec un hasard pur où le
résultat serait n'importe quoi. Dans ce cas-là, en physique quantique, une évolution
déterministe produit un résultat reproductible qui est un ensemble.
Il est indispensable que le choix du résultat unique d'une mesure soit limité à des
valeurs de l'ensemble qui ne contredisent pas une loi de la physique, comme la
conservation de l'énergie ou du moment cinétique du début à la fin de l'expérience.
177
Une mesure est une transcription à l'échelle macroscopique (la position d'une
aiguille...) de l'état d'un système quantique [1] ; c'est une opération de choix qui en
retient un seul à l'échelle macroscopique, une évolution particulière appelée
décohérence. Tant que la décohérence n'a pas eu lieu, l'état qu'elle choisirait n'existe
que virtuellement et on ne peut le connaître.
(Rappelons-nous qu'on peut aussi interpréter la multiplicité d'états superposés
comme le fait qu'un état de départ a pour conséquences un ensemble
d'évolutions, chacune terminée au bout d'un certain temps par un état unique, dont
celui choisi par la nature lors de la décohérence (voir l'expérience du laboratoire
LKB.)
La fonction d'onde d'une superposition d'états quantiques est une combinaison linéaire
des fonctions d'onde de chacun des états quantiques composants.
Une superposition d'états quantiques formant un état quantique unique est analogue
à la superposition des sons émis par plusieurs cordes de piano vibrant simultanément
pour produire un son unique. Lorsqu'une mesure d'une superposition produit une
décohérence donnant un résultat unique, les probabilités des divers résultats possibles
dépendent des proportions relatives avant décohérence des divers états quantiques
superposés, proportions prédites par la Mécanique quantique sous forme de
probabilités.
178
l'atome s'est comporté comme une onde de probabilité passant par les deux fentes à
la fois, pas comme un corpuscule matériel obligé de passer par une seule des fentes.
Cette pluralité expérimentale est d'autant plus difficile à accepter que toute mise en
évidence expérimentale des chemins parcourus par un atome n'en trouve qu'un seul,
du fait de la décohérence qui se produit automatiquement lors de cette mise en
évidence au passage de l'échelle microscopique à l'échelle macroscopique. Il a fallu
aux chercheurs du laboratoire LKB de l'Ecole Normale Supérieure beaucoup de génie
pour réaliser l'expérience célèbre qui prouve la superposition et observe la
décohérence au bout d'un certain temps [1] - [10].
Après une décohérence, nous devons considérer la superposition d'états qui l'a
précédée comme un état global unique, combinaison linéaire [29] d'états élémentaires
superposés dont l'un est devenu permanent. En utilisant la description par fonctions
d'ondes, en superposition d'états la fonction d'onde d'un système est une
179
combinaison linéaire de vecteurs propres i [278], alors qu'après décohérence la
fonction d'onde est réduite à celui de ses vecteurs propres qui a été choisi au hasard,
k. La transformation d'un système par décohérence produit donc une « réduction de
sa fonction d'onde ».
En somme, l'évolution d'un système à l'échelle atomique est celle d'une superposition
d'états régie par l'équation de Schrödinger tant qu'il n'y a pas eu échange d'énergie
avec l'environnement (notamment par mesure), puis par sa fonction d'onde réduite à
un vecteur d'état choisi au hasard, après : toute mesure détruit la superposition et
change l'état du système d'une manière qui n'est prévisible qu'en probabilité.
Dérangeant, non ?
Irréversibilité
La décohérence est un processus irréversible : après le choix au hasard d'un état final
unique k par décohérence, on ne peut revenir en arrière et reconstituer l'état
superposé . On ne peut même pas "passer le film des événements à l'envers"
comme dans un phénomène à symétrie temporelle, car il n'y a pas d'équation de
décohérence où on pourrait changer la variable t en -t.
En fait, une décohérence n'est pas à proprement parler une évolution régie par une loi
physique décrite par l'équation de Schrödinger. C'est pourquoi Hugh Everett a proposé
de la considérer comme un choix d'un Univers parmi l'ensemble de ceux qui étaient
superposés avant la décohérence, un basculement qui emporte l'expérimentateur qui
ne constate que l'existence de l'unique état après évolution qu'il contient ; l'équation
de Schrödinger s'applique alors jusqu'au bout.
180
Pour lui il n'y a jamais de décohérence, puisque l'évolution d'un système est toujours
déterministe, toujours unitaire et régie par la même équation de Schrödinger, qu'il y ait
une mesure ou non. [323]
Bien entendu, ce déterminisme arborescent régit toutes les transformations dont les
lois ont des solutions multiples, avec ou sans observateur ou dispositif de mesure. Il
contredit l'interprétation classique de la physique quantique (dite « interprétation de
Copenhague » parce qu'elle était proposée par le Danois Niels Bohr), interprétation
selon laquelle les solutions et prédictions de la Mécanique quantique ne s'appliquent
pas au domaine macroscopique. Mathématiquement irréfutable, l'élégante
interprétation d'Everett est acceptée de nos jours par certains physiciens. Elle est
ignorée par les autres, qui ne l'aiment pas bien qu'ils ne puissent prouver qu'elle est
fausse ; ils se contentent de dire qu'une mesure réduit la fonction d'onde du système
par décohérence, et que le croire ne les empêche pas de faire des calculs justes.
181
L'expérience du comportement non séparable de deux photons intriqués ne
prouve plus la non-séparabilité : quel que soit l'Univers où on a basculé lors de
l'émission simultanée des deux photons dont les états quantiques sont
superposés, la mesure donne toujours un résultat cohérent, sans qu'il soit
nécessaire d'envisager une transmission d'information ou une non-séparabilité.
Le caractère surprenant de la valeur de tant de constantes de l'Univers, qui
semblent choisies « juste comme il faut » pour que l'homme ait pu naître, n'a
plus rien de surprenant, le choix faisant partie des choix possibles. L'étonnement
des idéalistes partisans du principe anthropique n'a donc plus de raison d'être.
De son côté, l'équation universelle d'évolution de Hugh Everett, qui s'applique aux
objets macroscopiques comme aux particules, prévoit qu'un objet macroscopique peut
parfois avoir un comportement ondulatoire, existant par exemple en deux endroits à la
fois ou sujet à des interférences. Or on a eu beau faire soigneusement des
expériences, on n'a jamais pu mettre en évidence un tel comportement ; voici
pourquoi.
0.5
0.5
L'incertitude sur la connaissance de ces valeurs propres est représentée par les
deux nombres de l'autre diagonale, par exemple deux fois 0 s'il n'y a pas
d'incertitude (connaissance certaine). Il y a eu alors décohérence et une des
valeurs propres est mesurée avec certitude, mais nous ne savons pas laquelle.
0.5 0
0 0.5
182
Si ces deux dernières probabilités sont aussi égales à 0.5, le système est dans un
état de superposition ; nous ne savons pas laquelle des valeurs propres serait
choisie lors d'une décohérence, et quelle serait sa valeur scalaire.
0.5 0.5
0.5 0.5
C'est ce genre de difficulté qui gêne dans la mise en évidence d'un éventuel état
superposé d'un objet macroscopique que nous voyons : nous en recevons trop de
photons à la fois, des milliards de milliards donnant une image unique qui nous paraît
nette : les autres images sont atténuées par la décohérence avant que nous puissions
les voir. Et si nous mesurons la polarisation d'un électron que nous avons omis de
polariser dans l'expérience, celle-ci ne pourra évidemment pas conclure.
Pourquoi notre cerveau ne nous permet de voir des objets qu'après décohérence
Sources : [136]-Tegmark et [325]
Lorsque notre œil reçoit des images provenant d'un objet macroscopique, le nerf
optique et divers neurones transmettent ces images à l'inconscient [353] du cerveau.
Celui-ci les analyse et ne les passe à la conscience que s'il les juge suffisamment
prometteuses ou menaçantes, et nous ne les percevons que dans ce cas-là et après
ce traitement cérébral [339].
183
plusieurs neurones en parallèle ne change rien à la décohérence, qui survient toujours
avant l'évaluation par la barrière de conscience.
Conclusion : lorsque nous sommes conscients de voir un objet nous n'en voyons
qu'une seule image, même si l'objet est à l'état de superposition.
184
de probabilité. Ces ondes sont souvent planes et monochromatiques, de fréquences
et phases différentes ; leurs amplitudes s'ajoutent en donnant une probabilité
maximum de présence de la particule au centre du paquet, et une probabilité
s'annulant rapidement dès que l'on s'éloigne du centre.
C'est ainsi qu'un paquet d'ondes de probabilité à une dimension se déplaçant dans la
direction des x croissants de l'axe Ox a une équation de la forme :
1
( x, t )
2
f (k )e i ( kx t ) dk
où :
(x, t) est un nombre complexe donnant l'amplitude et la phase d'une onde de
probabilité de la particule au voisinage de la position x à l'instant t ;
à chaque valeur de k entre - et + correspond une onde du paquet ;
est la pulsation (fréquence multipliée par 2), reliée à k, à la masse m de la
particule et à la constante ä = h/2 par la relation :
k 2
2m
185
En somme, un paquet d'ondes accompagne une particule qui se déplace, et c'est
parce que ce paquet d'ondes a une largeur approximative Δx non nulle que la position
de la particule à un instant donné ne peut être définie avec une précision meilleure
qu'une demi-largeur de paquet autour de son centre, et que la particule apparaîtrait
floue si on pouvait la voir.
Mais (surprise !) cette dégradation n'existe pas pour la quantité de mouvement Δp [20]
d'une particule : l'étalement du paquet d'ondes de quantité de mouvement à l'instant
d'une évaluation reste le même après cette évaluation :
Δp(t=0) = Δp(t>0)
186
Cela se comprend facilement si l'on se souvient qu'une particule libre (c'est-à-dire qui
n'est pas accélérée par un changement de potentiel) a une quantité de mouvement
constante.
h
2
Δx . Δp ½ä (a)
187
Exemple 1 : un atome de fer ayant un rayon de 1.26 angström (1Å = 10-10 m),
supposons que l'imprécision sur la position d'un électron soit du même ordre, soit
Δx = 1Å. L'incertitude sur la quantité de mouvement de l'électron est alors d'au
moins ½ä/Δx = 0.53 .10-24 kg.m/s ; et puisque la masse au repos de l'électron est
0.9 .10-30kg, l'incertitude sur sa vitesse est 0.6 106 m/s, c'est-à-dire 600 km/s ! Par
contre, si l'on accepte une incertitude de 1mm sur la position, l'incertitude sur la
vitesse tombe à 6 cm/s.
Exemple 2 : les incertitudes sur la position et l'impulsion d'un objet de taille
macroscopique sont insignifiantes. Un grain de poussière de diamètre
1 m = 10-6 m, pesant environ m = 10-15 kg et se déplaçant à la vitesse de 1 mm/s,
dont on mesure la position avec une précision extrême de 0.01 m a une
incertitude sur son impulsion de Δp = mΔv = 0.5 .10-26 kg.m/s, c'est-à-dire une
incertitude sur sa vitesse de 0.5 .10-8 mm/s : La précision sur la vitesse est
meilleure qu'un cent-millionième de mm/s.
Lorsque la particule mesurée n'a pas de masse, comme c'est le cas pour un
photon [117], il n'y a pas d'incertitude sur sa vitesse - toujours égale à c - mais il
y a incertitude sur sa position du fait de sa longueur d'onde. Pour augmenter la
précision d'une mesure de position utilisant un rayonnement électromagnétique il
faut donc diminuer sa longueur d'onde, c'est-à-dire accroître son énergie.
L'incertitude sur deux mesures simultanées doit être comprise axe par axe. C'est
ainsi que la composante selon l'axe Oz de l'impulsion, p z, peut être mesurée en
même temps que la composante selon l'axe Ox de la position, x, sans que la
limitation Δx . Δpz ½ä intervienne.
Ne pas confondre l'incertitude due au principe de Heisenberg, qui porte sur des
estimations simultanées de la position et de la vitesse, avec la dégradation de la
précision de positionnement d'une particule en mouvement due à l'étalement de
son paquet d'ondes avec le temps qui passe.
ΔE . Δt ½ä (b)
L'inégalité (b) peut être interprétée comme une instabilité de l'énergie, une non-
reproductibilité d'expériences mesurant une énergie répétées trop peu de temps l'une
après l'autre : si on fait l'expérience "2" longtemps après l'expérience "1", Δt est grand
et ΔE peut être très petit, la reproductibilité peut être excellente ; mais plus tôt on
réalise l'expérience "2" après l'expérience "1", plus ΔE pourra être grand, ce qui
dégradera la reproductibilité. Le manque de reproductibilité est dû à une instabilité
naturelle, des fluctuations traduisant un refus de précision et de stabilité de la nature.
L'inégalité (b) peut aussi être interprétée comme l'impossibilité de mesurer avec
précision l'énergie d'un phénomène extrêmement bref, ou l'impossibilité de dater avec
précision l'échange d'une très faible quantité d'énergie. Exemple : lorsqu'un atome
perd une énergie ΔE par l'émission d'un photon, la durée de cette transition et de
188
l'émission du photon ne peut être déterminée avec une imprécision meilleure que
ä/2ΔE.
Mais l'habitude d'appeler « incertitude » une largeur de paquet d'ondes est devenue
une véritable tradition, qui fait oublier à certains que toutes les valeurs d'amplitude d'un
intervalle d'incertitude n'ont pas la même probabilité.
Quelle que soit l'interprétation, la conséquence de ces deux types d'incertitude (la
largeur du paquet d'ondes et le principe d'incertitude de Heisenberg) sur le
déterminisme demeure : la précision de nombreuses déterminations est limitée, inutile
d'espérer des progrès techniques ! Mais attention : précision limitée ne signifie pas
inexistence de la particule, ou indéterminisme au sens « conséquence imprévisible
d'une cause ».
Ce n'est pas parce qu'un voltmètre a une précision de 0.5 % que la différence de
potentiel réelle qu'il mesure n'existe pas, ou qu'elle est une conséquence non
déterministe des paramètres du circuit : elle existe avec une valeur probabiliste,
de probabilité maximale au milieu d'un intervalle dont la largeur est 0.5 % de la
tension maximale mesurable ; nous aurions préféré que cette valeur soit précise
avec une infinité de décimales, mais la réalité se moque de nos préférences.
Voir aussi plus bas : "Exemple : portée des forces et masse des particules".
L'imprécision :
Limite la précision d'une mesure, dont la valeur réelle existe mais est définie
dans un intervalle au lieu d'être exacte. En langage statistique, l'intervalle est de
189
type « intervalle de confiance » et signifie, par exemple, que la valeur réelle a
une probabilité de 95 % d'être entre ses bornes, et une probabilité faible mais
non nulle d'être à l'extérieur aussi loin que l'on voudra.
Limite notre aptitude à prévoir le résultat exact d'une mesure, donc la
conséquence précise d'une évolution. Et après une mesure de position d'une
particule de masse non nulle en mouvement, (mesure qui a la précision qu'elle
peut), la valeur prédite « s'étale » jusqu'à la prochaine mesure, si on en fait une.
Cette imprécision est un phénomène naturel incontournable, qui nous oblige donc à
revoir notre conception du déterminisme : une évolution ne peut toujours être prévue
avec une précision infinie. Ce phénomène est dû au rapport étroit qui existe, à l'échelle
atomique, entre un corpuscule en mouvement et le paquet d'ondes qui l'accompagne.
Nous verrons aussi, plus bas, que pour des valeurs extrêmement petites de la longueur
ou du temps (longueur et temps de Planck) nos lois physiques ne s'appliquent plus.
Mais l'incertitude énergétique due aux fluctuations quantiques n'est pas mesurable, on
ne la connaît que par calcul, et les particules qu'elle crée pendant un court instant sont
considérées comme virtuelles.
190
Considérons trois grandeurs, A, B et C, telles que les observables de B et C
commutent avec celle de A ([A,B]=0 et [A,C]=0) mais pas entre elles ([B,C]0). D'après
le principe d'incertitude, une mesure de A étant compatible avec une mesure
simultanée de B ou de C, on s'attend à ce que la valeur propre [278] trouvée pour A
soit la même en présence de B ou en présence de C. Or le théorème de Kochen-
Specker montre que ce n'est pas le cas : à chaque mesure, la valeur propre trouvée
pour A dépend de la totalité du système, et notamment des autres grandeurs
mesurées : on dit qu'une mesure de physique quantique est toujours contextuelle.
h
' (1 cos )
mec
191
La relation de l'effet Compton montre que la position ou la dimension d'une particule
de masse m ne peuvent être définies à mieux que sa longueur d'onde de Compton
près. [134] Cette forme d'incertitude est négligeable en physique macroscopique.
On ne peut pas, par exemple, mesurer ou simplement observer le passage d'un photon
sans le détruire ; la seule manière de le prendre en compte dans une expérience est
de lui faire céder son énergie, toute son énergie h car elle est quantifiée, c'est-à-dire
indivisible [117].
On peut quand même absorber le photon en excitant un atome puis le recréer
lorsque celui-ci se désexcite ; mais il faut alors prendre en compte le temps
nécessaire à ce processus, qui peut introduire une incertitude sur l'état du photon
[21].
On peut également, en utilisant l'énergie d'un champ auxiliaire, faire que la
rencontre d'un photon et d'un atome provoque le changement de niveau
énergétique de celui-ci sans absorption du photon [174].
En physique quantique on ne peut même pas copier un état quantique tout en laissant
l'état d'origine inchangé, comme on copie un fichier en informatique ou une page dans
un photocopieur : voir ci-dessous.
Nous supposerons que tous les photons à analyser ont exactement la même direction
de polarisation up, par exemple parce que nous leur avons fait franchir un polariseur
(la réflexion sur un simple miroir incliné, par exemple) avant l'analyseur.
192
x
ux
up
Direction de propagation
uy
y
Si nous envoyons les photons polarisés un par un vers l'analyseur, certains photons
le traverseront et d'autres seront absorbés. A moins que tous les photons soient
transmis (ce qui prouverait que up = ux), ou que tous soient absorbés (ce qui prouverait
que up = uy), l'expérience ne nous permet pas de savoir quels angles up fait avec ux
et uy. D'où une première conclusion :
Un appareil ne mesure que ce qu'il a été fait pour mesurer, pas ce que nous
souhaiterions mesurer.
193
voire d'un grand nombre de copies identiques, pour pouvoir effectuer les mesures à
loisir. Mais cette idée est vouée à l'échec : à l'échelle atomique (celle de la physique
quantique) toute copie implique une action sur l'objet copié, donc un échange
d'énergie, donc une perturbation, exactement comme une mesure. Et une mesure
donne une certitude sur l'état après elle, pas sur l'état avant, où elle n'avait pas encore
perturbé l'objet. En physique quantique on ne peut donc copier l'état quantique d'un
système ou une particule sans le (la) détruire ou en modifier l'énergie.
194
repéré par un point ou un vecteur de l'espace des états ; elle peut être, par
exemple, une superposition d'états.
Le problème est que cette réalité nous est inaccessible, puisque sans mesure on
ne la connaît pas et avec une mesure on la perturbe en la mesurant !
La réalité ne nous est accessible qu'à travers une mesure, qui la perturbe tout en
donnant un résultat certain... mais choisi avec une certaine probabilité parmi les
valeurs propres de l'observable [278] mesurée par l'expérience. Et après une
mesure, la réalité d'avant n'existe plus. Il faut même, parfois, un grand nombre
de mesures pour estimer des probabilités pour les coefficients des vecteurs de
base.
Considérons donc une particule porteuse d'une force d'interaction et ayant une masse
m. Cette particule va être émise et se propagera pendant un temps court Δt avant
d'être absorbée et de céder son énergie ΔE = mc2 correspondant à sa masse m. Or le
principe d'incertitude démontre que l'énergie d'un phénomène qui a une durée Δt ne
peut être définie à mieux que ä/(2ΔE) = ä/(2mc2) près. Comme la particule se
déplacera à une vitesse nécessairement inférieure à celle de la lumière, c, la distance
maximale qu'elle pourra atteindre est d = cΔt = ä/(2mc) : c'est l'ordre de grandeur de
la portée de la force correspondant à la particule d'interaction.
195
Si la particule a une masse nulle, comme un photon, la distance d peut être
infinie : c'est pourquoi la portée de l'interaction électromagnétique est infinie.
La force de gravitation ayant aussi une portée infinie, si comme les trois autres
forces [18] elle est due à une particule, celle-ci a nécessairement une masse nulle.
Si la particule a une masse non nulle, la portée de l'interaction correspondante
est de l'ordre de ä/(2mc). C'est ainsi que pour la particule appelée méson , dont
la masse est 0.24 .10-27 kg, la portée est de l'ordre de 0.7 .10-15 m, (environ
1 fermi), voisine du diamètre d'un noyau atomique, environ 100 000 fois plus
petit que celui de l'atome.
Mesures actives
J'appelle mesure active une mesure dont le dispositif expérimental échange
nécessairement de l'énergie avec l'objet ou le phénomène mesuré ; c'est le cas, par
exemple, de toutes les mesures de physique quantique. Une telle mesure ne peut pas
ne pas perturber son résultat, même si c'est souvent de manière négligeable en
physique macroscopique ; et la perturbation causée est toujours irréversible.
Exemple : si je mesure au laser la distance de la Terre à la Lune, en émettant un
faisceau laser de la Terre qui se réfléchit sur un réflecteur posé sur la Lune, puis
en calculant la distance à partir du temps mis par la lumière à faire l'aller-retour,
un non-physicien croit que j'effectue une mesure qui ne perturbe pas la distance
Terre-Lune, contrairement à une mesure de physique quantique. Pourtant, en
toute rigueur, la mesure au laser produit une impulsion [20] lumineuse qui exerce
une poussée sur le réflecteur lunaire, modifiant ainsi la distance mesurée. L'erreur
196
ainsi introduite est si minime qu'il n'est pas question d'en tenir compte
quantitativement, mais elle existe.
Autre exemple : une mesure de tension au voltmètre perturbe la tension mesurée
du fait de la petite consommation de courant du voltmètre, dont l'aptitude à peu
perturber se mesure en ohms par volt ; un voltmètre à 20 000 ohms/volt est plus
perturbateur qu'un voltmètre à 100 000 ohms/volt.
Mesures passives
J'appelle mesure passive une mesure qui n'échange pas d'énergie avec l'objet ou le
phénomène mesuré. Si je mesure la hauteur d'une étoile au-dessus de l'horizon grâce
à la lumière que j'en reçois, je ne perturbe pas ma mesure par un échange d'énergie ;
de même si je mesure la largeur d'un livre en la comparant à la graduation d'une règle
posée à côté.
197
Polémique
Je constate que je n'ai rencontré de personnes qui contestent l'existence d'une réalité
en soi (comme la matière) que parmi les philosophes comme l'immatérialiste Nietzsche
[205]. Ces personnes tentent de justifier les intuitions de leur doctrine (voir discussion
sur l'objectivité et la subjectivité). En niant l'existence d'une réalité en soi, ces
philosophes veulent réfuter le déterminisme, pour faire triompher la croyance en une
intervention transcendante de l'esprit dans tout ou partie des phénomènes physiques ;
leur combat est idéologique. C'est pourquoi, dans le débat [61], le philosophe
matérialiste André Comte-Sponville a répondu à l'un d'entre eux :
"Vous avez écrit 500 pages pour enfoncer une porte ouverte : montrer que la
croyance en Dieu est toujours possible. Mais qui le nie ? Vous ne verrez aucun
philosophe sérieux affirmer qu'il est impossible de croire en Dieu ! D'un point de
vue logique et métaphysique [371], chacun sait depuis longtemps - lisez Kant ou
Hume, Pascal ou Montaigne - que la croyance en Dieu est possible, que nous ne
pouvons prouver ni son existence ni son inexistence !"
Nous devons admettre qu'à l'échelle atomique la réalité a pour représentation des
équations produisant des fonctions d'onde probabilistes, et des opérateurs auto-
adjoints appelés "observables" avec leurs valeurs propres [278]. Ces notions ne sont
pas issues des sens ; et c'est parce que notre esprit doit se faire violence en admettant
des représentations si abstraites que Bohr conseillait de ne pas perdre de temps à
s'en faire des représentations mentales, mais d'accepter les prévisions calculées, y
compris avec les limitations de précision dues aux incertitudes.
198
peut dépasser celle de la lumière dans le vide, appelée c, et valant exactement (par
définition, car c'est une unité fondamentale) c = 299 792.458 km/s. Il y a 4 types
d'interaction physique [18].
Exemple : tout échange d'énergie par rayonnement électromagnétique (par
exemple lorsqu'un corps chaud se refroidit en émettant un rayonnement) met en
jeu un nombre entier de photons. L'énergie d'un photon de fréquence est
exactement égale à h, et l'échange d'énergie par rayonnement de fréquence
ne peut se faire que par quantités discontinues multiples de h.
Voici un exemple de différence entre une variable discrète (ici l'énergie d'un
rayonnement électromagnétique) et une variable continue à valeur imprécise (ici une
position dans l'espace). Une source lumineuse monochromatique de fréquence
rayonne chaque seconde une quantité d'énergie sous forme d'ondes
électromagnétiques, quantité discontinue multiple entier du quantum h. Mais la
position d'un électron en mouvement sous l'action d'un champ électrique est une
grandeur continue, dont la détermination à un instant donné est entachée d'une
incertitude au moins égale à la plus grande des deux largeurs suivantes :
La demi-largeur du paquet d'ondes accompagnant le déplacement de l'électron,
qui rend sa position imprécise ;
L'existence d'une longueur d'onde de Compton associée à la masse de l'électron
[134], longueur qui détermine une précision maximale de taille ou de position.
199
La non-conservation de l'énergie pendant un emprunt à l'espace environnant,
phénomène bien réel mais négligeable en physique classique, nous oblige elle aussi
à revoir la notion de déterminisme que nous devons à Newton et Lagrange.
Nous avons vu ci-dessus qu'une cause de départ, origine d'une interaction, pouvait
avoir plusieurs conséquences, dont une seule sera choisie au hasard lors de la
décohérence. Nous savons maintenant, en plus, que toute interaction (toujours sauf
peut-être la gravitation) est quantifiée et qu'à l'échelle atomique certaines valeurs
numériques associées à un état conséquence d'une interaction sont discrètes.
Le déterminisme des lois physiques doit donc être étendu pour tenir compte de la
nature quantifiée des interactions, ainsi que de la nature discrète possible des
variables d'état d'une conséquence.
A part les divers types de vibrations, le quantum qu'est le phonon intervient dans toutes
sortes de phénomènes de physique du solide comme la conductivité électrique, la
chaleur spécifique, la conductivité thermique, la supraconductivité, la ferroélectricité…
Nous devons donc nous habituer à ce que toutes sortes de phénomènes soient
quantifiés, donc discontinus et n'apparaissant qu'au-delà d'un certain seuil minimum.
C'est ainsi que lorsque deux objets sont en contact et que l'on veut déplacer l'un par
rapport à l'autre, l'existence de frottements a des effets atomiques et entraîne
l'existence d'un effort minimum et d'un bond minimum : un déplacement avec
frottement ne peut être continu. Notre déterminisme intuitif doit être révisé aussi dans
tout ce qui concerne les vibrations et les mouvements avec frottement.
200
3.5.9.10.5 Effets mécaniques et thermiques de la lumière
L'absorption ou l'émission de lumière - ou plus généralement des photons [117] d'un
rayonnement électromagnétique - par de la matière a trois sortes d'effets mécaniques
ou thermiques :
Un échange d'énergie thermique ;
Un échange d'impulsion lumineuse des photons contre de la quantité de
mouvement de l'objet matériel, qui a tendance à prendre ou céder de la vitesse
en vertu du principe de conservation de l'impulsion ;
Un photon de longueur d'onde a une impulsion p = h/ [20]. Malgré sa petitesse,
cette impulsion peut avoir un effet perceptible à l'échelle macroscopique :
lorsqu'un rayonnement lumineux tombe sur une surface ou en part, celle-ci subit
une poussée mécanique. Cette poussée se manifeste, par exemple :
Par la rotation d'un petit tourniquet à ailettes ;
Par la stabilité de certaines étoiles, dont l'enveloppe gazeuse subit une
pression des rayonnements venus du noyau qui équilibre la gravitation ;
Par la poussée que subit la Terre sous l'influence du rayonnement solaire :
environ 6 109 newtons (~600 000 tonnes-force), ce qui est peu par rapport à
la force de gravitation.
La lumière émise exerce une pression qui repousse la surface qui l'émet.
Un échange de moment cinétique entre les photons et l'objet matériel.
C'est ainsi qu'une lumière polarisée circulairement exerce un couple de rotation
sur une surface sur laquelle elle tombe, couple extrêmement faible mais non
nul ; chaque photon apporte un moment cinétique multiple entier de ä :
-2ä, -1ä, 0, +1ä, +2ä… dont le signe dépend du sens de rotation.
Voici des exemples de fronts d'onde polarisées circulairement cités par [330] :
Les phénomènes d'échange de chaleur sont connus de tout le monde, mais les
phénomènes d'échange d'impulsion et de moment cinétique ne sont connus que par
peu de personnes. Ils peuvent pourtant être lourds de conséquences :
En 28 mois, l'orbite du satellite artificiel Vanguard 1 ("Pamplemousse"), de 16 cm
de diamètre, a été déplacée de 1600 m par la pression du rayonnement solaire,
selon [105] page 823.
L'une des méthodes envisagées pour protéger l'humanité contre un astéroïde
qui risquerait de percuter la Terre consiste à y envoyer une équipe qui en
recouvrirait une partie d'un matériau réfléchissant comme une feuille de
201
plastique aluminisé, changeant ainsi la poussée de la lumière solaire sur lui,
donc sa trajectoire.
202
différent de B - ou avec un vecteur vitesse légèrement différent - pourra faire
rebondir A et B avec des vecteurs vitesse très différents.
On voit donc que les trajectoires possibles de la molécule (unique ou non), à partir
d'un point précis donné où elle avait un vecteur vitesse précis, peuvent être
représentées par une arborescence de conséquences où chaque nœud
représente un rebond et chaque branche une direction possible à partir de ce
nœud. Il y a bien multiplication des branches possibles de l'arborescence de
conséquences : la prévision d'une trajectoire à multiples rebonds est impossible,
on sait seulement que la trajectoire qui sera effectivement observée est l'une des
trajectoires possibles, associée à l'une des innombrables chaînes de
conséquences de l'arborescence des évolutions possibles.
203
Le principe de conservation de l'énergie peut être violé dans des
expériences où l'intervalle de temps Δt est très court : du fait de la relation
ΔE . Δt ½ä, une paire particule-antiparticule peut naître en empruntant son
énergie à l'espace environnant, se propager sur une courte distance et
disparaître par recombinaison en restituant l'énergie empruntée.
Cela se produit notamment lorsqu'un trou noir « s'évapore » en rayonnant des
particules et des antiparticules, processus connu sous le nom « d'effet (ou
rayonnement) Hawking ». Du fait du principe d'incertitude, plus l'intervalle de
temps Δt considéré est petit, plus la violation temporaire de la conservation
de l'énergie peut être grande (ΔE grand).
Autres violations possibles pendant un temps court : la conservation de
l'impulsion ; la conservation du nombre de particules (certaines peuvent
apparaître, d'autres peuvent disparaître ou se transformer…)
« L'effet tunnel » permet à un corpuscule de franchir une barrière de
potentiel, alors qu'en principe son énergie est insuffisante. C'est ainsi que,
dans certains transistors, un électron peut passer à travers un isolant. C'est
là un effet de la nature également ondulatoire de ce corpuscule : les ondes
de probabilité de présence traversant la matière, il existe une probabilité de
présence non nulle des deux côtés de la barrière (nous l'avons déjà vu).
Une mise en évidence expérimentale de la position d'une particule subissant
l'effet tunnel ne peut donner qu'un seul résultat, comme lors d'une
décohérence, alors que la particule a une probabilité de présence non nulle
dans toute une région de l'espace.
Autre paradoxe : la règle relativiste qui empêche une interaction de se
propager plus vite que la lumière conduit dans certains cas à l'apparition
dans les calculs de particules d'énergie négative. En renversant le sens du
temps, c'est-à-dire de la causalité, une énergie négative se comporte
comme une énergie positive. On interprète donc une particule d'énergie
négative qui remonte le temps comme une antiparticule d'énergie positive
qui le descend, l'antiparticule ayant la même masse que la particule d'origine
mais une charge électrique opposée.
Antiparticule : Pour que la causalité se produise bien dans le sens du présent
vers l'avenir, il faut qu'existe pour chaque particule chargée électriquement
une antiparticule de charge opposée et de même masse : l'électron de charge
négative -e [150] a pour antiparticule le positon (on dit aussi positron) de
charge +e ; au proton correspond l'antiproton ; à l'atome d'hydrogène
proton + électron correspond l'antihydrogène antiproton + positon, etc. C'est
ainsi que Dirac a découvert les antiparticules par raisonnement, avant que
leur existence soit prouvée expérimentalement. Et lorsqu'une particule
rencontre son antiparticule, elles s'annihilent en libérant de l'énergie et/ou en
créant une autre paire particule-antiparticule…
La validité du principe d'incertitude rend très approximatif le modèle atomique
proposé par Niels Bohr en 1913, modèle où un électron de masse m tourne à la
vitesse v autour de son noyau d'atome d'hydrogène selon une trajectoire
circulaire de rayon r analogue à celle de la Terre autour du Soleil [341].
En effet, pour que ce modèle soit plausible il faudrait que les incertitudes Δx sur
la position x de l'électron, et Δp sur son impulsion p = mv, soient négligeables
204
devant r et p respectivement, ce qui est loin d'être le cas pour les trajectoires de
niveau d'énergie habituel. (Nous avons déjà présenté les trajectoires
électroniques).
Par définition, si une équation représentant une loi physique reste invariable lors d'un
changement, on dit qu'elle est symétrique par rapport à ce changement : la symétrie
est ici synonyme d'invariance.
205
L'invariance par translation dans le temps traduit la stabilité des lois physiques
dans le temps. Si on change l'origine des temps, par exemple en faisant
commencer notre calendrier au début du XXI e siècle, le 1er janvier 2001, les lois
physiques sont inchangées. Cette invariance a une conséquence importante, la
conservation de la masse et de l'énergie d'un système isolé.
Ce type de symétrie est appelé symétrie temporelle, dénomination qui introduit
une confusion possible avec celle qui laisse invariante une équation par
changement de t en -t.
Invariance par changement de repère galiléen. Par définition, un changement de
repère galiléen fait passer d'un repère R(Ox ;Oy ;Oz) à un repère
R'(O'x' ;O'y' ;O'z') d'axes parallèles à ceux de R et en mouvement rectiligne
uniforme parallèle à Ox à la vitesse v par rapport à R ; à l'instant t=0, les origines
des deux repères O et O' coïncident. Dans un tel changement, un vecteur r de R
devient r - vt dans R'.
Cette symétrie traduit le fait que certaines lois physiques sont les mêmes pour
deux observateurs en mouvement rectiligne uniforme l'un par rapport à l'autre. Elle
implique notamment le « principe d'additivité des vitesses » [36], dont voici un
exemple : si, dans un train qui roule à 100 km/h, je marche de l'arrière vers l'avant
à la vitesse de 5 km/h, ma vitesse par rapport au sol est 100 + 5 = 105 km/h.
Ce type de symétrie est appelé symétrie galiléenne du nom du physicien Galilée.
Elle fait partie des hypothèses de base de la mécanique rationnelle de Newton
[110], qui suppose l'existence d'un espace (et d'un temps) absolus. Ces
hypothèses et la symétrie galiléenne sont des approximations, acceptables
seulement lorsque les vitesses sont négligeables par rapport à la vitesse de la
lumière, c : nous allons voir cela à propos de l'invariance relativiste.
Invariance relativiste. En 1887, Michelson et Morley ont observé que la vitesse
de la lumière est constante dans toutes les directions de l'espace. Elle ne
s'ajoute donc pas à la vitesse de déplacement de la Terre autour du Soleil
(30 km/s), à celle du Soleil en direction de l'étoile de la Lyre (20 km/s), à celle
due à la rotation de la Galaxie, etc. La vitesse de la lumière est donc une donnée
invariante, une constate de l'Univers.
Pour tenir compte de cette invariance, Lorentz a proposé en 1904 une
transformation linéaire permettant un changement de repère qui préserve
l'invariance des lois de la dynamique. Il suffit de remplacer la loi galiléenne
r' = r - vt par une loi qui change simultanément l'espace et le temps ; on passe
alors du repère (R) où les coordonnées sont (x ; y ; z ; t) à un repère (R') où elles
sont (x' ; y' ; z' ; t') comme suit :
𝑣
′
𝑥 − 𝑣𝑡 𝑡− 𝑥
𝑥 = 𝑡′ = 𝑐²
y' y z' z
√1 − 𝑣² √1 − 𝑣²
𝑐² 𝑐²
206
(On a choisi les axes de (R) et (R') parallèles, le mouvement de (R') par rapport à
(R) parallèle à Ox à vitesse constante v, et l'instant 0 de (R) coïncidant avec
l'instant 0 de (R') ).
Ce type de symétrie est appelé symétrie relativiste ; c'est celle de la théorie de la
Relativité Restreinte d'Einstein [49].
Lorsque la vitesse relative v est très faible par rapport à c, cette loi de changement
de repère équivaut à la loi galiléenne d'additivité des vitesses :
x' = (x - vt) ; y' = y ; z' = z ; t' = t
La symétrie relativiste :
Contracte ou dilate l'espace (les longueurs) selon le sens du déplacement
par rapport à un observateur ; mais (surprise !) une sphère en mouvement
reste sphérique, elle ne devient pas un ellipsoïde.
Dilate le temps pour une horloge en mouvement, qui prend du retard par
rapport à une horloge fixe (par exemple lors des voyages en avion).
Sépare deux événements simultanés distincts de (R), distants de Δx, à la
fois dans l'espace et dans le temps dans (R').
La relativité affecte la causalité, donc le déterminisme : si deux événements
situés en des endroits distincts A et B sont simultanés, l'un ne peut être cause
de l'autre ; mais vus d'un troisième point, C, distinct de A et B, ils ne sont plus
simultanés. Si l'observateur en C ne connaît pas l'emplacement spatial de A
et B et ne sait pas qu'ils sont simultanés, il peut croire que l'un est cause de
l'autre. Pour plus de détails voir l'espace-temps de Minkowski.
La symétrie relativiste conserve les lois de la dynamique à condition de
transformer les longueurs, les durées et les masses conformément aux équations
de Lorentz. C'est ainsi, par exemple, que la masse m d'un corps qui vaut m0 au
repos varie avec la vitesse v selon la loi
m0
m
v²
1
c²
m0 c ²
E
v²
1
c²
Cette énergie tend vers l'infini lorsque v tend vers c : pour accélérer une masse
au repos m0 jusqu'à la vitesse c, il faudrait une énergie infinie ; aucun corps pesant
ne peut donc atteindre la vitesse de la lumière, et les plus puissants accélérateurs
de particules ne peuvent accélérer celles-ci au-delà d'une énergie de l'ordre de
207
10 000 GeV (1.6 .10-6 joule), correspondant pour un proton à 99.9999995 % de la
vitesse de la lumière.