0% ont trouvé ce document utile (0 vote)
36 vues159 pages

Cours Phys Stat

Physique statistique

Transféré par

Aymen El
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues159 pages

Cours Phys Stat

Physique statistique

Transféré par

Aymen El
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

1

Physique statistique
par Frédéric Faure 1

Cours, exercices corrigés, illustrations animées


(version 1.0.1 du 05/01/2025)

1.

Université Grenoble Alpes, France


[Link]@[Link]
2

Remarque 0.0.1.
— La version de ce cours au PDF, les solutions aux exercices et autres documents, se trouvent sur la
page web [Link] . Il y a un forum de
discussions.
— Dans la version électronique PDF de ce document, les couleurs sur le texte sont souvent des liens vers
des pages de wikipedia pour avoir plus d’informations ou vers d’autres documents ou vidéos.
— Les paragraphes avec la mention (*) sont complémentaires, peuvent être sauté en première lecture.
— copyright CC BY-NC : © Frédéric Faure, 2025. Ce document est distribué sous licence Creative Com-
mons Attribution. Pas d’Utilisation Commerciale 4.0 International (CC BY-NC 4.0). Vous pouvez copier,
partager et adapter ce contenu, mais uniquement à des fins non commerciales, et en mentionnant l’au-
teur.
Table des matières

I Probabilités 9

1 Dynamique probabiliste 11
1.1 Mesure de probabilité sur un espace fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Mesure de probabilité sur X = Rd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Transformations de loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Probabilités d’évènements indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Loi induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Loi des grands nombres et théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5 Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.2 (*) Cas d’un espace X fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.3 (*) Entropie pour un espace X infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6 Dynamique de Markov probabiliste et état d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.6.1 Dynamique de Markov sur un espace fini X avec temps discret . . . . . . . . . . . . . . . 31
1.6.2 Dynamique de Markov en musique (*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.6.3 Augmentation de l’entropie : “2ème principe” . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.7 Exercices et problèmes corrigés sur les probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.7.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.7.2 Dynamique stochastique de Markov. Convergence vers un état d’équilibre. . . . . . . . . 41
1.7.3 Entropie et suites typique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.7.4 (*) Entropie d’un oscillateur harmonique quantique à l’équilibre thermique . . . . . . . . 43
1.7.5 Loi de Boltzmann dans un modèle simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.7.6 Théorème Central Limite (TCL). Dynamique stochastique de “pile ou face”. . . . . . . . . 44
1.7.7 Les états statistique quantiques. Opérateur densité et entropie . . . . . . . . . . . . . . . . 46
1.7.8 (optionnel) Modèle simple de décohérence quantique . . . . . . . . . . . . . . . . . . . . . 46

II Systèmes sans interactions 49

2 Mécanique des ondes et des particules 51


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.2 Émergence de la dynamique Hamiltonienne corpusculaire . . . . . . . . . . . . . . . . . . . . . . 52
2.2.1 Remarques sur les unités et les constantes F, h̄, k B , c de la physique . . . . . . . . . . . . . 52
2.2.2 Équations d’évolution ondulatoire et limite semiclassique . . . . . . . . . . . . . . . . . . 53
2.3 Formule de Weyl semi-classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.3.1 Rappel de géométrie sur le volume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.3.2 Exemple : une particule libre dans une boite uni-dimensionnelle. . . . . . . . . . . . . . . 61
2.4 Modèle du gaz parfait . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.4.1 Calcul de la densité d’états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5 Exercices et problèmes corrigés sur la loi de Weyl . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5.1 L’oscillateur harmonique et formule de Weyl . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5.2 Une particule libre dans une boite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5.3 N particules libres dans une boite à 3D. Gaz parfait. . . . . . . . . . . . . . . . . . . . . . . 64

3
TABLE DES MATIÈRES 4

3 Modèle de Boltzmann de l’équilibre thermodynamique 67


3.1 Système thermodynamique et hypothèse ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.1.1 Exemples et contre-exemples de systèmes thermodynamiques . . . . . . . . . . . . . . . . 68
3.1.2 Équations d’états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2 Exemple du gaz parfait : entropie et équation d’états . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3 Exercices et problèmes corrigés sur la thermodynamique . . . . . . . . . . . . . . . . . . . . . . . 73
3.3.1 Bases de calcul différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.3.2 Machines thermiques, pompes à chaleur et réfrigérateur. Cycle de Carnot. . . . . . . . . . 75
3.3.3 (optionnel) Gaz diatomique et propagation du son dans l’air . . . . . . . . . . . . . . . . . 77
3.4 Échanges entre deux systèmes thermodynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4.1 Relaxation vers l’état d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4.2 Mesure de probabilité de Gibbs-Boltzmann d’un micro-état . . . . . . . . . . . . . . . . . 80
3.5 Exemples de systèmes physique en contact avec un réservoir . . . . . . . . . . . . . . . . . . . . . 82
3.5.1 Moment magnétique dans un champ magnétique. . . . . . . . . . . . . . . . . . . . . . . . 82
3.5.2 Capacité thermique d’un matériau solide . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.5.3 Adsorption de particules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.6 Le principe variationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.7 Exercices et problèmes corrigés sur la loi de Boltzmann et échange d’énergie . . . . . . . . . . . . 89
3.7.1 Paramagnétisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.7.2 Capacité thermique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.8 Exercices et problèmes corrigés sur la loi de Boltzmann et échange de particules . . . . . . . . . . 93
3.8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.8.2 Adsorption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.8.3 Température négative dans une chaîne de spins . . . . . . . . . . . . . . . . . . . . . . . . 96

4 Statistiques quantiques 97
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.1 Champ et particules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.2 Fermions/Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.3 Liste des champs existants d’après le modèle standard (1970) . . . . . . . . . . . . . . . . 97
4.1.4 Grandeurs caractéristiques de chaque champ . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.1.5 Lois de conservation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.6 Désintégrations. Particules stables et instables . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.7 Compositions de particules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.2 Définition des Fermions et Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.2.1 (*) Statistiques quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.3 Distribution de Bose-Einstein et de Fermi-Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.4 Exercices et problèmes corrigés sur les Fermions et Bosons . . . . . . . . . . . . . . . . . . . . . . 105
4.4.1 Fermions et Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.4.2 (Optionnel) Statistiques quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.4.3 Comparaison des statistiques pour des particules dans un puits de potentiel harmonique 108
4.5 Interprétations et applications de la distribution de Bose-Einstein . . . . . . . . . . . . . . . . . . 109
4.5.1 Densité d’énergie des photons : la loi de Planck (1900). . . . . . . . . . . . . . . . . . . . . 109
4.5.2 Conséquences et applications de la loi de Planck . . . . . . . . . . . . . . . . . . . . . . . . 111
4.5.3 Propriétés de la distribution de Planck (voir figure) . . . . . . . . . . . . . . . . . . . . . . 111
4.5.4 Autres remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.5.5 La condensation de Bose-Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.6 Exercices et problèmes corrigés sur la loi de Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.6.1 Loi de Planck : gaz de photons à l’équilibre thermique . . . . . . . . . . . . . . . . . . . . 114
4.6.2 Nombre de photons par mètre cubes et “photons fossiles” dans l’univers . . . . . . . . . 116
4.7 Interprétations et applications de la distribution de Fermi-Dirac . . . . . . . . . . . . . . . . . . . 117
4.7.1 Interprétations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.7.2 Application de la distribution de Fermi : électrons dans un métal avec potentiel constant 118
4.8 Exercices et problèmes corrigés sur les électrons dans les métaux . . . . . . . . . . . . . . . . . . 120
4.8.1 Expansion de Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.8.2 Capacité calorifique des électrons d’un métal . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.8.3 (Optionnel) Paramagnétisme de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.9 Exercices et problèmes corrigés sur les étoiles naines blanches . . . . . . . . . . . . . . . . . . . . 121
4.9.1 Scénario d’évolution d’une étoile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.9.2 Etude d’un gaz d’électrons relativistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5 TABLE DES MATIÈRES

4.9.3 Application à l’étude des naines blanches . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

III Systèmes en interactions 125


5 Phases et transitions de phases 127
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.1.1 Phases de la matière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.1.2 Transitions de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.1.3 Coexistence de phases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.2 Modèle d’Ising du ferromagnétisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.2.1 Définition du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.2.2 Dynamique probabiliste de Markov d’un réseau de spins (Monte Carlo) . . . . . . . . . . 130
5.2.3 Méthode variationnelle du champ moyen dans le modèle d’Ising (Curie-Weiss) . . . . . . 131
5.2.4 Dualité de Kramers-Wannier pour le modèle d’Ising 2D (1940) . . . . . . . . . . . . . . . . 132
5.3 Exercices et problèmes corrigés sur les transitions de phase en ferromagnétisme . . . . . . . . . . 133
5.3.1 (optionnel) Méthode de Monte-Carlo pour le modèle d’Ising . . . . . . . . . . . . . . . . . 134
5.3.2 Le principe variationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.3.3 Méthode variationnelle du champ moyen dans le modèle d’Ising (Curie-Weiss) . . . . . . 135
5.3.4 (optionnel) Dualité de Kramers-Wannier pour le modèle d’Ising 2D (1940) . . . . . . . . . 136
5.4 Modèle BCS : transition de phase en supraconductivité . . . . . . . . . . . . . . . . . . . . . . . . 138
5.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5.4.2 Modèle d’un métal comme gaz d’électrons libres . . . . . . . . . . . . . . . . . . . . . . . . 139
5.4.3 Base de l’espace de Fock Fermionique et opérateurs de création/annihilation . . . . . . . 140
5.4.4 Interactions entre électrons et Hamiltonien B.C.S. . . . . . . . . . . . . . . . . . . . . . . . 142
5.4.5 Approximation du champs moyen, méthode variationnelle de Hartree-Fock-Bogoliubov 144
5.5 Exercices et problèmes corrigés les transitions de phase en supraconductivité. Modèle BCS . . . 151
5.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
5.5.2 Modèle d’un métal comme gaz d’électrons libres (rappel) . . . . . . . . . . . . . . . . . . . 152
5.5.3 Base de l’espace de Fock Fermionique et opérateurs de création/annihilation . . . . . . . 152
5.5.4 Interactions entre électrons et Hamiltonien B.C.S. . . . . . . . . . . . . . . . . . . . . . . . 154
5.5.5 Approximation du champs moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

A Formulaire 157
A.1 Série géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
TABLE DES MATIÈRES 6
Introduction

La physique statistique concerne la description du comportement collectif et émergent de plusieurs par-


ticules en interactions (ou plusieurs degrés de libertés, comme des ondes).
Le phénomène universel sous-jacent est la loi des grands nombres qui explique que la somme de plu-
sieurs comportements individuels aléatoires, imprévisibles, chaotiques, se comporte de façon déterministe et
prévisible.
Exemple 0.0.2. Considérons un flocon de neige tombant sur le sol depuis un nuage. Sa position au sol est
imprévisible. Cependant, si plusieurs flocons tombent, après quelques heures, le sol est recouvert d’une épais-
seur uniforme de neige. Cette épaisseur, ainsi que sa vitesse de croissance peut être prévisible. Cela vient du
fait que la chute de chaque flocon est statistiquement identique aux autres et indépendante des autres.

Historique
Les lois de la thermodynamique ont été découvertes au XIXème siècle. Pour un système donné (ex. un gaz,
un fluide dans une enceinte) ces lois sont basées seulement sur une fonction S ( E, V, N ) appelée entropie qui
dépend de paramètres conservés globalement : l’énergie totale E de ce système, le volume total V, le nombre
de particules total N. Les paramètres physique importants de ce système seront donnés par les variations
de cette fonction (ses dérivées), qui respectivement sont appelées pour des raison historiques, la température
  −1    
T = ∂E ∂S
, la pression p = T ∂V∂S
, le potentiel chimique µ = − T ∂N
∂S
.
A la fin du XIXème siècle, la physique statistique a expliqué comment la thermodynamique est une théorie
émergente à l’échelle macroscopique, à partir d’une description microscopique : les multiples degrés de liber-
tés des particules qui composent le gaz et interagissent de façon complexes et chaotique. Avec la physique
statistique, on a obtenu une explication de l’expression de la fonction entropie S ( E, V, N ). C’est le sujet de ce
cours.
Références : Diu et al. (1989, p.201).

Références et liens conseillées :


— Livres de physique sur la physique statistique : Diu et al. (1989); Balian (2007), Couture & Zitoun (1992)
— Livres plus avancés : Pottier (2000).
— Livres de mathématiques sur la physique statistique et les probabilités : Friedli & Velenik (2017), Cover
(1999).

7
TABLE DES MATIÈRES 8
Première partie

Probabilités

9
Chapitre 1

Dynamique probabiliste

Introduction : La physique statistique est basée sur une étude probabiliste des phénomènes collectifs. Dans
ce chapitre on étudie quelques notions fondamentales en théorie des probabilités, qui sont indispensables et
sont à la base de la physique statistique, mais qui ont des applications plus générales.

1.1 Mesure de probabilité sur un espace fini


En physique, la notion de “probabilité” et de “variables aléatoire” est une confrontation entre un grand
nombre de données expérimentales de nature “aléatoire” et un modèle théorique appelé “loi de probabilité”
qui permet d’extraire un comportement prédictif. On présente d’abord les données expérimentales, appelées
“suite empirique”.
Dans ce premier paragraphe, pour simplifier, on va considérer un espace fini à n ≥ 1 éléments

X = {1, 2, . . . n}

on dit qu’il est de cardinal n = ♯ X. On appellera X, l’espace des données ou espace des évènements.

Définition 1.1.1. Une suite empirique (ou données expérimentales) est une suite

( x t ) t ∈N = ( x 0 , x 1 , x 2 , . . . )

où pour t ∈ N,
xt ∈ X = {1, 2, . . . , n} .

Exemple 1.1.2. “au jeu de dé”, X = {1, 2, . . . , 6} et un tirage pourrait donner par exemple la suite

( xt )t = (1, 5, 4, 3, 2, 1, 3, . . .)

Noter que en pratique cette suite n’est pas infinie, et que chaque valeur de cette suite résulte de phénomènes
physique complexes qui sont le mouvement du dé, ses rebonds, l’amortissement, etc.

Exemple 1.1.3. “suite de Benford”. X = {1, 2, . . . , 9}. Par définition, pour t ∈ N,

xt := premier chiffre de 2t en base 10. (1.1.1)

On calcule au préalable la suite

2t

t ∈N
= (1, 2, 4, 8, 16, 32, 64, 128, 256, . . .)

En prenant le premier chiffre de chaque élément, on déduit la suite empirique de Benford

( xt )t∈N = (1, 2, 4, 8, 1, 3, 6, 1, 2, . . .)

Remarquer que cette suite résulte d’une formule déterministe simple. On expliquera le comportement de cette
suite ci-dessous en section 1.1.13.

11
CHAPITRE 1. DYNAMIQUE PROBABILISTE 12

Définition 1.1.4. Une observable (ou fonction test) est une fonction

f : X → R (ou C)

et la moyenne empirique de f pour une suite empirique ( xt )t est la série

1 t −1
t t∑
⟨ f ⟩ x[0,t−1] := f ( xt′ ) , t ∈ N. (1.1.2)
′ =0

où x[0,t−1] est la restriction de la suite aux t premiers éléments : x[0,t−1] := ( x0 , x1 , x2 , . . . , xt−1 ) .

Exemple 1.1.5. Par exemple pour une valeur k ∈ X donnée, la fonction


(
1 si x = k
f k ( x ) = δx=k = (1.1.3)
0 sinon

donnera une moyenne empirique qui est la proportion de valeur k parmi les t premiers éléments 1 :

1 
⟨ f k ⟩ x[0,t−1] = ♯ xt′ = k, t′ ∈ {0, . . . , t − 1} ∈ [0, 1] .
t
Avec ces “fonctions de base” ( f k )k∈X on peut construire pour chaque instant t, un histogramme qui est la
fonction

X → R+
(
Ht : .
k → ⟨ f k ⟩x
[0,t−1]

Jusqu’à présent on a parlé de suite empirique et moyenne empirique. On va maintenant parler de mesures
de probabilité et moyenne statistique ou espérance. Ensuite on verra comment ces deux notions sont reliées.

Définition 1.1.6. Une mesure de probabilité (ou variable aléatoire ou loi de probabilité) est une
fonction positive (
X → R+
p:
x → p (x)
telle que
∑ p ( x ) = 1. (1.1.4)
x∈X

Pour une fonction (observable) f : X → R, on définit l’espérance (ou moyenne statistique) par rapport
à la mesure p
E p ( f ) := ∑ p ( x ) f ( x ) , (1.1.5)
x∈X

parfois (et souvent en physique) notée ⟨ f ⟩ p = E p ( f ).

Remarque 1.1.7. On notera P ( X ) l’ensemble des mesures de probabilité sur X. Il sera utile de considérer la
fonction p ∈ P ( X ) comme un vecteur de composantes ( p ( x )) x∈X et de même pour la fonction f , de compo-
santes ( f ( x )) x∈X . En introduisant le vecteur 1 = (1, 1, . . . 1), et le produit scalaire l 2 entre deux vecteurs u, v
défini par
⟨u|v⟩ := ∑ u x v x ,
x∈X

on observe que la relation de normalisation (1.1.4) s’écrit

⟨1| p ⟩ = 1

et la définition (1.1.5) s’écrit


E p ( f ) = ⟨ p| f ⟩ .
1. Le signe ♯ A appelé cardinal de l’ensemble A signifie le nombre d’élements dans l’ensemble A. Par exemple ♯ {2, 3, 5, 7} = 4.
13 1.1. MESURE DE PROBABILITÉ SUR UN ESPACE FINI

La définition suivant confronte les données expérimentales et la mesure de probabilité :

Définition 1.1.8. On dit qu’une mesure de probabilité p modélise une suite empirique ( xt )t∈N si pour
toute fonction (observable) f : X → R,

lim ⟨ f ⟩ x = Ep ( f ) . (1.1.6)
t→∞ [0,t−1]

On dit aussi que la suite ( xt )t est une suite typique pour la mesure p.

Remarque 1.1.9. Comme la formule (1.1.6) est linéaire en f , il suffit de la vérifier pour des fonctions de base
comme les fonctions f k en (1.1.3).

Exemple 1.1.10. (que vous pouvez réaliser vous même). Pour le jeu de dé, X = {1, 2, . . . 6}, pour un “dé
parfait” c’est à dire bien équilibré, on peut supposer que la loi de probabilité p ( x ) = 16 (qui ne dépend pas
de x) modélise toute suite empirique (suite expérimentale que l’on peut faire). On vérifie que ∑ x∈X p ( x ) = 1.
Considérons par exemple la fonction (ou observable)

f ( x ) = δx=1 + δx=2 .

Alors la moyenne empirique ⟨ f ⟩ x est la proportion des chiffres 1 et 2 parmi les t premiers lancés et la
[0,t−1]
moyenne statistique est E ( f ) = ∑ x p ( x ) f ( x ) = 1
6 + 1
6 = 13 . On prédit donc que limt→∞ ⟨ f ⟩ x 0,t−1 = 13 .
[ ]

Exemple 1.1.11. La loi de probabilité p ( x ) = δx=1 modélise des suites empiriques où “presque tous les évè-
nements” sont égaux à 1. On peut appeler une telle loi, une “loi presque-déterministe”. (Par définition, une
suite suivant une “loi déterministe” aurait dans ce cas, tous ses évènements égaux à 1.)

Exemple 1.1.12. La suite empirique ( xt )t = {0, 1, 0, 1, 0, 1, . . .} de structure périodique est modélisée par la loi
de probabilité uniforme p (0) = p (1) = 21 . Noter que cette suite ne semble pas aléatoire.

Exemple 1.1.13. La suite de Benford (1.1.1) est modélisée par la mesure de probabilité sur X = {1, 2, . . . , 9},
 
1 1
p (x) = ln 1 + .
ln 10 x

Ainsi on obtient que p (1) = 30%, p (2) = 17%, .., p (9) = 4%. Pour la preuve, voir Faure (2014b, page 9).
L’explication vient du fait que la mesure est uniforme sur une échelle logarithmique et que la suite de Benford
s’exprime comme une rotation d’angle irrationnel :

Voir vidéo de Arte sur la loi de Benford.

Exemple 1.1.14. (*) Voici une suite empirique qui n’est modélisée par aucune de mesure de probabilité. X =
{0, 1},
 

 

( xt )t∈N = |{z}
1 , 0, 0 , 1, . . . , 1, 0, . . . , 0, 1, . . . , 1, . . .
 n =1 |{z} | {z } | {z } | {z }
 

1 n2 =2 n3 =6 n4 =18 n5

avec
j −1
nj = 2 ∑ nk .
k =1
CHAPITRE 1. DYNAMIQUE PROBABILISTE 14

j
Démonstration. Soit Nj = ∑k=1 nk . On va montrer que

1
Si j pair alors ⟨ x ⟩ Nj ≤ ,
3
2
Si j impair alors ⟨ x ⟩ Nj ≥ ,
3

ce qui implique que ⟨ x ⟩t = ⟨ x ⟩ x n’a pas de limite pour t → ∞ et contredit (1.1.6). En effet, si j est pair alors
0,t−1
[ ]

j −1
!
1 1
∑ nk

⟨ x ⟩ Nj = n 1 + n 3 + . . . + n j −1 ≤  j −1 
Nj ∑ k =1 n k + n j k =1
 
1 1 1
=   nj = .
1 2 3
2 nj + nj

et si j est impair alors

1  nj nj 2
⟨ x ⟩ Nj = n1 + n3 + . . . + n j ≥ =   = .
Nj Nj 1 3
2 nj + nj

1.2 Mesure de probabilité sur X = Rd

En physique les phénomènes sont très souvent modélisés par des points dans des espaces X admettant des
coordonnées x = ( x1 , x2 , . . . xd ) ∈ Rd . On dit que

X = Rd

est un espace réel de dimension d (finie) (plus généralement on peut considérer une variété différentielle
réelle de dimension d). Par exemple la position d’une particule est x = ( x1 , x2 , x3 ) ∈ R3 , l’état de la particule
en mécanique du point est ( x1 , x2 , x3 , p1 , p2 , p3 ) ∈ R6 où p = ( p1 , p2 , p3 ) sont les coordonnées des l’impulsion,
etc.
On note

dx = dx1 dx2 . . . dxd

l’élément de volume associé à ces coordonnées sur cet espace X. La mesure dx est appelée la mesure de Le-
besgue et servira de “mesure de référence”. Dans la suite on utilisera comme exemple la droite réelle X = R
de dimension d = 1 avec la mesure de Lebesgue dx = dx1 .
L’espace X contient donc un nombre infini de points x etRce qui change avec la section précédente est
que les sommes ∑ x∈X .. sont remplacées par des intégrales x∈X ..dx. On va préciser cela, en reprenant les
définitions du paragraphe précédent.
On rappelle que si f , g : X → C sont deux fonctions dérivables à support compact (i.e. nulles hors d’un
intervalle, et on note f , g ∈ Cc∞ ( X )) alors on définit leur produit scalaire L2 par

Z
⟨ f | g⟩ L2 (X,dx) := f ( x ) g ( x ) dx. (1.2.1)
X
15 1.2. MESURE DE PROBABILITÉ SUR X = Rd

Définition 1.2.1. Une mesure de probabilité (ou variable aléatoire ou loi de probabilité) est une
mesure p ( x ) dx avec la fonction positive (ou distribution positive) appelée densité de probabilité
(
X → R+
p:
x → p (x)

telle que Z
p ( x ) dx = 1. (1.2.2)
X
(ce qui s’écrit aussi ⟨1| p⟩ = 1 avec la fonction 1 ( x ) = 1, ∀ x). Pour une fonction (appelée observable ou
fonction test ) f : X → R, f ∈ Cc∞ ( X ), on définit l’espérance de f (ou moyenne statistique)
Z
E p ( f ) := p ( x ) f ( x ) dx = ⟨ p| f ⟩ , (1.2.3)
X

aussi notée en physique ⟨ f ⟩ p = E p ( f ).

Remarque 1.2.2. On notera P ( X ) l’ensemble des mesures de probabilité sur X. Attention à la notation et
au vocabulaire : p ( x ) dx est appelée la mesure de probabilité et le pré-facteur p ( x ) est appelé densité de
probabilité. On verra plus tard (au chapitre loi induite) l’utilité de garder le symbole dx dans la mesure lorsque
l’on fait des changements de variable.

Remarque 1.2.3. Attention une mesure de probabilité n’est pas toujours une fonction continue, c’est en général
ce qui est appelé une distribution p sur X, vérifiant ∀ f ∈ Cc∞ ( X, R+ ), ⟨ f | p⟩ ≥ 0 et ⟨1| p⟩ = 1. Voir ci-dessous
l’exemple de la distribution de Dirac qui ne correspond pas à une fonction.
La définition suivante confronte les données expérimentales et la loi de probabilité. Une suite empirique
( xt )t∈N est une suite de valeurs xt ∈ X.

Définition 1.2.4. On dit qu’une loi de probabilité p modélise une suite empirique ( xt )t∈N si pour toute
fonction (observable) f : X → R,
lim ⟨ f ⟩ x = Ep ( f ) . (1.2.4)
t→∞ [0,t−1]

On dit aussi que la suite ( xt )t est une suite typique pour la mesure p. (Définition précise en 1.5.7).

1 2
Exemple 1.2.5. Sur X = R, la densité de probabilité p ( x ) = π1/2
1
e− 2 x donne la mesure de probabilité p ( x ) dx
 normale N (0, 1). Plus généralement, pour une variable réelle aléatoire x ∈ R, la loi normale
appelé loi
N µ, σ2 de paramètres µ ∈ R (moyenne), σ2 > 0 (variance), est la mesure de probabilité
1 1 x −µ 2
p ( x ) dx = e− 2 ( σ ) dx
Z
R
avec la “constante de normalisation” Z > 0 tel que R p ( x ) dx = 1.

Exemple 1.2.6. Sur X = R, et pour a < b, la densité de probabilité p ( x ) = (b−1 a) si x ∈ [ a, b] et p ( x ) = 0 sinon,


donne la mesure de probabilité p ( x ) dx appelé “loi uniforme sur l’intervalle [ a, b]”.

Exemple 1.2.7. Sur X = R, si on considère la fonction (observable) f ( x ) = 1 si x ∈ [ a, b] et f ( x ) = 0 sinon,


appelée “fonction caractéristique ou fonction indicatrice de l’intervalle [ a, b]”, alors
Z b
Ep ( f ) = p ( x ) dx = ”Proba ( x ∈ [ a, b]) ”
a

Exemple 1.2.8. Sur X = R, pour un point x0 ∈ R, la mesure de Dirac (ou distribution de Dirac) δx0 est définie
par, pour toute fonction test f ∈ Cc∞ (R),
D E Z
f | δx 0 = f ( x 0 ) = f ( x ) δx0 ( x ) dx,

Remarquer que ⟨1|δx0 ⟩ = 1, donc δx0 est une mesure de probabilité.


CHAPITRE 1. DYNAMIQUE PROBABILISTE 16

Voici quelques exemples importants utilisés en probabilité, de fonctions (ou observables) f et des moyennes
associées E p ( f ) (défini en (1.2.3)) .

Définition 1.2.9. Pour la fonction f ( x ) = x, la moyenne E p ( f ) de f s’appelle la moyenne de la variable


aléatoire x : Z
µ = E p ( x ) = xp ( x ) dx. (1.2.5)
2
Pour la fonction f ( x ) = x − E p ( x ) , la moyenne E p ( f ) de f s’appelle la variance de la variable
aléatoire x :
 2  Z 2
Var ( x ) := E p x − E p ( x ) = x − E p ( x ) p ( x ) dx (1.2.6)
Z  
= x2 − 2xE p ( x ) + E p ( x )2 p ( x ) dx
 
= E p x2 − 2E p ( x )2 + E p ( x )2
 
= E p x 2 − E p ( x )2

et
σ = (Var ( x ))1/2 (1.2.7)
s’appelle l’écart type. m
Pour la fonction f ( x ) = x − E p ( x ) , la moyenne E p ( f ) de f s’appelle le moment d’ordre m.

Définition 1.2.10. A partir de données empiriques (expérimentales) ( xt )t = ( x0 , x1 , . . .), on peut


construire pour chaque valeur de t ∈ N un histogramme Ht : k ∈ [1, K ] → R définit par la moyenne
empirique
Ht (k) = ⟨ f k ⟩ x
[0,t−1]

où pour chaque k ∈ [1, K ], f k : X → R est une fonction (observable) telle que cette famille de fonction
( f k )k vérifie la relation appelée “partition de l’unité” :
K
∑ f k ( x ) = 1, ∀ x ∈ X.
k =1

Un exemple habituel est pour X = R, de choisir un “pas” δ > 0 et définir pour k ∈ Z


(
1 si x ∈ [kδ, (k + 1) δ]
f k (x) =
0 sinon

qui est la fonction caractéristique de l’intervalle [kδ, (k + 1) δ].

1.3 Transformations de loi de probabilité

On présente quelques opérations élémentaires utiles sur les lois de probabilité.

1.3.1 Probabilités d’évènements indépendants

La notion d’évènements indépendants est très importante et très simple : elle correspond à la géométrie
d’espace produit. Voici la définition.
17 1.3. TRANSFORMATIONS DE LOI DE PROBABILITÉ

Définition 1.3.1. Si pour j = 1, 2 on a deux mesures de probabilités


(
X j → R+
pj :
x → p j (x)

Alors sur l’espace produit X = X1 × X2 la mesure


(
X1 × X2 → R+
p: (1.3.1)
x = ( x1 , x2 ) → p ( x ) = p1 ( x ) p2 ( x )

est appelée mesure produit et modélise l’indépendance des variables x1 et x2 .


Au contraire, si p ( x ) ̸= p1 ( x1 ) p2 ( x2 ) ne se factorise pas, on dit que les variables x1 et x2 sont corrélées.
Une caractérisation (partielle) de la corrélation se fait par le degré de corrélation :

Cov1,2
r :=
V1 V2

avec la variance, pour j = 1, 2,  2 


Vj := E p xj − Ep xj

et la covariance
Cov1,2 := E p x1 − E p ( x1 ) x2 − E p ( x2 )
 

Exercice 1.3.2.
1. Montrer que
 2    2
Vj = E p xj − Ep xj = E p x2j − E p x j

Cov1,2 := E p x1 − E p ( x1 ) x2 − E p ( x2 ) = E p ( x1 x2 ) − E p ( x1 ) E p ( x2 )
 

2. Montrer que si les variables x1 et x2 sont indépendantes alors Cov1,2 = 0, donc le degré de corrélation
est r = 0.
3. Donner un exemple de variables non indépendantes mais avec r = 0.

1.3.2 Loi induite


Le concept de loi de probabilité induite est très important en physique (et mathématique). Avant de
présenter le formalisme général, commençons par considérer des exemples simples, parlant et utiles.

Exemple 1.3.3. Si pour le jeu de dés, x1 , x2 ∈ X = {1, 2, . . . 6} sont deux variables indépendantes de même loi
p ( x ) = 16 ,∀ x ∈ {1, . . . 6}, alors
1
p ( x1 , x2 ) = p ( x1 ) p ( x2 ) = .
36
On considère la somme
S = x1 + x2 ∈ {2, 3, . . . 11, 12} .

Intuitivement ou d’après la figure ci-dessous, la loi de S notée pS , appelée loi induite est donnée par la formule
générale (l’explication sera donnée en (1.3.3)) :

pS (S) = ∑ p ( x1 , x2 ) δx1 + x2 =S = ∑ p ( x1 , x2 ) (1.3.2)


x1 ,x2 ∈ X x1 ,x2 ∈ X
S= x1 + x2 fixe

où l’on rappelle que δx1 + x2 =S = 1 si x1 + x2 = S et δx1 + x2 =S = 0 sinon. Cela donne simplement par exemple
d’après le schéma ci-dessous,

1 1 1 1
p S (4) = 3 × = , p S (7) = 6 × = ,
36 12 36 6
CHAPITRE 1. DYNAMIQUE PROBABILISTE 18

6 7 8 9 10 11 12

5 6 7 8 9 10 11

4 5 6 7 8 9 10

3 4 5 6 7 8 9

2 3 4 5 6 7 8

1 2 3 4 5 6 7

1 2 3 4 5 6
La façon rigoureuse de justifier la formule (1.3.2) est de dire : s’intéresser à seulement la variable S revient à
ne considérer que des fonctions f (S)arbitraires (appelées observables ou fonction test) qui ne dépendent que
de S = x1 + x2 . Alors l’espérance est

⟨ f | pS ⟩ = ⟨ f | p⟩ = ∑
(1.1.5) x1 ,x2
f ( S ) p ( x1 , x2 ) = ∑ f (S) ∑ p ( x1 , x2 ) , (1.3.3)
S x1 ,x2 ∈ X
S= x1 + x2 fixe

et l’on déduit la formule (1.3.2). On reprendra ce formalisme dans le cas de variables continues, dans l’exercice
suivant.

Exemple 1.3.4. Considérons deux variables aléatoires x1 , x2 ∈ X = R indépendantes, chacune de loi normale
1 − x22
p (x) = e 2σ
Z
avec un écart type σ > 0 et Z > 0 qui est une constante de normalisation. On a alors
1 − 12 ( x12 + x22 ) 1 − 1 r2
p ( x1 , x2 ) = p ( x1 ) p ( x2 ) = 2
e 2σ = 2 e 2σ2 (1.3.4)
Z Z
avec les coordonnées polaires r, θ définies par
x1 = r cos θ, x2 = r sin θ.
On a la mesure de Lebesgue
dx1 dx2 = rdθdr (1.3.5)
Supposons que l’on cherche la loi induite pr (r ) sur la variable r. On considère une fonction arbitraire f (r )
(appelée “fonction test” ou “observable”) ne dépendant que de la variable r et on écrit
1 − 12 r 2
Z Z
⟨ f | pr ⟩ = ⟨ f | p ⟩ = f (r ) p ( x1 , x2 ) dx1 dx2 = f (r ) e 2σ rdrdθ (1.3.6)
(1.2.3) (1.3.4,1.3.5) Z2
2π − 12 r2
Z
= f (r ) e 2σ rdr.
Z2
On déduit que
2π − 12 r2
pr (r ) dr = e 2σ rdr (1.3.7)
Z2
On obtient le résultat attendu que pr (0) = 0, i.e. le cercle de rayon r = 0 est “non probable”, bien que
le point origine ( x1 , x2 ) = (0, 0) soit le maximum de la fonction p ( x1 , x2 ), i.e. le point “le plus probable”. Le
maximum de pr (r ) se situe à une valeur rmax > 0 telle que
dpr 1 2
= 0 ⇔ − 2 rmax + 1 = 0 ⇔ rmax = σ.
dr σ
Voici l’allure des fonctions p ( x1 , x2 ) et pr (r ) pour σ = 1, obtenues avec le logiciel ROOT 2 :
2. code script ROOT pour obtenir les figures :
19 1.3. TRANSFORMATIONS DE LOI DE PROBABILITÉ

[Link] (*) Définition générale


On présente le formalisme qui permet de considérer une loi induite en général. Cela contiendra les exemples
précédents.

Définition 1.3.5. Supposons donné une loi p X ( x ) dx sur la variable x ∈ X et une application C ∞

π : X → Y.

La loi induite pY (y) dy sur la variable y = π ( x ) est définie par : pour toute observable f : Y → R, on
a
⟨ f | pY ⟩ L2 (Y;dy) = ⟨ f ◦ π | p X ⟩ L2 (X;dx) . (1.3.8)
où ( f ◦ π ) ( x ) := f (π ( x )) est la fonction composée.

Remarque 1.3.6. On donne cidessous en (1.3.10) une expression plus concise de la loi induite pY . Pour cela, on
note π ◦ l’opérateur de composition (ou pull-back) des fonctions par π :

∞ ∞
(
◦ C (Y ) → C ( X )
π
f → f ◦π

On suppose qu’il y a des mesures dx, dy (arbitraires) respectivement sur les espaces X, Y. Cela permet de
définir les produits scalaires L2 ( X, dx ) et L2 (Y, dy) par (1.2.1). On définit alors l’opérateur L2 -adjoint

( π ◦ ) † : C ∞ ( X ) → C ∞ (Y )

par (pour tout f ∈ Cc∞ ( X ) , g ∈ Cc∞ (Y ))

⟨ f | (π ◦ )† g⟩ L2 (X,dx) = ⟨π ◦ f | g⟩ L2 (Y,dy) , (1.3.9)

et finalement la loi induite pY (y) sur Y (aussi appelée mesure push-forward) est donnée par

∀ f , ⟨ f | pY ⟩ L2 (Y;dy) = ⟨π ◦ f | p X ⟩ L2 (X;dx) = ⟨ f | (π ◦ )† p X ⟩ L2 (Y;dy)


(1.3.6) (1.3.9)

donc
pY = ( π ◦ ) † p X . (1.3.10)
On vérifie que c’est une loi de probabilité car

⟨1| pY ⟩ = ⟨1| (π ◦ )† p X ⟩ = ⟨π ◦ 1| p X ⟩ = ⟨1| p X ⟩ = 1.


TF2 *f2 = new TF2("f2","exp(-(x*x+y*y)/2)",-3,3,-3,3);
f2->Draw("surf4");
f2->Draw("glsurf1");

TF1 *f1 = new TF1("f1","x*exp(-x*x/2)",0,10);


f1->Draw();
TH1 * h = f1->GetHistogram();
h->SetTitle("p_{r}(r) = r exp(-r^{2}/2)");
h->SetXTitle("r");
h->SetYTitle("p_{r}(r)");
CHAPITRE 1. DYNAMIQUE PROBABILISTE 20

1.4 Loi des grands nombres et théorème central limite


La loi des grands nombres est fondamentale en physique et montre l’émergence d’un résultat “presque
sûr” (presque déterministe) à partir de la contribution de phénomènes aléatoires. Le théorème central limite
est plus fin et étudie les fluctuations autour de ce résultat.

Question 1.4.1. “Somme de variables aléatoires”. Si ( xt )t∈N sont des variables aléatoires indépendantes de
même mesure de probabilité p ( x ) dx (i.e. “identiquement distribuées”), on souhaite décrire pour t ≫ 1, la loi
PSt (s) ds de la somme
t −1
St = ∑ x t ′ = x 0 + x 1 + . . . x t −1 .
t ′ =0

Exemple 1.4.2. Voici quelques exemples concrets d’applications :


— Ce problème concerne par exemple la “marche aléatoire”, xt est un déplacement aléatoire à chaque
seconde d’un point et St est la somme des déplacements de ce point, donc le déplacement total à la date
t.
— En bourse, le cours d’une valeurs subit des variations aléatoires xt et la cours total St est la somme de
ces variations.
— Lorsqu’il neige, l’épaisseur de neige au sol St est la somme des contributions de chaque flocon xt qui se
pose de façon aléatoire.
— L’énergie d’un ensemble de particules est la somme des énergies de chaque particule.
Voici maintenant un exemple illustratif qui montre les phénomènes que l’on voudra énoncer et expliquer.
Exemple 1.4.3. Considérons la variable aléatoire x ∈ R avec la loi discrète

1
p (x) = (δ ( x ) + δ2 ( x )) .
2 1
Cette loi signifie que sa valeur est 1 avec probabilité 1/2 ou 2 avec probabilité 1/2. Alors on déduit que pour
la somme S2 = x0 + x1 formée par deux variables identiques, indépendantes de même loi p ( x ), on a

1
PS2 = (δ2 + 2δ3 + δ4 )
4
et de même pour la somme S3 = x0 + x1 + x2 ,

1
PS3 = (δ3 + 3δ4 + 3δ5 + δ6 ) .
8

Observations : on pourrait continuer avec les formules de combinatoire et observer que la distribution PSt
pour t ≫ 1, est de support dans l’intervalle [t, 2t], avec une concentration de pics en s = µt avec la moyenne

1 1 3
Z
µ = E p (x) = xp ( x ) dx = 1 + 2 = ,
2 2 2
21 1.4. LOI DES GRANDS NOMBRES ET THÉORÈME CENTRAL LIMITE

et plus précisément, que ce groupe central a une forme Gaussienne, centré en µt et de largeur σ t avec l’écart
type (1.2.7)
  1/2  1 1 1 1 1/2 1
2
σ = E p ( x − µ) = + = .
24 24 2
Si regarde de plus près, cette gaussienne est en fait une contribution de pics de Dirac, distants de 1. Hors de ce
groupe central les évènements, bien que en nombre infinis dans la limite t → +∞, deviennent extrêmement
rares et sont décrit par la théorie des grandes déviations 3 . Voir ces vidéos.

Remarque 1.4.4. On peut faire la même observation à partir d’une loi p ( x ) continue, mais dans ce cas on ne
peut pas faire d’étude combinatoire. En général il n’y a plus de superpositions de pics comme dans le cas ci-
dessus, chaque pic est isolé mais on observe encore une concentration vers la moyenne comme précédemment.
Cependant pour l’exprimer, il devient nécessaire d’utiliser la notion de “observable” et de normaliser la
somme par 1t .
Voici un énoncé précis et une preuve des ces phénomènes observés.

Théorème 1.4.5. « loi des grands nombres ». Si x1 , x2 , . . . sont des variables aléatoires indépendantes de
mêmeqmesure de probabilité p ( x ) dx, d’espérance (i.e. moyenne) finie µ = E ( x ) < ∞ et de écart type fini
σ = E ( x − µ)2 < ∞ alors la somme St = x0 + x1 + . . . + xt−1 renormalisée par 1/t

1
st = St
t
a une mesure de probabilité pst (s) qui vérifie que pour toute observable f ∈ Cc∞ ( X ),

⟨ f | pst ⟩ → ⟨ f |δµ ⟩ = f (µ) . (1.4.1)


t→∞

où δµ est la mesure de Dirac en µ. De façon concise on écrit a



pst (s) ds → δµ (1.4.2)
t→∞

a. La convergence (1.4.1) s’appelle “convergence au sens des distributions”, ou “convergence faible”, ou “convergence en
loi” et est notée avec une étoile ∗ comme en (1.4.2).

Remarque 1.4.6. Pour avoir le résultat (1.4.1) il a été important de considérer non pas la variable St mais la
variable 1t St qui est divisée par t, comme observé sur la figure .
Observer que la loi limite δµ dans (1.4.2) est une loi déterministe et ne dépend de la loi initiale p que par sa
moyenne µ. On dit que c’est un “résultat d’universalité”.

Démonstration. On considère pour simplifier l’espace des évènements X = R. On considère la fonction


(
Rt →R
π:
( x0 , . . . xt−1 ) → st = 1t ( x0 + x1 + . . . + xt−1 )

On cherche l’expression de la loi induite pst (s) ds pour t → ∞. Pour cela, on considère une fonction (obser-
vable) quelconque f : s ∈ R → f (s) ∈ R, et on écrit

⟨ f | p s t ⟩ L2 (R) = ⟨ f ◦ π | p ⟩ L2 (Rt ) . (1.4.3)

Les variables ( x0 , . . . xt−1 ) sont indépendantes, donc la loi globale est le produit

p ( x 0 , . . . x t −1 ) = p ( x 0 ) p ( x 1 ) . . . p ( x t −1 ) . (1.4.4)
(1.3.1)

Pour démontrer (1.4.1), on va voir qu’il est utile d’utiliser la transformée de Fourier, i.e. la décomposition sur
les modes de Fourier
φk : x ∈ R → eikx ∈ C (1.4.5)
3. Références conseillées : introduction An Introduction to Large Deviations for. Teletraffic Engineers. John T. Lewis1, un livre Den Hol-
lander (2008, chap1, chap2, section1.), plus développé : The large deviation approach to statistical mechanics by Hugo Touchette.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 22

avec k ∈ R, avec la “relation de fermeture”

dk
Z
Id = φ k ⟨ φ k |.⟩ . (1.4.6)

et avec l’application linéaire (appelée “ket”) ⟨ φk |.⟩ : u ∈ Cc∞ (R) → ⟨ φk |u⟩ ∈ C. Ainsi

dk
Z
⟨ f | pst ⟩ = ⟨ f |Id pst ⟩ = ⟨ f | φk ⟩⟨ φk | pst ⟩ . (1.4.7)
(1.4.6) 2π

Or
Z Z
−iks 1
⟨ φk | p st ⟩ = e pst (s) ds = e−ik t ( x0 +...xt−1 ) p ( x0 , . . . xt−1 ) dx0 . . . dxt−1
(1.4.3)
Z
1
= e−ik t ( x0 +...xt−1 ) p ( x0 ) . . . p ( xt−1 ) dx0 . . . dxt−1
(1.4.4)
Z t
−i kt x
= e p ( x ) dx

= (⟨ φk/t | p⟩)t (1.4.8)


(1.4.5)


!
2
−i kt x k k
φk/t ( x ) = e = 1−i x+O x
(1.4.5) t t

donc si ⟨ x2 | p⟩ < C (hypothèse de variance finie),


!
2
k k 2
⟨ φk/t | p⟩ = ⟨1| p⟩ − i ⟨ x | p⟩ + O ⟨ x | p⟩
t t
!
k k 2
= 1−i µ+O . (1.4.9)
t t

 t
Ensuite on utilise que X t = eln X = et ln X et que ln (1 + X ) = X + O X 2 et ⟨ φk |δµ ⟩ = φk (µ) = e−ikµ ,


!!t
k k 2
t
⟨ φk | pst ⟩ = (⟨ φk/t | p⟩) = 1−i µ+O
(1.4.8) (1.4.9) t t
!!!
k k 2
= exp t ln 1 − i µ + O
t t
!!! !!
k k2 k2
= exp t −i µ + O 2 = exp −ikµ + O
t t t
k2
 
O
= ⟨ φk |δµ ⟩e t
→ ⟨ φk |δµ ⟩
t→∞

Attention ce dernier résultat converge à k fixé pour t → ∞. Le fait que l’on considère des mesures de pro-
babilité, c’est suffisant pour terminer la preuve : on utilise le théorème de Levy 1.4.7 ci-dessous, (on vérifie
  1/2
l’hypothèse E pst (|s|) = E p (|s|) < E p | s |2 < M) qui donne
Cauchy−Schwartz

dk dk
Z Z
⟨ f | pst ⟩ = ⟨ f | φk ⟩⟨ φk | pst ⟩ → ⟨ f | φk ⟩⟨ φk |δµ ⟩ = ⟨ f |δµ ⟩.
(1.4.7) 2π t→∞ 2π (1.4.6)

Ce qui montre (1.4.1).


23 1.4. LOI DES GRANDS NOMBRES ET THÉORÈME CENTRAL LIMITE


Théorème 1.4.7. (*) “Théorème de Levy faible” Si µ j j ∈N
sont des mesures de probabilité de premier moment
uniformément bornée : ∃ M > 0, ∀ j, Eµ j (|s|) ≤ M et

∀k ∈ R, ∃µ̂k ∈ C, ⟨ φk |µ j ⟩ → µ̂k ,
j→∞

dk
R
alors µ = φk µ̂k 2π est une mesure de probabilité (i.e. ⟨ φk |µ⟩ = µ̂k ) et
(1.4.6)


µ j → µ. (1.4.10)
j→∞

Remarque 1.4.8. On utilise l’hypothèse ∃ M > 0, ∀ j, Eµ j (|s|) ≤ M dans la preuve ci-dessous. D’après le
théorème de Levy, le résultat est encore vrai sans cette hypothèse.

Démonstration. Comme µ j est une mesure de probabilité, on a la majoration générale de sa transformée de Fou-
R −iks R
rier : ∀k, ⟨ φk |µ j ⟩ = e µ j (s) ds ≤ µ j (s) ds = 1 et les fonctions µ̂ j : k → ⟨ φk |µ j ⟩ sont équicontinues
(1.4.5)
car on a
 
′ 1 ′ 1 ′ 1
e−ik s − e−iks = ei 2 (k−k )s − e−i 2 (k−k )s = 2 sin k − k′ s k − k′ s ,
 

2

donc par hypothèse sur le premier moment,

Z Z

µ̂ j k′ − µ̂ j (k) ≤ e−ik s − e−iks µ j (s) ds = k − k′

sµ j (s) ds
Z
= k − k′ |s| µ j (s) ds ≤ k − k′ M

On a donc (Théorème de Dini) convergence uniforme sur les compacts :∀K > 0, ∀ |k| ≤ K, ⟨ φk |µ j ⟩ − µ̂k ≤ ϵK,j
avec ϵK,j → 0. Par ailleurs si f est C ∞ , alors ses composantes de Fourier décroissent très vite : ∀ N > 0, ∃CN >
j→∞
0, |⟨ f | φk ⟩| ≤ CN ⟨k⟩− N .

dk
Z
⟨ f |µ j ⟩ = ⟨ f | φk ⟩⟨ φk |µ j ⟩ = ⟨ f |µ⟩ + r j
(1.4.7) 2π

avec

dk
Z
rj ≤ |⟨ f | φk ⟩| ⟨ φk |µ j ⟩ − µ̂k

dk dk
Z Z
≤ |⟨ f | φk ⟩| ϵK,j + CN ⟨k ⟩− N
|k|≤K 2π |k|≥K 2π
 
≤ CϵK,j + O ⟨K ⟩− N −1

 
Pour tout ϵ > 0, on choisit K assez grand de sorte que O ⟨K ⟩− N −1 < 1
2 ϵ, puis j assez grand de sorte que
1
CϵK,j < 2 ϵ, donnant r j < ϵ et donc r j → 0, c’est à dire (1.4.2).
j→∞
CHAPITRE 1. DYNAMIQUE PROBABILISTE 24

Théorème 1.4.9. « théorème central limite ». Si x1 , x2 , . . . sont des variables aléatoires indépendantes de même
mesure
r  de probabilité p ( x ) dx, d’espérance (i.e. moyenne) finie µ = E ( x ) < ∞ et de variance finie σ =

E ( x − µ)2 < ∞ et E x3 < ∞, alors la somme St = x0 + x1 + . . . + xt−1 décalée de µt et renormalisée


par √1 ,
t
1
st = √ (St − tµ)
t
a une mesure de probabilité pst (s) qui converge pour t → ∞ vers la loi normale N 0, σ2 :


∗ 1 − 1 ( s )2
pst (s) ds → Gσ (s) ds, avec Gσ (s) = e 2 σ , (1.4.11)
t→∞ Z
(qui signifie que pour toute observable f ∈ Cc∞ ( X ), ⟨ f | pst ⟩ → ⟨ f | Gσ ⟩).
t→∞

Démonstration. (*) en TD. On suit la même démarche que dans la preuve du théorème 1.4.5. Les seuls change-
ments sont (1) à cause du décalage de µt et pour cela on peut supposer que µ = 0 et (2) au lieu du facteur 1t ,
il faut mettre le facteur √1 . Au lieu de (1.4.8) on a
t
 t
⟨ φk | pst ⟩ = ⟨ φk/√t | p⟩ (1.4.12)

où avec un develeppoment de Taylor à l’ordre 2,


!
3
−i √k x k 1 k2 2 k
φk/√t ( x ) = e t = 1 − i√ x − x +O √ x
t 2 t t

donc si µ = ⟨ x | p⟩ = 0 (pour simplifier), ⟨ x2 | p⟩ = σ2 et si ⟨ x3 | p⟩ < C (hypothèse de moment fini 4 ),

1 k2 2
 3 
√ k k 3
⟨ φk/ t | p⟩ = ⟨1| p⟩ − i √ ⟨ x | p⟩ − ⟨ x | p⟩ + O 3/2 |⟨ x | p⟩|
t 2 t t
1 k2 2
 3 
k
= 1− σ + O 3/2 . (1.4.13)
2 t t

 3 t
1 k2 2
t 

√ k
⟨ φk | pst ⟩ = ⟨ φk/ t | p⟩ = 1− σ + O 3/2
(1.4.12) (1.4.13) 2 t t
  2
1k 2
 3 
k
= exp t ln 1 − σ + O 3/2
2 t t
!!
3
1 k2 2
   3 
k 1 k
= exp t − σ + O 3/2 = exp − k2 σ2 + O
2 t t 2 t1/2
3
 
O k
= ⟨ φk | Gσ ⟩e t1/2 → ⟨ φk | Gσ ⟩
t→∞

1 s 2 1 2 σ2
e−iks Z1 e− 2 ( σ ) ds = e− 2 k
R
où on a utilisé que (par intégrale Gaussienne) ⟨ φk | Gσ ⟩ = . Donc (et utilisant le
théorème de Levy 1.4.7)
dk dk
Z Z
⟨ f | p st ⟩ = ⟨ f | φk ⟩⟨ φk | pst ⟩ → ⟨ f | φk ⟩⟨ φk | Gσ ⟩ = ⟨ f | Gσ ⟩.
(1.4.7) 2π t→∞ 2π (1.4.6)

Ce qui montre (??).


Exercice 1.4.10. On considère le modèle suivant très simplifié de chute de neige. Le temps est discrétisé et à
chaque instant t ∈ N un flocon tombe à une certaine position discrète j ∈ {1, 2, . . . n}, selon une mesure de
probabilité uniforme. On note St ( j) ∈ N le nombre de flocons qui sont tombés à la position j et sur l’intervalle
de temps [0, t − 1], ainsi la fonction St : j → St ( j) représente le manteau neigeux à la date t. En utilisant la loi
des grands nombres et le théorème central limite, décrire pour j fixé, à différentes échelles la loi de probabilité
de St ( j) pour t ≫ 1.
4. En fait, on peut remplacer l’hypothèse E x3 < ∞, par ∃α > 0, E x2+α < ∞.
 
25 1.5. ENTROPIE

1.5 Entropie
1.5.1 Introduction
En termes simples on dit que l’entropie mesure le “désordre” ou “l’incertitude sur l’avenir”. L’entropie est
une valeur S sans dimension.
— Une valeur d’entropie élevée S ≫ 1 signifie qu’il y a beaucoup de désordre ou une grande imprévisi-
bilité (par exemple l’évènement “pile” au jeu de pile ou face ou l’évènement “jour ensoleillé” pour les
jours à venir à Grenoble)
— au contraire S ≈ 0 signifie que les évènements à venir sont prédictibles (par exemple l’évènement “jour
ensoleillé” pour les jours à venir à Dakar).
Précisément, on va définir l’entropie relative d’une mesure de probabilité p par rapport à une autre mesure
de référence m (ce seront dans les théorèmes 1.5.11 dans le cas fini et 1.5.13 dans le cas infini), comme étant le
taux d’incertitude pour une suite typique 5 d’évènements issue de cette loi de probabilité. L’entropie est à la
base de la physique statistique.
Voici la question à laquelle on va répondre ensuite. Cette question contient la définition d’entropie.

Question 1.5.1. Soit une mesure de probabilité donnée p : X → R+ , et ⃗xt = ( x1 , x2 , . . . xt ) une suite de
données avec x j ∈ X variables aléatoires indépendantes identiquement distribuées selon la loi p. La question est
d’estimer le nombre Nt de telles suites typiques ⃗xt de longueur t, c’est à dire qui apparaissent de façon probable
pour t ≫ 1. Montrer que
Nt ≈ etS
avec un taux S ≥ 0 appelé entropie qui s’exprime à partir de la loi p par (théorème de Shannon-MacMullen
1948 1.5.11)  
1
S = ∑ p ( x ) ln . (1.5.1)
x∈X
p (x)

Explorons tout d’abord cette question de façon heuristique (i.e. de façon non rigoureuse mais convain-
quante) sur des exemples.
Remarque 1.5.2. On  verra  en dans la section 1.6.3 qu’une expression générale et plus correcte de l’entropie est
m( x )
S = ∑ x∈X p ( x ) ln p( x) où m ( x ) est une “mesure de référence”, ici m ( x ) = 1.

Exemple 1.5.3. X = {1, 2} et on considère la loi de probabilité déterministe p (1) = 1, p (2) = 0. Une
suite typique de longueur t est ⃗xt = (1, 1, . . . 1) (ou en ajoutant quelques rares 0). Donc Nt ∼ 1 = e0×t ,
donnant S = 0, (conformément à (1.5.1) car ∑ x∈X p ( x ) ln p(1x) = 1 ln 1 + 0 ln 0 = 0 (avec la convention
0 ln 0 = limϵ→0 ϵ ln ϵ = 0)).

Exemple 1.5.4. X = {1, 2} et on considère la loi de probabilité uniforme p (1) = 21 , p (2) = 12 . Alors à chaque
étape les 2 évènement 1, 2 sont équiprobables, ainsi il y a Nt = 2t = e(ln 2)t suites typiques de longueur t,
par exemple ⃗xt = (1, 2, 2, 1, . . . , 2). Donc S = ln 2 ≈ 0.69, (conformément à (1.5.1) car ∑ x∈X p ( x ) ln p(1x) =
1
2 ln 2 + 21 ln 2 = ln 2).

Exemple 1.5.5. Cas plus général. X = {1, 2} et on considère la loi de probabilité quelconque p (1) = 1 − ϵ,
p (2) = ϵ avec un paramètre 0 ≤ ϵ ≤ 1 fixé. Les deux exemples précédents correspondaient aux cas ϵ = 0
et ϵ = 1/2. Une suite typique de longueur t ressemble à ⃗xt = (1, 1, 1, 2, 1 . . . , 1, 2, 1) avec une proportion
p (1) = 1 − ϵ de 1 et p (2) = ϵ de 2. On démontre ci-dessous en section [Link], (voir aussi en TD avec une
méthode combinatoire) que le nombre de telles suites typiques est

N t ≈ e Sϵ t

5. On rappelle que l’on a définit une suite typique dans la définition 1.1.8.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 26

avec
1
Sϵ = ∑ p ( x ) ln
p (x)
(1.5.2)
x∈X
1 1
+ p (2) ln
= p (1) ln
p (1) p (2)
1 1
= (1 − ϵ) ln + ϵ ln
1−ϵ ϵ
′
f′ f′

Observons que (utilisons que (ln f )′ = f donc ln 1f = − f )

dSϵ 1 1 1 1 1 1
= − ln + (1 − ϵ ) + ln − ϵ = − ln + ln
dϵ 1−ϵ (1 − ϵ ) ϵ ϵ 1−ϵ ϵ

d2 Sϵ 1 1
2
=− − <0
dϵ 1−ϵ ϵ
ainsi la fonction ϵ → Sϵ est concave et le maximum est

dSϵ 1 1 1
=0⇔ = ⇔ϵ=
dϵ ϵ 1−ϵ 2
dSϵ
qui correspond à la distribution uniforme donnant Sϵ= 1 = ln 2. La dérivée diverge aux bords : →
dϵ ϵ→ ±∞.
2 0,1
Voici le schéma 6

Remarque 1.5.6. Historiquement, en 1877, Boltzmann a introduit l’entropie et la formule S = k ln W qui est
gravée sur sa tombe. Par rapport à ce qui précède, ici W est le nombre d’état supposés équiprobables pour
un ensemble de particules de taille macroscopique (W = 2 dans le jeu de pile/face), et le résultat ln W étant
cependant énorme, on rajoute en physique une constante k très petite pour obtenir une valeur S = k ln W
de l’ordre de 1 (voir discussion en section 2.2.1). . En 1948, Shannon, ingénieur en télécommunications veut
estimer combien de copies Nt du même message il faut envoyer au minimum, pour compenser les modifica-
tions aléatoires des caractères lors du transfert. Il donne alors la définition et les propriétés que l’on va voir
ci-dessous Cover (1999).

[Link] Preuve rapide de la formule (1.5.2)


Cette preuve rapide est importante car elle montre le rôle joué par la loi des grands nombres. D’après
(1.3.1), la probabilité d’apparition d’une suite ⃗xt = ( x1 , x2 , . . . xt ) contenant des évènements indépendants de

6. Obtenu avec le script ROOT


TF1 *f = new TF1("f","x*log(1/x)+(1-x)*log(1/(1-x))",0,1);
f->SetTitle("S(#epsilon) =#epsilon*log(1/#epsilon)+(1-#epsilon)*log(1/(1-#epsilon));#epsilon;S(#epsilon)"); // Titre et axes
f->Draw();
27 1.5. ENTROPIE

même loi p est le produit des probabilité. On va utiliser ln (.) pour transformer ce produit en somme afin
d’utiliser la loi des grands nombres (1.4.2). On écrit
t
∏p

p (⃗xt ) = p ( x1 ) p ( x2 ) . . . p ( xt ) = xj
(1.3.1) j =1
!

t −t 1
t ∑tj=1 ln 1

= e ∑ j =1
ln p( x j ) ( ) = e−tSt
p xj
=e (1.5.3)

avec la quantité
t
1 1
St =
t ∑ ln p xj
.
j =1

La variable St est définie à partir de la suite aléatoire ⃗xt , donc St est une variable aléatoire. On cherche sa loi
de probabilité pSt (s) ds. D’après la loi des grands nombres (1.4.2),

pSt (s) ds → δS
t→∞

avec la moyenne   
1 1
S := E ln
p (x)
= ∑ p ( x ) ln
p (x)
,
x∈X

qui est l’entropie. Cela montre que pour t ≫ 1, la variable St a une loi déterministe : elle prend presque
xt ont toutes la même probabilité p (⃗xt ) ≈ e−tS .
surement la valeur S et d’après (1.5.3), les suites typiques ⃗
Toujours d’après la loi des grands nombre, cela est vrai pour presque toutes les suites donc

Nt × e−tS ≈ 1 ⇔ Nt ≈ etS .

Donnant l’expression (1.5.1).

1.5.2 (*) Cas d’un espace X fini


Dans cette section on considère une mesure de probabilité p ( x ) sur un espace fini X = {1, 2, . . . n}. Rap-
pel : on a définit en (1.1.6) qu’une suite empirique ( xt )t∈N ∈ X N est typique pour la mesure p si pour toute
observable f : X → R,
lim ⟨ f ⟩ x = Ep ( f ) .
t→∞ [0,t−1]

Ici on va devoir préciser la vitesse de cette convergence :

Définition 1.5.7. ( xt )t∈N ∈ X N est typique pour la mesure p si pour toute observable f : X → R,
∃C f > 0
1
⟨ f ⟩ x[0,t−1] − E p ( f ) ≤ C f t− 3 , ∀t ∈ N. (1.5.4)

On note S p l’ensemble des suites typiques pour la mesure p.

Remarque 1.5.8. Dans la description ci-dessus de la loi des grands nombres, la définition (1.5.4) signifie que la
suite est dans le groupe central.

Remarque 1.5.9. L’exposant − 31 dans (1.5.4) est choisit dans l’intervalle ] − 12 , 0[ et conviendra d’après le théo-
rème central limite.
Pour une suite ( xt )t∈N = ( x0 , x1 , . . .) on note

x[0,t−1] = ( Rt x ) = ( x0 , x1 , . . . xt−1 ) (1.5.5)



sa restriction aux t premiers termes, i.e. Rt est l’opérateur restriction. Ainsi on note Rt S p les suites ( x0 , x1 , . . . xt−1 )
à t éléments qui sont les restrictions des suites typiques de p. Par ailleurs, la probabilité de la suite x[0,t−1] =
( x0 , x1 , . . . xt−1 ) est  
p x[0,t−1] = p ( x 0 ) p ( x 1 ) . . . p ( x t −1 ) . (1.5.6)
(1.3.1)
CHAPITRE 1. DYNAMIQUE PROBABILISTE 28

On notera  


p Rt S p = p x[0,t−1] (1.5.7)
x[0,t−1] ∈ Rt (S p )

la probabilité de l’ensemble Rt S p . Un premier résultat important est le suivant

Théorème 1.5.10. Cover (1999, thm 3.1.2 p.51)Soit p ∈ P ( X ) une loi de probabilité et S p les suites typiques
associées. 
lim p Rt S p = 1, (1.5.8)
t→∞

c’est à dire que une longue suite empirique est une suite typique presque sûrement.


Il devient alors important de dénombrer le nombre de suites typiques x[0,t−1] ∈ Rt S p , autrement dit de
   
calculer le cardinal ♯ Rt S p et calculer p x[0,t−1] la probabilité individuelle d’une suite typique. C’est
t
donné par les résultats suivants et parfois appelé “AEP : asymptotic equipartition property” Cover (1999,
chap.3).

Théorème 1.5.11. Cover (1999, thm 15.7.1 p.475)”Shanon-MacMullen-Bricman” Soit p ∈ P ( X ) une loi de
probabilité sur un espace fini X. Alors pour toute suite typique ( xt )t ∈ S p ,
 
1 1
lim ln     = S ( p) (1.5.9)
t→∞ t p x [0,t−1]

avec
n  
1
S ( p) = ∑ p (x) ln p (x)
, (1.5.10)
x =1

appelée entropie de la mesure


  Eq.(1.5.9) signifie que pour t ≫ 1 les suites typiques ont des probabilités
p.
“presque” identiques : p x[0,t−1] = e−t(S( p)+o(1)) .
Conséquences :
1 
S ( p) = lim ln ♯ Rt S p (1.5.11)
t→∞ t

qui signifie que le nombre de suites typiques croit comme ♯ Rt S p = et(S( p)+o(1)) .


L’entropie vérifie
0 ≤ S ( p) ≤ ln n
et en particulier :
— Entropie nulle S ( p) = 0 si et seulement si p ( x ) = δx=k pour un certain k, i.e. p est une mesure presque
déterministe.
— Entropie maximale
S ( p) = ln n (1.5.12)
si et seulement si p ( x ) = n1 , ∀ x, i.e. p est la mesure uniforme.

Démonstration. On a
  t −1
p x[0,t−1] = p ( x 0 ) p ( x 1 ) . . . p ( x t −1 ) =
(1.5.6)
∏ p ( xt′ )
t ′ =0
! !
t −1 t −1 
1
= exp ∑

ln p ( xt′ ) = exp − ∑

ln
p ( xt′ )
= e−tSt
t =0 t =0
avec
1 t −1 1
t t∑
St = ln .
′ =0 p ( xt′ )
1
D’après la loi des grands nombres (1.4.2), appliquée ici à la fonction f ( x ) = ln p( x )
, la loi pSt de St converge
vers un Dirac vers la moyenne S

pSt → δS (1.5.13)
t→∞
29 1.5. ENTROPIE

avec
 
1 1
S = E ln
p (x)
=
(1.1.5) x
∑ p (x) ln p (x) .

Soit S p′ l’ensemble des suites typiques pour la mesure p et la fonction f ( x ) = ln p(1x) seulement c’est à
dire vérifiant (1.5.4). On a donc S p ⊂ S p′ . On admet que S p = S p′ . D’après le théorème central limite, on a

limt→∞ p Rt S p = 1 c’est à dire (1.5.8).
Par définition de S p on a donc (1.5.9) et par conséquence (1.5.11) car

♯ Rt S p e−t(S( p)+o(1)) ∼ 1.


Comme 0 ≤ p ( x ) ≤ 1 on déduit que S ( p) ≥ 0 et S ( p) = 0 ⇒ p ( x ) = 0 ou p ( x ) = 1, donc p = δx=k . On a


♯ Rt S p ≤ nt donc S ( p) ≤ ln n. Et pour p ( x ) = n1 , ∀ x, alors S ( p) = ln n.

1.5.3 (*) Entropie pour un espace X infini


On considère comme en section 1.2, une mesure de probabilité p ( x ) dx sur un espace X, de coordonnées
( x1 , . . . x d ).
Pour introduire le concept d’entropie, il faut introduire une autre mesure m = m ( x ) dx lisse (pas forcément
une mesure de probabilité, mais m ∈ C ∞ ( X )), et on suppose suppp ⊂ suppm. Il y a deux raisons pour
introduire cette autre mesure m :
1
1. la densité p ( x ) a l’unité inverse d’un volume dx, donc ln p( x )
dans (3.3.10) n’a pas de sens (on ne
m( x )
peut prendre que le log d’un nombre sans dimension). A la place on va considérer ln p( x) qui est sans
dimension.

2. Comme l’espace X est infini,
 le cardinal ♯ Rt S p dans (1.5.11) n’a pas de sens, on va le remplacer par
le volume Volm Rt S p pour la mesure m.

On reproduit les définitions et propriétés de la section 1.5.2. La définition 1.5.7 de suite typique ne change pas.
Pour une suite restreinte x[0,t−1] = ( Rt x ) = ( x0 , x1 , . . . xt−1 ), comme en (1.5.5), on définit comme en (1.5.6)

 
m x[0,t−1] = m ( x 0 ) m ( x 1 ) . . . m ( x t −1 ) , (1.5.14)
(1.3.1)


et pour remplacer le cardinal ♯ Rt S p dans (1.5.11) , on écrit

 Z  
Volm Rt S p := m x[0,t−1] dx[0,t−1] .
Rt (S p )


est le volume de l’ensemble Rt S p pour la mesure m. De même pour remplacer (1.5.7), on écrit

 Z  
p Rt S p = p x[0,t−1] dx[0,t−1] ,
Rt (S p )


qui est la probabilité de l’ensemble Rt S p . Le Théorème 1.5.10 ne change pas :

Théorème 1.5.12. Cover (1999, thm 3.1.2 p.51)Soit p ∈ P ( X ) une loi de probabilité et S p les suites typiques
associées. 
lim p Rt S p = 1, (1.5.15)
t→∞

c’est à dire que une longue suite empirique est une suite typique presque sûrement.

et aussi le même Théorème que 1.5.11 mais modifié :


CHAPITRE 1. DYNAMIQUE PROBABILISTE 30

Théorème 1.5.13. Cover (1999, thm 15.7.1 p.475)”Shanon-MacMullen-Bricman” Soit p ∈ P ( X ) une loi de
probabilité et m = m ( x ) dx une mesure sur X. Alors pour toute suite typique ( xt )t ∈ S p ,
  
1 m x [0,t−1]
Sm ( p) = lim ln    (1.5.16)
t→∞ t p x [0,t−1]

avec  
m (x)
Z
Sm ( p ) = p ( x ) ln dx, (1.5.17)
X p (x)
appelée entropie de la mesure p relative à la
 mesure
 m. Eq.(1.5.16) signifie  t ≫ 1 les suites typiques
 que pour
ont des probabilités “presque” identiques : p x[0,t−1] = e−t(S( p)+o(1)) m x[0,t−1] .
Conséquences :
1 
Sm ( p) = lim ln Volm Rt S p (1.5.18)
t→∞ t

qui signifie que le volume de suites typiques croit comme Volm Rt S p = et(S( p)+o(1)) .


L’entropie vérifie
Sm ( p) ≤ ln Volm ( X )
et en particulier :
— Entropie maximale S ( p) = ln Volm ( X ) si et seulement si p ( x ) = Vol 1(X ) m ( x ) , ∀ x est la mesure
m
uniforme pour m.
— Pour une mesure de Dirac p ( x ) = δx0 avec x0 ∈ X, on a S (δx0 ) = −∞.
— Voir ci-dessous une discussion sur les conditions pour avoir Sm ( p) ≥ 0.

Démonstration. On reprend la preuve page 28.


On a
t −1 t −1
  p ( xt′ )
p x[0,t−1] dx[0,t−1] = ∏

p ( xt′ ) dxt′ = ∏
′ m ( xt′ )
m ( xt′ ) dxt′
t =0 t =0
!
t −1
p ( xt′ )  
= exp ∑ ln m x[0,t−1] dx[0,t−1]
t ′ =0
m ( xt′ )
 
=e−tSt m x[0,t−1] dx[0,t−1]

avec
1 t −1 p ( xt′ )
St = ∑ ln
t t ′ =0 m ( x t ′ )
.

m( x )
D’après la loi des grands nombres (1.4.2), appliquée ici à la fonction f ( x ) = ln p( x )
, la loi pSt de St converge
vers un Dirac vers la moyenne S

pSt → δS (1.5.19)
t→∞
avec  
m (x) m (x)
Z
S = E ln = p ( x ) ln dx.
p (x) (1.2.5) X p (x)
m( x )
Soit S p′ l’ensemble des suites typiques pour la mesure p et la fonction f ( x ) = ln p( x) seulement c’est à
dire vérifiant (1.5.4). On a donc S p ⊂ S p′ . On admet que S p = S p′ . D’après le théorème central limite, on a

limt→∞ p Rt S p = 1 c’est à dire (1.5.15). Par définition de S p on a donc (1.5.16) et par conséquence (1.5.18)
car
Volm Rt S p e−t(S( p)+o(1)) ∼ 1.


On a Volm Rt S p ≤ (Volm ( X ))t donc S ( p) ≤ ln Volm ( X ). Et pour p ( x ) = Vol 1(X ) m ( x ), ∀ x, alors S ( p) =



m
m( x )
ln Volm ( X ). Pour une mesure de Dirac régularisée δxϵ0 ( x ) avec ϵ > 0, on a limϵ→0 δxϵ0 ( x )
= 0 donc S (δx0 ) =
 
m( x )
limϵ→0 ln δϵ ( x) = −∞.
x0
31 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE

[Link] Discussion sur la positivité de l’entropie Sm ( p) ≥ 0.


Supposons que
p ( x ) ≤ m ( x ) , ∀ x ∈ X, (1.5.20)
Alors d’après (1.5.17), on a
Sm ( p) ≥ 0.
Si Ω ⊂ X est un domaine tel que ∀ x ∈
/ Ω, p ( x ) = 0, c’est à dire que “la particule étudiée est dans Ω” alors
Z Z
Volm (Ω) = m ( x ) dx ≥ p ( x ) dx = 1,
Ω Ω

donc “une particule ne peut pas occuper un m-volume inférieur à 1”. On appelle donc l’hypothèse (1.5.20),
“principe d’incertitude”.
Si de plus p ( x ) = Vol 1(Ω) m ( x ), c’est à dire que la mesure de probabilité est m-uniforme sur Ω alors
m

Sm ( p ) = ln (Volm (Ω))
(1.5.17)

et Sm ( p) = 0 si Volm (Ω) = 1.
Remarque 1.5.14. En mécanique quantique, m = m ( x ) dx sera la mesure de Liouville sur l’espace des phases
(espace cotangent). L’hypothèse (1.5.20) est une conséquence du principe d’incertitude en mécanique ondula-
toire. On aura Sm ( p) = 0 à température nulle, cela est appelé le principe de Nerst, ou 3eme principe, car le
système est dans un état quantique.

1.6 Dynamique de Markov probabiliste et état d’équilibre


Le modèle de dynamique probabiliste de Markov présenté dans cette Section modélise l’évolution d’une
loi de probabilité au cours du temps. Ce modèle est à la base de la plupart des modèles en physique, biologie,
etc. Il est à la base de l’algorithme de Google rank (pour classer les pages web), de l’algorithme de monte-carlo,
de l’argument d’Einstein de la balance détaillée en 1905 pour expliquer la distribution de Planck du corps noir
d’un gaz de photon à l’équilibre thermique.
On présente ici le modèle de Markov sur un espace X fini et avec un temps discret t ∈ N.

Références :
— Chapitre 4 de ce cours Faure (2016).

1.6.1 Dynamique de Markov sur un espace fini X avec temps discret

Définition 1.6.1. Soit X = {1, 2, . . . n} l’espace des évènements que l’on suppose fini. Une matrice
stochastique M est une matrice M = Mx′ ,x x′ ,x∈X ∈ Rn×n réelle de taille n × n à coefficients Mx′ ,x ∈


[0, 1] appelés probabilités de transition de x vers x ′ , vérifiant


n
∀ x ∈ X = {1, . . . n} , ∑ Mx′ ,x = 1, (1.6.1)
x ′ =1

(i.e. la somme sur chaque colonne est 1). A l’instant t = 0, on considère une mesure de probabilité
pt=0 ∈ P ( X ) sur X, i.e. un vecteur ( p0 ( x )) x∈X vérifiant ∑ x p0 ( x ) = 1. La loi d’évolution de Markov
est que la mesure de probabilité pt ∈ P ( X ) à la date t ∈ N est donnée pour tout t ≥ 1 par

pt = Mpt−1 . (donc pt = Mt p0 ) (1.6.2)

Remarque 1.6.2. On verra des exemples simples et concrets ci-dessous. Cette loi d’évolution (1.6.2) correspond
à des phénomènes très courants en physique. Par exemple supposons que l’on connait bien le système à la
date t = 0 : il est dans l’état x = 1 ∈ X. Cela est donc modélisé par la mesure de proba p0 = (1, 0, . . . 0). Mais
à cause des transitions aléatoires x → x ′ de probabilité de transition Mx′ ,x données, on ne peut pas prédire
précisément l’état du système à la date t. On peut seulement prédire qu’il sera dans un état x ∈ X quelconque
avec la probabilité pt ( x ) où la mesure de probabilité pt est donnée par (1.6.2).
CHAPITRE 1. DYNAMIQUE PROBABILISTE 32

Exercice 1.6.3. (*) Montrer que la condition (1.6.1) est nécessaire et suffisante pour que : si pt−1 ∈ P ( X ) est
une mesure de probabilité alors pt+1 ∈ P ( X ) est aussi une mesure de probabilité et que cette condition (1.6.1)
s’écrit aussi
M T 1 = 1,
avec la matrice transposée M T et le vecteur 1 = (1, 1, . . . 1).

Solution 1.6.4. En effet

∀ p ∈ P (X) , Mp ∈ P ( X )
⇔∀ p ∈ R , ∑ ( Mp) x ′ = ∑ p ( x )
n

x′ x
⇔∀ p ∈ Rn , ⟨1| Mp⟩ = ⟨1| p⟩
D E
⇔∀ p ∈ Rn , M T 1| p = ⟨1| p⟩
⇔ MT 1 = 1
 
⇔ ∑ MT = 1 ⇔ ∑ Mx′ ,x = 1.
x,x ′
x′ x′

Remarque 1.6.5. Du fait de son importance en science, l’équation d’évolution de Markov (1.6.2) est apparue
avec des variantes, dans différents domaines avec différents noms et s’appelle aussi “équation maitresse”, ou
“équation de Fokker Planck discrète”, ou “équation de Kolmogorov”,...

Question 1.6.6. Décrire le comportement de la mesure de probabilité pt pour t → ∞ en fonction de p0 et M.

La réponse à cette question sera donnée par le célèbre théorème de Perron-Frobenius 1.6.13.
Remarque 1.6.7. La formule matricielle pt = Mpt−1 donne pt = Mt p0 en fonction de p0 qui est un produit de
matrices donnant une expression très compliquée et incalculable en général :

pt x ′ = ∑ ∑ . . . ∑ Mx′ ,xt−1 Mxt−1 ,xt−2 . . . Mx1 ,x0 p0 (x0 )



x t −1 x t −2 x0

qui est une somme sur toutes les suites x0 → x1 → x2 . . . → xt−1 aussi appelés “chemins”. Pour cette raison
cette expression est aussi appelé “intégrale de chemins de Feynman”). En fait, pour calculer pt = Mt p0 il est
−1 t t −1
préférable de diagonaliser M  au préalable : M = PDP avec D = Diag (λ1 , λ2 , . . . λn ), ainsi M = AD A
où D = Diag λ1 , λ2 , . . . λn . De plus pour t → ∞ cette expression se simplifie si des valeurs propres ont un
t t t t

module plus petit. C’est que nous allons voir.


 
0 1
Exemple 1.6.8. Pour X = {1, 2}, la matrice M = représentée par le graphe suivant appelé graphe
1 0
de Markov associé correspond à une dynamique déterministe.

Dans ce cas il est  clair quele point x = 1 va évoluer  point x = 2 après une date t impair, etc. On a
au 
t 0 1 t 1 0
explicitement M = si t impair et M = si t pair, donc si au départ, p0 = ( a, b) alors
1 0 0 1
pt = ( a, b) si t est pair et pt = (b, a) si t est impair. Il n’a pas été utile de diagonaliser M dans cet exemple très
particulier que l’on considère comme “déterministe” (ici les valeurs propres de M sont {i, −i }). Un exemple
encore plus simple serait M = Id qui correspond à aucun mouvement.

1
 
2 0
Exemple 1.6.9. Pour X = {1, 2}, la matrice M = 1 représentée par le graphe suivant.
2 1
33 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE

On peut deviner que une trajectoire typique passera deux fois plus de temps sur le point x = 1 que le point
x = 2. Ci-dessous on va démontrer précisément que pt converge vers la mesure de probabilité pequil. appelée
mesure d’équilibre, qui est indépendante de p0 :
 2 
pt → pequil. = 3 . (1.6.3)
1
t→∞ 3

Remarque 1.6.10. Une différence cruciale entre cet exemple et le précédent est qu’ici on a
 3 1 
2 4 2
M = 1 1 , (1.6.4)
4 2

qui est une matrice à coefficients tous positifs et ce qui signifie que à partir du temps t = 2, il y a transition
possible de x à x ′ pour tout couple ( x, x ′ ). On dit que la matrice M est mélangeante.
Voici comment montrer rigoureusement (1.6.3) et ce sera la démarche générale pour répondre à la ques-
tion 1.6.6 . Il faut diagonaliser 7 la matrice M, i.e. la décomposer selon ses espaces propres E1 , E2 (si M est
diagonalisable) :
n
M= ∑ λk Πk
k =1
où λk ∈ C sont les valeurs propres de M et
Π k : Rn → Rn
est le projecteur spectral sur l’espace propre Ek associé à la valeur propre λk . Ces projecteurs vérifient les
relations
Π j Π k = Π k δj = k . (1.6.5)
Dans le cas où dimEk = 1, alors Πk = |Uk ⟩ ⟨Vk |.⟩ avec Uk appelé “vecteur propre à droite”, i.e. MUk = λk Uk
et Vk “vecteur propre à gauche” i.e. Vk M = λk Vk , vérifiant de plus Vj |Uk = δj=k d’après (1.6.5).
Interprétation géométrique :

Dans cet exemple on calcule 8


M = λ1 Π1 + λ2 Π2 (1.6.6)
avec
2
   
1
λ1 = 1, Π1 = |U1 ⟩⟨V1 |.⟩, U1 = 3
1 , V1 = .
3
1
− 13
   
1 −1
λ2 = − , Π2 = |U2 ⟩⟨V2 |.⟩, U2 = 1 , V2 .
2 3
2
7. Dans le cas général une matrice n’est pas toujours diagonalisable, il peut y avoir des blocs de Jordan, cf Appendice pour le cas
général.
8. Diagonaliser la matrice M = ADA−1 avec D diagonale. Pour cela, sur xcas en ligne :
[Link] on écrit M:=[[1/2,0],[1/2,1]]; D:=egvl(M); A:=egv(M);
inv(A); On vérifiera que simplify(A*D*inv(A));
  redonne bien la matrice M . On note A = (U1 , U2 , U3 ) vecteurs propres en colonnes
V1
définis à une constante près, A−1 =  V2  vecteurs propres en ligne.
V3
CHAPITRE 1. DYNAMIQUE PROBABILISTE 34

On a alors
Mt = (λ1 Π1 + λ2 Π2 )t = λ1t Π1 + λ2t Π2 (1.6.7)
(1.6.6) (1.6.5)

où λ1 = 1 et
1
| λ2 | t = = e−t ln 2 = e−t/τ
2t
qui tend exponentiellement vite vers 0 avec le temps caractéristique τ = ln12 ≈ 1.44. Donc
   
pt = Mt p0 = Π1 p0 + O e−t/τ = U1 ⟨V1 | p0 ⟩ +O e−t/τ
(1.6.2) (1.6.7) | {z }
1
 
−t/τ
= U1 + O e

Il y a donc convergence exponentielle de toute mesure de probabilité initiale p0 vers la mesure d’équilibre
 2 
pequil. := U1 = 3 .
1
3

On a démontré (1.6.3).
 1 
Remarque 1.6.11. “paradoxe sur l’entropie”. Si au départ on part de l’état uniforme, punif = 2 , on vient
1
 2  2

de montrer qu’il évolue vers l’état d’équilibre pequil. = 3 . Or d’après la formule (3.3.10) l’entropie de
1
3
   −1 1  1  −1
départ est S ( punif ) = ln 2 ≈ 0.69 supérieure à l’entropie finale S pequil. = 32 ln 23 + 3 ln 3 ≈ 0.63.
Paradoxalement, cette entropie décroît avec le temps. On verra au théorème 1.6.17 appelé “deuxième prin-
cipe de la thermodynamique”  que l’expression
 correcte
 de l’entropie à utiliser est plutôt l’entropie relative
S pequil. ( p (t)) = p1 (t) ln p2/3 + p2 (t) ln 1/3
(contenant les composantes de la mesure d’équilibre) qui
1 (t) p2 ( t )
elle augmente avec le temps.
Le résultat suivant montre que le phénomène de convergence vers une mesure d’équilibre observé dans
l’exemple précédent se produit généralement pour une matrice mélangeante comme on l’a vu avec (1.6.4).

Définition 1.6.12. Une matrice stochastique M est mélangeante si

∃t ≥ 1, ∀ x ′ , x ∈ X, Mt x′ ,x > 0.


Cela signifie que il existe un temps t auquel il est possible de transiter entre toute paire d’états x, x ′ .

Théorème 1.6.13. “Perron-Frobenius (1907)”. Si M est une matrice stochastique et mélangeante alors ses
valeurs propres (λk )k∈{1,2...n} vérifient

| λ n | ≤ | λ n −1 | ≤ . . . ≤ | λ 2 | < λ 1 = 1

i.e. la valeur propre dominante est λ1 = 1 et les suivantes sont de module strictement inférieur à 1. De plus le
projecteur spectral associé à λ1 est E
Π1 = pequil. ⟨1|.⟩

avec pequil. une mesure de probabilité vérifiant pequil. ( x ) > 0, ∀ x, appelée mesure d’équilibre. Par conséquent
toute mesure initiale p0 ∈ P ( X ), évolue selon
  1
pt = Mt p0 = pequil. + O e−t/τ , ∀τ > > 0. (1.6.8)
(1.6.2) ln |λ2 |−1

Il y a donc convergence exponentielle de toute mesure de probabilité initiale p0 vers la mesure d’équilibre pequil.
avec un temps caractéristique τ.

Remarque 1.6.14. Ce modèle précédent est à la base de la physique statistique, lorsque de nombreuses parti-
cules ou degrés de liberté interagissent. On pense (mais cela n’est pas encore rigoureusement démontré) que le
35 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE

“processus de thermalisation” est un processus de convergence local vers un état d’équilibre. Cela sera étudié
dans le chapitre 3.

Démonstration. (*) (ref : Brin Brin & Stuck (2002, p.78), Davies Davies & Davies (1996, p.355)). On note
( )
m
S1+ := u∈R , m
∑ u j = 1 et ∀ j, u j ≥ 0 = P (X) .
j =1

qui est le « simplex des mesures de probabilités ». Soit


(
P (X) → P (X)
f : Mu
u → [ Mu] := ∥ Mu∥l 1

f laisse P ( X ) invariant donc d’après le théorème de Brouwer f admet un point fixe :

∃u ∈ P ( X ) , f (u) = u

Cela implique qu’il existe λ1 > 0 tel que


Mu = λ1 u

Si M est mélangeante alors u ∈ Int (P ( X )) donc u x > 0, ∀ x ∈ X. Soit

1
M̃ := (Diag (u))−1 ◦ M ◦ Diag (u)
λ

alors
M̃1 = 1

donc M̃† préserve P ( X ). D’après le théorème de Brouwer

∃w ∈ P ( X ) , w j > 0, ∀ j, t.q. M̃† w = w

Soit ( )
m
D := (P ( X ) − w) ⊂ S0 := u∈R ,m
∑ uj = 0 .
j =1

On a
M̃∗ (D) ⊂ D

donc le spectre de M̃/S est contenu dans le disque unité. Si de plus M̃ est mélangeante alors il existe t ≥ 1 tel
0
que
 t
M̃† (D) ⊂ Int (D)
t
donc M̃† /S0
est contractante et donc son spectre est strictement inclu dans le disque unité.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 36

1.6.2 Dynamique de Markov en musique (*)


Sortant du domaine stricte des science, voici un morceau de musique composé et interprété par Magic
Malik en 2013, appelé “Chunky Delice”. Ce morceau est composé strictement à partir du graphe de Markov
suivant :

Ce graphe a 7 sommets. Les points rouges indiquent les extrémités des flèches pour les transitions entre
sommets. Le compositeur a utilisé un dé pour réaliser ce morceau Chunky Delice à partir de cette partition.
D’autres musiciens ont aussi utilisé les graphes de Markov. Par exemple le compositeur Iannis Xenakis
a utilisé des modèles dynamiques de Markov pour composer de la musique en s’inspirant de la physique
statistique.

1.6.3 Augmentation de l’entropie : “2ème principe”


Le deuxième principe de la thermodynamique est très célèbre car il affirme l’irréversibilité des phénomènes
physique, l’existence d’une “flèche du temps” et énonce que l’entropie d’un système physique isolé augmente.
C’est cependant un sujet très controversé car il est souvent difficile (et souvent hors de portée) d’obtenir un
énoncé satisfaisant et précis pour des dynamiques issues de modèles physique.
Il est intéressant de savoir que ce deuxième principe a une formulation précise dans le cadre des dyna-
miques de Markov étudiées dans cette section. En particulier en 1872, Boltzmann a tenté de démontrer ce
2ème principe dans le cadre de dynamique probabiliste de particules (modèle de Boltzmann) et obtenu ce que
l’on appelle le théorème H.
Pour cela on doit utiliser l’entropie Sm ( p) d’une mesure de probabilité p relative à une mesure m, comme
en (1.5.17) plutôt que l’entropie S ( p), Eq.(3.3.10). En effet, si on considère Eq.(3.3.10), d’après le théorème
de Perron Frobenius (1.6.8), la mesure uniforme punif = n1 d’entropie S ( punif. ) maximale va évoluer vers la
37 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE

mesure pequil qui a une entropie plus faible et donc l’entropie S ( p) diminue. Par contre, on va démontrer que
l’entropie relative Sm ( p) augmente toujours, c’est donc la bonne définition à considérer en général.
On rappelle la définition suivante :

Définition 1.6.15. Si p ∈ P ( X ) est une mesure de probabilité sur X et m une mesure sur X (i.e. on
demande seulement m ( x ) ≥ 0), l’entropie relative de p par rapport à m est
 
m (x)
Sm ( p) := ∑ p ( x ) ln . (1.6.9)
x∈X
p (x)

Remarque 1.6.16. L’entropie relative Sm ( p) est aussi appelée Kullback–Leibler divergence par ces auteurs qui
l’ont introduite en 1951.

Théorème 1.6.17. Cover (1999, p.34)”Augmentation de l’entropie relative”,“2ème principe de la thermo-


dynamique”, “Théorème H”. Si M est une matrice stochastique, pour tout mesure de probabilité p ∈ P ( X ) et
toute mesure m sur X, évoluant selon la dynamique de Markov, respectivement pt+1 = Mpt et mt+1 = Mmt ,
on a
S m t +1 ( p t +1 ) ≥ S m t ( p t ) . (1.6.10)

La preuve est donnée ci-dessous en section [Link].

Corollaire 1.6.18. En particulier si m = cpequil. est proportionnelle à la mesure d’équilibre qui vérifie
Mpequil. = pequil. , avec une constante c = ∑ x m ( x ) = Volm ( X ) > 0, alors mt = Mt m = m n’évolue
pas, et d’après (1.6.10), Sm ( pt ) augmente avec le temps t. De plus si la matrice M est mélangeante, alors
pt → pequil et donc
 
Sm ( pt ) → Sm pequil = ln (Volm ( X )) ,
t→+∞
 
i.e. l’entropie de pt augmente avec le temps et converge vers sa valeur maximale Sm pequil = ln (Volm ( X )).

[Link] (*) Preuve du théorème 1.6.17 “2ème principe”, suivant Cover (1999, p.34).
Pour cela on va utiliser quelques résultats intermédiaires importants.

Théorème 1.6.19. “Inégalité de Jensen” Cover (1999, p.25). Si f : R → R est une fonction convexe, i.e.
f ′′ (s) ≥ 0, ∀s ∈ R, et p ∈ P ( X ) une mesure de probabilité alors

E p ( f ) ≥ f E p (x) .

(1.6.11)

Si f est strictement convexe, i.e. f ′′ (s) > 0, ∀s ∈ R, et E p ( f ) = f E p ( x ) alors la loi est déterministe :


p = δµ avec µ ∈ R.

Démonstration. Cover (1999, p.25)On le vérifie d’abord pour une mesure p = αδx0 + (1 − α) δx1 supportée en
deux points, avec α ∈ [0, 1]. Dans ce cas E p ( f ) = α f ( x0 ) + (1 − α) f ( x1 ) et f E p ( x ) = f (αx0 + (1 − α) x1 )
donc l’inégalité de Jensen (1.6.11) correspond à l’inégalité de convexité de la fonction f :

α f ( x0 ) + (1 − α) f ( x1 ) ≥ f (αx0 + (1 − α) x1 ) .

Par récurrence sur le nombre de point, on déduit l’inégalité de Jensen pour une mesure supportée par un
nombre fini arbitraire de points et par passage à la limite, pour toute mesure p.

Théorème 1.6.20. “Inégalité de Log-Sum” Cover (1999, p.29). Pour des nombres quelconques a j , b j ≥ 0, j ∈
{1, . . . n}, on a ! 
n n
∑in=1 ai
  
ai
∑ i a ln
bi
≥ ∑ i a ln
∑in=1 bi
, (1.6.12)
i =1 i =1

et égalité si et seulement si ∃c, ∀i, bai = c.


i
CHAPITRE 1. DYNAMIQUE PROBABILISTE 38

Démonstration. Cover (1999, p.25). Supposons ai , bi > 0 et considérons la fonction f : s ∈ R+ → f (s) = s ln s.


On a f ′ (s) = ln s − 1, f ′′ (s) = 1s > 0 donc f est strictement convexe. Soit

bi ai
αi = , ti = .
∑ j bj bi

Alors ∑i αi = 1 et
∑i ai
 
bi ai
∑ αi ti = ∑ ∑ j bj bi
=
∑ j bj
i i
et l’inégalité de Jensen (1.6.11) pour la mesure de probabilité p = ∑i αi δti donne
!
∑ αi f ( ti ) ≥ f ∑ αi ti
i i
∑i ai ∑i ai
       
bi ai ai
⇔∑ ln ≥ ln
i ∑j j ∑ k bk ∑ k bk
b bi bi
! 
∑i ai
  
a
⇔ ∑ ai ln i ≥ ∑ ai ln
i
b i i ∑ k bk

On définit
Volm ( X ) := ∑ m (x) . (1.6.13)
x∈X

Théorème 1.6.21. “Inégalité de Gibbs”. Pour toute mesure de probabilité p et mesure m,

Sm ( p) ≤ ln (Volm ( X )) , (1.6.14)
1
Il y a égalité si et seulement si p ( x ) = Volm ( X )
m ( x ) , ∀ x.

Démonstration. On utilise ∑ x∈X p ( x ) = 1 et on écrit


 
p (x)
−Sm ( p) = ∑ p ( x ) ln
(1.6.9) x ∈ X m (x)
!  !
∑ x∈X p ( x )

≥ ∑
(1.6.12) x ∈ X
p ( x ) ln
∑ x∈X m ( x )
= − ln ∑ m (x) = − ln (Volm ( X )) .
x∈X

p( x )
Il y a égalité si et seulement si m( x )
= c, ∀ x avec c = Volm ( X ).

Quelques définitions : Si Y = X1 × X2 , et pY ( x1 x2 ) ∈ P (Y ) mesure de probabilité, mY mesure sur Y, on


définit la mesure induite p X1 sur X1 par

p X1 ( x 1 ) = ∑ pY ( x 1 , x 2 ) , (1.6.15)
x 2 ∈ X2

Ainsi ∑ x1 p X1 ( x1 ) = 1. Pour x1 ∈ X1 fixé, on définit la mesure conditionnelle p X2 ,x1 sur X2 ,

pY ( x 1 , x 2 )
p X2 ,x1 ( x2 ) := . (1.6.16)
p X1 ( x 1 )

Ainsi ∑ x2 p X2 ,x1 ( x2 ) = 1. On définit l’entropie relative conditionnelle



SmY ,X2 ( pY ) = p X1 ( x 1 ) S m X p X2 ,x1 (1.6.17)
2 ,x1
x 1 ∈ X1

qui est une moyenne des entropie relative

m X2 ,x1 ( x2 )
 


Sm X
2 ,x1
p X2 ,x1 = p X2 ,x1 ( x2 ) ln . (1.6.18)
(1.6.9) x ∈ X p X2 ,x1 ( x2 )
2 2
39 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE

Théorème 1.6.22. Cover (1999, p.23)“Chain rule for relative entropy”. Avec les définitions précédentes

SmY ( pY ) = SmX p X1 + SmY ,X2 ( pY ) . (1.6.19)
1

Démonstration. On a

mY ( x 1 , x 2 )
SmY ( pY ) = ∑ ∑ p ( x1 , x2 ) ln
(1.6.9) x1 x2 p ( x1 , x2 )
m X1 ( x1 ) m X2 ,x1 ( x2 )
 
= ∑ ∑ p X1 ( x1 ) p X2 ,x1 ( x2 ) ln
(1.6.16) x1 x2 p X1 ( x1 ) p X2 ,x1 ( x2 )
m X1 ( x 1 ) m X2 ,x1 ( x2 )
   
= ∑ p X1 ( x1 ) ln + ∑ ∑ p X1 ( x1 ) p X2 ,x1 ( x2 ) ln
(1.6.15) x1 p X1 ( x 1 ) x1 x2 p X2 ,x1 ( x2 )

= SmX p X1 + SmY ,X2 ( p) .
1
(1.6.9,1.6.17)

Corollaire 1.6.23. Avec les définitions précédentes, on a

SmY ,X2 ( pY ) ≤ 0, (1.6.20)


1
avec égalité si et seulement si p X2 ,x1 ( x2 ) = Volm X ( X2 )
m X2 ,x1 ( x2 ) , ∀ x2 ∈ X2 .
2 ,x1

Démonstration. On a


SmY ,X2 ( pY ) = p X1 ( x 1 ) S m X
2 ,x1
p X2 ,x1 (1.6.21)
(1.6.17) x ∈ X
1 1

Or   
Sm X
2 ,x1
p X2 ,x1 ≤ ln VolmX
2 ,x1
( X2 ) ,
(1.6.14)

∑ x 2 mY ( x 1 , x 2 )
VolmX
2 ,x1
( X2 ) =
(1.6.13)
∑ mX2 ,x1 (x2 ) (1.6.16
=
) m X1 ( x 1 )
x2
∑ x 2 mY ( x 1 , x 2 )
= = 1.
(1.6.15) ∑ x 2 mY ( x 1 , x 2 )

Donc SmX p X2 ,x1 ≤ 0 et SmY ,X2 ( pY ) ≤ 0.
2 ,x1
(1.6.21)

Preuve du théorème 1.6.17 “2ème principe” : Si M est une matrice stochastique, p ∈ P ( X ) et m une mesure
sur X, évoluant selon la dynamique de Markov pt+1 = Mpt , mt+1 = Mmt . On considère l’espace produit
Y = X1 × X2 qui est deux copies de l’espace X1 = X2 = X, contenant les couples possibles ( x1 (t) , x2 (t + 1))
pour les temps t, t + 1. Sur cet espace Y = X1 × X2 on a les mesures induites pY , mY : la probabilité d’un couple
( x1 , x2 ) est donnée par la dynamique de Markov

pY ( x1 , x2 ) := Mx2 ,x1 p ( x1 ) , mY ( x1 , x2 ) := Mx2 ,x1 m ( x1 ) . (1.6.22)

Concernant ces mesures, l’entropie relative est



S mY ( p Y ) = Sm X
1
p X1 + SmY ,X2 ( pY )
(1.6.19)

= Sm X
2
p X2 + SmY ,X1 ( pY ) (1.6.23)
(1.6.19)

où p X1 = pt , p X2 = pt+1 donc

S m t +1 ( p t +1 ) = Smt ( pt ) + SmY ,X2 ( pY ) − SmY ,X1 ( pY ) . (1.6.24)


(1.6.23)
CHAPITRE 1. DYNAMIQUE PROBABILISTE 40

Or
p X1 ( x 1 ) = ∑
(1.6.15) x ∈ X
pY ( x 1 , x 2 ) =
(1.6.22) x ∈ X
∑ Mx2 ,x1 p ( x1 ) =
(1.6.1)
p ( x1 )
2 2 2 2

donc
pY ( x 1 , x 2 ) Mx2 ,x1 p ( x1 )
p X2 ,x1 ( x2 ) = = = Mx2 ,x1
(1.6.16) p X1 ( x 1 )
(1.6.22) p ( x1 )
 
m X2 ,x1 ( x2 )
et de même m X2 ,x1 ( x2 ) = Mx2 ,x1 = p X2 ,x1 ( x2 ). Donc ln p (x )
= ln 1 = 0 et
X2 ,x1 2


Sm X
2 ,x1
p X2 ,x1 = 0.
(1.6.18)

SmY ,X2 ( pY ) = 0. (1.6.25)


(1.6.17)

Par ailleurs
SmY ,X1 ( pY ) ≤ 0
(1.6.20)

donc
S m t +1 ( p t +1 ) = Smt ( pt ) − SmY ,X1 ( pY ) ≥ Smt ( pt ) .
(1.6.24,1.6.25,)

1.7 Exercices et problèmes corrigés sur les probabilités


Introduction :
La physique statistique est basée sur une étude probabiliste des phénomènes collectifs. Dans ces exercices
on étudie quelques notions fondamentales en théorie des probabilités qui sont à la base de la physique statis-
tique : la loi normale qui est un exemple particulier de mesure de probabilité mais importante car elle émerge
dans les phénomènes collectifs, donnant la loi de Boltzman 9 . Elle émerge aussi avec le théorème central limite
lorsque l’on étudie des fluctuations autour d’une moyenne. On étudie aussi des lois d’évolution probabiliste
(modèle de Markov) convergeant vers une mesure de probabilité appelé état d’équilibre. On étudie le concept
d’entropie qui mesure l’imprévisibilité d’une suite d’évènements soumis à une loi d’évolution probabiliste.
Références : Diu et al. (1989), chap.I-2. p.8, Balian (2007) chap 2,3, Couture & Zitoun (1992), Cover (1999).

1.7.1 Loi normale


Solution en pdf. Vidéos de la correction de cet exercice : video partie 1, (30’), video partie 2, (10’), video
partie 3 (15’).

Par définition, pour une variable réelle aléatoire x ∈ R, la loi normale N µ, σ2 de paramètres µ ∈ R,


σ2 > 0, est la mesure de probabilité


1 1 x −µ 2
p ( x ) dx = e− 2 ( σ ) dx
Z
R
avec Z > 0 calculé ci-dessous, tel que R p ( x ) dx = 1.
9. On pourrait dire mesure de probabilité de Boltzmann. On rappelle que les termes suivants sont équivalents : « mesure de probabi-
lité », « distribution de probabilité », « fonction de distribution », « loi de probabilité ».
41 1.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES PROBABILITÉS

On rappelle la signification expérimentale d’une mesure de probabilité : si on fait une série de N expé-
riences identiques, et que l’on mesure le nombre de fois N[ a,b] où le résultat x appartient à un intervalle donné
[ a, b], la proportion N1 N[a,b] s’appelle la mesure empririque et on a la convergence

1
Z
N → p ( x ) dx.
N [ a,b] N →∞ x ∈[ a,b]

Voici une animation normal_law.gif pour N = 1 → 200 réalisée par ce programme en python nor-
mal_law.py.
1. Tracer l’allure de la densité de probabilité p ( x ). Calculer 10 la constante de normalisation
 Z. Calculer
l’espérance E ( x ) := xp ( x ) dx (aussi appelée moyenne ⟨ x ⟩) et la variance Var ( x ) = E ( x − E ( x ))2 .
11
R

2. Si ⃗x = ( x1 , x2 ) ∈ R2 avec x1 , x2 aléatoires indépendantes 12 de loi N 0, σ2 , donner la mesure de



1/2
probabilité de r = ∥⃗x ∥ = x12 + x22 , appelée distribution de Maxwell (aide : utiliser les coor-
données polaires x1 = r cos θ, x2 = r sin θ et dx1 dx2 = rdrdθ). Même question pour r = ∥⃗x ∥ avec
⃗x = ( x1 , x2 , x3 ) ∈ R3 ? Donner la valeur r la plus probable ? La moyenne 13 E (r ) ?
3. Application : dans un gaz à l’équilibre thermique de température T, le vecteur vitesse ⃗v = (v1 , v2 , v3 ) de
chaque molécule suit une loi normale p (⃗v) = 1z e− E/(kT ) avec E = 21 m ∥⃗v∥2 appelée la loi de Boltzmann
(pour une justification, voir TD1’). Par conséquent le module v = ∥⃗v∥ suit la distribution de Maxwell.
(Référence : Diu et al. (1989) p.350. Vérification expérimentale : voir Couture & Zitoun (1992) p169-170.)
(a) à température ambiante T = 300K, quelle est l’ordre de grandeur du module de la vitesse ∥⃗v∥ le
plus probable des molécules d’oxygène O2 ?
(b) Observation expérimentale de la distribution des vitesses : si chaque molécule émet par fluores-
cence, des photons d’une certaine longueur d’onde λ précise dans son référentiel, on observera
1+ β 1/2
 
dans le référentiel du laboratoire, d’après l’effet Doppler, une longueur d’onde λ′ = λ 1− β
∥⃗v∥
avec β = c . Utilisant la distribution de Maxwell, calculer la largeur observée ∆λ = |λ′ − λ| de la
raie spectrale en fonction de T. Voir Largeur Doppler Raie spectrale.
4. (*) Supposons que x1 ,x2 sont deux variables réelles aléatoires indépendantes de loi normale respectives
N µ1 , σ12 , N µ2 , σ22 . Montrer que x = x1 + x2 est une variable aléatoire de loi normale N µ, σ2 de
 

moyenne µ = µ1 + µ2 et variance σ2 = σ12 + σ22 (et donc σ ̸= σ1 + σ2 ). 14 .


Remarque 1.7.1. Cette propriété d’invariance par additivité est essentielle en physique. Le théorème
central limite montre que la loi normale est une loi stable (comme un “point fixe stable” en dynamique).
Voir exercice TD1, partie2. Le résultat de cette question permet de comprendre déjà que la variance
de la somme de t variables aléatoires indépendantes identiques S (t) = x1 + x2 + . . . xt est tσ2 , par
conséquent la variance de √1 S (t) est σ2 indépendante de t. Autrement dit, cela justifie la normalisation
√ t
par t.

1.7.2 Dynamique stochastique de Markov. Convergence vers un état d’équilibre.


Solution en pdf. video de la correction, (27’)
Référence : cours de systèmes dynamique, chap4,.
On considère un système dynamique aléatoire avec n ≥ 1 états possibles, où à chaque instant t ∈ Z l’état
du système est x (t) ∈ {1, 2, . . . n}. A l’instant t + 1 il prend la valeur x (t + 1) ∈ {1, 2 . . . n} au hasard avec
2 √
10. Aide : il faut que R p ( x ) dx = 1. On peut utiliser l’intégrale de Gauss R e−X dX =
R R
π. Avec le logiciel de calcul for-
mel xcas en ligne : [Link] on peut calculer cette intégrale en écrivant
int(exp(-x^2),x=-infinity..+infinity)
√ R
R∞ 2 ∞ 2
11. Aide : 0 X 2 e−X dX = 4π , 0 X 3 e−X dX = 12 .
12. Par définition si x1 , x2 sont aléatoires indépendantes alors la loi du couple est le produit des lois : p ( x1 , x2 ) dx1 dx2 =
( p ( x1 ) dx1 ) ( p ( x2 ) dx2 ) √ R
R∞ 2 ∞ 2
13. Aide : 0 X 2 e−X dX = 4π , 0 X 3 e−X dX = 12 .
14. Utiliser (et éventuellement montrer) que :
(a) généralement, si x1 , x2 sont deux variables aléatoires indépendantes de mesures de probabilité respectives P1 , P2 alors x = x1 + x2 est
de mesure de probabilité P = P1 ⋆ P2 (le produit de convolution).
R −iξx √
(b) Si F est la transformée de Fourier définie par(F ψ) (ξ ) := √1 e ψ ( x ) dx alors F ( P1 ⋆ P2 ) = 2π (F P1 ) (F P2 ).

x −µ 2
 
− 12 2 (ξ −ξ 2
(c) La transformée de Fourier d’un paquet d’onde Gaussien ψ ( x ) = eiξ 0 x e σ
est (F ψ) (ξ ) = σei(ξ 0 −ξ )µ e−2σ 0)
CHAPITRE 1. DYNAMIQUE PROBABILISTE 42

une probabilité de transition p x(t)→ x(t+1) = Px(t+1),x(t) où P = Px′ ,x x,x′ est une matrice n × n donnée appelée
matrice stochastique ou matrice de Markov indépendante de t. Ce processus s’appelle dynamique de Markov
ou chaine de Markov.
Par exemple, on a n = 3 états et les probabilités de transition Px′ ,x = p x→ x′ sont
1 1
p 1→1 = , p 1→2 = , p2→3 = 1, p3→1 = 1, (1.7.1)
2 2
les autres sont p x→ x′ = 0. Cet exemple se représente par le “graphe de Markov” suivant :

Voici une simulation illustrant l’évolution des lois de probabilité ut étudiée dans cet exercice et montrant
la convergence vers l’équilibre. Autres exemples.

1. Écrire la matrice P = Px′ ,x x,x′ dans l’exemple (1.7.1) ?
2. On décrit la connaissance du système à l’instant t par une distribution de probabilité ut ( x ) ≥ 0 telle
que ∑nx=1 ut ( x ) = 1. Dans le cas général, exprimer le vecteur ut+1 = (ut+1 ( x )) x∈{1,...n} ∈ Rn à partir
du vecteur ut ∈ Rn et de la matrice P. Que vaut ∑ x′ Px′ ,x à x fixé (somme sur les colonnes) ?
3. Par exemple dans le jeu de pile ou face, il y a n = 2 états possibles. Écrire l’expression de la matrice P
et dessiner le graphe de Markov. Supposer que à l’instant t = 0 l’état u0 est connu. Que vaut u (t) pour
t ≥ 1?
4. Pour l’exemple (1.7.1), on suppose l’état u0 ∈ R3 connu. Montrer 15 que pour t → ∞, ut → u∞ converge
exponentiellement vite vers un “état d’équilibre” u∞ que l’on calculera. C’est la propriété de “mé-
lange”.
5. Quelle matrice de Markov permet de générer une suite d’évènements aléatoires indépendants et de
même loi ?

1.7.3 Entropie et suites typique.


Solution en pdf. video de la correction, (25’)
Dans cet exercice on défini et étudie la notion d’entropie selon Shannon 16 (1949). Références : (Shannon,
MacMillan 1949)(Zinsmeister & Anderson (2000) p.22, Khinchin (2013) p.17, Cover (1999)).
Considérons un ensemble de n évènements possibles {1, 2 . . . n} ayant chacun la probabilité pi ≥ 0, i =
1, . . . n vérifiant ∑in=1 pi = 1, c’est à dire une “loi de probabilité finie”. Soit N ≥ 1. Considérons une suite de
N réalisations aléatoires indépendantes de ces évènements, notée
⃗i := (i1 , i2 , . . . , i N ) (1.7.2)

Comme exemple simple, on pourra considérer un jeu de pile/face, c’est à dire n = 2 évènements possibles,
mais de probabilités non égale (appelé loi de Bernouilli) :

p1 = 2/3 ≃ 0.7 > p2 = 1/3 ≃ 0.3.



1. Quel est le nombre total Ntot ( N ) de suites ⃗i ? Quelle est la probabilité p ⃗i pour que la suite ⃗i :=
(i1 , i2 , . . . , i N ) apparaisse ? Dans l’exemple pile/face, quelle est la suite la plus probable ? la moins pro-
bable ?
15. Aide : diagonaliser la matrice P = ADA−1 avec D diagonale. Pour cela, sur xcas en ligne :
[Link] on écrit P:=[[1/2,0,1],[1/2,0,0],[0,1,0]]; D:=egvl(P);
A:=egv(P); inv(A);  On vérifiera
 que simplify(A*D*inv(A)); redonne bien la matrice P . On note A = (U1 , U2 , U3 ) vecteurs propres
V1
en colonnes, A−1 =  V2  vecteurs propres en ligne. Déduire que Pt → |U1 ⟩⟨V1 |.
t→∞
V3
16. (ref : wikipedia “history of entropy”) L’histoire raconte que en 1949 Claude Shannon qui travaillait en télécommunication au
BELL labs a développé la théorie qui suit, en définissant une fonction H qu’il voulait appeler “incertitude”. Il rencontre le physicien-
mathématicien Von Neumann. Ce dernier lui fait remarquer qu’il devrait appeler sa fonction “entropie” pour deux raisons : 1) car cela
correspond au concept de l’entropie développée depuis Boltzmann et Gibbs 1872 qui mesure le “désordre”, et 2) car il deviendrait célèbre
en donnant enfin une explication claire de ce qu’est l’entropie.
43 1.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES PROBABILITÉS

2. Par définition, on appelle “suite typique” une suite ⃗i := (i1 , i2 , . . . , i N ) très longue, i.e. N ≫ 1 et où
le nombre d’apparition Ni de chaque chiffre i est Ni ≈ pi N (précisément Ni = pi N + o ( N )). Dans
l’exemple de pile/face, une suite typique ressemblerait à

⃗i = (1, 2, 1, 1, 2, 1, 2, 1, 1, 1, 2, 1 . . . , 1) (1.7.3)

avec le nombre de 1 qui est N1 ≈ p1 N = 32 N et le nombre de 2 qui est N2 ≈ 31 N. Est-ce que la suite
la plus probable (respect. moins probable) de la question (1) est typique ? Montrer que la probabilité
d’apparition d’une suite typique ⃗is donnée est
 
p ⃗is = e− NS

avec
n
S := − ∑ pi log pi
i =1

N
appelée entropie. Aide : utiliser que p ⃗i = pi1 .pi2 . . . . .pi N = p1 1 p2N2 . . . pnNn . Calculer l’entropie de
l’exemple ?
3. Pour N ≫ 1, on note N N le nombre de suites typique de longueur N. Montrer que

1
N N ≈ e NS ⇔ S ≈ log N N
N
c’est à dire que l’entropie est le taux exponentiel du nombre de suites typique. Aide : montrer que
N N = N1 !NN!2 !...Nn !
et utiliser la formule de Stirling ln N! ≃ N ln N − N + o ( N ) pour N ≫ 1.
 
4. D’après les résultats précédents les suites typique sont équiprobables et de probabilité p ⃗is = e− N (S+o(1)) .
 
Il y en a N N = e N (S+o(1)) . Cela semblent indiquer 17 que leur probabilité cumulée est N N p ⃗is ≈ 1 pour
N ≫ 1 (la preuve sera dans la question 5). Quelle signification des suites typique et de l’entropie S cela
suggère t-il ? Pour quelle(s) lois de probabilité ( pi )i=1→n a t-on S = log n ? S = 0 ? Quelle est la valeur
maximale de S ? Comparer N N et Ntot ( N ) ? Dans quel cas a t-on N N = Ntot ( N ) ?
    
5. (*) Pour montrer que N N p ⃗is ≈ 1 pour N ≫ 1, écrire p ⃗i = exp − ∑ N j=1 X j avec X j = − log p j et
appliquer la loi des grands nombres.

1.7.4 (*) Entropie d’un oscillateur harmonique quantique à l’équilibre thermique


Solution en pdf. video de la correction, (15’)
Cet exercice n’explique pas de phénomène général, c’est un exemple d’application.  
L’oscillateur harmonique quantique est un système dont les niveaux d’énergie sont Ei = h̄ω i + 21 avec
i ∈ N et ω > 0 fixé. On suppose que ce système est en contact avec un environnement qui est à l’équilibre
thermique avec une température T. Alors, d’après la loi de Boltzmann, la probabilité pour que le système soit
dans le niveau i d’énergie Ei est donnée par
1 Ei
pi = ′ e− kT
Z
avec Z ′ un facteur de normalisation de sorte que ∑i∈N pi = 1.
1. Montrer que pi = Z1 e− βi avec β = h̄ω
kT et Z un facteur de normalisation de sorte que ∑i ∈N pi = 1. Tracer
pi en fonction de i. Calculer Z en fonction de β (aussi appelé fonction de partition).
2. Calculer l’entropie S = − ∑i pi log pi en fonction de β.
3. Donner l’expression de S (les premiers termes du développement limité) pour β → 0 (haute tempéra-
ture kT ≫ h̄ω) et pour β → ∞ (basse température kT ≪ h̄ω).

1.7.5 Loi de Boltzmann dans un modèle simple


Solution en pdf. video de cette correction, (32’)
 
17. En fait, on ne peut pas déduire N N p ⃗is ≈ 1 car on a négligé des corrections e No(1) = eo( N ) qui peuvent être non négligeables, par
exemple ln N = o ( N ) mais eln N = N ≫ 1.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 44

Introduction : La loi de Boltzmann est à la base de la physique statistique (c’est aussi relié à l’hypothèse
ergodique). Elle affirme qu’un système qui échange de l’énergie avec un plus gros système, est dans un état
aléatoire distribué selon la mesure de probabilité 1z e− E/(kT ) dµ où E est l’énergie de l’état µ et T la température
du gros système. Il n’y a pas de démonstration de la loi de Boltzmann à l’heure actuelle. L’exercice suivant
donne une idée du mécanisme.
Remarque 1.7.2. Pour N ∈ N, la sphère SRN −1 de rayon R est l’ensemble des points x = ( x1 , x2 , . . . x N ) ∈ R N à
distance R de l’origine : n o
SRN −1 := x t.q. x12 + x22 + . . . + x2N = R2 ⊂ RN .

Par exemple S1R ⊂ R2 est le cercle de rayon R et S2R ⊂ R3 est la sphère (surface).
Dans ce problème on considère un point x = ( x1 , x2 , . . . x N ) aléatoire sur SRN −1 pour la mesure de proba-
bilité uniforme. On souhaite montrer que si N ≫ 1 et le rayon est R2 = σ2 N avec σ > 0 fixé, alors la mesure
de probabilité de la composante x1 converge vers la loi normale N 0, σ2

1 − 1 ( x1 ) 2
P ( x1 ) dx1 = e 2 σ dx1 (1.7.4)
Z
1. Si N = 2, donner et tracer la mesure de probabilité de x1 . (Diu et al. (1989) p.60). Même question pour
N = 3.
2. Considérons la variable aléatoire y = (y1 , . . . y N ) ∈ R N avec la densité de probabilité
N
1 − 1 2 ∥ y ∥2 1 − 1 y2
P (y) =
Z
e 2∆ = ∏ ze 2∆2 j
j =1

y
avec ∆ > 0 arbitraire. Montrer que la variable aléatoire x = R ∥y∥ ∈ S N −1 est distribuée uniformément
sur la sphère SRN −1 comme on le souhaite. D’après la loi des grands nombres 18 , quelle 19 est la mesure
de probabilité de la variable aléatoire N1 ∥y∥2 dans la limite N ≫ 1 ? Déduire (1.7.4).
3. Application : considérons N particules libres de masse m en dimension 1. On note v j la vitesse de la
particule j = 1 . . . N. Les particules échangent de l’énergie de façon aléatoire, mais on suppose que
l’énergie totale Etot = ∑ N 1 2
j=1 2 mv j est conservée. Montrer que pour N ≫ 1, la vitesse v j se distribue
selon la loi de Boltzmann
1
P v j dv j = e− Ej /(kT ) dv j

z
Etot
avec Ej = 21 mv2j , et E = N = 12 kT énergie moyenne par particule (formule d’équipartition de l’éner-
gie).
    
4. On définit l’entropie par S = k
N log Vol SRN −1 où Vol SRN −1 est le volume de la sphère de rayon
R2 = Etot . Montrer que
1 ∂S
=
T ∂E
qui sert plus généralement de définition de la température.

1.7.6 Théorème Central Limite (TCL). Dynamique stochastique de “pile ou face”.


Solution en pdf. Références : Diu et al. (1989, p.72).
Le théorème central limite que l’on démontre dans cet exercice est illustré sur la figure 1.7.1.

Préliminaires sur les mesures de probabilité : On notera le produit scalaire L2 de deux fonctions par
⟨ψ| φ⟩ := ψ ( x ) φ ( x ) dx ∈ C où ψ ( x ) est le complexe conjugué.
R
— Une variable aléatoire réelle x est caractérisée par sa mesure de Probabilité P = P ( x ) dx. Si 1[ x1 ,x2 ] est
Rx
la fonction caractéristique 20 de l’intervalle [ x1 , x2 ], on a que ⟨1[ x1 ,x2 ] | P⟩ = x 2 P ( x ) dx est la probabilité
R 1
pour que x ∈ [ x1 , x2 ]. En particulier, ⟨1| P⟩ = R P ( x ) dx = 1.

18. La loi des grands nombres montre que si X j j ∈N
sont des variables aléatoires indépendantes d’espérance µ alors la mesure de
probabilité de YN = N1 ( X1 + X2 + . . . + X N ) converge vers la mesure de Dirac δµ pour N → ∞.
y y
19. Il faut aussi utiliser le Théorème de Slutsky qui montre que si ∥y∥ → c converge vers une constante c en probabilité alors ∥y∥
→ c
converge en loi.
20. 1[ x1 ,x2 ] ( x ) = 1 si x ∈ [ x1 , x2 ], sinon 1[ x1 ,x2 ] ( x ) = 0.
45 1.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES PROBABILITÉS

— Plus généralement, les mesures P sont des distributions et sont utilisées avec des fonctions C ∞ à sup-
port compact ψ fixées (appelées fonctions test ou observable) pour donner un nombre ⟨ψ| P⟩ ∈ C. Si
( PT )T >0 est une suite de mesures (ou de distributions), la convergence PT → P vers une mesure P
T →∞
donnée, signifie que pour toute fonction test ψ fixée on a ⟨ψ| PT ⟩ → ⟨ψ| P⟩. Cette notion de conver-
T →∞
gence s’appelle “convergence au sens des distributions”, ou “convergence faible”, ou “convergence
en loi”.

Introduction :

Théorème 1.7.3. « théorème central limite ». Si x1 , x2 , . . . x T sont des variables aléatoires indépendantes de
mêmeqmesure de probabilité P ( x ) dx, d’espérance (i.e. moyenne) finie µ = E ( x ) < ∞ et de variance finie
σ= E ( x − µ)2 < ∞ alors la somme renormalisée

1
ST := √ (( x1 + x2 + . . . x T ) − Tµ)
T

a une mesure de probabilité PT qui converge pour T → ∞ vers la loi normale N 0, σ2 :




1 − 1 ( S )2
PT (S) dS −→ e 2 σ dS (1.7.5)
T →∞ Z
indépendamment de la mesure initiale P.

Théorème 1.7.4. « loi des grands nombres ». Avec les même hypothèses, pour T → ∞, la mesure de probabilité
de la moyenne T1 ( x1 + x2 + . . . x T ) converge vers la mesure de Dirac δµ .

Remarque 1.7.5. Le théorème central limite montre que la loi normale est une loi stable (comme un “point
fixe stable” en dynamique). C’est un phénomène essentiel en physique qui explique l’émergence de la loi de
Boltzmann (Exercice 1.7.5).

Pile ou face : Pour simplifier, on considère le cas particulier du jeu de pile ou face : à chaque instant t ∈ N,
l’état du système est xt ∈ {−1, 1} et choisit au hasard avec probabilités p (−1) = 1/2, p (1) = 1/2. Voir figure
1.7.1.
1. On considère une suite de T réalisations aléatoires x = ( x1 , x2 , . . . x T ) ∈ {−1, 1} T . Quelle est la proba-
bilité p ( x ) d’une telle suite x ? On souhaite montrer que la somme
T
1
Sx ( T ) := √
T
∑ xt
t =1

2

se distribue pour T ≫ 1 selon une loi normale N 0, σ avec un écart type σ > 0 que l’on va calculer.
Pour cela on considère la distribution sur S ∈ R des valeurs de Sx ( T ). Sa mesure de probabilité est

PT := ∑ p ( x ) δSx (T )
x ∈{−1,1} T

où δSx (T ) est la distribution de Dirac en Sx ( T ).


(a) Montrer que pour toute fonction test (ou “observable”) ψ ∈ C ∞ (R), on a

⟨ψ| PT ⟩ = ∑ ψ (Sx ( T )) p ( x )
x ∈{−1,1} T
.
(b) Dans un premier temps, on choisit la fonction test ψk (S) = exp (ikS) avec k ∈ R (mode de Fourier).
 T
Montrer que ⟨ψk | PT ⟩ = cos √k .
T
 T    4 
(c) Montrer 21 que cos √k = exp − 21 k2 1 + O kT .
T
 T     T 
√k X2
= exp ln cos √k + O X 4 et ln (1 + X ) = X + O X 2 .
 
21. Aide : écrire cos . Utiliser cos ( X ) = 1 − 2
T T
CHAPITRE 1. DYNAMIQUE PROBABILISTE 46

2. Déduire 22 le “théorème central limite”


1 − 1 ( S )2
PT → e 2 σ dS
T →∞ Z

et donner la valeur de la variance ou coefficient de diffusion σ2 .


3. (Optionnel) En suivant la même stratégie, démontrer le théorème central limite et la loi des grands
nombres dans le cas général (1.7.5).
4. (Optionnel) Enoncer et démontrer le TCL pour un graphe de Markov.

F IGURE 1.7.1 – Histogrammes pour Pile ou Face. A gauche représentation de St := ∑tt′ =1 xt où xt′ = ±1
sont aléatoires équidistribués. A droite, c’est l’histogramme de St à t = 30 avec N = 2 tirages, puis t = 1000
avec N = 3 puis N = 991 tirages. Dans ce dernier q cas on observe que la distribution est bien ajustée par une
Var(St )
Gaussienne avec un coefficient de diffusion σ = t = 1. Voir vidéo section 2.6.

1.7.7 Les états statistique quantiques. Opérateur densité et entropie


Solution en pdf. Rappels de cours : voir ce chapitre.
1. Un état statistique quantique est une distribution aléatoire d’états quantique ψi ∈ H, i = 1 . . . N de
probabilités respectives pi , avec ∑iN=1 pi = 1. On considère une observable
 Â : H → H, c’est à dire
un opérateur auto-adjoint dont les valeurs propres sont notées a j j , les vecteurs propres associés sont
| φ j ⟩⟨ φ j |
notés φ j ∈ H, c’est à dire Âφ j = a j φ j et les projecteurs spectraux sont donc P φ j = ⟨ φj | φj ⟩
. On rappelle

 le postulat de la mesure, les résultats possibles d’une mesure de l’observable  sont les
que, d’après
valeurs a j j et la probabilité conditionnelle d’observer une certaine valeur a j dans un état ψi donné est

 ⟨ψi |P φ j ψi ⟩
p a j |ψi = .
⟨ψi |ψi ⟩

Montrer que pour l’état statistique quantique, la probabilité d’observer a j est donnée par
  
p a j = Tr ρ̂P φ j

|ψ ⟩⟨ψ |
avec l’opérateur densité ρ̂ := ∑i pi Pψi , et Pψi := ⟨ψi |ψ i⟩ . Déduire que la moyenne statistique des a j j

i i
est donnée par 
⟨ A⟩ = Tr ρ̂ Â .
 
2. Quelle est l’entropie de la distribution de probabilité p a j j notée S ρ̂, Â ? On définit l’entropie de
 
l’état statistique quantique par S (ρ̂) := min  S ρ̂,  . On peut montrer que S ρ̂,  est minimale
pour  = ρ̂. Montrer que
S (ρ̂) = − ∑ ρk ln ρk =: −Tr (ρ̂ ln ρ̂)
k

où (ρk )k sont les valeurs propres de ρ̂. Que vaut S (ρ̂) pour un état pur ρ̂ = |ψ⟩⟨ψ| ?

1.7.8 (optionnel) Modèle simple de décohérence quantique


Solution en pdf. (modèle proposé par Zureck (90’). Réf : cours d’Haroche sur le site du collège de France).
R −ikS
22. Aide : utiliser la transformée de Fourier unitaire ψ̃ (k) = (F ψ) (k ) = √1 F −1 ψ̃ (S) =

e ψ (S) dS ⇔ ψ (S) =
q 2π
 2
1 B
R ikS R 2

√ e ψ̃ (k ) dk, et l’intégrale Gaussienne R exp − AX + BX dX = π
A exp 4A .

47 1.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES PROBABILITÉS

Introduction : C’est un modèle dynamique qui traite l’état d’un spin 1/2 (vecteur de l’espace C2 ), couplé à
l’environnement (vecteur d’un espace de Hilbert Henv ) et qui montre comment l’équation de Schrödinger (qui
est unitaire) peut expliquer que la matrice densité réduite ρ̃ (t) = Trenv (ρ (t)) du spin peut évoluer de façon
irréversible vers l’état d’entropie maximale qui est non polarisé :
1
 
2 0
ρ̃ apres = 1 .
0 2

Cette évolution d’un état initial pur vers un état non pur, s’appelle la décohérence. Elle est due au couplage
du spin avec son environnement. En résolvant ce modèle on obtiendra de plus une expression du temps
caractéristique de convergence vers cet état d’équilibre appelé temps de décohérence τdecoh. .
L’espace total du système étudié est Htot = C2 ⊗ Henv . L’état initial est |ψ (0)⟩ = |S (0)⟩ ⊗ | E (0)⟩ avec

1
|S (0)⟩ = |+z ⟩ = √ (|+ x ⟩ + |− x ⟩) ∈ C2 , | E (0)⟩ ∈ Henv .
2
Le Hamiltonien total est
 
1/2 0
Ĥ = Ŝz ⊗ Ĥe , Ŝz = dans la base |± x ⟩
0 −1/2

où Ĥe agit dans Henv . Noter que l’on ne précise ni | E (0)⟩, ni Ĥe .
1. Écrire l’état total |ψ (t)⟩ = e−it Ĥ |ψ (0)⟩ à l’instant t puis l’opérateur densité total ρ (t) = |ψ (t)⟩⟨ψ (t) |.
Déduire l’expression de la matrice densité réduite de ρ̃ = Trenv (ρ (t)) dans la base |± x ⟩ en fonction de
la fonction de “corrélation temporelle” de l’environnement ⟨ E (0) | E (t)⟩ = ⟨ E (0) |e−it Ĥe | E (0)⟩.
2. On suppose maintenant que l’environnement est composé de N degrés de libertés indépendants mais
identiques (penser N particules d’un gaz), chacun décrit par un espace quantique H et un opérateur
Hamiltonien Ĥ : H → H, c’est à dire que :

N
1
Henv = |H ⊗ H ⊗
{z
. . . ⊗ H,
}
Ĥenv = √
N
∑ Ĥi
i =1
N

où Ĥi = Id ⊗ . . . Id ⊗ |{z}
Ĥ ⊗Id . . . ⊗ Id agit dans l’espace de la particule i de l’environnement. L’état
position i
initial de l’environnement est un produit

| E (0)⟩ = |e (0)⟩ ⊗ . . . ⊗ |e (0)⟩, ∥e (0)∥ = 1.

Pour simplifier les calculs, on suppose que l’énergie moyenne de chaque particule est nulle : ⟨e (0) | Ĥ |e (0)⟩ =
0 et on note σ2 := ⟨e (0) | Ĥ 2 |e (0)⟩ la variance (carré de l’incertitude en énergie). Montrer que à t fixé
2 2
(quelconque) et pour N → ∞, on a ⟨ E (0) | E (t)⟩ = e−t σ /2 et déduire que la matrice densité réduite est
donnée par !
2 2
1 1 e−t σ /2
ρ̃ (t) = Trenv (ρ (t)) −→ 2 2
N →∞ 2 e−t σ /2 1

3. Donner l’expression de la matrice densité réduite ρ̃ (t) dans la base

1 1
|+z ⟩ = (|+ x ⟩ + |− x ⟩) , |−z ⟩ = (|+ x ⟩ − |− x ⟩) .
2 2

4. Déduire l’expression de l’entropie S (ρ̃ (t)) (en particulier simplifier pour les limites t → 0, t → ∞)

 fonction det. De même donner et tracer le vecteur polarisation P (t) du spin,
et tracer son allure en
défini par ρ̃ (t) = 1 Id + ⃗
2 P (t) .⃗σˆ . Déduire que le temps caractéristique de décohérence est donné
par τdecoh. = σ1 .
5. Montrer plus généralement que les calculs précédents sont identiques (mais préciser les nouvelles ex-
pressions) si l’état initial total est donné
 par un opérateur densité ρ (0) = (|S (0)⟩⟨S (0) |) ⊗ ρenv avec
ρenv = ρe ⊗ . . . ⊗ ρe tel que Tr Ĥρe = 0.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 48
Deuxième partie

Systèmes sans interactions

49
Chapitre 2

Mécanique des ondes et des particules

2.1 Introduction
On commence par quelques rappels de mécanique.
— En 1685, Newton établit la loi d’évolution d’une particule de position q (t) = (q1 (t) , q2 (t) , q3 (t)) ∈ R3 ,
masse m :
∂2 q j ( t ) ∂U
m = Fj (q) = − , j = 1, 2, 3, (2.1.1)
∂t2 ∂q j
où U (q) est la fonction énergie potentielle et F (q) = ( F1 (q) , F2 (q) , F3 (q)) ∈ R3 le vecteur force qui en
dérive. L’expression de (2.1.1) peut paraître étrange pour deux raisons : elle est du deuxième ordre en
temps et le terme de droite n’est pas quelconque : c’est le gradient d’une fonction U.
— En 1834, Hamilton reformule l’équation de Newton (2.1.1) en introduisant une nouvelle variable p (t) =
( p1 (t) , p2 (t) , p3 (t)) ∈ R3 appelée impulsion, et la fonction énergie totale (ou Hamiltonien)

∥ p ∥2
H (q, p) = + U (q) (2.1.2)
2m

où le premier terme est appelé énergie cinétique avec ∥ p∥2 := p21 + p22 + p23 . L’équation de Newton
(2.1.1) s’écrit  ∂q
 j = ∂H
∂t ∂p j
(2.1.1) ⇔ ∂p j , j = 1, 2, 3 (2.1.3)

∂t = − ∂H∂q j

appelée équations de Hamilton.


∂q j pj ∂q j ∂p j
Démonstration. ∂t = ∂H
∂p j = m donne p j = m ∂t et donc ∂t = − ∂H
∂q = − ∂q
∂U
donne
(2.1.3) (2.1.2) (2.1.3) j (2.1.2) j

∂2 q
j (t)
m ∂t2
= − ∂q
∂U
qui est l’équation de Newton (2.1.1).
j

— De nombreux modèles en physique utilisent les équations de Hamilton avec des fontions H (q, p) quel-
conques, plus générales que (2.1.2). Cependant ces “équations de Hamilton” (2.1.3) sont, tout comme
les équations de Newton, aussi un peu étranges car elles ont un aspect “antisymétriques” par rapport
aux termes q, p. La raison de cela était déjà connu à l’époque de Hamilton : il a utilisé ces équations
pour décrire l’aspect corpusculaire de la lumière (i.e. les rayons lumineux) comme cas limite de la théo-
rie ondulatoire de la lumière dans la limite des petites longueurs d’ondes (en effet la longueur d’onde
de la lumière λ ≈ 1µm ≪ 1m est très petite à l’échelle humaine). Plus généralement on verra dans la
section 2.2 que :

Proposition 2.1.1. toute équation ondulatoire linéaire fait émerger dans la limite des petites longueurs
d’ondes une dynamique corpusculaire régit par les équations de Hamilton (2.1.3) avec une certaine fonc-
tion H qui dépend de l’équation ondulatoire de départ.

— En 1920, Schrödinger montre que les équations de Hamilton de la mécanique (et donc l’équation de
Newton) sont aussi une approximation (ou émergence) d’une mécanique ondulatoire sous-jacente pour
la matière, régit par “l’équation de Schrödinger”. Maintenant on comprends que l’aspect étrange des
équations de la mécanique classique, indiquent une réalité ondulatoire sous-jacente. Ainsi connaissant

51
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 52

la proposition mathématique précédente, Newton (ou ses contemporains) aurait pu deviner l’existence
de la mécanique quantique ondulatoire sous-jacente.
Il y a deux propriétés importantes des équations de mouvement de Hamilton qui seront utiles dans la suite.

Théorème 2.1.2. “Conservation de l’énergie”. Pour une fonction de Hamilton quelconque H (q, p), les tra-
jectoires q (t) , p (t) solutions de (2.1.3) conservent l’énergie définie par E (t) = H (q (t) , p (t)), i.e. dE
dt = 0.

Démonstration. On écrit

dE ∂H ∂q j ∂H ∂p j
dt
= ∑ ∂q j ∂t
+
∂p j ∂t
j
! ! ! !
∂H ∂H ∂H ∂H
= ∑ + − = 0.
(2.1.3) j ∂q j ∂p j ∂p j ∂q j

Théorème  “Conservation de la mesure de Liouville dans l’espace des phases”. Le champ de vecteur
2.1.3.
 ∂q ∂p
j j
X = ∂t , ∂t défini par (2.1.3) dans l’espace des phases (q, p) préserve le volume dqdp (appelée mesure
j=1,2,3
de Liouville), i.e. vérifie divX = 0.

Démonstration. On écrit
! !
∂Xq j ∂X p j ∂ ∂H ∂ ∂H
divX = ∑ ∂q j
+
∂p j
= ∑
(2.1.3) j ∂q j ∂p j
+
∂p j

∂q j
= 0.
j

2.2 Émergence de la dynamique Hamiltonienne corpusculaire


2.2.1 Remarques sur les unités et les constantes F, h̄, k B , c de la physique
Nous allons discuter du fait que la formulation de la physique moderne utilise des constantes. Certaines
de ces constantes F, h̄, k B , c ne sont pas mesurées expérimentalement mais sont arbitraires et servent de facteur
de “rescaling” ou “changement d’échelle”, du fait que l’humain est “trop lent et trop gros” par rapport aux
phénomènes de la physique fondamentale. Il y a bien sûr beaucoup d’autres constantes physiques qui sont
mesurées expériementalement, comme la constante de structure fine α discutée après. Voici les étapes qui
présentent ces constantes arbitraires.
— En 1967, l’unité du temps, la seconde est défini à partir des oscillations naturelles d’atomes de l’atome
de Cesium :

F = Fréquence hyperfine de l’état fondamental de l’atome de césium 133


= 9 192 631 770 Hz

F a été choisi. Historiquement la seconde est une durée compatible à la perception humaine, comme la
période moyenne du cœur humain et ce chiffre F a donc été choisi pour approximer le rapport entre la
période de l’atome et la période du cœur. (Rem : cette définition n’est pas affectée par la déformation du
temps en relativité générale car la taille de l’atome est très petite, donc indépendante de la courbure).
La grande valeur de F traduit le fait que notre perception humaine fonctionne à des échelles de temps
très longues par rapports aux mécanismes physiques élémentaires.
— En 1983, on a choisi la valeur de la vitesse de la lumière :

c = 299 792 458 m/s

Comme on a déjà défini la seconde, c défini donc l’unité de distance (le mètre) à partir de l’unité de
temps (la seconde). Historiquement, le mètre est une distance comparable à la taille humaine. La grande
valeur de c montre en fait que “l’organisme humain est très lent”.
53 2.2. ÉMERGENCE DE LA DYNAMIQUE HAMILTONIENNE CORPUSCULAIRE

— En 2019, on a choisit la constante de Planck :

2πh̄ = 6, 626 070 15 × 10−34 J/s−1

qui définit donc l’unité d’énergie (le Joule) à partir de la fréquence s−1 . Ainsi, par définition, une
énergie E en Joule est une fréquence ω en Hz = s−1 et le facteur h̄ sert seulement à changer d’échelle
(et d’unité) :
E = h̄ω.
E
Cela est clair par exemple lorsque l’on écrit par exemple en mécanique quantique e−iωt = e−i h̄ t . De
même l’impulsion ⃗p est identique à un vecteur d’onde ⃗k après un changement d’échelle :

⃗p = h̄⃗k.
⃗ ⃗p
Intervient par exemple lorsque l’on écrit en mécanique quantique une onde plane ψ (⃗q) = eik.⃗q = ei h̄ .⃗q .
Cela défini aussi l’unité de masse (en kilogramme) (d’après par exemple la formule Ecin = 12 mv2 ),
 m 2
1J = 1kg .
s
Pour plus d’explications sur l’identification entre énergie/fréquence et impulsion/vecteur d’onde, voir
la section 2.2.2.
— En 2018, la constante de Boltzmann est choisi

k B = 1, 380649 × 10−23 J/K

Et en 2019, le nombre d’Avogadro est choisi

N A = 6, 02214076 × 1023 mol −1 ,


Le produit est donc de l’ordre de 1 (appelé la constante des gaz parfait)

R = NA k = 8, 31446261815324Jmol −1 K −1

En fait il faut retenir que NA et k sont a peu près l’inverse l’un de l’autre et NA mesure à peu près
(l’ordre de grandeur) du nombre de particules dans un objet de taille humaine. Ces valeur définissent
donc l’unité de température (K) et l’unité de quantité d’atomes (mol).
Remarque 2.2.1. Les valeurs précises des constantes qui précèdent ont des raisons historiques. Il faut retenir
que leur ordre de grandeur est relié à la “taille humaine” par rapport aux phénomène physiques élémentaires.
Si on devait ou pouvait tout re-choisir, probablement (et utilisant la base 10) on prendrait des valeurs plus
simples, plus rondes, par exemple F = 1010 Hz pour définir s, c = 108 m/s pour définir m, 2πh̄ = 10−33 J/s−1
pour définir J, kg, N A = 1024 mol −1 , k B = N A−1 pour définir mol et K.

Remarque 2.2.2. Il faut retenir de la discussion précédente que les constantes F, h̄, k B , c ont été choisi et permette
seulement de relier des unités différentes pour des grandeurs physique équivalentes, et qu’il n’y a en fait
pas d’unité dans la nature, mais que des phénomènes élémentaires qui engendrent des phénomènes plus
complexes. On peut comparer par exemple h̄ qui relier énergie et fréquence au changement d’unité entre
degré Celsius et degrés Fahrenheit). En physique il y a cependant des constantes (sans unité) que l’on mesure
expérimentalement et que l’on ne choisit pas. Par exemple la constante de structure fine α−1 = 137, 035999206..
intervenant dans les interactions électromagnétiques (de façon équivalente α est reliée à la perméabilité µ0 ou
la permittivité ϵ0 . Ces constantes mesurées expérimentalement, ont un vrai sens physique.

2.2.2 Équations d’évolution ondulatoire et limite semiclassique


Il y a un fait général et important qui explique la forme particulière des équations de Newton (2.1.1) et Ha-
milton (2.1.3) ci-dessus et qui suggère l’origine ondulatoire de la matière, découverte ensuite par Schrödinger
en 1920. Dans cette section nous expliquons ce phénomène que nous appellerons le “théorème d’Hamilton-
Ehrenfest” et qui s’appelle en mathématique, le “théorème de propagation des singularités” (1972).
Considérons une “dynamique ondulatoire” pour une fonction q ∈ R3 , t ∈ R → ψt (q) ∈ C qui dépend de
de la position q ∈ R3 et du temps t ∈ R, régie par une équation linéaire que l’on écrit sous la forme
∂ψt
i = Ωψ (2.2.1)
∂t
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 54

où Ω est un opérateur autoadjoint (Ω† = Ω. Par conséquent les valeurs propres ω j j de Ω sont réelles et


les espaces propres sont orthogonaux entre eux). L’équation d’évolution définit l’évolution de la fonction (ou
onde) t → ψt étant donné une onde initiale ψt=0 .
Remarque 2.2.3. D’après (2.2.1), Ω a l’unité d’une fréquence t−1 ≡ Hz.
Exemple 2.2.4. “L’équation de Schrödinger”. En 1920, Schrödinger montre que la matière est modélisée par
des ondes ψt (q) appelée ondes de matière ou ondes quantiques et solutions de l’équation d’évolution
∂ψt
ih̄ = Ĥψt (2.2.2)
∂t
avec l’opérateur
h̄2
Ĥ = − ∆ + U (q)
2m
∂2
où ∆ = ∑3j=1 ∂q2j
est l’opérateur Laplacien. On peut ré-écrire (2.2.2) sous la forme (2.2.1) avec

1
Ω = Ĥ
|{z} h̄ |{z}
fréquence énergie

Voici quelques vidéos qui montrent l’évolution de la fonction ψt et la compare à la dynamique d’une parti-
cule (point) avec les équations de Hamilton (2.1.3) : (1) oscillateur harmonique (2) oscillateur non linéaire, (3)
double puits. Ces vidéos sont extraites de ce site web sur l’animation d’ondes quantiques. L’analogie observée
entre dynamique ondulatoire et dynamique des particules est expliquée dans le théorème 2.2.15 ci-dessous.

Exemple 2.2.5. “L’équation des ondes”. Dans le cas simple d’une onde scalaire i.e. ψt (q) ∈ R évoluant dans
un milieu d’indice variable, l’équation d’onde s’écrit

∂2 ψ
+ (c (q))2 ∆ψ = 0, (2.2.3)
∂t2
avec une fonction c (q) > 0 qui correspond à l’indice de réfraction du milieu. On peut ré-écrire cette équation 1
sous la forme (2.2.1) avec l’opérateur √
Ω± = ±ic (q) −∆.
Remarque 2.2.6. La présence du facteur i dans (2.2.1) est une convention en physique. Il serait peut être plus
naturel d’écrire ∂t = Ω′ ψ avec Ω′ = −iΩ qui est anti auto-adjoint, i.e. Ω′ † = −Ω′ . Ses valeurs propres sont
∂ψ

des fréquences ω ′j = −iω j , imaginaires pures.

Question 2.2.7. Comment décrire précisément l’évolution des ondes t → ψt solutions de l’équation (2.2.1) ?
On observe en mécanique des fluides que les ondes de surface se déplacent en ligne droite et diffractent sur
les obstacles, en acoustique que les ondes se réfléchissent sur des parois, en physique atomique quantique que
les ondes orbitent autour des noyaux, etc. Comment décrire précisément ces mouvements que l’on observe ?
La réponse à cette question sera donnée dans les théorèmes 2.2.10 et 2.2.15. Mais avant, on doit introduire
les définitions suivantes.

Définition 2.2.8. Un paquet d’onde Gaussien φ⃗q,⃗k est une fonction de la forme

2
⃗q′ −⃗q
−3/4 − 12
−iθ i⃗k.(⃗q′ −⃗q)

′ 3 ′ 2
⃗q ∈ R → φ⃗q,⃗k ⃗q
 σ
φ⃗q,⃗k : = σ π e e e (2.2.4)

avec les paramètres fixés σ > 0 (taille du paquet d’onde), phase θ, position ⃗q ∈ R3 , vecteur d’onde
⃗k ∈ R3 . Le préfacteur de normalisation assure que φ ⃗ = 1.
⃗q,k 2 3 L (R )


1. L’opérateur −∆ est défini par son action sur la base de Fourier φk (q) = eik.q , k ∈ R3 , q ∈ R3 , observant que ∆φk = − ∥k∥2 φk , par

−∆φk = ∥k∥ φk .
√ ∂2 ψ
On vérifie l’équation (2.2.1), ∂t = −iΩ± ψ avec Ω± = ±ic (q) −∆ donne Ω2± = h̄2 (c (q))2 ∆ et donc ∂t2 = (−iΩ± )2 ψ = − (c (q))2 ∆ψ
∂ψ

qui est l’équation d’onde (2.2.3).


55 2.2. ÉMERGENCE DE LA DYNAMIQUE HAMILTONIENNE CORPUSCULAIRE

2
⃗q′ −⃗q
−3/4 − 12
Remarque 2.2.9. Le module de cette fonction est φ⃗q,⃗k (⃗q′ ) = σ2 π
σ
e qui est une Gaussienne
centrée en ⃗q et de largeur σ. Le module de la transformée de Fourier (obtenue par intégrale Gaussienne) est
⃗′ ⃗ 2
− 1 k −k
  
F φ⃗q,⃗k ⃗k′ = (2πσ)3/2 e 2 1/σ qui est une Gaussienne centrée en ⃗k et de largeur 1/σ.

Théorème 2.2.10 (Décomposition  en paquets d’ondes). Toute fonction se décompose comme superposition
de paquets d’ondes : ∀ψ ∈ L2 R3 ,

 Z  d3⃗qd3⃗k
ψ ⃗q′ = ψ⃗q,⃗k φ⃗q,⃗k ⃗q′
(2π )3

avec des amplitudes ψ⃗q,⃗k = ⟨ φ⃗q,⃗k |ψ⟩ ∈ C.

Définition 2.2.11. La fonction de Hamilton


   
ω : ⃗q,⃗k → ω ⃗q,⃗k

de l’opérateur Ω (aussi appelée relation de dispersion ou symbole de l’opérateur) est obtenue en



remplaçant l’onde plane ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation i t = Ωψ .
∂ψ
t ∂t t

 
Remarque 2.2.12. Une façon équivalente d’obtenir la fonction ω ⃗q,⃗k à partir de l’opérateur différentiel Ω est
   
de remplacer les opérateur −i ∂q
∂. ∂.
par la variable k j et i ∂t par ω, autrement dit
j

∂ ∂
→ ik j , → −iω (2.2.5)
∂q j ∂t

appelé principe de correspondance.

Exemple 2.2.13. “L’équation de Schrödinger”. (Suite de 2.2.4). D’après le principe de correspondance (2.2.5),

ou en remplaçant l’onde ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation (2.2.2), on obtient
t

 2
h̄2 i⃗k
ih̄ (−iω ) ψt = − ψt + U (q) ψt
2m
 2
h̄⃗k
⇔h̄ω = + U (q)
2m
(⃗p)2
⇔ E (⃗q, ⃗p) = H (⃗q, ⃗p) = + U (q)
2m

en utilisant plutôt les variables (i.e. changement d’échelle) énergie E = h̄ω et impulsion ⃗p = h̄⃗k.

Exemple 2.2.14. “L’équation d’onde”. (Suite de 2.2.5). D’après le principe de correspondance (2.2.5), ou en

remplaçant l’onde ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation (2.2.2), on obtient
t

i (−iω ) ψt = ±c (q) ⃗k ψt
 
⇔ ω ⃗q,⃗k = ±c (⃗q) ⃗k .
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 56

Théorème 2.2.15 (de Hamilton-Ehrenfest). Un paquet d’onde (2.2.4) est solution de l’équation d’évolution
(2.2.1), i ∂tt = Ωψ si (en approximation au premier ordre) ses paramètres θ (t) , ⃗q (t) ,⃗k (t) sont solution des
∂ψ

équations de mouvement de Hamilton

dq j ∂ω dk j ∂ω
= , =− , j = 1, 2, 3, (2.2.6)
dt ∂k j dt ∂q j
 
où ω ⃗q,⃗k est le symbole de l’opérateur Ω. De plus :

dθ  
= L ⃗q (t) ,⃗k (t) , (2.2.7)
dt
avec     ∂⃗q (t)
L ⃗q,⃗k = ω ⃗q,⃗k −⃗k.
∂t
appelée fonction Lagrangien.

La preuve est donnée plus bas en section [Link]. Ce théorème énoncé ainsi est en fait imprécis car nous
n’avons pas précisé ce que signifie l’expression utilisée
 “en approximation au premier ordre”. Cela apparaîtra
dans la preuve : l’hypothèse est que le symbole ω ⃗q,⃗k varie lentement à l’échelle ∆q = σ, ∆k = σ−1 qui est


la taille du paquet d’onde est peut donc être approximé par son développement au premier ordre.
Remarque 2.2.16. La proposition 2.2.15 est valable dans la limite des petites longueurs d’ondes λ ≪ L de-
vant la taille L caractéristique du problème, donc valable si ⃗k ≫ 1 . En géométrie, ⃗k s’appelle un “vecteur L
cotangent”.

Remarque 2.2.17. d’après l’expression (2.2.4), un paquet d’onde a une enveloppe Gaussienne de largeur σ > 0
centrée en ⃗q (t), des oscillations internes de longueur d’onde λ = ⃗2π , les plans de phase sont orthogonaux
∥k(t)∥
à la direction du vecteur ⃗k (t). D’après les équations de mouvement (2.2.6), le paquet d’onde se déplace à la
dq j ∂ω
vitesse dt = ∂k j appelée vitesse de groupe. La vitesse de chaque plan de phase, appelée vitesse de phase est
⃗v φ est donc parallèle à ⃗k (t) et de norme 2
ω
⃗v φ = . (2.2.8)
⃗k

Pour illustrer le théorème 2.2.15, reprenons les exemples ci-dessus.

Exemple 2.2.18. “L’équation de Schrödinger”. (Suite de 2.2.4). Alors les équation de mouvement (2.2.6) sont
équivalentes aux équations de Hamilton (2.1.3).

Exemple 2.2.19. “L’équation d’onde”. (Suite de 2.2.5). D’après le principe de correspondance (2.2.5), ou en

remplaçant l’onde ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation (2.2.2), on obtient
t

i (−iω ) ψt = ±c (q) ⃗k ψt
 
⇔ ω ⃗q,⃗k = ±c (⃗q) ⃗k .

Remarque 2.2.20. On a déjà vu, Théorèmes 2.1.2 et 2.1.3, que les équations de mouvement de Hamilton (2.2.6)
impliquent la conservation de l’énergie, qui est ici ω et du volume dans l’espace de phases.
Par exemple utilisant les équations de Hamilton, on peut déduire la loi de la réfraction en optique :

−θ (t) + ⃗k (t) . ⃗q φ (t) − ⃗q (t) donc la vitesse de



2. car si ⃗q φ (t) est un point sur une ligne de phase φ fixée alors la phase est φ =
(2.2.4)
d⃗q φ ⃗
vérifie 0 = − dθ v φ − ⃗v ⇔ ⃗k (t) .⃗v φ = dθ
+⃗k (t) .⃗v = ω.

phase ⃗v φ = dt dt + k ( t ) . ⃗ dt
(2.2.7)
57 2.2. ÉMERGENCE DE LA DYNAMIQUE HAMILTONIENNE CORPUSCULAIRE

Exercice 2.2.21. (*) Réfraction : Loi de Snell (1621)-Descartes (1637) (trouvée avant par Ibn Sahl (983) à
Bagdad). Supposons que dans l’espace q = (q1 , q2 ) ∈ R2 , il y a une interface en q1 = 0, de sorte que pour
q1 < 0 on a c (q) = c et pour q1 > 0 on a c (q) = c′ avec c′ < c. Déduire de (2.2.3), de l’équation de mouvement
de Hamilton (2.1.3) et de la conservation de l’énergie que : dans chaque domaine un rayon (lumineux ou
sonore) se déplace en ligne droite et à l’interface on a la relation
1 1
sin θ = ′ sin θ ′ (2.2.9)
c c
où θ (respect. θ ′ ) est l’angle du rayon avec la normale de l’interface. Voir schéma. Cette formule de réfraction
(2.2.9) est appelée loi de IbnSahl-Snall-Descartes.

θ′
θ

c c′

F IGURE 2.2.1 – Si c (q) = c, c′ prend deux valeurs différentes de part et d’autre d’une interface alors la rayon
est dévié d’après la loi de Snell-Descartes (2.2.9).

cvide
Remarque 2.2.22. En optique, on définit l’indice du milieu par n (q) = c(q)
où cvide est la vitesse de la lumière
dans le vide.

p
Solution : L’énergie est ω (q) = c (q1 ) |k| avec le vecteur d’onde k = h̄ (ou poser h̄ = 1). L’équation de mou-
vement (2.1.3) donne ∂t k2 = −∂q2 H = 0 donc k′2 = k2 à l’interface. La conservation de l’énergie à l’interface
donne
c ∥k ∥ = c′ k′
On a
k2 k′2
sin θ = , sin θ ′ = .
∥k∥ ∥k′ ∥
On déduit
k′2 k2 c′
sin θ ′ = = c = sin θ
∥k′ ∥ c′ ∥k∥ c
et donc (2.2.9).

[Link] Preuve du Théorème 2.2.15 de Hamilton-Ehrenfest


Démonstration. Nous esquissons une idée de la preuve. Considérons l’équation
∂φt
i = Ωφt . (2.2.10)
∂t
avec la famille de fonctions particulières
2
⃗q′ −⃗q(t)
− 12
′ ′ −iθ (t) i⃗k(t).(⃗q′ −⃗q(t)) σ
 
φ ⃗q = φ⃗q(t),⃗k(t) ⃗q = e e e (2.2.11)
(2.2.4)

appelées paquets d’ondes, qui dépendent des paramètres t ∈ R, ⃗q (t) ∈ R3 ,⃗k (t) ∈ R3 . On calcule d’une part

∂⃗k (t)
 
∂φ ′  ∂θ
. ⃗q′ − ⃗q (t)

i ⃗q = i −i +i
∂t (2.2.11) ∂t ∂t
  
∂⃗q (t) 1 ∂⃗q (t)
−i⃗k (t) . . ⃗q′ − ⃗q (t) φ

+ (2.2.12)
∂t σ ∂t
!
∂⃗q (t) ∂⃗k (t) ′
   
∂θ ⃗
 1 ∂q (t) ′

= + k (t) . − ⃗q − ⃗q (t) + i q − q (t) φ (2.2.13)
∂t ∂t ∂t σ ∂t
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 58
 
D’autre part, concernant l’opérateur Ω, l’hypothèse importante est que le symbole ω ⃗q,⃗k varie lentement.
 
Donc près d’un point ⃗q (t) ,⃗k (t) arbitraire, on suppose une expression linéaire (qui serait le résultat d’un
développement de Taylor à l’ordre 1) :
   
ω ⃗q,⃗k = ω0 +⃗a. (⃗q − ⃗q (t)) + ⃗b. ⃗k −⃗k (t) (2.2.14)

Avec le principe de correspondance (2.2.5), cela revient à supposer l’expression suivante pour l’opérateur Ω :
 
∂.
Ω = ω0 +⃗a. ⃗q′ − ⃗q (t) + ⃗b. −i ′ −⃗k (t)

∂⃗q
   
avec la notation ∂∂.⃗q = ∂q∂. , ∂q∂. , ∂q∂. avec des coefficients ω0 , ⃗a,⃗b réels de sorte que Ω† = Ω et ω ⃗q,⃗k ∈ R.
1 2 3
On calcule alors
    
′ ⃗ ⃗ 1 ′ ⃗
Ωφ =
 
ω0 +⃗a. ⃗q − ⃗q (t) + b. k (t) − i − ⃗q − ⃗q (t) − k (t) φ (2.2.15)
(2.2.11) σ
 
1
= ω0 +⃗a. ⃗q′ − ⃗q (t) + i ⃗b. ⃗q′ − ⃗q (t) φ
 
(2.2.16)
σ

Identifiant les termes (partie réelle et imaginaire de degré 0 et 1 en ⃗q′ ) de (2.2.13) à (2.2.15), l’équation (2.2.10)
est donc équivalente à
∂θ ⃗ ∂⃗q (t)  
+ k (t) . = ω0 = ω ⃗q (t) ,⃗k (t) ,
∂t ∂t (2.2.14)

∂⃗k (t) ∂ω ∂⃗q (t) ⃗ ∂ω


− = ⃗a = , =b =
∂t (2.2.14) ∂⃗
q ∂t (2.2.14) ∂⃗k

donnant les équations de Hamilton (2.2.6) et (2.2.7).

2.3 Formule de Weyl semi-classique


Pour un opérateur donné Ĥ, on souhaite estimer la position des valeurs propres E1 ≤ E2 ≤ . . . qui sont des
niveaux d’énergie. Rappelons d’abord la signification physique des vecteurs (fonctions) propres φ j associés
par Ĥ φ j = Ej φ j .

Proposition 2.3.1. “Ondes stationnaires”. Si

Ĥ φ = Eφ

avec une fonction propre φ : q → φ (q) et valeur propre (énergie) E, alors la fonction
E
ψ (q, t) = e−i h̄ t φ (q) (2.3.1)

est solution de l’équation d’évolution (2.2.1), ih̄∂t ψ = Ĥψ, appelée solution stationnaire car le module
|ψ (q, t)| = | φ (q)| est indépendant du temps.

 
Démonstration. On calcule ∂t ψ = −i Eh̄ ψ donc ih̄∂t ψ = Eψ = Ĥψ.
(2.3.1)

Remarque 2.3.2. Les vecteur propres d’un opérateur Ĥ sont en général impossible à calculer exactement. On
sait parfois montrer leur existence seulement. Expérimentalement, on les observe approximativement en ré-
gime stationnaire, c’est à dire en excitant le système par un signal d’amplitude temporelle eiωt = e−iEt/h̄
appelé signal monochromatique. Par exemple en physique moléculaire, ce peut être une onde lumineuse laser
envoyée sur une cible.
L’intérêt de la formule de Weyl ci-dessous ou formule du “comptage d’états ondulatoires” est de donner
approximativement la position des niveaux d’énergie Ej et leur densité moyenne. (Voir par exemple ce cours
de mecanique quantique).
Comme expliqué en section 2.2.2, il est préférable de travailler avec les variables originales k (vecteur
d’onde) et ω (fréquence) plutot que p = h̄k (impulsion) et énergie E = h̄ω qui ne sont que des quantités
59 2.3. FORMULE DE WEYL SEMI-CLASSIQUE

après changement d’échelle. On va donc présenter la formule de Weyl en variables (q, k ) et ensuite déduire la
formulation équivalente et plus habituelle en variables (q, p).
Rappelons que par définition si D ⊂ R2d est un domaine de l’espaceRdes phases (q, k), alors son volume
est donné par une intégrale multiple des élements de volume Vol ( D ) := (q,k)∈ D dqdk.

Théorème 2.3.3. “Formule de Weyl semi-classique (en (q, k))”. Si un opérateur Ω̂ auto-adjoint est défini à
partir d’un symbole ω (q, k) où q, k ∈ Rd sont les variables de position et vecteur d’onde pour d degrés de liberté
et si on note
Ω̂φ j = ω j φ j (2.3.2)

avec ω j les valeurs propres (fréquences propres) de Ω̂ et φ j vecteurs propres (ou modes propres) alors le nombre

de valeurs propres ω j inférieures à ω donnée, noté n (ω ) := ♯ j | ω j ≤ ω est approximativement (à hautes
fréquences)
1
n (ω ) ≈ Vol ({((q, k) t.q. ω (q, k) ≤ ω )}) (2.3.3)
(2π )d
Dans le terme de droite, il apparaît le volume dans l’espace des phases, occupé par les points (q, k) d’énergie
inférieure à ω.

Démonstration. (*) On donne seulement une idée de la preuve du théorème 2.3.3 : c’est de supposer que ω (q, k )
 avec q et donc se ramener localement au cas simple suivant : symbole ω (q, k) = ω (k), opérateur
varie peu
Ω = ω −i ∂q∂ , . . . , −i ∂q∂ (indépendant de q) sur un petit rectangle q ∈ [0, ϵ]d avec les conditions périodiques
1 d
aux bord. Les solutions de (2.3.2) sont donc les modes de Fourier φk (q) = eik.q avec k ∈ Rd de sorte que
2πn
φk (q + (ϵ, 0 . . .)) = φk (q) ⇔ k1 ϵ = n1 2π, n1 ∈ Z et de même pour les autres composantes k j = ϵ j , n j ∈
Z, j ∈ {1, 
. . . , d}. La valeur propre est ωk = ω (k ). Alors on peut faire le comptage explicitement, comme
Vol [0, ϵ]d = ϵd :
   
n o 2π
n ( ω ) = ♯ k ∈ Rd | ω ( k ) ≤ ω = ♯ n ∈ Zd | ω n ≤ω
ϵ
 −d Z  −d
2π 2π
Z  
d
≈ dn = dk = Vol k ∈ R | ω ( k ) ≤ ω
ω ( 2π
ϵ n)≤ω
ϵ ω (k )≤ω ϵ
1  
= Vol k ∈ Rd | q ∈ [0, ϵ]d , ω (k) ≤ ω
(2π )d
1
On voit donc que le terme provient des modes de Fourier (ou de la transformée de Fourier). Le vrai
(2π )d
théorème de la loi de Weyl et la vraie preuve consiste à bien controller l’approximation .

On déduit immédiatement du Théorème 2.3.3, une formulation équivalente pour la mécanique avec les
variables p = h̄k (impulsion) et énergie E = h̄ω :

Théorème 2.3.4. “Formule de Weyl semi-classique (en (q, p)).”. Si un opérateur (Hamiltonien quantique)
Ĥ est défini à partir d’un Hamiltonien classique H (q, p) où q, p ∈ Rd sont les variables de position et impulsion
pour d degrés de liberté et si on note
Ĥ φ j = Ej φ j
avec Ej niveaux d’énergie (valeurs propres) de Ĥ alors le nombre de valeurs propres Ej inférieures à E donnée,

noté n ( E) := ♯ j | Ej ≤ E est

1 
−d

n ( E) = d
Vol ({( q, p t.q. H ( q, p ) ≤ E )}) + o h̄ (2.3.4)
(2πh̄)

où le terme d’erreur devient négligeable dans la limite où h̄ est petit devant les grandeurs du problème. Dans le
terme de droite, il apparaît le volume dans l’espace des phases, occupé par les points (q, p) d’énergie inférieure à
E.
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 60

Démonstration. de (2.3.4) à partir de (2.3.3) : par le changement d’échelle Ĥ = h̄Ω̂, Ej = h̄ω j , E = h̄ω, p = h̄k,
on a les élements de volume dp = dp1 . . . dpd = h̄d dk1 . . . dk d = h̄d dk donc dqdp = h̄d dqdk et
1 1 1
Z Z
d
Vol ({(q, p t.q. H (q, p) ≤ E)}) = dqdp = h̄d dqdk
(2πh̄) (2πh̄)d (q,p)∈ D (2πh̄) d(q,k)∈ D
1
= Vol ({((q, k ) t.q. ω (q, k) ≤ ω )}) .
(2π )d

Remarque 2.3.5. Il est important de retenir les conclusions suivantes :


— En termes plus simples, cette formule montre que à cause du principe d’incertitude, avec d degrés de
liberté, dans l’espace des phases (q, p) ∈ Rd × Rd , un état quantique occupe le volume élémentaire
(2πh̄)d appelé « quanta ». En variables (q, k) un quanta est le volume (2π )d .
— On utilisera cette formule de  la façon suivante. Par dérivation, on peut déduire une approximation de
la densité d’états ρ ( E) := ( E) et pour un petit intervalle d’énergie de largeur ∆E autour de E,
dn
dE
déduire le nombre d’états ∆n = ρ ( E) ∆E. Finalement en supposant tous ces états équiprobables (ce sera
“l’hypothèse ergodique”), on déduira une expression de l’entropie S ( E) = k ln (∆n) (avec la constante
de Boltzmann k).
On précise la signification du volume Vol (.) dans la formule de Weyl (2.3.3). Cela sera utile pour quelques
exemples qui suivront.

2.3.1 Rappel de géométrie sur le volume


Par définition, l’espace Rn contenant des points x = ( x1 , x2 , . . . , xn ) caractérisés par n variables indépen-
dantes. On dit que sa dimension est dimRn = n. La mesure de l’espace occupé par certains points s’appelle un
volume en général, mais dans les cas particulier de la dimension 1 on appelle cela longueur, et en dimension
2 on l’appelle surface. Dans la suite il cependant plus simplement d’utiliser le terme volume pour toutes les
dimensions.

Sphères : Pour R > 0 fixé, l ’ensemble


n o
S n −1 : = x t.q. x12 + x22 + . . . + xn2 = R2

est un ensemble de dimension n − 1 (car il n’y a plus que n − 1 variables indépendantes à cause de la
contrainte) appelé la « sphère Sn−1 ». Par exemple S1 est le cercle de rayon R dans R2 . S2 est la sphère ha-
n−1 est
 R . S nest constitué des deux points {− R, + R} ⊂ R. On montre que le
3 0
bituelle dans
n − 1 − 1 1
 « volume » de S
Vol S = Cn−1 R avec Cn−1 ≥ 0 qui ne dépend pas de R. Par exemple Vol S = 2πR est aussi appelé
périmètre du cercle. Vol S2 = 4πR2 , Vol S0 = 0, etc.
 

Boules : L’ensemble n o
Bn := x t.q. x12 + x22 + . . . + xn2 ≤ R2 (2.3.5)

est un ensemble de dimension n appelée la « boule fermée Bn » que l’on appelle aussi intérieur de la sphère
Sn−1 . Par exemple B2 est en fait le disque de rayon R dans R2 . B1 est le segment [− R, + R] ⊂ R. On montre que
61 2.3. FORMULE DE WEYL SEMI-CLASSIQUE

le « volume » de Bn est Vol ( Bn ) = Cn′ Rn avec Cn′ > 0 qui ne dépend pas de R. Par exemple Vol B2 = πR2 est


aussi appelé surface du disque. Vol B1 = 2R, Vol B3 = 34 πR3 , etc. Pour n ≫ 1, on a l’équivalence
 

 
1 1 2πe
ln Cn′ ∼ ln , (2.3.6)
n 2 n

2πe n/2
autrement dit Cn′ ≍

n .

Cubes : Une situation plus simple est l’ensemble

C n := { x t.q. 0 ≤ xi ≤ R, ∀i = 1 . . . n}

qui est un espace de dimension n appelé cube de côté R. Son volume  est simplement le produit des côtés
Vol (C n ) = Rn . Par exemple C2 est en fait un carré de surface Vol C2 = R2 . C1 est un segment de longueur
Vol C1 = R.


Produit cartésien d’ensembles : Considérons maintenant un cas intermédiaire. Par exemple si on considère
l’ensemble de points dans R4
n o
E := x t.q. 0 ≤ x1 ≤ L, 0 ≤ x2 ≤ L, x32 + x42 = R2 ,

on observe que les conditions sur les variables ( x1 , x2 ) correspondent à un cube C2 (un carré) que les condi-
tions sur les variables ( x3 , x4 ) correspondent à une sphère S2−1 = S1 (un cercle). C’est deux conditions sont
indépendantes, par conséquent E = C2 × S1 est le  produit cartésien d’un carré C2 de dimension 2 et d’une
1 2
sphère S de dimension 1. Ainsi Vol ( E) = Vol C Vol S = L 2πR.1 2

2.3.2 Exemple : une particule libre dans une boite uni-dimensionnelle.


Nous traitons un cas simple pour illustrer la formule de Weyl (2.3.3). On considère un segment de longueur
L. La position d’une particule libre de masse m est q (t) ∈ [0, L]. Particule libre signifie qu’il n’y a pas de force
extérieure, sauf au moment du rebond sur les parois en q = 0 et q = L. Pour q ∈]0, L[, son énergie totale est
donc
p2
H (q, p) = .
(2.1.2) 2m

0 L q
p
R

L q
−R

On se fixe une énergie E ≥ 0. On a



H (q, p) ≤ E ⇔ | p| ≤ R = 2mE

Le volume recherché est un rectangle

Vol ({(q, p t.q. H (q, p) ≤ E)}) = Vol ({q ∈ [0, L]}) × Vol ({ p ∈ [− R, R]}) = L × 2R

= 2L 2mE

Donc la formule de Weyl donne

1 √   1 √  
n ( E) = 2L 2mE + o h̄−1 = L 2mE + o h̄−1 .
(2.3.3) 2πh̄ πh̄
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 62

Remarque 2.3.6. On déduit inversement que l’énergie En du niveau n est approximativement


 2
1 πh̄n
En = + o (1) .
2m L
 2
(exact) 1 πh̄n
On peut comparer à la solution exacte En = 2m L qui s’obtient en résolvant l’équation de Schrödin-
ger stationnaire, Faure (2014a). On observe qu’il n’y a pas de terme d’erreur.

2.4 Modèle du gaz parfait


Références : Diu et al. (1989) p.83. Couture & Zitoun (1992) p.360.

2.4.1 Calcul de la densité d’états


Dans le modèle du “gaz parfait” on considère N particules libres identiques dans une boite 3D. On consi-
dère un espace Ω ⊂ R3 de volume fini V = Vol (Ω) qui contient
 N particules ponctuelles.  
( j) ( j) ( j) ( j) ( j) ( j)
La position de la particule j est notée ⃗q( j) = q1 , q2 , q3 ∈ R3 . Son impulsion est notée ⃗p( j) = p1 , p2 , p3 ∈
R3 . Ainsi l’état du système (q, p), i.e. configuration des particules, appelé micro-état est caractérisé par la po-
sition de toutes les particules :
 
q = ⃗q(1) , ⃗q(2) , . . . ⃗q( N ) ∈ R3N

et leur impulsions :
 
p = ⃗p(1) , ⃗p(2) , . . . ⃗p( N ) ∈ R3N .

On suppose les particules libres, c’est à dire que leur énergie est seulement l’énergie cinétique :

N 2
1
H (q, p) = ∑ 2m ⃗p( j) .
j =1

Pour appliquer la formule de Weyl (2.3.3), on se fixe une énergie E ≥ 0. On a

N 2
H (q, p) ≤ E ⇔ ∑ ⃗p( j) ≤ 2mE = R2
j =1

. . × Ω et p ∈ B3N ( R)
⇔ q ∈ |Ω × .{z }
N

car d’après (2.3.5), on reconnaît l’équation d’une boule B3N ( R) de rayon R dont le volume est donnée en
(2.3.6). On suppose les particules identiques et donc indiscernables. Cela signifie que la permutation j ←→ j′
de deux particules quelconques ne change pas l’état et qu’il faut donc réduire le volume de l’espace de phase
par un facteur N! qui est le nombre de permutations. La formule de Stirling donne n1 ln (n!) ∼ ln ne si n ≫ 1,
avec e = exp (1) soit
 n n
n! ≍ .
e
Alors
1   1 N
Vol ({(q, p t.q. H (q, p) ≤ E)}) = (Vol (Ω)) N Vol B3N ( R) = V C3N R N .
N! (2.3.6) N!
63 2.5. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE WEYL

La formule de Weyl donne alors

Vol ({(q, p t.q. H (q, p) ≤ E)})


n ( E) =
(2.3.3) (2πh̄)3N
3/2 ! N
V N C3N R N

Ve 2πe2mE
= ≍
N! (2πh̄)3N 3N (2πh̄)3 3N
3/2 ! N
Ve5/2

mE
= (2.4.1)
N 3πh̄2 N

On utilisera cette formule de la façon suivante. Par dérivation, on déduit une approximation de la densité
d’états    
dn 3N 1
ρ ( E) := ( E) = n ( E) . (2.4.2)
dE 2 E
Pour un petit intervalle d’énergie de largeur ∆E autour de E donnés, on déduit le nombre d’états ∆n par

∆n
 
3N 1
= ρ ( E) = n ( E) (2.4.3)
∆E (2.4.2) 2 E

E E ∆n
∆n ∆E
E

2.5 Exercices et problèmes corrigés sur la loi de Weyl


2.5.1 L’oscillateur harmonique et formule de Weyl
vidéo de la correction
Une particule de masse m, de position q ∈ R (à une dimension) est soumise à la force F = −Kq avec K > 0.
Cela peut par exemple modéliser les vibrations d’un atome dans une molécule diatomique comme He2 , ou les
vibrations d’un atome appartenant à un cristal comme le cuivre.
1. Écrire l’énergie totale E = H (q, p) de la particule en fonction de q et de son impulsion p. Vérifier que
d2 q
les équations de mouvement de Hamilton donnent bien la loi de Newton m dt2 = F (q).
2. Montrer que la trajectoire de q(t), p(t) dans l’espace de phase d’énergie E est une ellipse et calculer sa
surface Vol ({(q, p t.q. H (q, p) ≤ E)}). Quelle est la fréquence ω d’une trajectoire ?
3. En appliquant la formule de Weyl, calculer le nombre d’états quantiques n ( E) d’énergie inférieure à
E. En déduire que le spectre d’énergie est discret, et donner une estimation de l’énergie En du niveau
n ∈ N. Comparez au résultat exact Enexact = h̄ω (n + 1/2) avec n ≥ 0.

2.5.2 Une particule libre dans une boite


vidéo de la correction
1. On considère maintenant une particule libre de masse m, position q ∈ [0, L] dans une boite unidimen-
sionnelle de longueur L. Appliquer la formule de Weyl pour obtenir le nombre d’états quantique n ( E)
d’énergie inférieur à une énergie E. Déduire une estimation des niveaux d’énergie En et comparer au
n2 π 2 h̄2
spectre exact (à retrouver) Enexact = L2 2m
, pour n ≥ 1. Donner une estimation de la densité d’états
dn
ρ( E) = dE .
2. Mêmes questions pour une particule libre dans une boite de volume V et forme quelconque 3 à trois
dimensions 4 . Quelles sont les modifications si la particule a deux états de spin ?
3. Il n’y a pas de formule exacte pour En dans ce cas, sauf pour des formes particulières comme le parallélépipède, sphère, ellipsoïde.
4. Aide : volume de la boule B3 de rayon R dans R3 est 43 πR3 .
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 64

2.5.3 N particules libres dans une boite à 3D. Gaz parfait.


vidéo de la correction
On considère N particules libres sans spin de masse m identiques dans une boite de volume V en dimension
3. Cela modélise un “gaz parfait”. On cherche à calculer la densité d’états afin de déduire l’entropie puis les
équations d’état du gaz parfait.
Références : Diu et al. (1989) p.83. Couture & Zitoun (1992) p.360.
1. Un micro-état détermine l’état des N particules. Quelles sont les variables dynamiques position et im-
pulsion q, p qui caractérisent un micro-état ? Donner l’expression de l’énergie totale H (q, p) en fonction
de l’impulsion de chacune des particules. Les particules sont identiques donc indiscernables. De façon
mathématique, cela signifie qu’une permutation de deux particules correspond au même micro-état.
Rappel : il y a N! permutations possibles de N particules.
2. En appliquant la formule de Weyl, déduire 5 que le nombre d’états quantiques n ( E) d’énergie inférieure
3N
à E est n ( E, V, N ) = CN V N E 2 avec une constante CN > 0 indépendante de E, V ? (ne pas oublier de
diviser par le nombre N! de permutations)
 
3. On rappelle que l’entropie micro-canonique 6 est définie par S ( E, V ) = k ln (∆n) avec ∆n = ∂E ∂n
∆E
le nombre d’état dans un petit intervalle ∆E fixé d’énergie E et la densité d’états ρ ( E) = ∂E
∂n
. Calculer 7
l’expression S ( E, V ) en supposant un grand nombre fixé N ≫ 1 de particules. On définit la température
T, pression P, par la différentielle dS = T1 (dE + PdV ) i.e.

1 ∂S P ∂S
= , = . (2.5.1)
T ∂E T ∂V
Déduire les deux relations suivantes donnant l’énergie moyenne E/N par particule, la loi des gaz
parfaits,
E 3
= kT, PV = NkT. (2.5.2)
N 2
4. On considère maintenant le nombre N ≫ 1 de particules comme une variable. Donnerl’expression 
de l’entropie, (formule de Sackur Tetrode), définie par S ( E, V, N ) = k ln (∆n) avec ∆n = ∂E
∂n
∆E. On
1
définit le potentiel chimique µ par la différentielle dS = T (dE + PdV − µdN ) i.e.

−µ ∂S
= . (2.5.3)
T ∂N
Déduire la relation
µ V
e− kT = (2.5.4)
Nλ3T
 1/2
2πh̄2
avec λ T := mkT appelée longueur d’onde thermique de de Broglie dont on rappellera l’interpré-
tation.
5. Montrer que la fonction S ( E, V, N ) est extensive, i.e. S (λE, λV, λN ) = λS ( E, V, N ), , ∀λ > 0, et que
T, p, µ sont intensives, i.e. T (λE, λV, λN ) = T ( E, V, N ) , ∀λ > 0, etc. Déduire la relation de Euler :

1 P µ
S= E+ V− N (ou E = TS − PV + µN ). (2.5.5)
T T T
Cette relation montre que les trois relations d’états (2.5.1),(2.5.3) ne sont pas indépendantes. Retrouver
(4.8.3) à partir de (2.5.5) et (2.5.2).
6. Pour comprendre les définitions précédentes de T, P, µ par les relations (2.5.3), voir Diu et al. (1989,
p.207, chap.4), ou TD ultérieur. On observe que T est relié à l’énergie moyenne par particule. On peut
vérifier que P correspond à la pression mécanique de la façon suivante. Considérons que le volume V
5. La boule BRn de rayon R dans Rn défini par l’équation x12 + x22 .. + xn2 ≤ R2 a pour volume Vol ( BRn ) = Cn Rn avec n1 ln (Cn ) ∼
1
ln 2πe

2 n si n ≫ 1 avec e = exp (1), obtenu en utilisant la formule de Stirling.
6. On suppose ici le système isolé. Donc son énergie E est conservée. Cependant à cause des interactions entre particules que l’on
néglige mais qui sont pourtant présentes, on ne connaît pas exactement dans quel état il est vraiment (c’est un peu comme si il change
d’état en permanence mais gardant son énergie E fixée). On suppose donc une mesure de probabilité uniforme sur tous les états d’énergie
dn
dans un intervalle [ E, E + dE] avec dE très petit. Dans cet intervalle, il y a dn = dE dE = ρ ( E) dE états. D’après le TD1, l’entropie est
alors S = k ln (dn) = k ln (ρ ( E) dE) = k ln (ρ ( E)) + klog (dE) ≈ k ln (ρ ( E)) indépendamment du choix de dE.
7. La formule de Stirling donne n1 ln (n!) ∼ ln ne si n ≫ 1, avec e = exp (1).
65 2.5. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE WEYL

puisse varier en déplaçant de dx une paroi de surface s selon une dimension x, donnant une variation
de volume dV = sdx. Par définition, la force exercée par le gaz sur la paroi est F = − dE
dx où E ( x ) est
l’énergie interne du système et la pression mécanique est définie comme étant la force par unité de
surface Pmec = Fs . Montrer que Pmec = P.
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 66
Chapitre 3

Modèle de Boltzmann de l’équilibre


thermodynamique

Dans ce chapitre on considère un ensemble physique de plusieurs particules comme le modèle du gaz
parfait étudié en section 2.4. On va faire une hypothèse de “chaos”, habituellement appelée “hypothèse ergo-
dique” et déduire des propriétés importantes sur l’état d’équilibre et sur le comportement de deux systèmes
physiques qui sont en contact.
A partir de maintenant les notions ne sont plus très rigoureuses (c’est encore un défi de la science actuelle
de les rendre rigoureuses). On va se baser plus sur l’intuition physique et sur quelques modèles physiques
particuliers.

3.1 Système thermodynamique et hypothèse ergodique


Dans cette première section on donne une définition un peu générale de système thermodynamique. Le
gaz parfait sera un exemple parmi d’autres étudié dans la suite.

Définition 3.1.1. Un système thermodynamique est un modèle de dynamique en physique contenant


un grand nombre N particules (ou plus généralement N degrés de liberté) qui interagissent entre
elles avec des forces à courte portée. On considère toutes les grandeurs physiques conservées comme
( E, V, N ) : l’énergie totale E (car si le système est isolé, l’énergie est conservée en mécanique Hamilto-
nienne), le volume V occupé par le système, le nombre de particules N.
On fait l’hypothèse ergodique qui suppose que à part ces quantités conservées comme ( E, V, N ), tous
les autres paramètres évoluent de façon “totalement chaotique”, i.e. imprévisible et plus précisément
selon une dynamique de Markov mélangeante qui fait que toutes les configurations possibles appelées
micro-état (par exemple position et impulsion précise des particules) deviennent équiprobables. C’est
l’état d’équilibre thermodynamique (aussi appelé ensemble micro-canonique, d’après Gibbs 1902).
L’entropie de Shannon de cet état d’équilibre contenant ∆n micro-états est

SShannon = ln (∆n)
(1.5.12)

et l’entropie de Boltzmann est définie par (la constante de Boltzmann fixée en 1966 est k =
1.380649 10−23 J/K)
S ( E, V, N ) := kSShannon = k ln (∆n) (3.1.1)
et caractérise le système thermodynamique à l’échelle macroscopique. D’après la localité des interac-
tions, la fonction entropie est supposée extensive, c’est à dire que pour tout facteur de proportionnalité
λ > 0,
S (λE, λV, λN ) = λS ( E, V, N ) . (3.1.2)
∂2 S
Finalement on suppose que la fonction S ( E, V, N ) est concave, i.e. ∂E2
< 0. Cela sera nécessaire pour
déduire la stabilité du système thermodynamique, cf Prop. 3.4.3.

67
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 68

3.1.1 Exemples et contre-exemples de systèmes thermodynamiques


— Le modèle le plus simple est le gaz parfait présenté plus haut : N particules libres ponctuelles (ou
petites sphères) qui subissent des chocs. Du fait de ces chocs on imagine que la dynamique totale est
chaotique et donc il y a mélange du système et convergence vers un unique état d’équilibre qui est
la mesure de Liouville dqdp, donc la mesure uniforme sur les ∆n états, conformément à l’hypothèse
ergodique. Cependant cette hypothèse de “chaos” est démontrée seulement dans des modèles très sim-
plifiés comme le billard de Sinaï mais reste une grande conjecture en science pourtant à la base de la
physique statistique. Voir cette vidéo avec 1 bille et vidéo avec 1e6 billes.
— Un autre modèle plus sophistiqué est un ensemble de N particules
 mais avec des forces entre particules
de courtes portée, décrite par une énergie potentielle U ⃗q( j) − ⃗q(k) où ⃗q( j) ∈ R3 est la position de
la particule j et U (.) peut être une énergie effective entre molécules comme celui de Lennard-Jones.
Pour ce modèle on ne sait pas calculer l’état d’équilibre de façon exacte. Il apparaît des phénomènes de
transition de phases étudiée au chapitre suivant comme la condensation des particules en des phases
liquide ou solide (cristallin) qui peuvent coexister avec le gaz. On verra des méthodes approximative
pour expliquer cela. Les phases gaz ou liquide où les atomes peuvent se déplacer sont appelés fluide
au contraire de l’état cristallin. Voir vidéo. Par exemple un plasma est un fluide de noyaux atomiques
avec des électrons libres.

— Attention dans les systèmes décrit précédemment, gaz, liquide ou solide, l’état d’équilibre est atteints
que sur une petite échelle de la taille de quelques micromètres appelée échelle mésoscopique, car
grande devant l’échelle microscopique des particules et petite devant l’échelle humaine macroscopique.
Ainsi un système thermodynamique est toujours de taille mésoscopique. A l’échelle macroscopique,
il faut considérer les fluides comme un ensemble de plusieurs systèmes thermodynamiques qui
interagissent entre eux. On étudiera ces interactions dans la suite.
— D’autres modèles importants en physique sont les ondes de vibration d’un solide cristallin (appelés
phonons, bien que les phonons soient précisément la quantification de ces ondes). A cause des non
linéarité, il y a des interactions entre les paquets d’ondes (appelés quasi-particules) et on peut supposer
que ces comportements sont chaotiques, justifiant l’hypothèse ergodique et donc le fait de considérer
ces ondes comme un système thermodynamique.
— Dans un solide, les moments magnétiques des particules, appelés spins interagissent entre eux. Un
modèle simplifié est de considérer des états de spins sur un réseau fixé. Ces spins interagissent avec
leur proches voisins. De même, supposant quelques interactions générant du chaos, on peut considérer
ce modèle comme un système thermodynamique. Son étude montre l’existence de transitions de phase,
par exemple des états où les spins sont collectivement parallèle, donnant une aimantation au matériau.
On étudiera le modèle d’Ising du ferromagnétisme qui est un exemple simple de tel modèle. (Pour
avoir la thermalisation il faut supposer que les ondes de spins ont des comportements non linéaires ?)
— Un système dynamique simple n’est pas un système thermodynamique (exemple une planète consi-
dérée comme un point ou un pendule). On ne le décrit pas par une mesure de probabilité d’équilibre
qui n’évolue pas mais par son état dynamique qui évolue d’après les lois de Newton par exemple. Par
contre un tel système dynamique interagit éventuellement avec des systèmes thermodynamiques, par
exemple le pendule bouge dans un fluide comme l’air ou l’eau. Il sera important d’étudier les interac-
tions entre ces différents systèmes et observer les phénomènes de fluctuation et dissipation.
69 3.1. SYSTÈME THERMODYNAMIQUE ET HYPOTHÈSE ERGODIQUE

Remarque 3.1.2. “Sur les quantités conservées”. Plus généralement, on peut avoir un système thermodyna-
mique avec p familles différentes de particules où le nombre de particules Nj dans chaque famille est conservé
j = 1, . . . p. On considérera l’ensemble de ces quantités conservées N1 , . . . Np . Par exemple en chimie, avec
des réactions comme 2H2 O ⇔ 2H2 + O2 , le nombre de molécules NH2 O n’est pas conservé mais le nombre
d’atomes NH , NO est conservé. Attention, dans le cas des photons, le nombre de photons Nγ n’est pas une
quantité conservée, car un photon peut être absorbé et/ou émit par la matière (on le voit tous les jours, lorsque
on allume et éteints la lumière dans une pièce).
En mécanique des fluides on peut avoir un déplacement du système et considérer l’impulsion totale qui
est une grandeur conservée, ou le moment cinétique total.

Remarque 3.1.3. “Sur la constante de Boltzmann k”. On verra que l’entropie de Shannon est de l’ordre de
SShannon ( E) ≈ N qui est de l’ordre du nombre d’Avogadro NAv. = 6.02 1023 pour un gaz à l’échelle humaine.
Afin d’obtenir une grandeur de l’ordre de l’unité, on change d’échelle, on multiplie SShannon ( E) par k =
1
NAv. R pour obtenir SBotlz. ( E ) = kSShannon ( E ) ≈ R dans la définition (3.1.1) de l’entropie de Boltzmann, où
R = 8.31J/K est une grandeur à l’échelle humaine. L’entropie de Shannon SShannon n’a pas d’unité mais est
immense, l’entropie de Boltzmann S a l’unité J/K.

Remarque 3.1.4. “Sur l’entropie à basse énergie”. Pour un système physique à basse énergie on s’attend à ce
qu’il ait un seul état fondamental, ∆n = 1 donc l’entropie est nulle S = k ln ∆n = 0. Cette propriété s’appelle
le 3eme principe de la thermodynamique ou principe de Nernst (1906). Cela est théorique, et valable pour
un système strictement isolé et pour E → 0 (T → 0). En pratique, certains systèmes appelés verre de spins,
admettent un grand nombre d’états à basse énergie et donc une entropie résiduelle. Ces modèles de “verre
de spin” sont étudiés dans le cadre des modèles d’apprentissage neuronale (voir cours de Bernard Derrida au
collège de France).

3.1.2 Équations d’états


Voici des définitions générales qui vont être utiles pour étudier plus loin la relaxation thermique vers l’état
d’équilibre dans la proposition 3.4.3.

Définition 3.1.5. Pour une fonction entropie S ( E, V, N ) donnée, on définit la température T, la pres-
sion p, le potentiel chimique µ par

∂S 1 ∂S p ∂S µ
=: , =: , =: − , (3.1.3)
∂E T ∂V T ∂N T
appelée équations d’état.

Remarque 3.1.6. Ce qui est important est que l’on s’interesse aux dérivées partielles de S, autrement dit aux
changement de S sous des petites variations des quantités conservées ( E, V, N ). Les noms associés à ces déri-
vées partielles sont des raisons plutôt historiques (i.e. 1/T , p/T, −µ/T plutot que plus simplement κ E , κV , κ N
comme on verra plus loin). Noter que ces dérivées sont elles-même des fonctions T ( E, V, N ) , p ( E, V, N ) , µ ( E, V, N )
et que l’unité de la température T est K, l’unité de la pression p est mJ3 ≡ Pa, l’unité du potentiel chimique µ
est J.

Remarque 3.1.7. D’après la définition générale de la différentielle d’une fonction


     
∂S ∂S ∂S
dS = dE + dV + dN
∂E ∂V ∂N

on peut écrire la définition de T, p, µ sous la forme


1 p µ
dS = dE + dV − dN (3.1.4)
(3.1.3) T T T
ou
dE = TdS − pdV + µdN.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 70

Remarque 3.1.8. On peut justifier dès à présent que la pression p correspond à la pression mécanique pmec. = SF
qui est une force par surface de la façon suivante. Considérons que une paroi de surface S de l’enceinte du
gaz peut se déplacer de dx et que le déplacement est isentropique, i.e. à entropie constante, alors 0 = dS =
1 dE dE
T ( dE + pdV ) donc dV = − p. Alors le changement de volume est dV = Sdx. La force est F = − dx et donc
 
F 1 dE dE
pmec = = − =− = p.
S S dx dV

S
F

dx

 
Remarque 3.1.9. “sur le signe de la pression p” : si p < 0 ⇔ ∂V ∂S
< 0, on aurait que S augmente en
diminuant V. Par l’évolution naturelle (2eme principe, S augmente) le système aurait tendance à s’effondrer
jusqu’à retrouver une pression positive (ou pas). Ce n’est donc pas une situation stable. Par contre si p > 0,
la système a tendance a s’étendre, mais en pratique il est limité par des parois (gaz dans une enceinte) ou des
forces de rappels comme la force gravitationnelle à longue portée qui limite la taille d’une étoile ou d’une
atmosphère planétaire.
Pour la même raison T > 0 en général, car si T < 0, alors le système a tendance à donner de l’énergie pour
augmenter l’entropie, jusqu’à ce que T > 0. C’est le cas dans un système de spins, cf TD.

Remarque 3.1.10. “sur le potentiel chimique µ”. (ref : Diu et al. (1989, p.168)). On va expliquer que l’on a µ < 0
pour un gaz de particules sans interactions ou avec des interactions attractives, mais on peut avoir µ > 0 dans
un système où il y a des forces suffisamment répulsives entre particules, comme entre les électrons par leur
charges ou par l’effet d’exclusion de Pauli.
En effet, si on ajoute un certain nombre ∆N > 0 de particules immobiles au système (c’est à dire avec
énergie cinétique nulle), alors cela induit une variation d’entropie positive ∆S > 0 car cela ajoute des degrés
de liberté donc augmente le nombre de micro-états ∆n. Si il n’y a pas d’interactions entre particules (i.e. pas
d’énergie potentielle ∆E p = 0), alors l’énergie totale est inchangée ∆E = ∆Ec + ∆E p = 0. Si au contraire il y
a des interactions répulsives entre les particules, i.e. ∆E p > 0, alors il y a une variation positive de l’énergie
totale ∆E > 0 et si il y a des interactions attractives, i.e. ∆E p < 0, alors ∆E < 0. Dans tous les cas, si T > 0, on
obtient
   
∂S ∂S 1 µ
∆S = ∆E + ∆N = ∆E − ∆N
∂E ∂N T T

Donc
1
µ= (∆E − T∆S)
∆N
peut être positif si ∆E > T∆S > 0, i.e. des forces suffisamment répulsives mais µ < 0 si ∆E = 0 ou ∆E < 0.

Proposition 3.1.11. “Fonctions intensives”. Pour tout facteur de proportionnalité λ > 0,

T (λE, λV, λN ) = T ( E, V, N ) ,

p (λE, λV, λN ) = p ( E, V, N ) , µ (λE, λV, λN ) = µ ( E, V, N ) .

Démonstration. Par exemple pour la température,

1 ∂S (λE, λV, λN ) λ∂S ( E, V, N ) 1


= = = .
T (λE, λV, λN ) ∂ (λE) (3.1.2) λ∂E T ( E, V, N )
71 3.2. EXEMPLE DU GAZ PARFAIT : ENTROPIE ET ÉQUATION D’ÉTATS

Proposition 3.1.12. “Relation d’Euler”. On a

1 p µ
S= E+ V− N
T T T
qui s’écrit aussi
E = TS − pV + µN.
à comparer avec (3.1.4).

Remarque 3.1.13. Cette relation montre que deux équations d’états (3.1.3) déterminent la 3ème.
Démonstration. D’après l’extensivité S (λE, λV, λN ) = λS ( E, V, N ),
(3.2.2)

d d
S (λE, λV, λN ) = (λS ( E, V, N )) = S ( E, V, N )
dλ dλ
En λ = 1 cela donne
 
  
∂S∂S ∂S
V+E+ N=S
∂E
∂V ∂N
1 p µ
⇔ E+ V− N = S
T T T

Remarque 3.1.14. En mathématiques, la relation d’Euler s’applique plus généralement, aux fonctions homo-
gènes.

3.2 Exemple du gaz parfait : entropie et équation d’états


On va vérifier que le gaz parfait est un exemple de système thermodynamique comme défini en 3.1.1 et
calculer précisément sa fonction entropie S ( E, V, N ) pour déduire les équations d’états.
On calcule l’entropie de Boltzmann (3.1.1) du gaz parfait à partir de la densité d’états (2.4.2). On verra
l’utilité dans la suite.

3N ∆E
   
S ( E, V, N ) = k ln (∆n) = k ln n ( E)
(3.1.1) (2.4.3) 2 E
3N ∆E
  
= k ln (n ( E)) + k ln
2 E

Avec (2.4.1) on obtient que S ≈ N et donc le deuxième terme est négligeable et on obtient

Proposition 3.2.1. “Entropie du gaz parfait”, “formule de Sachur Tetrode”. Diu et al. (1989, p.197).
3/2 !
Ve5/2

mE
S ( E, V, N ) = kN ln . (3.2.1)
(2.4.1) N 3πh̄2 N

Une conséquence immédiate et importante de cette formule est le comportement de S si on considère un


système identique plus grand (par exemple en doublant l’énergie, le volume et le nombre de particules).

Proposition 3.2.2. “Extensivité de l’entropie”. Pour tout facteur de proportionnalité λ > 0,

S (λE, λV, λN ) = λS ( E, V, N ) . (3.2.2)

Remarque 3.2.3. Le facteur N! venant de l’indiscernabilité des particules est essentiel pour déduire cette pro-
priété d’extensivité. Sinon il apparaît le “paradoxe de Gibbs”.
Voici un schéma représentant pour le modèle du gaz parfait, le nombre de micro-états ∆n ( E) à l’énergie
E ≥ 0 dans un petit intervalle ∆E fixé d’énergie.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 72

3N
E ∆n( E) ∝ E 2 E
S( E) ∝ ln( E)

S( E) = k ln ∆n( E)

Concavité de l’entropie : On a vu que pour le gaz parfait


3N
∆n ( E) ∝ E 2

augmente très vite avec l’énergie et par conséquent, l’entropie se comporte comme
3N
S ( E) = k ln (∆n) ≈ k ln E ∝ ln E
2
Ses dérivées sont
1 ∂S 1
= ∝ >0
T ∂E E
∂2 S 1
∝− 2 <0 (3.2.3)
∂E2 E
donc S ( E) est une fonction concave 1 . Ce sera important dans la suite pour établir la stabilité des systèmes
thermodynamiques.
Dans le cas du gaz parfait, en utilisant l’expression de l’entropie (3.2.1), on peut expliciter les équations
d’état.

Proposition 3.2.4. “Equations d’états du gaz parfait”. Pour le gaz parfait on a les trois équations d’état

E 3
= kT (3.2.4)
N 2
signifiant que l’énergie moyenne par particule est proportionnelle à la température.

pV = NkT (3.2.5)
V
qui montre que N = 1p kT, i.e. la pression est inversement proportionnel au volume moyen V/N par particule.

µ V
e− kT = (3.2.6)
Nλ3T
avec !1/2
2πh̄2
λT =
mkT
appelée longueur d’onde thermique de de Broglie.

Démonstration. On calcule
1 ∂S 31
= = kN
T ∂E (3.2.1) 2E
donnant (3.2.4). De même
p ∂S 1
= = kN .
T ∂V (3.2.1) V
1. De même on a vu pour le gaz parfait que concernant le volume et la pression,
∆n (V ) ∝ V N , S (V ) = k ln (∆n) ∝ ln V
p ∂S 1 ∂2 S 1
= ∝ > 0, ∝ − 2 < 0.
T ∂V V ∂V 2 V
73 3.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA THERMODYNAMIQUE

donnant (3.2.5). Finalement


3/2 !
Ve5/2

µ ∂S mE 5 1
− = = k ln 2
− kN
T ∂N (3.2.1) N 3πh̄ N 2N
3/2 !  !
V mkT 3/2
   
V mE V 3
= k ln = k ln = k ln λ
N 3πh̄2 N (3.2.4) N 2πh̄2 N T

donnant (3.2.6).

3.3 Exercices et problèmes corrigés sur la thermodynamique


Introduction: Vidéo de cette partie
La thermodynamique est une science à l’échelle macroscopique qui concerne la température et la pression
des corps et des fluides (milieux continus), et a commencé à être étudiée au XVIII-ième siècle avec l’invention
des pompes à feu. Dans sa formulation elle est basée sur quelques principes. Ces principes ont ensuite été
expliqués à partir des mécanismes microscopiques des particules à la fin du XIX-ième siècle grâce à la phy-
sique statistique. Dans ce TD on illustre ce passage du microscopique au macroscopique en étudiant le célèbre
cycle de Carnot (1824) qui explique le rendement des moteurs thermiques et le fonctionnement des pompes à
chaleurs et réfrigérateurs.
Dans le dernier problème on montre la manifestation de la structure des molécules dans les propriétés
thermodynamiques d’un gaz poly-atomique et on applique cela aux fluctuations de pression dans l’air pour
démontrer le phénomène de propagation sonore à partir de la loi de Newton (ou équation d’Euler).

3.3.1 Bases de calcul différentiel


vidéo de la correction

[Link] Rappels sur les 1-formes


L’utilisation des formes différentielles, des 1-formes, est essentielle en thermodynamique. Rappelons quelques
bases de calcul différentiel sur le plan R2 avec les coordonnées ( x1 , x2 ). (Cela peut s’étendre à Rn ). Pour plus
de précisions, voir le cours de géométrie différentielle.

— Une fonction est une application f : ( x1 , x2 ) ∈ R2 → f ( x1 , x2 ) ∈ R. On peut représenter une fonction


par ses lignes de niveau (voir figure).
— Une courbe paramétrée γ sur R2 ou trajectoire, est un point qui bouge avec le temps : γ : t ∈ [0, 1] →
γ (t) = ( x1 (t) , x2 (t)) ∈ R2 .
— Un vecteur vitesse ou vecteur  tangent V àla courbe γ au point γ (t) donné, est habituellement décrit

par ses composantes = dx
dt
1 dx2
dt ( t ) , dt ( t ) ∈ R . Il est préférable de penser à V comme un opérateur
2

qui permet de mesurer la variation d’une fonction f donnée le long de la courbe γ au point γ (t). Cette
variation est
   
d ( f (γ (t))) d ( f ( x1 (t) , x2 (t)))
V ( f ) := = (3.3.1)
dt γ(t) dt γ(t)
     
∂f dx1 ∂f dx2
= + (3.3.2)
∂x1 dt ∂x2 dt
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 74

Ainsi on écrit    
dx1 ∂. dx2 ∂.
V (.) = + , (3.3.3)
dt ∂x1 dt ∂x2
| {z } | {z }
V1 V2
 
dx1 dx2
ce qui montre que V est un opérateur différentiel d’ordre 1 avec deux composantes (V1 , V2 ) = dt , dt ∈
R2 .
— La différentielle de la fonction f est l’application linéaire

d f : V → d f (V ) : = V ( f )

qui mesure les variations de f selon un vecteur tangent V donné (Noter que c’est la même quantité
V ( f ) qui a défini V en (3.3.1)). En particulier, prenant la fonction f ( x1 , x2 ) = x1 on a
dx1
V ( x1 ) = = dx1 (V ) (3.3.4)
(3.3.3) dt
dx2 ∂f ∂f
, et de même dt = dx2 (V ). Donc en général d f (V ) = V ( f ) = ∂x1 dx1 (V ) + ∂x2 dx2 (V ) donnant la
(3.3.1)
notation    
∂f ∂f
df = dx1 + dx2 . (3.3.5)
∂x1 ∂x2
La variation totale de f le long de la courbe γ est alors
1 d Z
f (γ (1)) − f (γ (0)) = ( f (γ (t))) dt
0 dt
Z 1 
∂ f dx1 ∂ f dx2
Z
= + dt = df
(3.3.1) 0 ∂x1 dt ∂x2 dt (3.3.5) γ

Le résultat dépend seulement des points extrêmes γ (0) , γ (1) de la courbe


R γ et non pas du chemin
intermédiaire. En particulier pour un chemin fermé γ (1) = γ (0), on a γ d f = 0.
— Plus généralement une 1-forme α est une application linéaire α : V → α (V ) ∈ R qui mesure des
variations selon un vecteur tangent V donné. On note

α = α1 ( x1 , x2 ) dx1 + α2 ( x1 , x2 ) dx2 , (3.3.6)

avec des composantes (α1 , α2 ) ∈ R2 à priori arbitraires. On peut sommer ces variations infinitésimales
le long de la courbe γ et obtenir
Z 1  

α dt =
0 dt (3.3.6,3.3.4)
Z 1  
dx1 dx2
Z
α1 ( x1 , x2 ) + α2 ( x1 , x2 ) dt = α
0 dt dt γ
R
En général ce résultat γ α dépend du chemin γ et n’est pas nul sur un chemin fermé : si γ est fermé
et γ = ∂C (i.e. γ est le bord orienté du domaine C ⊂ R2 ), alors d’après le théorème de Stokes on peut
écrire :
Z Z ZZ
α= α= dα
γ ∂C C

avec la deux forme  


∂α2 ∂α
dα := − 1 dx1 ∧ dx2 , (3.3.7)
∂x1 ∂x2
où dx1 ∧ dx2 est une deux forme de base et correspond à un élément de surface élémentaire, parfois
aussi noté dx1 dx2 dans le calcul intégral. Le signe ∧ est appelé produit tensoriel antisymétrique ou
produit extérieur.
— On a vu que la différentielle d’une fonction est un cas particulier de 1-forme : α = d f . Dans ce cas, on dit
∂f ∂f ∂α1 ∂2 f ∂2 f ∂α2
alors que α est une 1-forme exacte. On a α1 = ∂x1 et α2 = ∂x2 donc ∂x2 = ∂x2 ∂x1 = ∂x1 ∂x2 = ∂x1 ,
(3.3.6,3.3.5)
ainsi
d (d f ) = 0. (3.3.8)
(3.3.7)
75 3.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA THERMODYNAMIQUE

∂α1 ∂α2
— Etant donné une 1-forme α générale, on dit qu’elle est fermée si dα = 0 ( ⇔ ∂x2 = ∂x1 ). D’après
(3.3.7)
(3.3.8), une forme exacte est fermée et on peut se demander si la réciproque est vraie. Le Lemme de
Poincaré montre que oui : sur R2 , une forme fermée est exacte.

[Link] Exercices sur les 1-formes


Sur le plan R2 , considérons le chemin fermé suivant formé de quatre segments

γ = γ1 ∪ γ2 ∪ γ3 ∪ γ4 (3.3.9)

avec pour t ∈ [0, 1] ,γ1 (t) = (t, 0), γ2 (t) = (1, t), γ3 (t) = (1 − t, 1), γ4 (t) = (0, 1 − t).

1. Soit la fonction f ( x1 , x2 ) = x12 + x22 . Calculer sa différentielle d f . Calculer les intégrales γ d f (i.e.
R
R j
variation de f sur les segments) pour j = 1, 2, 3, 4 et vérifier que la variations totale γ d f = 0.
R
2. Soit la différentielle α = x2 dx1 . Est elle fermée ? Calculer les intégrales γ α pour j = 1, 2, 3, 4 et l’inté-
R j
grale totale γ α deux façons (directement et en utilisant la formule de Stokes).
1
3. En coordonnées polaires (r, θ ) bien définies pour r > 0 et θ ∈]0, 2π [, montrer que α = dθ = x12 + x22
( x1 dx2 − x2 dx1 ) .
R
Calculer γ α où γ est le cercle de rayon 1. α est-elle fermée ?
4. Exercice similaire avec les notations de la thermodynamique (mais simplifiées) : dans le plan ( E, V ) ∈
R2 , on suppose avoir la fonction « entropie » S ( E, V ) = ln (VE) et on note sa différentielle

1 P
dS = dE + dV
T T
avec des fonctions T ( E, V ), P ( E, V ) que l’on calculera. On définit les 1-formes

δQ := TdS, δW := − PdV.

appelées respectivement échange de chaleur et échange de travail. Montrer que dE = δQ + δW (appelé


1er principe). Montrer que δQ et δW ne sont pas fermées (et donc pas exactes, ce ne sont pas des
différentielles de fonctions). Calculer γ δQ sur le chemin fermé γ = ∂C, bord du carré C = [1, 2]2 .
R

3.3.2 Machines thermiques, pompes à chaleur et réfrigérateur. Cycle de Carnot.


vidéo de la solution.
Dans un exercice précédent on a vu que le modèle d’un gaz parfait, i.e. particules libres indépendantes,
donne à l’échelle macroscopique la loi du gaz parfait de la thermodynamique PV = nRT qui découle de
l’expression de l’entropie  
S ( E, V ) = k ln CN V N E3N/2 (3.3.10)

avec une constante CN qui dépend du nombre de particules N ≫ 1.


Dans cet exercice, on applique ce résultat aux « machines à feu » étudiées par Carnot (1824). C’est un
dispositif contenant un gaz parfait, à qui l’on fournit de la chaleur (i.e. agitation microscopique des molécules)
et qui produit en retour du travail utile (i.e. mouvement macroscopique) avec un rendement toutefois limité.
C’est par exemple un « moteur à vapeur ». Inversement si on fournit du travail au système, il peut transférer de
la chaleur d’une source froide vers une source chaude. C’est une « pompe à chaleur » ou un « réfrigérateur ».
Remarque 3.3.1. Comme exemple très courant où de la chaleur apportée est convertie en mouvement macro-
scopique, il y a la bougie qui brûle, où l’air chauffé monte par convection.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 76

Références : Cycle_de_Carnot, Article de Carnot 1824.

On considère un gaz parfait dans une enceinte de volume V, contenant N particules, d’énergie totale E.
1 P
On définit
  (en général)
 la température T et la pression P par la différentielle dS = T dE + T dV, autrement dit,
1 ∂S P ∂S
T = ∂E V et T = ∂V .
E
1. Partant de l’expression de l’entropie (3.3.10), montrer que
E 3
= kT, PV = NkT.
N 2
2. On définit la 1-forme (échange de chaleur) δQ := TdS et 1-forme (échange de travail) δW := − PdV.
Montrer que en général dE = δQ + δW et que δQ, δW ne sont pas des 1-formes fermées.
3. Dans la suite on va utiliser les variables ( T, V ) plutôt que ( E, V ) et pour cela, on effectue le changement
2E
de variable E → T = 3kN . Donner l’expression de l’entropie S ( T, V ) et identifier les courbes de « trans-
formations adiabatiques » dans le plan ( T, V ) correspondant à des changement avec dS = 0, c’est à dire
en restant à l’équilibre local et sans échange de chaleur avec l’extérieur : δQ = TdS = 0. Pour cela on
isole les parois de l’enceinte du gaz.
4. On considère deux valeurs de température extérieures 0 < T1 < T2 (deux thermostats). Dans le plan
( T, V ) du gaz, on définit la courbe fermée appelée « cycle moteur de Carnot » par (voir figure) :

(a) « Détente isotherme ». L’enceinte n’est pas isolée, mais en contact avec le thermostat extérieur de
température T2 . On tire sur le piston pour augmenter le volume. Partant d’un point A : TA = T2 ,
VA > 0 donné vers un point B : TB = T2 , VB > VA et T = T2 pendant la détente.
(b) « Détente adiabatique ». L’enceinte est isolée. On tire sur le piston pour augmenter le volume et
rejoindre la température T1 . Partant du point B précédent vers un point C : TC = T1 , VC > VB telle
que cette transformation soit adiabatique.
(c) « Compression isotherme ». L’enceinte n’est pas isolée, mais en contact avec le thermostat extérieur
de température T1 . On pousse tire sur le piston pour diminuer le volume. Partant du point C vers
un point D : TD = T1 , VD < VC et T = T1 pendant la compression.
(d) « Compression adiabatique ». L’enceinte est isolée. On pousse sur le piston pour diminuer le volume
et rejoindre la température T2 et le volume VA . Partant du point D précédent vers le point A de
départ telle que cette transformation soit adiabatique.
VB
Utilisant les formules des courbes adiabatiques, montrer que V
A
= VVDC et donc le cycle est caractérisé
par les paramètres indépendants T1 < T2 et VA < VB . A quoi est égal la variation d’énergie ∆E = γ dE
R

et la variation d’entropie ∆S = γ dS sur le cycle fermé γ ?


R

5. Calculer les échanges de chaleur ∆Q j = γ δQ sur chaque partie du cycle γ j avec j = a, b, c, d, et


R
j
déduire ∆Q sur le cycle total γ, et le travail fourni par le gaz à l’extérieur :
 
VB
−∆W = kN ( T2 − T1 ) ln > 0.
VA
77 3.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA THERMODYNAMIQUE

6. Montrer que la seule partie où le gaz reçoit de la chaleur est ∆Q A→ B > 0. Déduire que l’expression du
(−∆W )
rendement du moteur définie par η := ∆Q > 0 en fonction de T1 < T2 . Application numérique pour
A→ B
◦ ◦
T1 = 20 C, T2 = 100 C, calculer le rendement η ?
7. Expliquer pourquoi le cycle γ parcouru dans l’autre sens correspond à une pompe à chaleur ou à un
réfrigérateur (qui refroidit le thermostat froid et réchauffe le thermostat chaud) ?

3.3.3 (optionnel) Gaz diatomique et propagation du son dans l’air


Dans cet exercice on considère un phénomène physique très familier qui est le « son » : les fluctuations
de pression dans un air au repos se propagent selon l’équation des ondes, appelées ondes sonores à une
certaine vitesse c ≈ 340 m/s qui dépend de la géométrie des molécules de l’air. Pour expliquer ce phénomène
remarquable on utilise le modèle du gaz parfait à l’équilibre local.

F IGURE 3.3.1 – Ondes sonores (ultra sons) observées par effet Schlieren et par éclairage stroboscopique. Les
ondes sont émises à gauche et se réfléchissent sur la plaque. On observe des figures d’interférence.

[Link] Gaz parfait diatomique


Vidéo de la solution.
Balian (2007, tome1, section 8.4), Diu et al. (1989, p.329).
1. On suppose que l’air est un mélange de 80% de N2 (diazote, chaque noyau contient 7 protons et 7
neutrons) et de 20% de O2 qui sont des molécules di-atomiques. Calculer la masse molaire M de l’air.
2. On considère un gaz contenant des molécules diatomiques rigides identiques de masse individuelle
m. Dans le modèle du gaz parfait, chaque molécule diatomique est libre dans le volume V et on ne
considère pas le mouvement de vibration des molécules mais seulement le mouvement de rotation.
La structure diatomique ajoute donc un degré de liberté de rotation sur la sphère de directions (θ, φ)
1
et que l’on décrit dans le Hamiltonien classique (énergie cinétique de rotation) Hrot = 2µ ∥ prot ∥2 où
prot = pθ , p φ ∈ R2 est l’impulsion de rotation et µ le moment d’inertie de rotation. Reprendre la


dérivation de l’entropie du gaz parfait (voir TD2) et montrer que l’on obtient
 
(3+2) N
N
S ( E, V ) = k log CN V E 2 ,

où le chiffre 2 en gras vient de ces deux degrés de liberté supplémentaire par rapport à un gaz monoato-
mique. De la même façon, qu’obtiendrait t-on pour un gaz polyatomique sans symétrie moléculaire ?
(3+2) N
3. En appliquant la définition dS = T1 (dE + PdV ), déduire l’équation des gaz parfait et E = 2 PV.
Dans le cas d’une transformation adiabatique (i.e. à entropie constante ce qui signifie que l’équilibre
statistique a toujours lieu) déduire la loi de Laplace PV γ = cste avec γ = 1 + 3+2 2 = 75 .

[Link] De l’équation des fluides de Euler à l’équation d’onde du son


vidéo de la solution
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 78

(Aide : Notes de cours.) On décrit l’air (fluide gazeux) par un modèle de gaz parfait à l’équilibre local
décrit par avec un champ de pression p ( x, t) ∈ R, un champ de densité (masse volumique) ρ ( x, t) ∈ R et
d’un champ de vitesse v ( x, t) ∈ R3 , où x ∈ R3 est la variables d’espace et t ∈ R est le temps. Le champ de
vitesse détermine des trajectoires du fluide t → x (t) par l’équation dx dt = v. On notera l’accélération du fluide
par
dv d
= v ( x (t) , t) .
dt dt
Le fluide subit des forces de pression internes, la force résultante est opposée au gradient de pression et l’équa-
tion de la dynamique de Newton pour le fluide par unité de volume prend donc la forme
dv
ρ = −grad ( p) (3.3.11)
dt
appelée équation d’Euler.
1. Montrer que la fonction densité ρ ( x, t) satisfait

∂t ρ + div (ρv) = 0 (3.3.12)

appelée l’équation de conservation de la masse ou équation de continuité.


2. On suppose des petites fluctuations adiabatiques de la pression p et de la densité ρ autour de l’état
d’équilibre constant et uniforme, i.e.

p ( x, t) = p0 + p ( x, t)

ρ ( x, t) = ρ0 + ρ ( x, t)
avec | p| ≪ p0 et |ρ| ≪ ρ0 . Montrer que au premier ordre le champ de fluctuation de pression p ( x, t)
satisfait
∂2t p − c2 ∆p = 0
appelée équation des ondes avec la vitesse du son

γp0 1/2 γRT0 1/2


   
c= = ,
ρ0 M

où T0 est la température du gaz au repos et γ = 75 , et que la loi de Laplace s’écrit


p ρ
=γ .
p0 ρ0

3. Calculer la valeur numérique de c pour l’air à température T0 = 20◦ C et pression p0 = 1 atm.


4. Vérifier que le mode de Fourier (ou onde plane) pk,ω ( x, t) = Aei(kx−ωt) est solution de l’équation
d’onde à une certaine condition sur k ∈ R3 et ω ∈ R.

3.4 Échanges entre deux systèmes thermodynamiques


Dans la nature, il y a de nombreux exemples de systèmes thermodynamiques qui interagissent entre eux.
On souhaite décrire maintenant ces interactions et évolutions mutuelles. Il y a aussi des systèmes que l’on
ne peut pas considérer comme thermodynamiques (i.e. qui ne sont pas dans un état d’équilibre thermodyna-
mique).
Remarque 3.4.1. Pour simplifier on considère une unique famille de particules, mais cela s’étend à plusieurs
famille qui coexistent.

3.4.1 Relaxation vers l’état d’équilibre


Dans la suite on va supposer la situation suivante.

E1 E2 V1 V2 N1 N2
T1 T2 p1 p2 µ1 µ2

échange énergie échange volume échange de particules


79 3.4. ÉCHANGES ENTRE DEUX SYSTÈMES THERMODYNAMIQUES

Définition 3.4.2. Deux systèmes thermodynamiques 1 et 2 sont en contact  si chacun est à l’équilibre
thermodynamique, caractérisé par leur fonction entropie S j Ej , Vj , Nj respectives j = 1, 2, mais que
cet équilibre peut varier du à un échange d’énergie, volume, ou particules entre ces deux systèmes :
— Si la paroi est non rigide, elle permet d’échanger de l’énergie (via des vibrations) mais on sup-
pose
E = E1 + E2 est constant.
— Si la paroi peut se déplacer, elle permet l’échange de volume mais

V = V1 + V2 est constant.

— Si la paroi est poreuse (trous), elle permet l’échange de particules mais

N = N1 + N2 est constant.

Donc les valeurs E1 , V1 , N1 peuvent varier au cours du temps. Dans cette section, on souhaite décrire leur
évolution et tout d’abord l’état d’équilibre qui est la situation la plus probable des systèmes 1 et 2.

Proposition 3.4.3. Si deux systèmes thermodynamiques 1, 2 sont en contact alors l’état d’équilibre, i.e.
situation la plus probable, est donnée par les conditions

T1 = T2 , p1 = p2 , µ1 = µ2 .

qui déterminent indirectement les valeurs E1 , V1 , N1 par les “équations d’état” (3.1.3).
∂2 S ∂2 S ∂2 S
— L’existence de cet état d’équilibre nécessite que S ( E, V, N ) soit concave, i.e. ∂E 2 < 0, ∂V 2 < 0, ∂N 2 < 0.

— Les fluctuations autour de cet état d’équilibre sont très petites, de l’ordre de √1 ≪ 1.
N
— Toute situation initiale hors équilibre évolue vers cet état d’équilibre. Par exemple
equil.
— Si au départ E1 > E1 (et donc T1 > T2 ) alors le système évolue vers l’état d’équilibre avec
transfert d’énergie de 1 vers 2.
equil.
— Si au départ V1 > V1 (et donc p1 > p2 ) alors le système évolue vers l’état d’équilibre avec
transfert de volume de 1 vers 2.
equil.
— Si au départ N1 > N1 (et donc µ1 > µ2 ) alors le système évolue vers l’état d’équilibre avec
transfert de particules de 1 vers 2.

Démonstration. Pour simplifier la discussion, on considère seulement un échange d’énergie avec


E = E1 + E2 (3.4.1)
fixé. Et l’on cherche la mesure de probabilité induite p E1 ( E1 ) sur la variable E1 . On décompose l’espace des
micro-états du système total selon leur énergie E1 : ∆n ( E) = ∑ E1 n ( E1 ) ,où n ( E1 ) est le nombre de micro-
états du système total, à E1 fixé. D’après l’hypothèse ergodique que tous les micro-états sont équiprobables et
d’après la loi de probabilité induite (1.3.2), on a la proportionnalité
p E1 ( E1 ) ∝ n ( E1 ) (3.4.2)

Notons n j Ej le nombre de micro-états du système j = 1, 2 à l’énergie Ej . Pour des raisons combinatoires, du
fait de la faible interaction entre les deux systèmes, on a approximativement
n ( E1 ) ≈ n1 ( E1 ) n2 ( E2 ) . (3.4.3)

E E1 S1 ( E1 ) E1
E SE ( E1 )
∆n( E) n1 ( E1 ) n2 ( E2 )
Equilibrium

S2 ( E2 ) E2
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 80

Ainsi, utilisant la définition de l’entropie du système j :


 
S j Ej = k ln n j Ej (3.4.4)
(3.1.1)

1
i.e. n j Ej = e k S j ( Ej ) , on obtient


1
p E1 ( E1 ) ∝ n ( E1 ) ≈ n1 ( E1 ) n2 ( E2 ) = e k (S1 (E1 )+S2 (E2 ))
(3.4.2) (3.4.3) (3.4.4)
1 1
= e k (S1 (E1 )+S2 (E−E1 )) = e k SE (E1 ) (3.4.5)
(3.4.1)

avec
SE ( E1 ) := S1 ( E1 ) + S2 ( E − E1 ) . (3.4.6)
1
p E1 ( E1 ) = e k S E ( E1 )

N1 σ
equil.
E1 E1
 
equil equil
A l’équilibre E1 = E1 , la probabilité p E1 E1 est maximale et vérifie donc
   
equil equil
∂p E1 E1 ∂SE E1 ∂S1 ∂S
=0 ⇔ =0 ⇔ ( E ) − 2 ( E − E1 ) = 0
∂E1 (3.4.5) ∂E1 (3.4.6) ∂E1 1 ∂E2
⇔ T1 = T2 .
(3.1.3)

equil
De plus pour E1 proche du maximum E1 , par un développement de Taylor à l’ordre 2 :
! !
1 1  equil.   equil 1
 ∂SE 1 equil 2 1
 ∂2 S E
SE ( E1 ) = SE E1 + E1 − E1 + E1 − E1 +... (3.4.7)
k k k ∂E12 2 k ∂E12
| {z } | {z }
=0 <0
 
∂2 S E
où ∂E12
< 0 d’après la concavité de l’entropie (3.2.3). On se rappelle que Ej , S j ∝ Nj car sont extensives. En
equil
E1 − E1
faisant le changement de variable E1 → x = N1 qui représente l’écart à l’équilibre, on a
1 x 2
p E1 ( E1 ) ∝ e− 2 ( σ )
(3.4.5)

avec un écart type σ > 0 qui mesure les fluctuations, donné par
!
 x 2 
equil 2
 1 ∂2 S E
− = E1 − E1
σ (3.4.5,3.4.7) k ∂E12
!!−1/2 !−1/2
1 1 ∂2 S E 1 N 1
⇔σ= − ∝ ∝ .
N1 k ∂E12 N1 N12 N 1/2
Avec N = N1 + N2 . Ainsi pour le système thermodynamique où on a supposé N ≫ 1, les fluctuations sont
relativement très petites. Pour comprendre la dernière remarque, regarder la figure .

3.4.2 Mesure de probabilité de Gibbs-Boltzmann d’un micro-état


Dans cette section, on considère toujours deux systèmes 1 et 2 en contacts, mais on va supposer que le
système 2 est un système beaucoup plus grand, appelé “réservoir”.

Définition 3.4.4. On dira que le système 2 est un réservoir ou thermostat pour le système 1 si c’est un
système thermodynamique et
E2 ≫ E1 et V2 ≫ V1 et N2 ≫ N1 .
81 3.4. ÉCHANGES ENTRE DEUX SYSTÈMES THERMODYNAMIQUES

Remarque 3.4.5. Dans la suite, le système 1 n’est pas forcément un système thermodynamique, ce peut être
une seule particule (ou plusieurs), ou un spin unique (ou plusieurs), on suppose seulement que l’interaction
avec le système 2 est négligeable au sens où elle ne perturbe pas la dynamique de 1. Par contre on supposera
que le système 2 est un système thermodynamique comme précisé dans la définition 3.1.1, en plus que c’est
un réservoir pour le système 1, selon la définition 3.4.4.
On a le résultat fondamental suivant, qui est à la base de la “physique statistique à l’équilibre”.

Proposition 3.4.6. Pour deux systèmes 1,2 en contact, supposant que le système 2 est un réservoir pour le
système 1, alors
T2 , p2 , µ2 sont constants,
La mesure de probabilité sur un micro-état m1 du système 1 d’énergie E1 (m1 ), volume V1 (m1 ) et nombre
de particules N1 (m1 ), appelée “mesure de probabilité de Boltzmann Gibbs”est

1 − kT1 (E1 (m1 )+ p2 V1 (m1 )−µ2 N1 (m1 ))


p ( m1 ) = e 2 (3.4.8)
Z
avec une constante de normalisation Z > 0 telle que ∑m1 p (m1 ) = 1.

− 1 E (m )
Remarque 3.4.7. Si il y a seulement échange d’énergie, la mesure est p (m1 ) = Z1 e kT2 1 1 et appelée aussi
“ensemble canonique”. Si il y a aussi échange de particules (paroi poreuse ou autre) alors la mesure de pro-
babilité (3.4.8) est aussi appelée “ensemble grand canonique”.
La constante de normalisation Z = Z ( T2 , p2 , µ2 ) qui dépend des paramètres s’appelle la fonction de par-
tition.

Remarque 3.4.8. Comme T2 , p2 > 0, on observe que comme conséquence de (3.4.8), le micro-état m1 le plus
probable (i.e. donnant p (m1 ) maximal) est celui avec E1 (m1 ) , V1 (m1 ) minimaux et N1 (m1 ) minimal si µ2 < 0.
Démonstration. Considérons seulement un échange d’énergie pour simplifier. D’après le schéma,
1 1
p (m1 ) ∝ n2 ( E2 ) = e k S2 (E2 ) = e k S2 (E−E1 ) .
(3.4.4) (3.4.1)

Reservoir
E1 E1

m1
m1 n2 ( E2 )

m1
1
S2 ( E2 ) E2 pm1 ( E1 ) ∝ e k S2 (E2)

Avec E1 = E1 (m1 ). Or par un développement de Taylor à l’ordre 1 :


!

∂S2

∂ 2S
2
S2 ( E − E1 ) = S2 ( E) − E1 ( E − E1 ) + O E12 2
∂E2 ∂E2
   
N2
 
N2 2 N2
Le deuxième terme est O N1 N2 = O ( N1 ) et le dernier terme est O N1 N 2 = O N12 donc relativement
2
négligeable si et seulement si
N12
≪ N1 ⇔ N1 ≪ N2
N2
ce qui est garantit par l’hypothèse que 2 est un réservoir pour 1. Autrement dit la fonction S2 ( E2 ) est une
fonction affine. Or T12 = ∂E
∂S2
donc
2
 
∂S2 1
S2 ( E − E1 ) ≈ S2 ( E) − E1 = S2 ( E) − E1 .
∂E2 T2
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 82

Le premier terme est constant donc  


1 − E1 T1
p ( m1 ) ∝ e k 2 ,
soit
1 − kT1 E1 (m1 )
p ( m1 ) = e 2 .
Z
p2
Plus généralement, si il y a aussi un échange de volume et particules, d’après les définitions T2 = ∂S2
∂V2 , − µT22 =
∂S2
∂N2 on obtient
     
∂S2
∂S2 ∂S2
S2 ( E − E1 ) ≈ S2 ( E) − E1 − N1 − V1
∂E2
∂V2 ∂N2
 
1 p µ
= S2 ( E) − E1 − V1 2 − N1 − 2
T2 T2 T2

donnant (3.4.8).

Remarque 3.4.9. Dans la preuve précédente, l’entropie S1 ( E1 ) ne joue plus aucun rôle puisque on ne considère
que des micro-états individuels du système 1. On ne suppose même pas que le système 1 soit un système
thermodynamique.

Remarque 3.4.10. (*) Plus généralement, si Q = ( Q1 , Q2 , . . . Qn ) sont des quantités extensives conservées dans
un système thermodynamique, on définit
∂S
κ j :=
∂Q j
qui donne κ = (κ1 , κ2 , . . . κn ), quantités intensives et la mesure de probabilité d’un micro-état

1 − 1k ∑ j Q(j 1) (m1 )κ (j 2) 1 1 (1) (2)


p ( m1 ) = e = e− k ⟨Q (m1 )|κ ⟩
Z Z
(1) (2) ∂S(2)
avec Q j (m1 ) : quantité Q j du système 1 dans le micro-état m1 et κ j = (2) quantité intensive du système
∂Q j
(2)
2 supposé réservoir, donc κ j est constante.

Remarque 3.4.11. Pour deux états m′ , m on a



p (m′ ) ( E (m )− E (m))
− 1 kT 1
=e 2
p (m)

qui montre que le rapports des probabilités décroît avec l’écart en énergie ∆E = E1 (m′ ) − E1 (m) comparative-
ment aux « fluctuations d’énergie thermique » kT2 . Il est utile de retenir l’idée physique que deux micro-états
ont à peu près la même probabilité d’apparaître si leur écart en énergie est petite devant l’échelle des “fluc-
tuations thermiques” kT2 :

p (m) ≃ p m′ E1 m′ − E1 (m) ≪ kT2 .


 

3.5 Exemples de systèmes physique en contact avec un réservoir


Pour illustrer les résultats précédents, on présente quelques exemples de systèmes physiques en contact
avec un réservoir d’énergie, de volume ou de particules. Ces systèmes physiques ne sont pas forcément des
systèmes thermodynamique, voir remarque 3.4.5.

3.5.1 Moment magnétique dans un champ magnétique.


Comme exemple d’application de la loi de Boltzmann, on considère le moment magnétique d’un atome
individuel dans un champ magnétique extérieur, en contact avec un environnement à la température T (ther-
mostat), permettant
D E des échanges d’énergie. On cherche la loi de probabilité sur le moment magnétique et sa

moyenne M qui est l’aimantation.
83 3.5. EXEMPLES DE SYSTÈMES PHYSIQUE EN CONTACT AVEC UN RÉSERVOIR

[Link] Modèle 1 : moment magnétique classique (Langevin)

Le moment magnétique est un vecteur M ⃗ ∈ R3 de longueur fixée M ⃗ = µ B fixée, où µ B = eh̄ =


2me
0, 927.10−23 J/T (magnéton de Bohr). Autrement dit, M
⃗ est un point sur une sphère. C’est un modèle “conti-
nu”. Son énergie dans un champ magnétique ⃗B fixé est
 
E M ⃗ = − M.⃗ ⃗B = −µ B B cos θ
 
où θ = [
⃗ ⃗B
M, ⃗ ∈ R3 carac-
⃗ et ⃗B. Le micro-état du système 1 est ici le vecteur M
∈ [0, π ] est l’angle entre M
térisé par sa direction (θ, φ) en coordonnées sphériques (par rapport à la direction de ⃗B). La loi de Boltzmann
dit que sa mesure de probabilité est
⃗)
E( M
⃗ dθdφ = 1 e− kT sin θdθdφ
 
p M
Z
Pour écrire cette formule, on applique le fait que la mesure de Boltzmann est la densitéD parE rapport à la
mesure uniforme sin θdθdφ sur la sphère des directions. On déduit l’aimantation moyenne M ⃗ ∈ R3 (calcul
et discussion détaillée en TD)
⃗B
 
D

E Z

 
⃗ 1
M = Mp M dθdφ = . . . = µ B coth x −
x ⃗B

µB
avec x = kT . On observe un état aimanté à basse température et non aimanté à haute température, appelé
“paramagnétisme”. En particulier à T fixé, l’aimantation s’annule si B → 0 et la susceptibilité magnétique est

µ2
 
d ⟨ M⟩
χ := = ... =
dB B =0 2kT

[Link] Modèle 2 : moment magnétique quantique (Langevin)


On modélise le moment magnétique de chaque atome selon un axe donné, par deux états possibles m = ± 21
(spin 1/2). C’est un modèle “discret”. L’aimantation d’un atome selon la direction de ⃗B est Mm = gµ B m avec
g = 2 (facteur de Landé). L’énergie de l’atome dans le champ magnétique extérieur ⃗B est alors :

E ( m ) = − Mm B

Le micro-état du système 1 est ici caractérisé par la variable discrète m = ± 12 La loi de Boltzmann dit que
sa mesure de probabilité est
1 E(m)
p (m) = e− kT
Z
D E
On déduit sa moyenne M ⃗ qui est l’aimantation par (calcul détaillé en TD)

⟨ M⟩ = ∑ Mm p (m) = . . . = µ B tanh x
m=± 21

µB
avec x = kT .En particulier à T fixé, l’aimantation s’annule si B → 0 et la susceptibilité magnétique est

µ2
 
d ⟨ M⟩
χ := = ... =
dB B =0 kT

3.5.2 Capacité thermique d’un matériau solide


Dans cet exemple d’application de la loi de Boltzmann-Gibbs, on cherche à modéliser la vibration des
atomes dans un matériau solide et de déduire les échanges d’énergie entre le matériau et son environnement
à la température T (thermostat), précisément calculer la capacité calorifique molaire
d ⟨ Emole ⟩ ( T )
Cmole ( T ) :=
dT
qui mesure la variation d’énergie interne pour une mole d’atomes, lorsque la température externe varie.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 84

On va considérer 3 modèles différents, chacun étant plus précis que le précédent. Ces modèles ont joué un
grand rôle historique. Plus de détails en TD. Dans chaque modèle on décrit les vibrations au premier ordre,
c’est à dire à l’ordre linéaire avec des termes quadratiques dans le Hamiltonien (i.e. oscillateurs harmoniques).

[Link] Modèle 1 : particules individuelles classiques :


Dans le modèle 1, on considère chaque atome comme indépendant et décrit par un oscillateur harmonique
en mécanique classique : à 1 dimension cela s’écrit :
1 2 1 2
E ( x, p) = p + Kx .
| {z } |2 {z }
2m
Ec Ep

En appliquant la loi de Boltzmann qui affirme que la mesure de probabilité sur l’espace des phases est
1 − E(x,p)
p ( x, p) dxdp = e kT dxdp
(3.4.8) Z
, on calcule les valeurs moyennes des énergie
1
Z
⟨ Ec ⟩ = Ec ( x, p) p ( x, p) dxdp = . . . = kT
2
1
Z
Ep = E p ( x, p) p ( x, p) dxdp = . . . =
kT
2
où le calcule (. . . détaillé en TD) utilise une formule d’intégrale Gaussienne. Il est remarquable que le résultat
ne dépend pas ni de m, ni de K, et soit donc indépendant du matériau. Cela s’appelle le « théorème d’équi-
partition de l’énergie » qui montre en général que l’énergie moyenne est 12 kT par terme quadratique dans le
Hamiltonien. Ainsi
 pour un  atome à 3 dimensions (somme de 3 oscillateurs), obtient que l’énergie moyenne
est ⟨ E⟩ = 3 × 12 kT + 12 kT = 3kT et pour une mole d’atomes N = N a , on déduit que l’énergie interne est
proportionnelle à la température :
⟨ Emole ⟩ = N a 3kT = 3RT,
la constante de proportionnalité, appelée capacité calorifique molaire est une constante indépendante du ma-
tériau :
d ⟨ Emole ⟩
Cmole ( T ) := = 3R ≈ 25J/K.
dT
Ce résultat important appelé loi de dulong-petit (1819) était connu de façon expérimentale depuis longtemps.
Cependant ce modèle ne correspond pas aux mesures expérimentales à basse température.

[Link] Modèle 2 : particules individuelles quantiques (Einstein 1907) :


Ce modèle 2, appelé modèle d’Einstein (1907) considère chaque atome indépendant et décrit par un os-
cillateur harmonique en mécanique quantique. Ainsi les états classiques ( x, p) du modèle précédent qsont
 
1 K
remplacés par les états φn d’énergie En = h̄ω n + 2 de l’oscillateur harmonique quantique avec ω = m et
n ∈ N. En appliquant la loi de Boltzmann qui affirme que la mesure de probabilité sur les états φn discrets est
1 − En
p (n) = e kT
(3.4.8) Z
85 3.5. EXEMPLES DE SYSTÈMES PHYSIQUE EN CONTACT AVEC UN RÉSERVOIR

, on calcule les valeurs moyennes des énergie et obtient (calculs détaillés en TD)
ΘE
 
h̄ω  1 + e − T
⟨ E⟩ = ∑ En p (n) = . . . = ΘE

n ∈N
2 1 − e− T

avec Θ E := h̄ω
k appelée température d’Einstein. On déduit
2
ΘE

d ⟨ Emole ⟩ 2T
Cmole ( T ) := = 3R2
sinh2 ΘE
 
dT
2T

En particulier Cmole ( T ) ≈ 3R si T ≫ Θ E et Cmole ( T ) ≈ 0 si T ≪ Θ E . L’intuition de ce dernier résultat est


que si T ≪ Θ E , alors les oscillateurs sont coincés dans l’état fondamental quantique et donc n’absorbent pas
d’énergie, même si l’environnement est à température positive. Ainsi le diamant, qui est matériau dur, donc
K grand, ω grand, Θ E ≈ 2000K grand, est dans ce régime T ≪ Θ E à température T ambiante.

[Link] Modèle 3 : ondes collectives quantiques (phonons) (Debye 1912)


Ce modèle 3, appelé modèle de Debye (1912) considère que les atomes oscillent mais sont aussi cou-
plés entre eux et encore décrit par un Hamiltonien quadratique en mécanique classique puis en mécanique
quantique. C’est donc un modèle de champs libres quantiques.
— Dans un premier temps on évalue les modes classiques de vibration, chacun étant formellement assi-
milé à un oscillateur harmonique classique.
— Dans un deuxième temps on modélise chacun de ces oscillateurs par un modèle quantique, un oscilla-
teur harmonique quantique, ce qui revient à “quantifier les champs”.
— Dans un troisième temps, on applique la loi de Boltzmann à tous les micro-états obtenus pour déduire
la capacité calorique Cmole ( T ).
La différence essentielle avec le modèle d’Einstein est qu’il n’y a pas de gap spectral près de l’état fondamental
à cause des ondes de grande longueur d’onde et donc la capacité calorifique ne s’annule pas très vite à basse
température comme dans le modèle d’Einstein. On trouve plutôt : si T ≪ Θ E alors (à 1D)
 
π T
Cmole ( T ) ≈ R ,
3 ΘE
qui correspond aux expériences à basses températures, mieux que le modèle d’Einstein.

3.5.3 Adsorption de particules


Références : Diu et al. (1989, p.677), Balian (2007, Tome1, p174), adsorption sur wikipedia.
L’adsorption est le phénomène qu’une surface peut capturer (et/ou libérer) de façon aléatoire des par-
ticules d’un gaz ou d’un liquide. Par exemple l’adsorption avec du charbon actif est un traitement efficace
pour enlever la matière organique, les phénols, les hydrocarbures saturés qui sont des molécules insolubles
difficilement attaquables par l’ozone, les pesticides, les métaux lourds, les agents tensio-actifs...

Dans le modèle de Langmuir 1918, on suppose qu’un gaz est en contact avec une surface solide. Le gaz est
modélisé par le modèle du gaz parfait de N particules à la température T, pression p, potentiel chimique µ et
considéré comme un réservoir d’énergie et de particules. La surface est modélisée par un ensemble de sites
indépendants, chaque site peut contenir m = 0 particule ou m = 1 particule dans un état d’énergie (−ϵ) < 0
fixée.
L’objectif est d’exprimer Pm ( p, T ) qui est la probabilité pour qu’un site soit dans l’état m = 0, 1, en fonction
des paramètres T, p, µ du gaz que l’on peut contrôler.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 86

— Dans un premier temps, d’après la loi de Boltzmann de l’ensemble grand canonique, la probabilité
que le site est dans l’état m = 0 ou m = 1 est
 
1 1
Pm = exp − ( Em − µNm )
(3.4.8) Z kT
où T est la température externe, µ le potentiel chimique externe, Em l’énergie du site, Nm le nombre de
particules sur le site. Or dans ce modèle,
si m = 0, alors E0 = 0, N0 = 0,
si m = 1, alors E1 = −ϵ, N1 = 1,
ainsi    
1 1 1 1 1
Pm=0 = , Pm=1 = exp − (−ϵ − µ) = exp (ϵ + µ)
Z Z kT Z kT
 
1
Comme c’est une mesure de probabilité, on a 1 = P0 + P1 , on déduit que Z = 1 + exp kT (ϵ + µ)
(1.1.4)
donc ϵ+µ
e kT 1
Pm=1 = ϵ+µ = ϵ+µ (3.5.1)
1+e 1 + e− kT kT

— Dans un deuxième temps on utilise le modèle du gaz parfait pour exprimer µ à partir de p, T :
µ V kT T 5/2
e− kT = = = C
2 3/2 3/2 p
   
(3.2.6) 2πh̄ (3.2.5) 2πh̄2
N mkT p mkT

avec C qui ne dépend pas de p, T. On déduit que


1 1
Pm=1 ( p, T ) = 5/2
= p0 ( T )
− kT
ϵ
(3.5.1) 1+e C Tp 1+ p
avec
p0 ( T ) := Ce− kT T 5/2
ϵ

qui ne dépend pas de p et qui est une fonction croissante de T. A T fixé, les courbes p → Pm=1 ( p, T )
sont appelées isothermes de Langmuir.
87 3.6. LE PRINCIPE VARIATIONNEL

La deuxième figure avec des données expérimentales est de Morvan Clotaire Nko’o Abuiboto et al, Came-
roun.

3.6 Le principe variationnel


On a vu ci-dessus (dans la proposition générale 3.4.6 et les applications de la section 3.5) que la distribution
de Boltzmann-Gibbs apparaît de façon naturelle et universelle lorsqu’un système physique est en contact
avec un réservoir thermodynamique avec lequel il échange de l’énergie et éventuellement du volume et des
particules. Ce réservoir est caractérisé par sa température T, et éventuellement sa pression P et son potentiel
chimique µ.
Dans cette section on va donner une caractérisation mathématique de cette distribution de Boltzmann-
Gibbs comme minimisant une fonction 2 FT ( p) appelée énergie libre sur l’espace des mesures de probabilité
p. Si de plus, il y a échange de volume et/ou particules, l’énergie libre FT est remplacé de façon analogue par
l’enthalpie libre GT,P ou le grand potentiel JT,µ ou Ω T,P,µ .
On verra dans les chapitres suivants que cette caractérisation est utile pour les calculs. En particulier elle
permettra de mettre en œuvre une méthode d’approximation appelée méthode variationnelle qui est très
utile pour les problèmes compliqués, comme l’étude des transitions de phase.

Proposition 3.6.1. “Le principe variationnel”. Considérons un système physique dont les micro-états sont
indicés par i ∈ I, ayant des énergies ( Ei )i . Supposons que ce système est en contact (échange d’énergie) avec un
réservoir de température T.
Pour une distribution de probabilité p = ( pi )i∈ I quelconque sur les états i (i.e. vérifiant ∑i∈ I pi = 1 et pi ∈
[0, 1]), on définit l’énergie libre

FT ( p) := ⟨ E⟩ p − TS ( p) : énergie libre (3.6.1)

avec l’entropie de Boltzmann (d’après (3.1.1,3.3.10)) : S ( p) = kSSchannon = −k ∑i∈ I pi ln pi et l’énergie


moyenne ⟨ E⟩ p := ∑i∈ I pi Ei .
La fonction p → FT ( p) est minimale pour la mesure de Boltzmann-Gibbs (3.4.8)

1 − 1 Ei
pi = e kT ,
Z
et sa valeur au minimum est
FT ( p) = −kT ln Z.

Proposition 3.6.2. “Le principe variationnel plus général”. Plus généralement, notant le volume Vi , le
nombre de particules Ni du micro-état i, supposons que le système est en contact avec un réservoir de volume
et/ou de particules de pression P, de potentiel chimique µ. Pour une mesure de probabilité p = ( pi )i sur les
micro-états, on définit les fonctionnelles appelées potentiel thermodynamique

GT,P ( p) = ⟨ E⟩ p + P ⟨V ⟩ p − TS ( p) : enthalpie libre

JT,µ ( p) = ⟨ E⟩ p − µ ⟨ N ⟩ p − TS ( p) : grand potentiel


Ω T,P,µ ( p) = ⟨ E⟩ p + P ⟨V ⟩ p − µ ⟨ N ⟩ p − TS ( p) : grand potentiel
avec le volume moyen ⟨V ⟩ p := ∑i∈ I pi Vi , le nombre moyen de particules ⟨ N ⟩ p = ∑i∈ I pi Ni . Alors ces potentiels
thermodynamiques sont minimaux respectivement pour les mesures d’équilibres de Boltzmann-Gibbs (3.4.8) :
Ei + PVi Ei −µNi 1 E + PV − µN
1 − 1 − 1 − kT ( i i),
pi = Ze
kT , pi = Ze
kT , pi = Ze
i avec une valeur au minimum égale à −kT ln Z.

Remarque 3.6.3. La constante de normalisation Z ( T, P, µ) obtenue dépend des paramètres T, P, µ et s’appelle


aussi fonction de partition.

Remarque 3.6.4. Par exemple en Thermo-chimie, un système chimique peut échanger de l’énergie et du vo-
lume (il évolue à température T et pression p fixés) et donc d’après la proposition 3.6.2, l’équilibre chimique
2. FT : p → FT ( p) est une fonction dont la variable est une mesure de probabilité p = p ( x ) dx que l’on identifie elle même à une
fonction p : x → p ( x ). Pour cela on appelle parfois FT une fonctionnelle (sous entendu fonction de fonction).
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 88

correspond au minimum de l’enthalpie libre G.


Démonstration. (*)(en TD) On va tout d’abord démontrer le principe variationnel dans un cadre plus simple
avec des variables sans dimensions et déduire ensuite les propositions précédentes. On considère n états
d’énergie ϵ1 ≤ ϵ2 . . . ≤ ϵn et une mesure de probabilité quelconque sur ces états notée p = ( p1 , p2 . . . pn )
avec pi ≥ 0 et ∑in=1 pi = 1. L’énergie moyenne pour cette mesure est notée
n
⟨ E⟩ p := ∑ p i ϵi (3.6.2)
i =1

et l’entropie de la mesure est


n
1
S ( p) =
(1.5.1)
∑ pi ln pi (3.6.3)
i =1
. On introduit la fonctionnelle suivante sur les mesures de probabilités

F ( p) := ⟨ E⟩ p − S ( p) (3.6.4)

appelée énergie libre.


Lemme 3.6.5. “Le principe variationnel”. La fonctionnelle p → F ( p), en (3.6.4), est minimale pour la mesure de
Boltzmann
1
p i = e − ϵi , ∀ i
Z
avec Z = ∑i e−ϵi constante de normalisation, et la valeur minimale est

F = − ln Z.

Démonstration. Considérons des nombres pi ∈ R sans contrainte et posons σ = ∑i pi (plus tard on ajoutera la
contrainte σ = 1). On calcule les différentielles

dσ = ∑ dpi
i

et  
p
dF = d ⟨ E⟩ − dS
(3.6.4)
=
(3.6.2,3.6.3) i
∑ ϵi + ln pi + i
pi
dpi (3.6.5)

∂F
Pour résoudre ∂p = 0, ∀i, i.e. trouver un point critique de F, avec la contrainte σ = 1, on doit avoir λ ∈ R,
i
appelé multiplicateur de Lagrange tel que dF = λdσ (voir schéma)

Cela donne

∃λ ∈ R, dF = λdσ.
∃λ ∈ R, ∀i, ϵi + ln pi + 1 = λ, (3.6.6)
1 − ϵi
⇔∃λ ∈ R, ∀i, pi = exp (λ − 1 − ϵi ) = e (3.6.7)
Z
avec Z = e1−λ donné par la contrainte ∑i pi = 1 donc Z = ∑i e−ϵi . On doit ensuite vérifier que cette solution
p = ( pi )i est bien un minimum de F. D’après (3.6.5), on a

∂F ∂2 F 1
= ϵi + ln pi + 1, = δi= j ,
∂pi ∂p j ∂pi pi
 
∂2 F
On observe que la matrice ∂p j ∂pi est diagonale, définie positive, donc F est convexe. C’est bien un mini-
i,j
mum. Pour cette solution (3.6.7), on calcule la valeur de F :
1 1
F ( p) =
(3.6.4)
∑ ϵi pi + pi ln pi = Z ∑ ϵi e−ϵi + e−ϵi (− ln Z − ϵi ) = − Z ∑ e−ϵi ln Z = − ln Z.
i i i
893.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE D’ÉNERGIE

On considère maintenant l’expression (3.6.1) de l’énergie libre

FT ( p) = ⟨ E⟩ p − TS ( p) = ∑ Ei pi + Tkpi ln pi
i
  !
Ei
= kT ∑ kT
pi + pi ln pi
i

Ei
On se ramène donc au problème précédent, en posant ϵi = kT sans dimension. On a obtenu la mesure d’équi-
libre
1 1 Ei
pi = e−ϵi = e− kT .
Z Z
De même

GT,P ( p) = ⟨ E⟩ p + P ⟨V ⟩ p − TS ( p)
= ∑ Ei pi + Ppi Vi + Tkpi ln pi
i
  !
Ei + PVi
= kT ∑ kT
pi + pi ln pi
i

Ei + PVi
et posant ϵi = kT on a la mesure d’équilibre

1 − ϵi 1 Ei +PVi
pi = e = e− kT ,
Z Z
etc.

3.7 Exercices et problèmes corrigés sur la loi de Boltzmann et échange


d’énergie
Introduction: vidéo de cette introduction.
Dans ce TD on utilise la Loi de Boltzmann qui est fondamentale en physique statistique. Cette loi affirme
que si un système échange de l’énergie avec un autre système qui est un thermostat à la température T, alors le
système étudié est dans un état aléatoire distribué selon la mesure de probabilité P (m) dm = 1z e− Em /(kT ) dm où
Em est l’énergie de l’état m et k = 1, 38.10−23 J/K est la constante de Boltzmann, dm est une mesure donnée sur
l’espace des états (par exemple mesure dm = dqdp sur l’espace des phases) et z une constante de normalisation
P(m′ )
(Em′ −Em )
de sorte que P (m) dm = 1. Remarquer que pour deux états m′ , m on a P(m) = e− kT
R
qui montre que le
rapports des probabilités décroît avec l’écart en énergie ∆E = Em′ − Em comparativement aux « fluctuations
d’énergie thermique » kT.
Rappel : on a vu dans le TD1, un modèle simple qui montre les mécanismes d’apparition de la loi de
Boltzmann. Dans ce TD on se contente d’appliquer la loi de Boltzmann et non pas de la démontrer.

3.7.1 Paramagnétisme
[Link] Paramagnétisme. Modèle discret
Vidéo de la solution.
Références : paramagnétisme.
Considérons un modèle très simple pour comprendre le comportement d’un matériau (comme un sel io-
nique) dans un champ magnétique uniforme B et à une température T. Dans la suite, le système étudié est
un atome particulier. On modélise le moment magnétique de chaque atome par deux états possible m = ± 12
. L’aimantation d’un atome est Mm = gµ B m avec g = 2 (facteur de Landé), µ B = 2m eh̄
e
= 0, 927.10−23 J/T
(magnéton de Bohr). L’énergie de l’atome dans le champ magnétique extérieur B est alors :

Em = − Mm B

Remarque 3.7.1. Le champ magnétique B ≥ 0 a tendance à ordonner les moments magnétiques, et la tempéra-
ture T à les désordonner.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 90

1. Tracer Em ( B). Utilisant la loi de Boltzmann, calculer la probabilité Pm de trouver un atome dans un des
deux états m = ±1/2. Tracer P+ 1 en fonction de x, une variable sans dimension appropriée et interpré-
2
ter les cas limites. Application numérique : pour un champ magnétique B = 10−3 Tesla et température
ambiante, entre les effets de B et de T, qui domine ?
2. Pour T quelconque, calculer l’aimantation moyenne ⟨ Matome ⟩ d’un atome puis l’aimantation ⟨ M ⟩ du
matériaux constitué de N atomes indépendants. Tracer ⟨ M⟩ ( x ). Dans quelle situation a t-on ⟨ M⟩ ∼ χB
(état paramagnétique) où χ (la susceptibilité magnétique) est une constante ? Comment varie χ avec la
température (loi de Curie) ?

[Link] Modèle de paramagnétisme de Langevin. Modèle continu.


vidéo de la solution
Même exercice que ci-dessus, mais on suppose que l’aimantation de chaque atome est un vecteur M ⃗ ∈ R3
de norme M ⃗ = µ B fixée (i.e. vecteur aléatoire sur une sphère). Son énergie dans un champ ⃗B fixé est

⃗ ⃗B = −µ B B cos θ
E = − M.
 
où θ = [
⃗ ⃗B
M, ⃗ et ⃗B.
∈ [0, π ] est l’angle entre M

1. Utilisant la loi de Boltzmann, calculer la mesure de probabilité P (θ ) dθ de trouver un atome dans la


µB
configuration θ. Tracer l’allure de P (θ ) selon x = kT .
2. Calculer l’aimantation moyenne ⟨ M⟩ du matériaux constitué de N atomes indépendants en fonction de
µB
x = kT et la limite x ≪ 1. Tracer ⟨ M ⟩ ( x ).

3.7.2 Capacité thermique


vidéo de l’introduction.
On cherche à modéliser la vibration des atomes dans un matériau solide et déduire les échanges d’énergie
entre le matériau et environnement (thermostat). On va considérer 3 modèles successifs, chacun étant plus
sophistiqué que le précédent. Dans chaque modèle on décrit les vibrations au premier ordre, c’est à dire à
l’ordre linéaire avec des termes quadratiques dans le Hamiltonien (i.e. oscillateurs harmoniques).
1. Le modèle 1 (exercice 1), considère chaque atome indépendant et décrit par un oscillateur harmo-
nique en mécanique classique. On y établit un résultat important appelé « théorème d’équipartition
de l’énergie ». Ce modèle échoue à expliquer les expériences à basse température.
2. Le modèle 2 (exercice 2), appelé modèle d’Einstein considère chaque atome indépendant et décrit par
un oscillateur harmonique en mécanique quantique. Ce modèle échoue à expliquer les expériences à
très basse température.
3. Le modèle 3 (exercice 3), appelé modèle de Debye considère que les atomes sont couplés entre eux et
encore décrit par un Hamiltonien quadratique en mécanique classique puis en mécanique quantique.

[Link] Théorème d’équipartition de l’énergie : modèle classique avec termes quadratiques


vidéo de la solution.
références : Guinnier p12, Diu et al. (1989, p.304)
Considérons une particule classique de masse m à un degré de liberté, i.e. dont l’état est caractérisé par sa
position x ∈ R et son impulsion p ∈ R. On suppose que son énergie est donnée par (énergie cinétique Ec et
potentielle E p )
1 2 1 2
E= p + Kx .
|2m{z } |2 {z }
Ec Ep

La particule est dans un environnement à la température T et donc son énergie fluctue d’après la loi de Boltz-
mann.
1. Montrer qu’en moyenne ⟨ Ec ⟩ = 21 kT, E p = 12 kT. Plus généralement, montrer le « théorème d’équi-
partition de l’énergie » : si l’énergie d’un système classique est une somme de terme quadratiques
(i.e. degré 2) en x j , p j alors la moyenne de chaque terme est 12 kT. Aide : cela découle directement de la
√ √
2 2
formule I0 = R e−X dX = π, I2 := R X 2 e− X dX = 2π donc I2 /I0 = 12 .
R R
913.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE D’ÉNERGIE

Cmol
Cuivre
Dulong-Petit
25J/K
Diamant

0 300 T (K )

F IGURE 3.7.1 – Capacité thermique molaire

2. Supposer qu’un gaz dans une enceinte (à 3 dimensions) à la température T contienne deux types de
E M
particules : Dde masse E masse m, avec m < M. Comparer la moyenne des vitesses au carré
D et de
respectives ∥V ∥2 et ∥v∥2 ?
3. On considère un cristal (trois dimensions), où chaque atome peut vibrer autour de sa position d’équi-
libre. Justifier pourquoi, en première approximation, on peut considérer que chaque atome oscille dans
un potentiel harmonique. Donner alors l’expression de l’énergie d’un atome. En appliquant le théorème
d’équipartition de l’énergie, en déduire la contribution des atomes à la capacité thermique molaire
d⟨ E⟩
Cmole = dT du cristal (Loi empirique de Dulong-Petit 1819). Comparer aux courbes expérimentales
de la figure 3.7.1 (rappel R = NA k = 8.31J/K ).

[Link] Capacité thermique : modèle quantique d’un oscillateur, (Einstein 1907)

vidéo de la solution.
référence : Guinnier p16, Diu et al. (1989, p.378)
Le modèle classique (avec le théorème d’équipartition de l’énergie) de l’exercice précédent n’explique pas
le comportement de C ( T ) à basse température de la figure 3.7.1. En 1907 (avant la naissance de la mécanique
quantique) Einstein a montré que ce comportement est d’origine quantique dans cet article, voir aussi Travaux
d’Einstein.
1. On considère maintenant que la vibration de chaque atome sur son site est quantifiée. Il oscille à la
pulsation ω. Suivant le modèle de l’oscillateur harmonique à une dimension, rappeler l’expression des
niveaux quantiques d’énergie En , n = 0, 1, 2, ... ? (ref : cours de mécanique quantique sur l’oscillateur
harmonique)
2. L’oscillateur est dans un environnement à la température T. Avant tout calcul, montrer qu’il y a une
température caractéristique Θ E (température d’Einstein) dans le problème ? Discuter heuristiquement
d⟨ E⟩
les valeurs attendues de C ( T ) = dT pour T ≪ Θ E et T ≫ Θ E ?
3. Pour un atome oscillant à une dimension, écrire la probabilité d’occupation Pn du niveau n à la tempé-
rature T (donnée par la loi de Boltzmann) et déduire l’expression de l’énergie moyenne

1 + e−α
 
h̄ω h̄ω
⟨ E⟩ = , α= .
2 1 − e−α kT

4. En déduire l’expression suivante pour la capacité thermique molaire d’un réseau cristallin en 3 dimen-
sions, fait d’atomes quantiques indépendants :
2
ΘE

d ⟨ Emole ⟩ 1
C ( T ) := = 3R
ΘE
 
dT 2T sinh2
2T

Décrire la fonction C ( T ), en particulier pour T ≪ Θ E .


5. Pour le diamant qui est un métal très dur on a Θ E = 2000K. Pour le cuivre, métal plus mou, Θ E = 244K.
comment expliquer cette corrélation entre ces deux propriétés apparemment si éloignées, la constante
d’élasticité, et la capacité thermique ?
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 92

[Link] (optionnel) Capacité thermique : modèle quantique d’oscillateurs couplés (Debye 1912)
Vidéo de la solution.
Afin d’améliorer le modèle d’Einstein de l’exercice précédent dans le régime des faibles températures,
voir figure 3.7.1, nous allons tenir compte de l’interaction entre atomes voisins (modèle de Debye). Article de
Debye..
On considère un réseau à une dimension constitué de N atomes identiques de masse m, dont les positions
d’équilibres sont régulièrement espacées de a. On suppose que les atomes interagissent avec leurs proches
voisins seulement, et que l’énergie potentielle d’interaction entre deux atomes voisins est φ(r ), où r est la
distance entre deux atomes voisins. Pour simplifier le calcul, on va supposer des conditions périodiques :
u p+ N = u p , ∀ p.

up u p +1

... ...

0 p p+1 N−1

Modes propres classiques d’une chaîne linéaire d’atomes


Dans cette première partie on étudie les ondes (classiques) collectives de vibrations des atomes considérés
comme particules classiques.

1. On note u p l’écart de l’atome p ∈ {0, 1, . . . , N − 1} par rapport à sa position d’équilibre. Montrer que
l’énergie potentielle de la file est
N −1
E = ∑ φ a + u p +1 − u p

p =0

Effectuer un développement limité de φ au voisinage de a, et montrer que E est de la forme

m 2 N −1
ω0 ∑ u p +1 − u p
2
E = E0 +
2 p =0

Donner les expressions de E0 et de ω0 en fonction de N,φ et m.


2. A partir du résultat précédent, en déduire que l’équation du mouvement du p − ieme atome est :

d2 u p
= ω02 u p+1 + u p−1 − 2u p

dt 2

3. On cherche les solutions de ces équations sous la forme ondulatoire complexe u p (t) = u0 exp (i (kpa − ωt))
avec p ∈ {0, . . . N − 1}. Exprimer ω en fonction de k, appelée relation de dispersion. Préciser la signifi-
cation physique de ω et k ? Pourquoi peut-on se limiter aux valeurs de k telles que |k | ≤ πa et discrètes

k = j Na avec j ∈ Z ?
4. Tracer ω (k) en précisant son comportement au voisinage de k = 0 et de k = ±π/a ?
5. Dans la limite d’un grand nombre N d’atomes, on traite j comme une variable continue. Calculer la
dj
densité de modes en pulsation g(ω ) = dω , en fonction de N, ω0 , ω. Représenter la fonction g(ω ).

Modes quantiques de vibration (phonons) et capacité thermique


Dans cette deuxième partie on considère les états quantiques des modes de vibration, appelés phonons.
1. (déjà obtenu avec le modèle d’Einstein) En mécanique quantique, l’énergie d’une onde de pulsation ω
peut prendre seulement les valeurs discrètes
 
1
ε n = h̄ω n + , n = 0, 1, 2, . . .
2
En appliquant la loi de Boltzmann, quelle est la probabilité Pn pour que l’onde soit dans l’état n d’éner-
gie ε n à la température T ? En déduire l’expression de l’énergie moyenne ⟨ε⟩ d’une onde à cette tempé-
rature, en fonction de k B T et h̄ω ?
3.8. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE DE
93 PARTICULES

2. Chaque mode de vibration j de fréquence ω j a donc une énergie moyenne ε j . Dans la limite d’un
grand nombre de modes, exprimer l’énergie moyenne totale de la file ⟨U ⟩ = ∑ N
j=1 ε j à partir de ε j et
g ( ω ).
h̄ω0
3. Dans la limite des hautes températures T ≫ Θ E , avec Θ E = k B , donner l’expression simplifiée de
εj ,
d ⟨U ⟩
puis de la capacité calorifique C = dT , et enfin de la capacité calorifique molaire Cmol ? Commentaires ?
d⟨ε⟩
4. Exprimer dT en fonction de α = h̄ω kT (déjà obtenu avec le modèle d’Einstein). Dans la limite des basses
d⟨ε⟩
températures, en observant l’allure de la fonction dT (ω ), déduire l’expression simplifiée de la capacité
d⟨ε⟩ R∞ α 2
calorifique en fonction de dT (ω ) et g(0). . A l’aide de 0 α2 α e 2 dα = π3 , déduire l’expression de
( e −1)
Cmol en fonction de R et ( T/Θ E ) ? Tracer l’allure globale de Cmol ( T ).
5. Refaire le calcul de Cmol ( T ) pour un modèle de réseau tridimensionnel en indiquant les changements
avec la dimension 1. Discuter la différence entre ce modèle et le modèle d’Einstein.

3.8 Exercices et problèmes corrigés sur la loi de Boltzmann et échange de


particules
3.8.1 Introduction
vidéo de l’introduction (33’)

Rappel : Dans les TD précédents on a considéré par exemple le modèle d’un gaz parfait. Pour un sys-
tème isolé et de géométrie fixée, l’énergie E, le volume V et le nombre de particules N sont des quanti-
tés conservées et ce sont les seules à priori. On a défini l’entropie du système comme étant la fonction
S ( E, V, N ) := k log N ( E, V, N ) où N ( E, V, N ) est le nombre d’états accessibles qui est un volume dans l’es-
pace des phases total. Remarquons une propriété de l’entropie qui est que pour deux systèmes considérés
ensemble, on a Ntot = N(1) N(2) et donc l’entropie
 
Stot = k log Ntot = k log N(1) N(2)
= k log N(1) + k log N(2)
= S (1) + S (2)
est une quantité qui s’additionne, dite extensive.
Ensuite on a définit les paramètres température T, pression p et potentiel chimique µ par
1 ∂S p ∂S −µ ∂S
= , = , =
T ∂E T ∂V T ∂N
respectivement associés à E, V, N.
— On observe que si deux systèmes sont en contact et peuvent échanger de l’énergie alors l’énergie est
transférée sous forme de chaleur du système le plus chaud T2 vers le plus froid T1 < T2 jusqu’à atteindre
l’équilibre où T1 = T2 .

E1 E2 V1 V2 N1 N2
T1 T2 p1 p2 µ1 µ2

échange énergie échange volume échange de particules


— Si les systèmes peuvent échanger du volume via une paroi amovible, alors le volume est transféré du
système de basse pression p1 vers celui de plus haute pression p2 > p1 jusqu’à atteindre l’équilibre où
p1 = p2 .
— Si les systèmes peuvent échanger des particules (via une paroi poreuse) : les particules sont transférées
du système de haut potentiel chimique µ2 vers celui de plus bas potentiel chimique µ1 < µ2 jusqu’à
atteindre l’équilibre où µ1 = µ2 .
Noter que dans cette description, il est possible qu’un des deux systèmes soit tellement grand que ses para-
mètres T, p, µ restent inchangés pendant les échanges. On dit alors que c’est un thermostat ou réservoir ou
environnement extérieur. Voici une généralisation naturelle de ces définitions.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 94

Généralisation : Si Q1 , Q2 , . . . sont des quantités conservées dans des interactions physiques (ex : énergie E,
volume disponible V, nombre d’atome N de carbones dans des réactions chimique, etc), on note N ( Q1 , Q2 , . . .)
le nombre d’états correspondants et

S ( Q1 , Q2 , . . .) = k log (N ( Q1 , Q2 , . . .))

appelée entropie du système pour une valeur précise de ces quantités. La différentielle de S, notées
!
∂S
dS = ∑ ∂Q j
dQ j = ∑ κ j dQ j
j j

 
∂S
informe sur les variations de S engendrée par des variations des Q j . On appelle κ j = ∂Q j le “potentiel”
associé à la grandeur Q j . En particulier pour les grandeurs E, V, N, on note, pour des raisons historiques
1 ∂S p µ
T = ∂E , T = ∂V , − T = ∂N .
∂S ∂S

Il apparaît les phénomènes universels suivants


(2) (1)
1. Si deux systèmes (1) , (2) peuvent échanger la grandeur Q j et si κ j > κ j alors il y a transfert de la
grandeur Q j de (1) vers (2) jusqu’à atteindre l’équilibre lorsque leur potentiels associés sont égaux :
(1) (2)
κj = κj .

Démonstration. La preuve est que l’on a Qtot = Q(1) + Q(2) conservée et la situation
  de l’équilibre
 est
( 1 ) ( 2 )
la plus probable, donc maximum de Ntot = N N , cad maximum de Stot Q ( 1 ) =S ( 1 ) Q ( 1 ) +
 
∂S(1) ∂S(2)
S(2)  Q(2)  donnant ∂Stot
=0⇔ − = 0 ⇔ κ (1) = κ (2) .
 
|{z} ∂Q(1) ∂Q(1) ∂Q(2)
Qtot − Q(1)

2. Si de plus le système (2) = (ext.) est très grand (appelé extérieur ou réservoir) c’est à dire non per-
turbé par le système (1) plus petit, alors sa valeur κ ext.
j est fixée et la probabilité d’apparition d’une
configuration m du système (1) est donnée par la “loi de Boltzmann-Gibbs”

1 − 1k ∑ j κext.
j Q j (m)
P (m) = e
Z

où Z = Z κ1ext. , κ2ext. , . . . est une constante de normalisation qui dépend des paramètres κ ext.

j et est
appelée fonction de partition.

Démonstration. La preuve est que la proba est  proportionnelle au nombre d’états correspondant dans

le système extérieur P (m) ∝ N ( Qm ) = exp k S
ext 1 ext
Q ext . Or au premier ordre Sext ( Qtot − Qm ) =
 ext  1 ext
Sext ( Qtot ) − ∂S∂Q Qm = Sext ( Q0 ) − κ ext Qm , donc P (m) ∝ e− k κ Qm .
3.8. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE DE
95 PARTICULES

Dans le cas des grandeurs E, V, N, la densité de probabilité de Boltzmann-Gibbs s’écrit donc


1 − kT1 (Em + pext Vm −µext Nm )
P (m) =
e ext
Z
et est appelée “ensemble statistique grand canonique”. La fonction de partition est le coefficient de normali-
sation Z = Z ( Text , pext , µext ).

3.8.2 Adsorption
[Link] Adsorption, modèle de Langmuir (1918).
vidéo de la solution (12’).
Références : Diu et al. (1989, p.677), Balian (2007, Tome1, p174), adsorption sur wikipedia.

Introduction : L’adsorption est le phénomène qu’une surface peut capturer (et/ou libérer) de façon aléatoire
des particules d’un gaz ou d’un liquide. Par exemple l’adsorption avec du charbon actif est un traitement
efficace pour enlever la matière organique, les phénols, les hydrocarbures saturés qui sont des molécules in-
solubles difficilement attaquables par l’ozone, les pesticides, les métaux lourds, les agents tensio-actifs...

Dans le modèle de Langmuir, on suppose qu’un gaz est en contact avec une surface. Le gaz est modélisé
par le modèle du gaz parfait de N particules à la température T, pression p, potentiel chimique µ et considéré
comme un réservoir. La surface est modélisée par un ensemble de sites indépendants, chaque site peut contenir
m = 0 particule ou m = 1 particule dans un état d’énergie (−ϵ) < 0 fixée.
1. Considérer un site de la surface et montrer que la probabilité 3 qu’il soit occupé par une particule est
1
Pm=1 = ϵ+µ
1 + e− kT
3. Aide
 : utiliser la loi générale de Boltzmann : la probabilité que le site est dans l’état m = 0 ou m = 1 est Pm =
1 1
Z exp − kT ( Em − µNm ) où T est la température externe, µ le potentiel chimique externe, Em l’énergie du site, Nm le nombre de parti-
cules sur le site.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 96

2. Utiliser l’équation d’état du gaz parfait (TD2) pour exprimer µ en fonction de p, T et déduire que
p
Pm=1 ( p, T ) = p+ p (T ) avec une fonction p0 ( T ) indépendante de p. Tracer l’allure des courbes p →
0
Pm=1 ( p, T ) à T fixé, appelées isothermes de Langmuir.

[Link] (optionnel) Adsorption, modèle de Brunauer, Emmett et Teller (1938)


vidéo de la solution (17’).
(Similaire au problème précédent) Dans le modèle de B.E.T., le gaz est encore modélisé par le modèle du
gaz parfait. La surface est modélisée par un ensemble de sites indépendants, chaque site peut donc contenir
un nombre arbitraire m de particules et l’énergie du site Em est E0 = 0 si m = 0 et Em = −ϵ1 − (m − 1) ϵ2 si
m ≥ 1, avec ϵ1 , ϵ2 > 0.
ϵ1 + µ
1. Calculer la probabilité Pm pour qu’un site contienne m ≥ 0 particules en fonction de x1 = kT et
ϵ +µ
x2 = 2kT .
2. Déduire le nombre moyen de particules capturées par site ⟨ N ⟩.
µ p0 ( T )
3. Utilisant les résultats du gaz parfait e− kT = p avec p0 ( T ) qui ne dépend pas de la pression p, on
ϵ2 ϵ1 − ϵ2
p
pose b := p0 ( T )
eproportionnel à p et c := e
kT kT indépendant de p. Exprimer ⟨ N ⟩ en fonction de b, c.
Tracer ⟨ N ⟩ en fonction de b et montrer l’existence d’une pression saturante.

3.8.3 Température négative dans une chaîne de spins


Vidéo de la solution (24’).
On considère N sites, chacun pouvant être dans l’état d’énergie ϵ0 = 0 ou ϵ1 > 0 (comme une chaîne de
spins 1/2). Les sites interagissent entre eux, de sorte que les états fluctuent de façon aléatoire et équiprobables,
et on suppose le système totalement isolé de l’extérieur : l’énergie totale E est donc conservée.

ϵ1

ϵ0

N = 5, N0 = 2, N1 = 3

1. On note N1 le nombre de sites dans l’état ϵ1 . Calculer E en fonction de N1 . Calculer l’entropie S ( E) du


système total dans le cas 1 ≪ N1 ≪ N, utilisant la formule de Stirling ln n! ∼ n ln n et une formule de
combinatoire. On pose p = NN1 ∈ [0, 1] la proportion de sites dans l’état ϵ1 . Exprimer S en fonction de p
et tracer S ( p).
2. Calculer la température T d’après la définition T1 = ∂E ∂S
et tracer l’allure T ( p) et observer le signe.
Interpréter le « sens physique » de la température négative.
3. Ce système n’est plus isolé : il est mis en contact avec un réservoir extérieur de température Text per-
mettant un échange d’énergie. Quelle sera la valeur de p à l’équilibre ? Tracer p ( Text ) et discuter selon
que Text > 0 ou Text < 0 (obtenu avec un système de spins comme celui ci).
Chapitre 4

Statistiques quantiques

Dans ce chapitre on décrit les “statistiques de Fermi-Dirac et de Bose-Einstein” qui permettent de décrire
les particules élémentaires observées dans la nature et par conséquent les propriétés des éléments composés
de particules élémentaires comme les noyaux atomiques, les atomes, les molécules, les matériaux etc, i.e. tout
ce qui compose le monde qui nous entoure.

4.1 Introduction
Référence : Particule data book du CERN ou Review of particle physics téléchargeable. Voici un aperçu des
particules élémentaires selon le modèle standard (1970) (en conformité avec les expériences) et un aperçu des
particules composées de particules élémentaires.

4.1.1 Champ et particules


On utilisera le terme de « champs » plutôt que particule, car on verra que la notion de particule correspond
à des états d’excitations quantique du champ. Par exemple dans l’univers, il y a un unique “champ électron”
et toutes les “particules électrons” de l’univers sont des excitations quantiques de ce champ. De même il y a
un unique “champ photon” et les particules photons sont des excitations quantiques de ce champ.

4.1.2 Fermions/Bosons
On donnera plus loin une définition plus précise des fermions et des bosons, qui concerne une propriété
du comportement collectif des particules et donc une propriété du champ. Un champ donné est soit de type
Fermion, soit Boson. Par exemple les électrons sont des Fermions et les photons sont des Bosons.
En termes simples :
— Un champ est de type Fermion si il n’y a pas plus qu’une particule (excitation) dans un état physique
donné.
Par exemple : les électrons sont des Fermions : il ne peut y avoir que 0 ou 1 électron dans l’état orbital
de basse énergie autour du noyau hydrogène (précisément l’état 1s, + spin + 12 ).
— Pour un champ de type Boson, il n’y a pas cette contrainte.
Par exemple les photons sont des Bosons : il peut y avoir un nombre arbitraire de photons dans un mode

électromagnétique donné, comme par exemple une onde plane φ⃗k,+1 (⃗x ) = eik.⃗x de vecteur d’onde ⃗k et
hélicité +1 (i.e. polarisation circulaire +1) dans un faisceau laser.

4.1.3 Liste des champs existants d’après le modèle standard (1970)


On va distinguer les champs de matière et les champs de Jauge. De façon général les champs de matière
sont des Fermions et les champs de Jauge sont des Bosons.

[Link] Champs de matière (Fermions)


Voici la liste des champs de matière élémentaires :
— Les leptons (électron e, muon µ, tau τ et neutrinos associés νe , νµ , ντ ).
— les baryons (les quarks u, d, c, s, t, b).

97
CHAPITRE 4. STATISTIQUES QUANTIQUES 98

Pour chaque champ (par exemple le champ d’électrons e), il existe le champ d’antimatière noté e (aussi appelé
positron, noté e+ ).
Dans la “matière ordinaire” sur Terre, que l’on perçoit autour de nous, il y a seulement les champs de
matière e, u, d.
A cause du confinement de couleur, les champs de quarks ne se manifestent pas sous forme de particule
élémentaire
n omais sous forme composée appelé hadron, par exemple par groupe de deux, appelés méson ex :
π + = u, d , ou par groupe de trois, ex : proton p+ = {u, u, d} ou neutron n = {u, d, d}.

Remarque 4.1.1. (*) Ci-dessus, on distingue trois générations de champs de matière :


1. Première génération : les leptons e, νe et baryons u, d.
2. Deuxième génération : les leptons µ, νµ et baryons c, s
3. Troisième génération : les leptons τ, ντ et baryons t, s
Les champs de 2eme et 3eme génération ont des masse plus élevées et donc se désintègrent en champs de
première génération, cf discussion plus bas. Ainsi la “matière ordinaire” est formée de champs de 1ere géné-
ration.

[Link] Champs de jauge (Bosons)

Les champs de matières sont couplés à des « champs de Jauge », que l’on appelle aussi interactions fonda-
mentales :
— Les photons γ, (champ ou force électromagnétique)
— Les bosons faibles W ± , Z0 (champ ou force nucléaire faible)
— Les gluons g (champ ou force nucléaire forte)
Les leptons sont couplés au champs de photons γ et de bosons faibles W ± , Z0 mais les leptons ne sont pas
couplés aux champs de gluons g. Les baryons sont couplés aux trois champs de Jauge.

Exemple 4.1.2. Un proton est constitué de trois quarks p = (u, u, d) couplés à des gluons et plus faiblement à
des photons et bosons faibles. Un atome d’hydrogène est constitué d’un proton et d’un électron couplés par
l’intermédiaire du champ de photon.

Remarque 4.1.3. (*) Le champ de gravitation est aussi une théorie de Jauge qui concerne la métrique de l’espace-
temps. Tous les champs de matière et de Jauge sont couplés au champ métrique. Ainsi l’énergie et la masse
déforme la géométrie de l’espace-temps via sa métrique et inversement la trajectoire d’un photon (lumière),
d’une particule massive ou d’une planète est déviée (suit une géodésique) dans l’espace-temps. Cela explique
les trajectoires elliptiques des planètes autour du soleil (dans le cadre de la théorie d’Einstein). Mais il n’y
a pas de formulation quantique de la gravitation connue ni même d’expérience suggérant cela. L’excitation
quantique du champ de gravitation est donc très hypothétique, mais ce serait un boson de spin s = ±2,
appelé graviton.

Remarque 4.1.4. (*) La théorie de Jauge aussi appelée théorie géométrique de Yang-Mills est une formulation
géométrique où les champs de matière sont des sections de fibrés vectoriels complexes et les champs de Jauge
sont des connections de ces fibrés, respectivement de rang 1, 2, 3, voir Faure (2010). Cependant le cadre ma-
thématique de la version quantique n’est pas établie.

Remarque 4.1.5. (*) Le champ de Higgs est un champ scalaire (i.e. à valeur complexe) de type Boson. Sa pré-
sence permet d’expliquer la masse des champs de matière et des champ de Jauge des bosons faibles, par un
mécanisme appelé “brisure de symétrie”. Quelle est sa signification géométrique en termes d’espaces fibrés ?

4.1.4 Grandeurs caractéristiques de chaque champ


Chaque champ élémentaires décrit ci-dessus, et donc chaque particule élémentaire associée a des caracté-
ristiques que nous décrivons maintenant, outre la propriété Fermion/Boson déjà définit ci-dessus.
99 4.1. INTRODUCTION

[Link] Masse et spin

Toutes les particules élémentaires possèdent une masse m ≥n 0 et un momentoangulaire appelé spin ou
moment angulaire intrinsèque caractérisé par son intensité s ∈ 0, 21 , 1, 23 , 2, 52 , . . . si la masse est m > 0 (et
n o
si la masse est m = 0, le spin appelé hélicité est caractérisé par s ∈ 0, ± 12 , ±1, ± 23 , . . . ). Il apparaît que les
n o
Fermions ont un spin demi-entier s ∈ 12 , 32 , 25 , . . . et les Bosons ont un spin entier s ∈ {0, 1, 2 . . .} (idem
dans le cas m = 0). Cette correspondance s’appelle « le théorème spin-statistique ».
Remarque 4.1.6. (*) Les paramètres de masse m ≥ 0 et de spin s sont associés à chaque champ élémentaire
et sont des invariants (représentations irréductibles) du groupe de symétrie de Poincaré qui est le groupe de
symétrie de l’espace temps, voir Sternberg (1994, p.148).

[Link] Charges

Les charges sont des quantités associées à chaque particules élémentaire


— La charge électrique qui peut être q = 0, ± 31 , ± 23 , ±1 (en unité 1 de q = 1, 602176634 × 10−19 C, appelée
charge élémentaire). Cette charge est associée aux interactions avec le champ de Jauge γ.
— Le nombre leptonique Ll = Nl − Nl où l est une certaine famille de leptons (exemple électron) Nl est
le nombre de leptons et Nl est le nombre d’anti-leptons. Voir exemples ci-dessous.
— Le nombre baryonique B = ∑q 31 Nq − Nq concernant la conservation du nombre de quarks.


Remarque 4.1.7. pour le photon et autres bosons de Jauge il n’y a pas de règle de conservation sur leur nombre.

4.1.5 Lois de conservation


Les champs évoluent d’après l’équation de Schrödinger

∂ψ
i = Ĥψ
∂t

où ψ représente tous les champs quantiques et Ĥ le Hamiltonien quantique du modèle standard. Dans ce
Hamiltonien il y a des couplages entre les champs de matière et les champs de Jauge et par conséquent il y a
des transitions possibles, les particules élémentaires peuvent apparaître/disparaître au cours du temps. Il y a
seulement quelques contraintes globales appelées lois de conservations et souvent associées à des symétries
du modèle :
— Il y a conservation de l’impulsion totale ⃗p ∈ R3 et énergie totale E d’un système de particules (cela
découle de l’invariance par translation dans l’espace-temps de Ĥ). Ne pas oublier de plus que pour
chaque particule on a la relation
E2 − ∥⃗p∥2 c2 = m2 c4 .

— Il y a conservation du moment angulaire total (qui découle de l’invariance par rotation dans l’espace
temps de Ĥ).
— Conservation de la charge électrique totale Q, des nombres leptoniques Ll , du nombre baryonique B.

4.1.6 Désintégrations. Particules stables et instables


Une réaction de désintégration est de la forme

A→B

où la masse totale de A (énergie au repos) est supérieure à la masse totale de B : M A ≥ MB se sorte que pour
satisfaire la conservation de l’énergie totale, les composés B auront éventuellement de l’énergie cinétique qui
est toujours positive. Une telle réaction est possible si elle ne contredit pas une des règles de conservation
ci-dessus et donc se produira avec une probabilité plus ou moins grande donc un certain temps moyen τ.
Ainsi la plupart des particules élémentaires et composés sont instables et se désintègrent en particules ou
composés stables (qui eux n’ont pas la possibilité de se désintégrer). Un particule instable A est souvent appelé
résonance.
1. Nouvelle valeur à partir du 20 mai 2019
CHAPITRE 4. STATISTIQUES QUANTIQUES 100

Exemples :
— Par exemple le muon se désintègre ainsi

µ− → e− + νe + νµ

en τ ∼ 2 × 10−6 s ref. La charge Q = −1, les nombres leptoniques Lµ = 1 et Le = 0 sont conservés. Les
masses 2 sont mµ− = 0.11u, me− = 0.5 × 10−3 u, mνe , mνµ < 2.4 × 10−7 u, ainsi mµ− > me− + mνe + mνµ ,
la réaction n’est pas interdite par les règles de conservation.
— Le neutron se désintègre ainsi
n → p+ + e− + νe
en τ ∼ 879s ref. La charge Q = 0, les nombres leptoniques Le = 0, nombre baryonique B = 1 sont
conservés. Les masses sont mn = 1.0087u, m p+ = 1.0073u, me− = 0.0005u, mνe < 2.4 × 10−7 u ainsi
mn > m p+ + me− + mνe , la réaction n’est pas interdite par les règles de conservation.
— Voici la liste des masses et de toutes les réactions de désintégrations connues Particule data book du
CERN.
— Les particules plus lourdes ont plus de possibilités de désintégrations. Par exemple le lepton τ (tau)

τ − → µ− + νµ + ντ

τ − → e− + νe + ντ
— Au final, les seules particules élémentaires stables sont électrons e− , neutrinos ν (mais les neutrinos
oscillent), photons γ.

4.1.7 Compositions de particules


Toute la richesse et la difficulté en physique est de comprendre les interactions entre les particules élémen-
taires, (i.e. excitations quantiques des champs).
— Certaines particules élémentaires s’assemblent pour former des particules composées très variées, par
exemple les protons et neutrons sont des assemblées de quarks et gluons. Le proton est stable mais le
neutron seul est instable.
— Les noyaux atomiques sont des assemblages de protons et neutrons qui sont stables si il y a un nombre
adéquat de protons et neutrons situés dans la vallée de stabilité.
— Les atomes sont des assemblages de noyaux et électrons, les molécules sont des assemblages d’atomes,
etc.. (les cristaux, cellules vivantes, fluides sont des assemblages de molécules).
Dans la nature, il y a différents régimes : sur Terre la température est relativement faible et seuls les particules
et composés stables se manifestent. Les noyaux atomiques sont stables (sauf certains noyaux instables appelés
radioactifs). Dans les étoiles, la température est plus élevé, des réactions nucléaires sont possibles. En labora-
toires, pour obtenir des énergies cinétiques élevés, les expériences se font dans les accélérateurs de particules
et par collisions.
Remarque 4.1.8. Tous les éléments atomiques présents sur Terre ont été produits par des réactions nucléaires
dans des étoiles d’anciennes générations (notre Soleil serait déjà de la 3ème génération, fille de l’étoile Coat-
licue). Avant de le savoir, avant le XVIIIème siècle, certaines personnes cherchaient à effectuer ces transmuta-
tions par “Alchimie”.

[Link] Propriétés des compositions de particules


Pour les compositions, les propriétés s’ajoutent : énergie, moment angulaire, charges etc.

Exemple 4.1.9. Le proton est constitué de 3 quarks u, u, d de spin respectifs s = 21 , 12 , − 12 et charges électriques
s = 23 , 32 , − 13 , donc son spin est s = + 12 et sa charge électrique est q = +1. De même le neutron n = (u, d, d) a
un spin s = 12 et une charge q = 0.
Attention que l’énergie du composé est l’énergie des constituants plus l’énergie de liaison qui est négative
en générale.
Exemple 4.1.10. L’énergie du noyau d’Hélium 4 constitué de ( p, p, n, n) est 3 EHe4 = 4.002u inférieure à 4 ×
E p = 4 × 1.007u donc il ne peut se désintégrer, il est stable (ainsi les neutrons qu’ils contient sont devenus
stables).
2. en unité de masse atomique unifiée u = NA−1 × 10−3 kg
3. u = 931.494Mev/c2 appelé unité de masse atomique.
101 4.2. DÉFINITION DES FERMIONS ET BOSONS

Concernant les propriétés statistiques qui nous intéressent dans ce cours, en première approximation (i.e.
à faible dilution et petit nombre de degrés de liberté), un composé de nombre impair de Fermions a les
propriétés d’un Fermion et un composé de nombre pair de Fermions a les propriétés d’un Boson.
Exemple 4.1.11. Le proton et le neutron sont chacun composés de gluons (Bosons) et de trois quarks (Fer-
mions), ce sont donc des Fermions. Le noyau He4 est composé de 2 protons et 2 neutrons (Fermions), c’est
donc un Boson. Le noyau He3 est composé de 2 protons et 1 neutron, c’est donc un Fermion.

4.2 Définition des Fermions et Bosons


On donne une définition des Fermions et des Bosons dans le cadre de la mécanique quantique en définis-
sant l’espace de Fock Fermionique et l’espace de Fock Bosonique des états possibles (ψm )m en terme d’états à
une particule ( φn )n≥0 .
Considérons une particule élémentaire Fermion ou Boson d’une famille donnée (par exemple un électron
ou un photon). En mécanique quantique cette particule est décrite par un vecteur ψ ∈ H1 (sa fonction d’onde)
dans un espace de Hilbert H1 (indice 1 pour signifier que l’on considère N = 1 particule). On note ( φn )n≥0
une base orthonormée quelconque de cet espace H1 à une particule. Les états ( φn )n ne sont pas forcément
des états stationnaires. Par exemple on peut penser à φn comme un paquet d’onde en (q, p), caractérisant la
position q, impulsion p, et aussi le spin d’une particule. Autre exemple, ( φn )n≥0 peut être la base des états
orbitaux de l’électron dans un atome d’hydrogène (et son spin).
On considère maintenant plusieurs particules d’une même famille (ex : des électrons). Elles ont toutes les
même caractéristiques physique : même masse, charge, spin etc.. on dit qu’elles sont identiques et indiscer-
nables. Conformément à l’expérience, on postule :

Définition 4.2.1. Dans le cas des Bosons, chaque état possible m d’un ensemble de plusieurs particules
est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0. Ainsi
un état possible est noté
m = ( N0 , N1 , N2 , . . .) , avec Nn ≥ 0.
Le nombre total de particules dans cet état m est donc

N (m) = ∑ Nn
n ≥0

Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Bosonique F . Autrement dit, un état quelconque de plusieurs particules est une com-
binaison linéaire de ces états de base m. Voir figure 4.4.1.

Définition 4.2.2. Dans le cas des Fermions, chaque état possible m d’un ensemble de plusieurs parti-
cules est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0,
mais avec la contrainte supplémentaire que Nn ≤ 1. Ainsi un état possible est noté

m = ( N0 , N1 , N2 , . . .) , avec 0 ≤ Nn ≤ 1.

Le nombre total de particules dans cet état m est donc

N (m) = ∑ Nn
n ≥0

Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Fermionique F . Autrement dit, un état quelconque de plusieurs particules est une
combinaison linéaire de ces états de base m. Voir figure 4.4.1.

Remarque 4.2.3. On note F N l’espace de Fock à nombre fixé N ≥ 0 de particules. Ainsi

F = F0 ⊕ F1 ⊕ F2 . . . (4.2.1)

en particulier F1 = H1 est l’espace à une particule et F0 est un espace à zéro particule, contenant un seul
état m = (0, 0, . . .) appelé état du vide quantique. Cette décomposition (4.4.1) signifie qu’un état quantique
CHAPITRE 4. STATISTIQUES QUANTIQUES 102

..
. N3 = 0 N3 = 1
φ2 N2 = 2 φ2 N2 = 1
φ1 N1 = 0 φ1 N1 = 0
φ0 N0 = 1 φ0 N0 = 1
Bosons Fermions
F IGURE 4.2.1 – On note Nn le nombre de particules dans l’état φn . N = ∑n Nn est le nombre total. Exemples d’
un état m = ( N0 , N1 , N2 , N3 , . . .) à N = 3 particules. Dans le cas des Fermions on a la contrainte 0 ≤ Nn ≤ 1.

général du système ψ ∈ F peut être une combinaison linéaire d’états (i.e. superposition) appartenant à chaque
espace F N . L’état ψ n’a pas un nombre déterminé de particules.
Comme expliqué plus haut, dans le modèle standard, il y a plusieurs familles de particules : électrons,
muons, etc. Il y a un espace de Fock F ( f ) pour chaque famille f et l’espace de Fock total de toutes les familles
est
F = ⊕f F(f)
Noter que les interactions sont responsables de transitions entres ces différentes composantes.

4.2.1 (*) Statistiques quantiques


Des solutions et plus d’explications dans cette référence : Cours de MQ, chap. 5.3
Considérons une famille donnée de particules (par exemples les électrons qui sont des Fermions ou les
photons qui sont des Bosons). On a noté F1 = H1 l’espace (quantique) à une particule et F N “l’espace de
Fock” quantique à N particules. On note ( φn )n≥0 une base arbitraire de H1 .
1. Si la dimension de l’espace à une particule est fini : dimH1 = d, calculer dimF N pour les Bosons et
pour les Fermions.
2. En mécanique quantique, on donne la définition suivante des états possible des bosons. Ce sont des
combinaisons linéaires des états suivants
ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )

avec φn j ∈ H1 et Ŝ est l’opérateur de symétrisation

1
Ŝ :=
N! ∑ σ̂
σ∈S N

où S N est le groupe des permutations de N éléments et σ̂ est l’opérateur qui permute les vecteurs
du produit tensoriel, ex : σ̂ ( φ1 ⊗ φ2 ) = φ2 ⊗ φ1 . De même les états possible des Fermions sont les
combinaisons linéaires des états suivant
ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )

avec φn j ∈ H1 et  est l’opérateur de anti-symétrisation

1
 :=
N! ∑ ϵ (σ ) σ̂
σ∈S N

avec ϵ (σ ) = ±1 la signature de la permutation. Montrer que ces définitions sont équivalentes aux
précédentes. Pour cela, montrer qu’une base de F N des bosons est
ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )
avec n1 ≤ n2 ≤ . . . ≤ n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.
Montrer qu’une base de F N des Fermions est
ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )
avec n1 < n2 < . . . < n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.
103 4.3. DISTRIBUTION DE BOSE-EINSTEIN ET DE FERMI-DIRAC

3. Montrer que pour σ ∈ S N , σ̂ Ŝ = Ŝ et σ̂ Â = Â.

4. Dans l’espace H ⊗ N := H1 ⊗ H1 ⊗ . . . ⊗ H1 , montrer que Ŝ2 = Ŝ, Ŝ† = Ŝ et donc Ŝ est un projec-
teur orthogonal sur le sous espace de Fock Bosonique F N . De même montrer que  est un projecteur
orthogonal sur le sous espace de Fock Fermionique.

4.3 Distribution de Bose-Einstein et de Fermi-Dirac

référence : Diu et al. (1989, p.670).


On considère maintenant le cas particulier de particules identiques et indépendantes (i.e. sans interaction
mutuelle) qui sont des Bosons ou des Fermions. On suppose que ( φn )n≥0 sont les états propres d’énergie pour
une particule seule et on note ϵn l’énergie de φn , i.e.

Ĥ φn = ϵn φn

avec ϵ0 ≤ ϵ1 ≤ ϵ2 ≤ . . ..
On suppose que ce système échange de l’énergie et des particules avec son environnement, un réservoir de
température T et potentiel chimique µ. On note m = ( N0 , N1 , N2 , . . .) un état du système à plusieurs particules
comme expliqué ci-dessus.
Pour la suite, il est utile de remarquer le résultat suivant qui est assez intuitif.

Lemme 4.3.1. Pour un système de particules identiques et indépendantes, (Fermions ou Bosons), la mesure
de probabilité P (m) de Boltzmann-Gibbs d’un micro-état m = ( N0 , N1 , N2 , . . .) du système, d’énergie E (m) =
∑n≥0 Nn ϵn et de nombre de particules N (m) = ∑n≥0 Nn , se factorise (i.e. évènements indépendants)

1
P (m) = exp (− β ( E (m) − µN (m)))
Z
= ∏ pn ( Nn )
n ≥0

où pn ( Nn ) est la probabilité pour que le niveau n possède Nn particules, aussi donné par la mesure de Boltzmann
Gibbs
1 − β( Nn ϵn −µNn )
pn ( Nn ) = e .
Zn

Démonstration. Considérons un état à plusieurs particules noté m = ( N0 , N1 , N2 , . . .). D’après la loi de Boltzmann-
Gibbs, la probabilité d’apparition de l’état m est

1
P (m) = exp (− β ( E (m) − µN (m)))
Z

Dans cette expression,

!!
exp (− β ( E (m) − µN (m))) = exp − β ∑ Nn ϵn − µNn
n ≥0
= ∏ exp (− βNn (ϵn − µ))
n ≥0

Donc P (m) se factorise.


CHAPITRE 4. STATISTIQUES QUANTIQUES 104

Proposition 4.3.2. Considérons un système de particules identiques et indépendantes. Supposons que le


1
système échange de l’énergie et des particules avec un environnement à la température T (on pose β = kT ) et
potentiel chimique µ,
— Dans le cas de Bosons, si µ < ϵn , ∀n, le nombre moyen de particules dans un état à une particule
d’énergie ϵn est
1
⟨ Nn ⟩ = β(ϵ −µ) (4.3.1)
e n −1
appelée distribution de Bose-Einstein.
— Dans le cas de Fermions, le nombre moyen de particules dans un état à une particule d’énergie ϵn est

1
⟨ Nn ⟩ = (4.3.2)
e β ( ϵn − µ ) +1
appelée distribution de Fermi-Dirac.

Remarque 4.3.3. Les distributions dépendent de l’état n à travers son énergie ϵn . On trace donc les fonctions
⟨ N ⟩ (ϵ) = (exp ( β (ϵ − µ)) ± 1)−1 avec β, µ fixés :
Bose distribution Fermi distribution
⟨ N ⟩(ϵ) = β(ϵ−1µ)
e −1 ⟨ N ⟩(ϵ) = 1
e β ( ϵ − µ ) +1
∼ kT = 1/β
∼ kT = 1/β

µ ϵ µ ϵ
Remarque 4.3.4. Dans les deux cas, pour β (ϵn − µ) ≫ 1, on a

⟨ Nn ⟩ ≈ e− β(ϵn −µ) ,
qui correspond à la décroissance exponentielle observée à la droite des figures. L’effet statistique Boson/Fer-
mion n’a pas d’importance dans ce régime à “faible densité”.
Démonstration. Faisons la preuve de la proposition 4.3.2. pour un niveau n ≥ 0 donné,
⟨ Nn ⟩ = ∑ pn ( Nn ) Nn
Nn
1
=
Zn ∑ e− βNn (ϵn −µ) Nn (4.3.3)
Nn ≥0
avec

Zn = ∑ e− βNn (ϵn −µ) . (4.3.4)


Nn ≥0
Dans le cas des Bosons, la somme est sur Nn ∈ N. Cette somme est convergente seulement si ϵn − µ > 0, ∀n.
On calcule (suite géométrique)
  Nn 1
Zn (µ) = ∑ e− β(ϵn −µ) =
(4.3.4) N ≥0 ( A.1.1) 1 − e− β(ϵn −µ)
n

et
∂Zn βe− β(ϵn −µ)
= ∑ βNn e− βNn (ϵn −µ) = 2
∂µ Nn ≥0 1 − e − β ( ϵn − µ )
donc
  e − β ( ϵn − µ )
⟨ Nn ⟩ = 1 − e − β ( ϵn − µ ) 2
(4.3.3) 1 − e − β ( ϵn − µ )
e − β ( ϵn − µ ) 1
= − ( − )
 = β ϵ −µ
1−e β ϵ n µ e n )−1
(
105 4.4. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES FERMIONS ET BOSONS

Dans le cas des Fermions, la somme est sur Nn ∈ {0, 1}. On calcule

Zn = 1 + e − β ( ϵn − µ ) ,
(4.3.4)

1  
⟨ Nn ⟩ = 0 + e − β ( ϵn − µ )
(4.3.3) 1 + e− β(ϵn −µ)
1
=
e β ( ϵn − µ ) + 1

4.4 Exercices et problèmes corrigés sur les Fermions et Bosons


Dans ce TD on considère les “statistiques de Fermi-Dirac et de Bose-Einstein” qui concerne le comporte-
ment collectif des particules élémentaires observées dans la nature. On définira plus loin la définition précise
de Fermion/Boson. Référence : Particule data book du CERN.
— On observe que chaque famille de particule élémentaire est d’un type particulier, Fermion ou Boson.
Par exemple les électrons ou les quarks sont des Fermions. Les photons γ ou les gluons g sont des
bosons. La plupart des particules élémentaires sont instables, i.e. se désintègrent en d’autres particules
stables. Par exemple le muon se désintègre ainsi µ− → e− + νe + νµ en τ ∼ 2 × 10−6 s ref. Les seules
particules élémentaires stables sont électrons e− , neutrinos ν, photons γ, et quarks q, gluons g (mais
quarks et gluons n’existent pas à l’état individuel).
— Certaines particules élémentaires (les particules stables) s’assemblent pour former des particules com-
posées très variées, par exemple les protons et neutrons sont des assemblées de quarks et gluons, les
noyaux atomiques sont des assemblages de protons et neutrons, les atomes sont des assemblages de
noyaux et électrons, les molécules sont des assemblages d’atomes, etc.. (les cristaux, cellules vivantes,
fluides sont des assemblages de molécules)
— En première approximation (i.e. à faible dilution et petit nombre de degrés de liberté), un composé
de nombre impair de Fermions a les propriétés d’un Fermion et un composé de nombre pair de
Fermions a les propriétés d’un Boson. Par exemple, le proton et le neutron sont chacun composés de
gluons (Bosons) et de trois quarks (Fermions), ce sont donc des Fermion. Le noyau He4 est composé de
2 protons et 2 neutrons (Fermions), c’est donc un Boson. Le noyau He3 est composé de 2 protons et 1
neutron, c’est donc un Fermion.
— Toutes les particules élémentaires possèdent un n moment angulaireo appelé spin ou moment angulaire
intrinsèque caractérisé par son intensité s ∈ 0, 21 , 1, 32 , 2, 52 , . . . si la masse est m > 0 (et si la masse
n o
est m = 0, le spin appelé hélicité est caractérisé par s ∈ 0, ± 12 , ±1, ± 32 , . . . ) Sternberg (1994, p.148). Il
n o
apparait que les Fermions ont un spin demi-entier s ∈ 21 , 32 , 52 , . . . et les Bosons ont un spin entier
s ∈ {0, 1, 2 . . .} (idem dans le cas m = 0). Ce fait s’appelle « le théorème spin-statistique ».

4.4.1 Fermions et Bosons


vidéo de la solution.
Ce problème est un rappel de cours. Ref : Par exemple, Section 5.3 de ce cours.

[Link] Définition pratique des Fermions et Bosons


On donne une définition des Fermions et des Bosons dans le cadre de la mécanique quantique en définis-
sant l’espace de Fock Fermionique et l’espace de Fock Bosonique des états possibles (ψm )m en terme d’états à
une particule ( φn )n≥1 .
Considérons une particule élémentaire Fermion ou Boson d’une famille donnée (par exemple un électron
ou un photon). En mécanique quantique cette particule est décrite par un vecteur ψ ∈ H1 (sa fonction d’onde)
dans un espace de Hilbert H1 (indice 1 pour signifier que l’on considère N = 1 particule). On note ( φn )n≥0
une base orthonormée quelconque de cet espace H1 à une particule. Les états ( φn )n ne sont pas forcément
des états stationnaires. Par exemple on peut penser à φn comme un paquet d’onde en (q, p), caractérisant
la position q, impulsion p, et aussi le spin d’une particule. Autre exemple, ( φn )n peut être la base des états
orbitaux de l’électron dans un atome d’hydrogène (et son spin).
CHAPITRE 4. STATISTIQUES QUANTIQUES 106

..
. N3 = 0 N3 = 1
φ2 N2 = 2 φ2 N2 = 1
φ1 N1 = 0 φ1 N1 = 0
φ0 N0 = 1 φ0 N0 = 1
Bosons Fermions
F IGURE 4.4.1 – On note Nn le nombre de particules dans l’état φn . N = ∑n Nn est le nombre total. Exemples d’
un état m = ( N0 , N1 , N2 , N3 , . . .) à N = 3 particules. Dans le cas des Fermions on a la contrainte 0 ≤ Nn ≤ 1.

On considère maintenant plusieurs de particules d’une même famille (ex : des électrons). Elles ont toutes
les même caractéristiques physique : même masse, charge, spin etc.. on dit qu’elles sont identiques et indis-
cernables. Conformément à l’expérience, on postule :

Définition 4.4.1. Dans le cas des Bosons, chaque état possible m d’un ensemble de plusieurs particules
est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0. Ainsi
un état possible est noté
m = ( N0 , N1 , N2 , . . .) , avec Nn ≥ 0.
Le nombre total de particules dans cet état m est donc

N (m) = ∑ Nn
n ≥0

Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Bosonique F . Autrement dit, un état quelconque de plusieurs particules est une com-
binaison linéaire de ces états de base m. Voir figure 4.4.1.

Définition 4.4.2. Dans le cas des Fermions, chaque état possible m d’un ensemble de plusieurs parti-
cules est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0,
mais avec la contrainte supplémentaire que Nn ≤ 1. Ainsi un état possible est noté

m = ( N0 , N1 , N2 , . . .) , avec 0 ≤ Nn ≤ 1.

Le nombre total de particules dans cet état m est donc

N (m) = ∑ Nn
n ≥0

Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Fermionique F . Autrement dit, un état quelconque de plusieurs particules est une
combinaison linéaire de ces états de base m. Voir figure 4.4.1.

Remarque 4.4.3. On note F N l’espace de Fock à nombre fixé N ≥ 0 de particules. Ainsi

F = F0 ⊕ F1 ⊕ F2 . . . (4.4.1)

en particulier F1 = H1 est l’espace à une particule et F0 est un espace à zéro particule, contenant un seul état
m = (0, 0, . . .) appelé état du vide quantique.

[Link] Ensemble canonique


On suppose que le système étudié a un nombre N fixé de particules identiques. L’énergie est une quantité
conservée dans les interactions, mais on suppose que le système peut échanger de l’énergie avec l’extérieur et
107 4.4. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES FERMIONS ET BOSONS

qu’il est dans un état d’équilibre statistique à la température T imposée par l’extérieur. La mesure de probabi-
lité de Boltzmann, (appelé “ensemble canonique”, vue au TD précédents) est

1 − βE(m)
P (m) := e (4.4.2)
ZN
1
avec β = kT et ZN ( β) une constante de normalisation qui dépend de β.
1. Montrer que l’énergie moyenne du système ⟨ E⟩ := ∑m P (m) E (m) est donnée par

⟨ E⟩ = −∂ β ln ZN

2. Montrer que l’entropie S := −k ∑m P (m) ln P (m) est donnée par

1
S= ⟨ E⟩ + k ln ZN
T

[Link] Ensemble grand canonique


On suppose que le nombre de particules est conservé par les interactions (ce n’est pas toujours le cas,
par exemple l’interaction électromagnétique ne conserve pas le nombre de photons). Mais on suppose que le
système peut échanger de l’énergie et des particules avec l’extérieur. La mesure de probabilité de Boltzmann
(appelé “ensemble grand canonique”) est

1 − β(E(m)−µN (m))
P (m) := e , (4.4.3)
Ξ
où µ est le potentiel chimique imposé par l’extérieur et Ξ ( β, µ) une constante de normalisation qui dépend de
β, µ.
1. Montrer que
Ξ= ∑ e Nβµ ZN .
N ≥0

2. Montrer que l’énergie moyenne du système ⟨ E⟩ := ∑m P (m) E (m) est donnée par

⟨ E⟩ = −∂ β ln Ξ + µ ⟨ N ⟩

où ⟨ N ⟩ = ∑m P (m) N (m) est le nombre moyen de particules.

[Link] Distribution de Bose-Einstein et de Fermi-Dirac


On considère maintenant le cas particulier de particules indépendantes (i.e. sans interaction mutuelle) qui
sont des Bosons ou des Fermions. On suppose que ( φn )n≥0 sont les états propres d’énergie pour une particule
seule et on note ϵn l’énergie de φn , i.e. Ĥ φn = ϵn φn avec ϵ0 ≤ ϵ1 ≤ ϵ2 ≤ . . ..
On note m = ( N0 , N1 , N2 , . . .) un état du système comme expliqué ci-dessus.
1. Exprimer l’énergie totale E (m) de l’état m et le nombre total de particules N (m) du système à partir de
( Nn )n et (ϵn )n .
2. On considère la distribution de Boltzmann de l’ensemble grand canonique (4.4.3). Montrer que la pro-
babilité d’avoir Nn particules dans l’état φn est

1 − βNn (ϵn −µ)


Pn ( Nn ) = e
ξn
avec
ξn = ∑ e− βNn (ϵn −µ)
0≤ Nn (≤1)

et où la contrainte supplémentaire Nn ≤ 1 s’applique au cas des Fermions.


3. Dans le cas des Bosons, quelle contrainte doit vérifier µ par rapport au spectre (ϵn )n ?
4. Montrer que le nombre moyen de particules ⟨ Nn ⟩ dans un état φn est ⟨ Nn ⟩ = β1 ∂µ ln ξ n .
5. Calculer ⟨ Nn ⟩ pour les Bosons (appelée distribution de Bose-Einstein) en fonction de β, ϵn , µ et l’ex-
pression simplifiée si β (ϵn − µ) ≫ 1. Tracer ⟨ Nn ⟩ en fonction de ϵn .
6. Même question pour les Fermions (distribution de Fermi-Dirac).
CHAPITRE 4. STATISTIQUES QUANTIQUES 108

4.4.2 (Optionnel) Statistiques quantiques


Des solutions et plus d’explications dans cette référence : Cours de MQ, chap. 5.3
Rappel : on a noté F1 = H1 l’espace (quantique) à une particule et F N “l’espace de Fock” quantique à N
particules. On note ( φn )n≥0 une base arbitraire de H1 .
1. Si la dimension de l’espace à une particule est fini : dimH1 = d, calculer dimF N pour les Bosons et
pour les Fermions.
2. En mécanique quantique, on donne la définition suivante des états possible des bosons. Ce sont des
combinaisons linéaires des états suivants

ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )

avec φn j ∈ H1 et Ŝ est l’opérateur de symétrisation

1
Ŝ :=
N! ∑ σ̂
σ∈S N

où S N est le groupe des permutations de N éléments et σ̂ est l’opérateur qui permute les vecteurs
du produit tensoriel, ex : σ̂ ( φ1 ⊗ φ2 ) = φ2 ⊗ φ1 . De même les états possible des Fermions sont les
combinaisons linéaires des états suivant

ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )

avec φn j ∈ H1 et  est l’opérateur de anti-symétrisation

1
 :=
N! ∑ ϵ (σ ) σ̂
σ∈S N

avec ϵ (σ ) = ±1 la signature de la permutation. Montrer que ces définitions sont équivalentes aux
précédentes. Pour cela, montrer qu’une base de F N des bosons est

ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )

avec n1 ≤ n2 ≤ . . . ≤ n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.


Montrer qu’une base de F N des Fermions est

ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )

avec n1 < n2 < . . . < n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.
3. Montrer que pour σ ∈ S N , σ̂ Ŝ = Ŝ et σ̂ Â = Â.
4. Dans l’espace H ⊗ N := H1 ⊗ H1 ⊗ . . . ⊗ H1 , montrer que Ŝ2 = Ŝ, Ŝ† = Ŝ et donc Ŝ est un projec-
teur orthogonal sur le sous espace de Fock Bosonique F N . De même montrer que  est un projecteur
orthogonal sur le sous espace de Fock Fermionique.

4.4.3 Comparaison des statistiques pour des particules dans un puits de potentiel har-
monique
vidéo de la solution.
1 2
Le spectre de l’oscillateur harmonique quantique Ĥ = 2m p̂ + 12 K q̂2 pour une particule à une dimension
est  
1
ϵn = h̄ω n + , n ∈ N,
2
q
avec la fréquence ω = m K
. On posera y = e− βh̄ω et x = h̄ω
kT 1
= βh̄ω .
1. On considère N = 1 particule (i.e. dans l’ensemble canonique). Calculer ZN =1 défini en (4.4.2), en
fonction de y.
2. On considère N = 2 particules (i.e. dans l’ensemble canonique), et successivement le cas des Bosons,
des Fermions.
(a) Calculer ZN =2 défini en (4.4.2), en fonction de y.
1
(b) Calculer u := h̄ω ⟨ E⟩ en fonction de y et tracer l’allure des fonctions.
(c) Calculer 1k S en fonction de y et tracer l’allure des fonctions.
109 4.5. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE BOSE-EINSTEIN

4.5 Interprétations et applications de la distribution de Bose-Einstein

Dans cette section on interprète la formule (4.3.1) donnant que le nombre moyen de bosons dans un état à
une particule d’énergie ϵn est

1
⟨ Nn ⟩ = .
e β ( ϵn − µ ) − 1

Bose distribution
⟨ N ⟩(ϵ) = β(ϵ−1µ) e −1

∼ kT = 1/β

µ ϵ

1
où β = kT est relié à la température extérieure et µ est le potentiel chimique extérieur. On discute surtout
d’une application importante qui est la densité d’énergie des photons appelée la loi de Planck (1900).

4.5.1 Densité d’énergie des photons : la loi de Planck (1900).

référence : Diu et al. (1989, p.825).

Dans cette section nous allons considérer un “gaz de photon à l’équilibre thermique, à la température T”.
Les photons sont les excitations quantiques du champ électromagnétique. Comme expliqué dans l’introduc-
tion, c’est un champ de Jauge et par conséquent les photons sont des bosons.

Considérons un volume V fixé, qui contient un gaz de photons à l’équilibre thermodynamique à la tempé-
rature T fixée. Cela signifie que ces photons sont en contact avec de la matière qui a la température T (car il
n’y a pas d’interaction directe entre les photons). Noter qu’il n’y a pas de loi de conservation sur le nombre de
photons. Donc il n’y a pas de potentiel chimique pour les photons. On pose µ = 0 dans la formule (4.3.1).

Proposition 4.5.1. La densité d’énergie en fréquence ν, par unité de volume d’un gaz de photons à la température
T est
8πhν3 dν
u(ν)dν = 3 hν/kT  : loi de Planck
c e −1
CHAPITRE 4. STATISTIQUES QUANTIQUES 110

Démonstration. (*) voir TD. Considérons une enceinte de volume V. Il contient des modes électromagnétiques.
On peut estimer leur densité i.e. le nombre de modes ondulatoires par intervalle de fréquence dndν par la loi de
ω
Weyl de la façon suivante. Pour un mode électromagnétique, la fréquence ν = 2π est reliée au vecteur d’onde
⃗k par la relation de dispersion
ω = c ⃗k .
D’après la loi de Weyl, et n’oubliant pas que chaque mode spatial a deux états de polarisation possible, le
nombre de modes de fréquence inférieure à ω est
n   o
2 × V × Vol ⃗k, c ⃗k ≤ ω
3
2V 43 π ωc V8πω 3
n= 3
= 3
=
(2π ) (2π ) 3 (2π )3 c3
La densité est donc
dn dn V8πω 2 2Vω 2
= 2π = 2π =
dν dω (2π )3 c3 πc3
On rappelle que d’après la mécanique quantique, chaque mode électromagnétique est peuplé de photons
et l’énergie d’un photon est E = h̄ω = hν, son impulsion est ⃗p = h̄⃗k. Ces photons sont des bosons, donc
d⟨ N ⟩
le nombre moyen dans chaque mode dn est donné par la distribution de Bose-Einstein (4.3.1). Et l’énergie
d⟨ N ⟩
s’obtient en multipliant l’énergie d’un photon par le nombre de photons donc l’énergie par mode est dn E.
On cherche u (ν) qui est la densité d’énergie en fréquence ν et par unité de volume. On écrit donc
  
1 d ⟨N⟩ 1 d ⟨N⟩ dn
u (ν) = E= E
V dν V dn dν
2Vω 2 2h̄ω 3
     
1 1 1
= (h̄ω ) =
V e βE − 1 πc3 e βE − 1 πc3
8πhν3
=  hν .
c3 e kT − 1
111 4.5. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE BOSE-EINSTEIN

4.5.2 Conséquences et applications de la loi de Planck


— A la surface du Soleil, le magma a la température T = 60000 K. Il émet un rayonnement de photons qui
suit la loi de Planck. Pour cette raison la couleur du Soleil est plutôt jaune. Le Diagramme Hertzsprung-
Russel relie la couleur des étoiles (leur température) avec leur âge, et leur masse. En hiver on observe
Bételgeuse qui est rouge avec une température de surface T = 3600K, Rigel qui est bleue avec T =
10 000K. L’été, Antares qui est rouge et Deneb qui est bleue.
— Dans un four, on peut avoir T = 6000 K. Cf p826-917 Diu et al. (1989) pour une barre de fer. Le forgeron
a des tables de couleurs, lui donnant la température, à partir de la couleur observée. (p204 Couture &
Zitoun (1992)).
— Le rayonnement fossile de l’univers suit la loi de Planck pour T = 2, 725K ± 0.002. Mais ce rayon-
nement n’est plus à l’équilibre thermique. Il était à l’équilibre thermique en étant couplé au plasma
contenu dans l’univers avec une température T = 3000K, lorsque l’univers avait 300 000 ans. Ensuite,
à cause de l’expansion de l’espace, le rayonnement s’est découplé de la matière et se propage de façon
libre, en conservant sa distribution initiale, mais ses longueurs d’ondes ont été étirée par un facteur
×1000.

4.5.3 Propriétés de la distribution de Planck (voir figure)


— Limites des basses fréquences : on a pour hν ≪ kT :

kT 2
ucl (ν) ≃ 8π ν
c3

c’est la Formule de Rayleigh-Jeans. Ce résultat s’obtient aussi en considérant le champs électromagné-


tique classique, qui est composé d’oscillateurs indépendants (champs E et B ), et en utilisant le théo-
rème d’équipartition de l’énergie, qui montre que il y a une énergie moyenne kT par oscillateur. Alors
ducl = [Link]. (dn est le nombre de oscillateurs, ci-dessus).
— Limite des hautes fréquences : on a pour hν ≫ kT :

h 3 − hν
u(ν) ≃ 8π ν e kT
c3

c’est la loi de Wien (1893) qui a trouvé cette décroissance exponentielle ; mais il lui manquait la constante
fondamentale h pour préciser cette décroissance. C’est une manifestation des photons en tant que par-
ticules. En effet, ce résultat se retrouve en utilisant la loi de Boltzmann, et en tenant compte de la quan-
tification de l’énergie par le photon : du = (hν) dn e− E/(kT ) .
— Fréquence du maximum de u(ν) : on calcule (voir TD)

kT
νmax ≃ 2, 821

la position du maximum est linéaire avec T : c’est la loi du déplacement de Wien déduit de l’étude
empirique des courbes expérimentales.
— Energie totale : pour un gaz de photons à l’équilibre, à la température T dans une enceinte de volume
V, l’énergie totale est (voir TD) :
Z +∞
E( T, V ) = V u(ν)dν
0
π 2 k4
= VT 4
15 h̄3 c3
= VσT 4

avec
π 2 k4
σ= = 5.67.10−8 J.m−3 .K −4
15 h̄3 c3

c’est la loi de Stephan-Boltzmann. Stephan (1879) avait observé la relation empirique E = VσT 4 , et
Boltzmann (1884) l’a obtenue par des arguments de thermodynamique (voir B.H. Bransden & C.J. Joa-
chain (1989, p.5)).
CHAPITRE 4. STATISTIQUES QUANTIQUES 112

4.5.4 Autres remarques


— Nous avons dérivé la loi de Planck, en supposant l’existence du photon, qui provient de la quantifica-
tion du champ électromagnétique (i.e. spectre discret d’énergie N (hν) pour chaque mode de fréquence
ν). Si la constante de Planck tendait vers 0, ce qui signifie que la quantification disparaît, et que le
champ est classique, alors l’énergie totale ci-dessus E( T, V ) diverge. La quantification du champ est
donc nécessaire pour expliquer l’existence d’un équilibre thermique entre matière et rayonnement. Au-
trement dit, le fait que le champ électromagnétique possède un nombre infini de degrés de liberté fait
que, s’il était classique, il absorberait toute l’énergie de la matière si celle ci a un nombre fini de degrés
de liberté. Si le champ doit être quantifié, la matière doit aussi être quantifiée. Autrement dit le modèle
classique de la physique possédant des champs n’est pas acceptable car il ne permet pas l’existence
d’états d’équilibres en physique statistique.
— Historique : Cette formule a été trouvée par Rayleigh dans le domaine des basses basse fréquences,
par théorème d’équipartition 12 kT appliquée au modes du champ classique. Puis Wien (1893) pour la
partie hautes fréquences, à partir de la distribution de Boltzmann (c’est une manifestation des photons
en tant que particule). Puis Planck en 1901 a trouvé la formule ci-dessus, en introduisant l’idée de
quantification de l’énergie électromagnétique. Einstein en 1905 introduit la notion de photon.
— Autre application de la loi de Bose : He4 superfluide : propriétés du condensat (cf ci-dessous). La loi
de Bose-Einstein se manifeste aussi dans les modèles de vibration d’un cristal : modèle de Einstein et
de Debye.

4.5.5 La condensation de Bose-Einstein


Référence : Diu et al. (1989).
Considérons maintenant une autre conséquence de la distribution de Bose Einstein (4.3.1) appelée la conden-
sation de Bose Eintein. Elle se manifeste dans des expériences récentes de condensats d’atomes froids, et cor-
respond récemment à plusieurs prix Nobel de physique. (Elle a aussi un lien avec la superfluidité, la supra-
conductivité, les faisceaux laser).

Système physique : Le système physique considéré est un ensemble d’atomes identiques à très basse tem-
pérature (10−7 K par refroidissement laser et évaporatif), appelés “atomes froids”, contenant un nombre pair
de protons et de neutrons. Par conséquent un nombre pair d’électrons. Ces atomes ont donc un spin entier
et sont des bosons, comme discuté en section [Link]. Par exemple l’Hélium 4 (2 protons et 2 neutrons). A la
différence des photons, les atomes sont de la matière et il y a des règle de conservation du nombre d’atome lors
des interactions. Dans les expériences (à basse énergie) le nombre total d’atome N est une quantité conser-
vée. N ≈ 103 à 106 . La densité est assez faible pour pouvoir négliger les interactions mutuelles en première
approximation.

Modèle : On va décrire un gaz de N atomes identiques qui sont des bosons de masse m > 0 de spin s
entier, à l’équilibre thermique, caractérisé par une température T ≥ 0 et un potentiel chimique µ.
On rappelle que le terme “gaz” signifie que dans ce modèle il n’y a pas d’interaction entre les particules.
Par ailleurs µ < ϵ0 où ϵ0 est le niveau d’énergie le plus bas pour un atome seul. On va supposer N ≫ 1
N
très grand et la densité de particules ρ = V fixée. On va noter Nn le nombre moyen d’atomes dans le niveau
d’énergie ϵn à une particule. On va s’intéresser à la proportion Nn /N dans la limite N ≫ 1.
On va aussi considérer des atomes libres dans une boite cubique de côté L, donc de volume V = L3 .
Ainsi, notant x = ( x1 , x2 , x3 ) avec x j ∈ [0, L], j = 1, 2, 3, les niveaux d’énergie à une particule sont φn ( x ) =
 x
  2
Π3j=1 sin πn j Lj avec n = (n1 , n2 , n3 ) ∈ (N\ {0})3 d’énergie ϵn = 2m 1 πh̄
L |n|2 . Ainsi l’écart entre l’état
 
2 h̄2
fondamental et le premier niveau d’énergie est ∆1 = ϵ1,0,0 − ϵ0 = π2 mL 2 .

On rappelle (TD2) la loi de Weyl


( )
(2s + 1) | p |2 (2s + 1) 4 3
n (ϵ) = 3
Vol ( x, p) t.q. ≤ϵ = 3
V π (2mϵ) 2
(2πh̄) 2m (2πh̄) 3

où s est le spin (entier) de chaque atome, et qui donne la densité moyenne d’états à 1 particule dans la boite
(on remplace ϵ par (ϵ − ϵ0 ) car n ≫ 1)
dn
= C (ϵ − ϵ0 )1/2

113 4.5. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE BOSE-EINSTEIN

avec
3/2
mL2

(2s + 1) (2s + 1) π
C = 1/2 2 2
=
2 π h̄ 4∆3/2
1

En effet

Proposition 4.5.2. (Einstein 1925). On définit la température de Bose TB par


 2/3
N
kTB = ,
CI

avec la constante numérique (ζ est la fonction zeta de Riemann)


Z +∞ √  
1 1/2 π 3
I= x −1
x dx = ζ ≈ 2, 31...
0 e 2 2

Dans la limite N ≫ 1, la proportion d’atomes N0 /N dans l’état fondamental d’énergie ϵ0 est nul pour T ≥ TB ,
mais pour T < TB , il y a “condensation dans l’état fondamental” :
 3/2
N0 T
= 1− ,
N TB

Pour les autres niveaux d’énergie ϵn > ϵ0 , la proportion Nn /N est toujours nulle.

Remarque 4.5.3. On peut écrire (comme dans la plupart des livres) :

2/3 !2/3
2πh̄2

N 1
kTB = = ρ 3
 .
CI m (2s + 1) ζ 2

Démonstration. Dans la preuve, on considère la limite N ≫ 1. Posons ∆0 = ϵ0 − µ > 0 et ∆1 = ϵ1 − ϵ0 ≥ 0. On


va traiter différents cas séparément.
1. On supposera
∆0 ≪ ∆1 ≪ kT.
kT
On a Nn = (ϵn −µ)1/(kT) pour chaque niveau n ≥ 0. On a N0 = 1
≈ ∆0 ≫ 1. Alors pour les
e −1 e∆0 /kT −1
niveaux supérieurs, i.e. |n| > 0, on a ϵn ≥ ϵ0 + ∆1 ,

1 1 kT kT kT
Nn = < (∆ +∆ )/(kT ) ≈ ≈ ≪ ≈ N0 .
e(ϵn −µ)/(kT ) − 1 e 1 0 −1 ( ∆1 + ∆0 ) ∆1 ∆0

Donc Nn /N ≪ N0 /N ≤ 1 et Nn /N peut être considérée comme nulle. On applique la loi de Weyl à


CHAPITRE 4. STATISTIQUES QUANTIQUES 114

partir des niveaux |n| ≥ 1, et en posant x = (ϵ − µ) / (kT ),

Z +∞
1
N ≈ N0 + C (ϵ − ϵ0 )1/2 dϵ
ϵ1 e(ϵ−µ)/(kT ) −1
Z +∞
1
= N0 + C (kT )3/2 ( x − ∆0 / (kT ))1/2 dx
(∆1 +∆0 )/(kT ) ex − 1
3/2
≈ N0 + C (kT ) I

Ainsi
N0 CI
≈ 1− (kT )3/2 .
N N

A la limite où il n’y a plus de condensation N0 /N = 0, la température de transition TB est donnée par

C (kTB )3/2
 2/3
N
0 = 1− I ⇔ kTB =
N CI

et on peut écrire
 3/2
N0 T
≈ 1− .
N TB

2. Si
kT ≪ ∆1 ,

N0
alors N ≈ 1.
3. Si
∆1 ≪ ∆0 ≪ kT

N0
alors N ≈ 0.

4.6 Exercices et problèmes corrigés sur la loi de Planck


Références : Couture & Zitoun (1992, chap.7), Diu et al. (1989, [Link],p.818,p.919), Balian (2007, Tome II,
chap.13, p.235). Les mots entourés de couleurs dans ce document pdf ont un hyperlien vers wikipedia.

4.6.1 Loi de Planck : gaz de photons à l’équilibre thermique


vidéo de la solution

[Link] Introduction

Soit un volume V fixé, qui contient un gaz de photons à l’équilibre thermodynamique à la température T
fixée. Cela signifie que ces photons sont en contact avec de la matière qui est à la température T, car il n’y a
pas d’interaction directe entre les photons pouvant donner l’équilibre thermique.
La distribution d’énergie de ces photons étudiée ici s’appelle la loi de Planck ou spectre du corps noir.
L’allure de ce spectre dépend de la température T. La position du maximum de ce spectre par rapport à
l’intervalle des fréquences visible explique la couleur apparente du gaz de photons.
115 4.6. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE PLANCK

Exemple 4.6.1.
— A la surface du Soleil (blanc-jaune), le magma a la température T = 60000 K. L’étoile Bételgeuse qui
est rouge a une température T = 2400K. L’étoile Bellatrix qui est bleue a la température de surface
T = 22000K.
— Dans un four, on peut avoir T = 6000 K. Cf Diu et al. (1989, p826-917) pour une barre de fer. Le forgeron
a des tables de couleurs, lui donnant la température, à partir de la couleur observée.
— Le rayonnement fossile de l’univers suit la loi de Planck pour T = 2, 725 K ± 0.002. Attention, ce gaz de
photons n’est pas à l’équilibre thermique car il ne subit plus d’interactions. Il ne s’agit donc pas d’une
“véritable température”.

[Link] Loi de Planck, 1900.


On va établir la loi de Planck qui donne la densité d’énergie u (ω ) (par intervalle de fréquence et par unité
de volume) d’un gaz de photons à l’équilibre thermique à la température T. Pour cela il faut considérer une
théorie quantique du champ électromagnétique (“théorie quantique des champs”).
2⃗
1. Considérant l’équation d’ondes pour le champ électromagnétique “classique” ∂∂tE2 = c2 ∆⃗E (idem pour
⃗B) appliqué à une onde plane ⃗E = ⃗E0 ei(⃗k.⃗x−ωt) déduire que la fonction Hamiltonien (aussi appelée
   
“relation de dispersion”) est ω ⃗x ,⃗k = c ⃗k sur l’espace des phases ⃗x ,⃗k ∈ R3 × R3 .
2. Une onde plane (ou champ classique) est comme un oscillateur harmonique classique de fréquence
ω. (Réf : Voir ce cours d’introduction, chap2, section 2.2.4, ou ce Martin & Rothen (1990)). D’après la
quantification du champ électromagnétique , il faut le décrire
 par
 un oscillateur harmonique quantique,
i.e. par des états quantique φω,N d’énergie Eω,N = h̄ω N + 12 où le niveau entier N ∈ N est appelé
le nombre de photons. Pourquoi peut-on dire que les photons sont des bosons ?
 
Eω,N
3. La loi de Boltzmann, stipule que l’état φω,N apparaît avec la probabilité P ( φω,N ) = Z1ω exp − kT .
R d⃗xd⃗k
Appliquant la mesure 3 sur les modes du champ classiques dans l’espace des phases, associée à
(2π )
la loi de Weyl et sans oublier les deux états de polarisations, montrer que l’énergie totale moyenne du
gaz de photons à température T définit par

d⃗x d⃗k
Z
⟨ E⟩ = 2
(2π )3
∑ Eω,N P ( φω,N )
N ≥0

peut s’écrire sous la forme Z ∞


⟨ E⟩ = V u T (ω ) dω
0
avec la densité d’énergie par unité de volume u T (ω ) dω que l’on explicitera. Exprimer la densité u0 (ω )
(à T = 0K) qui s’appelle densité d’énergie du vide. Montrer que la différence est
h̄ω 3 dω
v T (ω ) dω = (u T (ω ) − u0 (ω )) dω =  h̄ω 
π 2 c3 e kT − 1
CHAPITRE 4. STATISTIQUES QUANTIQUES 116

appelée loi de Planck.


4. Calculer l’énergie volumique du vide quantique électromagnétique dans l’intervalle de fréquence vi-
sible λ ∈ [0.4µm, 0, 8µm].

[Link] Le rayonnement du Soleil


Le rayonnement du Soleil a un spectre dont la composition est voisine de celle d’un “corps noir” de tem-
pérature T = 6000K.
1. On considère un élément de surface dS du Soleil. Déterminer la puissance rayonnée dW depuis cette
surface, dans l’angle solide dΩ, direction θ, en fonction de la densité volumique d’énergie u(ω )dω ? En
déduire 4 la radiance qui est la puissance totale rayonnée vers le demi-espace, par unité de surface.

dθ dΩ

dS

2. Déterminez la masse que le Soleil perd en 1 seconde ? Quel est le temps nécessaire pour que le Soleil
voit sa masse diminuer de 1% ?
3. En assimilant la Terre à un second corps noir, déterminez sa température d’équilibre sous l’effet du
rayonnement solaire ? 5
4. Pourquoi le Soleil qui est une sphère nous parait il être un disque d’intensité uniforme ?

[Link] Loi du déplacement de Wien


Balian (2007, vol2, p.219)
1. A partir de la loi de Planck (densité volumique d’énergie unité de fréquence), montrez que la fréquence
ωmax correspondant au maximum de la distribution spectrale de Planck varie comme αT où T est la
température du corps noir (loi de déplacement de Wien, 1896). Calculer 6 α. A quoi peut servir cette
loi ?
2. Trouvez maintenant la longueur d’onde λ̃max du maximum de la distribution de Planck en longueur
d’onde : densité volumique d’énergie par unité de longueur d’ondes. Exprimer e λmax à partir de λmax =
2πc/ωmax .
3. La température du soleil étant égale à 6000K, déterminez λmax et e
λmax du soleil. Conclusion ?

4.6.2 Nombre de photons par mètre cubes et “photons fossiles” dans l’univers
ref : Diu et al. (1989, p.222).Balian (2007, vol2, p.220, p.235)
Jusqu’à 300 000 ans après “la grande explosion” (le big bang), les photons de l’univers étaient en équilibre
thermique avec la matière, formant un “magma”. A cause de l’expansion, la température a diminuée ; à cette
date, elle était de 3000 K, et ensuite, les photons n’ont plus interagit avec la matière (essentiellement car il
n’y avait plus d’électrons libres), et cette population de photons distribuée selon la loi de Planck, et devenue
“fossile”.
1. On note u(ω ) la distribution de Planck de densité d’énergie, lorsque T = 3000K. Soit f > 0 le facteur
avec lequel l’univers s’est dilaté depuis cette date. Sachant que le nombre de photons s’est conservé
(car transformation adiabatique), établir la loi de distribution actuelle pour cette population fossile, et
montrer que c’est encore une distribution de Planck pour une température effective T ′ . Actuellement
des mesures précises de ce rayonnement montrent que T ′ = 2.728 ± 0.002 K. En déduire le facteur
d’expansion f .
R +∞ x3 dx π4
4. Utiliser : 0 e x −1 = 15 .
5. A.N. RSoleil = 0.7 106 km, R Terre = 6400km, d Terre−soleil = 1.5 108 km,Msoleil = 2 1030 kg
6. Aide : en posant x = h̄ω/(kT ), il faut résoudre x = 3(1 − e− x ), que l’on résout approximativement en posant x = 3 − ϵ.
h = 6, 62 10−34 J.s ; c = 3 108 m.s−1 ; k = 1, 38 10−23 J.K −1
117 4.7. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE FERMI-DIRAC

(a) : (b) :

F IGURE 4.6.1 – (Source: [Link]

2. A partir de la distribution de Planck, montrez que la densité volumique de photons d’un gaz de photons
à l’équilibre thermique à la température T, est égale 7 à n = 8 104 T 3 K −3 m−3 ? En déduire le nombre de
photons fossiles par cm3 actuellement ?
(a) Spectre mesuré par le satellite COBE.
(b) : The plane of the Milky Way Galaxy is horizontal across the middle of each picture. Sagittarius is in the center of the map, Orion
is to the right and Cygnus is to the left. The image just shows the reduced map (i.e., both the dipole and Galactic emission subtracted).
The cosmic microwave background fluctuations are extremely faint, only one part in 100,000 compared to the 2.73 degree Kelvin average
temperature of the radiation field. The cosmic microwave background radiation is a remnant of the Big Bang and the fluctuations are the
imprint of density contrast in the early universe. The density ripples are believed to have given rise to the structures that populate the
universe today : clusters of galaxies and vast regions devoid of galaxies.

4.7 Interprétations et applications de la distribution de Fermi-Dirac


Dans cette section on interprète la formule (4.3.2) donnant que le nombre moyen de fermions dans un état
à une particule d’énergie ϵn est
1
⟨ Nn ⟩ = β(ϵ −µ) ,
e n +1

Fermi distribution
1
⟨ N ⟩(ϵ) = e β ( ϵ − µ ) +1
∼ kT = 1/β

µ ϵ
1
où β = kT est relié à la température extérieure et µ est le potentiel chimique extérieur. On discute surtout
d’une application importante qui est la distribution des électrons dans les métaux et semi-conducteurs.

4.7.1 Interprétations
Il est habituel de définir
µ
θ F :=
k
appelée température de Fermi. Voici son interprétation
R +∞
7. On donne 0 x2 /(exp( x ) − 1)dx = 2.40.
CHAPITRE 4. STATISTIQUES QUANTIQUES 118

— Si kT ≪ µ ⇔ T ≪ θ F : La distribution de Fermi devient une ”marche d’escalier” positionnée à ϵ =


µ appelé le niveau de Fermi. Cela signifie que les niveaux d’énergie ϵn < µ contiennent ⟨ Nn ⟩ = 1
particule et les niveaux d’énergie ϵn > µ contiennent ⟨ Nn ⟩ = 0 particules. Seules les particules proches
du niveau de Fermi jouent un rôle, car ce sont les seules qui peuvent changer éventuellement d’état
par un petit changement d’énergie. On parle de gaz dégénéré de Fermions.
— Pour kT ≳ µ ⇔ T ≳ θ F , la distribution de Fermi est plus douce. Si ϵn < µ, alors ⟨ Nn ⟩ > 0.5 et le niveau
est plus souvent remplit que vide, sinon c’est le contraire. On appelle un trou l’absence de particule. La
distribution des trous est donc < troun >= 1− < Nn >.

4.7.2 Application de la distribution de Fermi : électrons dans un métal avec potentiel


constant
Dans le modèle de Sommerfeld des métaux, on considère seulement les électrons de valence (voir cours
de physique du solide). On considère le métal comme une “boite “ contenant des électrons libres. L’énergie
p2
d’une particule individuelle est donc E = 2m .

Proposition 4.7.1. Si le nombre de particules N et le volume V sont fixés, la densité de particules (d’électrons
libres) n = N
V est relié au potentiel chimique µ, à T = 0 par

h̄2  2 2/3
µ= 3π n (4.7.1)
2m

Démonstration. Cette relation s’obtient directement à partir de la formule de Weyl du comptage d’états (voir
TD2) dans l’espace des phases ( x, k) où x est la position dans un volume V et k ∈ R3 est le vecteur d’onde.
| p |2 2
L’impulsion 8 est p = h̄k ∈ R3 . L’énergie d’une particule libre est son énergie cinétique E = 2m = 2mh̄
k2 . A
T = 0, tous les niveaux d’énergie jusqu’à E = µ sont occupés par les N particules. La condition que l’énergie
est inférieure à µ, s’écrit
h̄2 2 2mµ 1/2
 
E≤µ⇔ k ≤ µ ⇔ |k | ≤ Rµ =
2m h̄2
2mµ 1/2
 
qui s’interprète comme le fait que le vecteur d’onde est dans une sphère de rayon Rµ = , appelée
h̄2
sphère de Fermi.
La loi de Weyl donne que le nombre d’état N d’énergie plus petite que µ est (le préfacteur 2 est pour
compter deux états de spins différents)
 
2 2 4
N ( E) = 3
Vol {( x, k) t.q.E ≤ µ} = 3
V πR3µ
(2π ) (2πh̄) 3
 3
V 2mµ 2
=
3π 2 h̄2

Donnant
2/3
h̄2

2N
µ= 3π .
2m V

[Link] Remarques :
p2
— Comme E = 2m ,à T = 0, dans l’espace des impulsions, les états occupés sont ceux d’impulsion | p| <
p
p F = 2mµ . p F s’appelle l’impulsion de Fermi. Ces impulsions forment la sphère de Fermi. A la
surface de cette sphère (surface de Fermi), les électrons ont une grande vitesse VF = p F /m ≃ 106 m/s
pour les électrons du Sodium !

8. on rappelle que en physique l’énergie est reliée à une fréquence par E = h̄ω et l’impulsion à une fréquence spatiale ou vecteur
d’onde par p = h̄k. C’est la définition de la constante de Planck.
119 4.7. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE FERMI-DIRAC

— Si on note N le nombre de particules considérées, et n le nombre d’états quantiques individuels, alors


pour connaître la densité de particules par intervalle d’énergie dN/dε, il faut multiplier la fonction
d’occupation de Fermi ⟨ Nn ⟩ = dN/dn par la densité de niveaux à une particule ρ(ε) = dn/dε

dN dN dn
= = ⟨ N ⟩ (ε)ρ(ε)
dε dn dε

[Link] Application numérique : le Sodium :


Ref : Diu et al. (1989, p.838), Guinnier p.96.
Dans le sodium, il y a un électron libre par atome (car c’est un alcalin. En fait il y a 11 électrons par atome,
et 10 d’entre eux sont liés, car ils sont dans des bandes internes. voir cours de physique du solide) donc la
densité est
N MN N M .N
n= = = vol = ... = 2.62.1022 e − /cm3
V VN M Mmol
où N est le nombre d’Avogadro. On a
me = 9.3110−31 kg
D’après (4.8.3),
µ = 3eV
donc

θF = µ/k = 35000K

à température
q ambiante, Tmetal ≪ θ F . La vitesse de Fermi, (i.e. vitesse des électrons au niveau de Fermi) est
2kθ F 6
VF = m = 10 m/s.

[Link] Remarques :
— Ces résultats sont très différents de l’idée que à T = 0 les vitesses sont nulles.
— Le principe d’exclusion de Pauli explique en particulier que l’on ne pénètre pas le plancher, car les
électrons du plancher et de la chaussure s’excluent !
— A température ordinaire, pour un métal, on a T ≪ θ F : donc les électrons forment un gaz dégénéré.
CHAPITRE 4. STATISTIQUES QUANTIQUES 120

— Pour He3 liquide : m HE3 est 104 plus lourd que me donc θ F = 2, 7K et µ = 10−4 eV.
— Pour les noyaux nucléaires : θ F très élevé, car m lourd mais la densité n est très élevée. Donc T ≪ θ F .
Les nucléons forment donc un gaz dégénéré.
— Pour les étoiles à neutrons : gaz de neutron à volume ∞, voir TD.
— Pour les étoiles naines blanches : T = 107 K ≪ θ F , voir Diu et al. (1989, p.794), voir TD.
— Notion de pression quantique , voir Diu et al. (1989, p.785, p.659).

4.8 Exercices et problèmes corrigés sur les électrons dans les métaux
4.8.1 Expansion de Sommerfeld
vidéo de la solution.
Diu et al. (1989, p.787), Balian (2007, Tome2, p.41).
Ce premier problème concerne la distribution de Fermi-Dirac et établie une formule bien utile pour la suite,
dans le régime de basse température. La distribution de Fermi-Dirac donne le nombre moyen de Fermions
dans un état individuel d’énergie ϵ (voir TD 8) :

1
N (ϵ) =
e β(ϵ−µ) + 1

où µ est le potentiel chimique et β = kT 1


. A basse température T → 0 i.e. β → ∞, cette fonction converge vers
la fonction indicatrice 1]−∞,µ] de l’intervalle ] − ∞, µ]. On cherche à établir la première correction à cette limite.
Montrer que pour toute fonction 9 fixée u (ϵ) on a la formule suivante appelée expansion de Sommerfeld
valable si β → ∞ :
π2 ′
 
1
Z Z µ
u (ϵ) N (ϵ) dϵ = u (ϵ) dϵ + 2 u (µ) + O (4.8.1)
−∞ 6β β3
R +∞ 2
où le reste dépend de u. Aide : 0 1+xex dx = π12 d’après ici.
Remarque 4.8.1. cela signifie que au sens des distributions (voir TD 1)

π2 ′
 
1
N (ϵ) = 1]−∞,µ] − δ +O (4.8.2)
6β2 µ β3

où δµ′ est la dérivée de la distribution de Dirac en µ définie par ⟨δµ′ |u⟩ = −u′ (µ).

4.8.2 Capacité calorifique des électrons d’un métal


Vidéo de la solution.
1. Quelle est la loi empirique de Dulong-Petit (1810) concernant la capacité calorifique molaire des maté-
riaux ? Quelle est l’explication à ce résultat ? (voir TD5)
2. On considère un bloc de métal de volume V contenant des électrons libres. Dans le modèle de Drude-
Lorentz des métaux (1900), les électrons sont des particules classiques. Quelle serait la contribution des
électrons à la capacité calorifique du cristal dans ce modèle ? est-ce acceptable ?
3. Pour un électron libre, utiliser la formule de Weyl (voir TD2) pour montrer que le nombre d’états
quantiques φn possibles d’énergie inférieure à ϵ dans ce volume V est n (ϵ) = αϵ3/2 avec α à préciser
(ne pas oublier les deux états de spins possibles de l’électron). En déduire l’expression de la densité des
états quantiques ρ (ϵ) = dn
dϵ à l’énergie ϵ et tracer l’allure de cette fonction.
4. On considère maintenant N électrons indépendants dans le métal 10 . Ce sont des Fermions. Rappeler
l’expression de la distribution de Fermi donnant le nombre moyen d’électron Nn dans chaque état φn
1
à une particule, en fonction de β = kT et du potentiel chimique µ (voir TD8). Déduire l’expression du
nombre total N d’électron et de l’énergie totale E comme une intégrale sur ϵ, dépendant de β, µ, ρ (ϵ).
Remarquer que si on considère N comme fixé, cela impose une relation entre µ et β, autrement dit le
potentiel chimique µ ( T ) est fonction de la température. On va expliciter cette fonction plus loin.

9. Plus précisément pour toute fonction u ∈ Cc∞ (R) lisse à support compact, appelée fonction test en théorie des distributions
10. Cela se justifie par la théorie du liquide de Fermi
121 4.9. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES ÉTOILES NAINES BLANCHES

5. En particulier, à température T = 0, déduire la relation entre le potentiel chimique µ (0) aussi appelé
énergie de Fermi, et la densité électronique ν = N V (nombre d’électrons par unité de volume). Calculer
µ (0) pour le Sodium 11 et la vitesse des électrons situés à l’énergie de Fermi µ (0).
6. A température non nulle mais faible, i.e. si βµ ≫ 1, utiliser la formule d’expansion de Sommerfeld
(4.8.1) et l’expression de N obtenue en (4) pour montrer que le potentiel chimique µ dépend de T selon
!
T 2 π 2 k2  
µ ( T ) = µ (0) 1 − + O T3 (4.8.3)
12 (µ (0))2

Aide : N est fixé et utiliser un développement de Taylor de µ ( T ) en T = 0 et de n (ϵ) en ϵ = µ (0).


7. Utiliser l’expression de E obtenue en (4), la formule d’expansion de Sommerfeld (4.8.1) et (4.8.3) pour
déduire la capacité calorifique molaire des électrons

dE   NA k 2 π 2
Ce := = γT + O T 2 , γ=
dT 2µ (0)

8. Calculer le coefficient γ pour le Sodium, et la valeur de Ce à température ordinaire T = 300K et com-


parer à la loi de Dulong Petit. La capacité calorifique des atomes du réseau cristallin (phonons) se
comporte comme C p = aT 3 pour T → 0 (voir Modèle de Debye, TD5). Montrer que la contribution
électronique est alors importante et mesurable en dessous d’un certaine température Tc . Calcul de Tc
pour le Sodium ?

4.8.3 (Optionnel) Paramagnétisme de Pauli


Vidéo de la solution.
Référence : cours de Yves Quéré, Ecole polytechnique, page 67.
On se demande quel est le magnétisme M d’un métal lorsqu’il est soumis à un champ magnétique extérieur
B. Précisément, quelle sera la susceptibilité magnétique χ, telle que M = χB. Ce sont les électrons libres du
métal qui sont responsables de cet effet.
1. (Rappels du problème 4.8.2) On suppose B = 0. Pour un électron libre dans le métal, utiliser la formule
de Weyl (voir TD2) pour montrer que pour chaque état de spin ± 21 , le nombre d’états quantiques φn
possibles d’énergie inférieure à ϵ dans ce volume V est n (ϵ) = α2 ϵ3/2 avec α à préciser. En déduire
l’expression de la densité des états quantiques ρ (ϵ) = dn
dϵ à l’énergie ϵ.
2. Soumis au champ magnétique B (selon z) un électron de spin s = ±1/2 possède une énergie d’interac-
tion supplémentaire
∆E = −2µ B sB
eh̄
où µ B = 2m est le magnéton de Bohr. Calculer |∆E| pour B = 1 Tesla. Montrer que ∆E ≪ µ (0). Donner
la nouvelle expression de n± (ϵ) à partir de n (ϵ) = α2 ϵ3/2 .
3. On suppose T = 0. Dessiner l’allure des courbes ρ± (ϵ) avec l’énergie de Fermi µ (0). Déduire que la
différence du nombre d’états occupés est

n+ (µ (0)) − n− (µ (0)) ≃ 2 |∆E| ρ (µ (0))

4. Sachant qu’un électron a un moment magnétique 2µ B s, déduire l’aimantation M et sa susceptibilité


magnétique χ0 , en fonction de e, h̄, m, µ (0) . Application numérique pour un volume V = 1m3 ?
5. (Optionnelle) On suppose T > 0. Donner l’expression de la susceptibilité χ T en fonction de la tempé-
rature T ? (Aide : utiliser la même démarche que dans le problème 4.8.2)

4.9 Exercices et problèmes corrigés sur les étoiles naines blanches


4.9.1 Scénario d’évolution d’une étoile
explications en vidéo. Les mots entourés de couleurs dans le texte ont un hyperlien vers wikipedia. Les
données numériques sont en bas de page. 12
e−
11. Valeurs numériques pour le Sodium : ν = 2, 62 .1028 m3
, m = 9, 31 .10−31 kg, h̄ = 1, 055 . 10−34 J.s, e = 1, 6.10−19 C, k =
1, 38.10−23 J.K −1 , R = NA k = 8, 31J/K, a = 27 J.K−4 .m−3
12. Données :
CHAPITRE 4. STATISTIQUES QUANTIQUES 122

Pour une étoile de masse comparable à celle du soleil, contenant essentiellement de l’hydrogène qui est
un combustible pour des réactions de fusion nucléaire, l’équilibre thermodynamique implique un rayon de
l’ordre de R ∼ 106 km, pendant des milliards d’années. Plus précisément, la fusion de l’hydrogène donne
de l’Hélium. Après épuisement du combustible Hydrogène, une partie de la matière de l’étoile est éjectée,
donnant une nébuleuse planétaire qui servira de berceau à de nouvelles étoiles (notre Soleil serait déjà de la
3ème génération, fille de l’étoile Coatlicue). En son cœur, le plasma qui ne produit plus de radiation s’effondre
sous l’attraction gravitationnelle jusqu’à un rayon limite de l’ordre de R ∼ 5000km, comparable à celui de la
Terre. Ce qui détermine ce rayon est que les électrons sont des Fermions et ne peuvent donc occuper tous le
même état. Dans ce TD, le but est d’étudier le gaz d’électrons contenus dans cette étoile résiduelle appelée
naine blanche pour déduire le rayon d’équilibre R. Ensuite, après plusieurs milliards d’années, l’étoile naine
blanche cessera de rayonner et deviendra une “étoile naine noire” invisible et errant dans la galaxie (de telles
étoiles n’existent pas encore).

Le schéma suivant montre les scénarios d’évolution d’une étoile selon sa masse initiale. Si la masse de
l’étoile est plus importante que celle du Soleil, l’énergie gravitationnelle sera telle que les électrons peuvent
disparaître dans la réaction endothermique e− + p+ → n + νe , donnant une étoile à neutrons. Les neutrons
obtenus sont aussi des Fermions mais de masse plus élevée que celle des électrons et ainsi le rayon d’une étoile
à neutron est plus faible R ∼10km. Pour des masses encore plus importantes, l’étoile à neutron n’est pas stable
sous l’effet de l’attraction gravitationnelle dominante et l’espace temps se “déchire”, donnant un trou noir de
rayon R ∼ 1km.

4.9.2 Etude d’un gaz d’électrons relativistes


vidéo de la solution.
On aura besoin de traiter un gaz d’électrons dans le régime relativiste, i.e. de vitesse comparable à la vitesse
de la lumière c. On va obtenir l’ expression de l’énergie totale U en fonction de N, V et à température T = 0K.
Cela sera utile pour le problème suivant.

m He = 4g/mole ,
NA = 6, 02.1023 ,
G = 6, 67.10−11 m3 .kg−1 .s−2 ,
me c2 = 8, 2.10−14 J,
hc = 2.10−25 J.m
k = 1, 38.10−23 J.K −1
123 4.9. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES ÉTOILES NAINES BLANCHES

1/4
H ′ (α)

F IGURE 4.9.1 – (a) Photographie prise le 15 octobre 2003 par le télescope spatial Hubble de l’étoile Sirius B qui
est une naine blanche. (b) Graphe de la fonction H ′ (α). On a limα→∞ H ′ (α) = 14 .

1. On considère un électron libre dans un volume V dont l’état est caractérisé par sa position ⃗q son impul-
sion ⃗p et son spin. Utiliser la formule de Weyl (voir TD2) pour montrer que le nombre d’états quantiques
possibles dont l’impulsion est de module inférieure à p ≥ 0 donné est n ( p) = ap3 avec a à préciser en
fonction de V, h̄.
2. On suppose maintenant que N électrons libres et indépendants sont dans le volume V (i.e. on né-
glige les interactions entre les électrons). Quels sont les états occupés à T = 0 K ? On appelle impul-
sion de Fermi p F l’impulsion maximale des états occupés. Donner l’expression de V en fonction de
p
N, h̄, me , c, α F = meFc et relier α F avec la densité d’électrons N
V.
3. En relativité, l’énergie totale ϵ d’un électron de masse me est donnée par l’équation

ϵ2 − p2 c2 = m2e c4 (4.9.1)

→ p
où p = p est le module de l’impulsion. On pose α = me c . Exprimer ϵ en fonction de α, me , c. Exprimer
 2 −1/2
le facteur de Lorentz γ = 1 − vc ≥ 1 à partir de α.
RN
4. Soit U = 0 ϵdn l’énergie totale du gaz des N électrons relativistes à T = 0 K. Déduire une expression
p
de U qui fait intervenir m, c, N, α F = meFc ainsi que la fonction que l’on ne cherchera pas à expliciter :
x 1/2
H ( x ) = x13 0 y2 1 + y2
R 
dy, dont la dérivée est représentée en Figure 4.9.1(b).

4.9.3 Application à l’étude des naines blanches


vidéo de la solution.

1. Une naine blanche est une étoile vieille, constituée essentiellement d’hélium 4 He, de masse M voisine
de la masse du Soleil M ≃ MS = 2, 0.1030 kg. La température interne de l’étoile est de l’ordre de T ∼
107 K. L’hélium est complètement ionisé et on peut considérer que l’étoile est formée de N électrons
libres et N/2 noyaux d’hélium (de masse : m He = 4g/mole ≫ me ) qui neutralisent la charge des
électrons (et maintiennent la cohésion de l’étoile par interaction gravitationnelle). Exprimer la masse
de l’étoile M en fonction de N et calculer N si M = MS ?
2. On justifiera à la fin du problème la nécessité de décrire les électrons par la relativité, et d’autre part
que l’approximation T ≈ 0K est valable. On le suppose pour le moment. Utilisant le problème (1-2),
exprimer le volume V puis le rayon R de l’étoile en fonction de N, α F puis de M, α F ?
3. L’énergie totale E = Eg + U de l’étoile est la somme de l’énergie gravitationnelle d’une sphère homo-
gène
3 M2
Eg = − G
5 R
et de l’énergie cinétique U des électrons étudiée en (1-4) (l’énergie cinétique des noyaux et l’énergie
électrostatique étant négligeables). Mettre E sous la forme :
E = −C1 α F + C2 H (α F )
où C1 et C2 sont des constantes que l’on calculera. Ainsi l’énergie de l’étoile E est exprimée à partir du
paramètre sans dimension α F qui lui même est relié à R. Le graphe de H ′ (α) est représenté sur la Figure
4.9.1 (b).
CHAPITRE 4. STATISTIQUES QUANTIQUES 124

C1
4. L’étoile est dans la configuration qui minimise E. Mettre cette condition sous la forme H ′ (α F ) = C2 et
C1
montrer que C2 ∼ 0.17.
5. Déduire graphiquement la valeur de α F puis du rayon R de l’étoile à l’aide de (2).
6. Etait-ce nécessaire d’utiliser la description relativiste ? Calculer l’énergie de Fermi µ0 à l’aide de (3) et
comparer à kT. Conclusion sur la validité de l’approximation T ≈ 0K ?
7. Tracer l’allure de E (α) selon C1 /C2 et discuter. Montrer que les naines blanches ne peuvent avoir une
masse supérieure à une masse limite MC (masse de Chandrasekhar) que l’on exprimera en fonction de
MS . Discuter.
Troisième partie

Systèmes en interactions

125
Chapitre 5

Phases et transitions de phases

5.1 Introduction
5.1.1 Phases de la matière
Dans la nature, la matière est constituée de particules, d’atomes et molécules qui s’organisent selon diffé-
rentes “phases”, dépendant des conditions du milieu :
— Gaz : si les molécules sont “libres”. Cela signifie que chaque molécule a une énergie suffisante pour
pouvoir s’échapper (se libérer) de l’attraction exercée par les autres.
— Liquide si les molécules subissent des interactions attractives entre elles, et ont une énergie pas suf-
fisante pour se libérer, mais suffisante pour se déplacer par rapport aux autres. Gaz et liquide sont
appelés “fluides”.
— Solide si les molécules subissent des interactions attractives entre elles mais n’ont pas assez d’énergie
pour se déplacer et sont donc figées près d’une certaine position moyenne. Dans la plupart des cas la
configuration des molécules est périodique, appelée cristal.
— Plasma : si les atomes sont ionisés (i.e. noyaux atomiques seuls), les électrons sont libres et il y a aussi
un gaz de photons. L’ensemble du plasma est neutre électriquement. Le soleil et autres étoiles du même
type sont un plasma.
— Condensat de Bose : des atomes de spin entier (bosons) dans un état de superposition quantique.
— Supraconductivité : dans un matériau, les électrons s’assemblent en “paires de Cooper” qui circulent
sans dissipation. Chaque paire est un boson, et ces bosons sont dans un état de condensat.
— En cosmologie, on imagine que les champs élémentaires du modèle standard de la physique des parti-
cules sont en fait des phases de champs plus fondamentaux, apparus après le big bang, lors du refroi-
dissement de l’univers. Voir Phase Transitions in the Early Universe .
— En économie ou sociologie, attention ce ne sont pas des sciences exactes, il y a des tentatives d’appli-
quer des analyses de physique statistique. Ex : livre de Oded Galor qui évoque que la société humaine
qui a évolué depuis des milliers d’années est actuellement dans une “transition de phase”, mesurée par
la richesse par individus. Article de BRUCE M. BOGHOSIAN, POUR LA SCIENCE N° 507 / Janvier
2020 / p.61, qui évoque que les différentes classes sociales sont comme des phases qui coexistent, aussi
mesurée par la richesse par individus.
Dans la formation de l’état solide, les atomes peuvent se trier. Par exemple dans le manteau terrestre, à haute
températures, il y a du magma qui contient des liquides et gaz dissous. Avec le temps les atomes se trient et
s’assemblent pour former par exemple :
— De la silice SiO2 formant 60% de la croûte terrestre. La température de fusion de la silice est Tfusion =
1713C°, la température d’ébullition est Tfusion = 2700C° (il fait 3500°C à la limite supérieure du noyau),
et à température ambiante, la silice se cristallise sous forme quartz ou se présente sous la forme du
verre qui est un solide amorphe (structure désordonnée).
— Le calcaire ou carbonate de calcium CaCO3 . A température ambiante, le calcaire se cristallise sous
forme Calcite qui est un cristal stable, ou Aragonite, cristal instable (τ = 108 ans), bio-synthétisé (nacre
des coquillages), ou Vaterite, etc..
— Les argiles, sous forme de feuillets complexes, (début de la vie) ?

5.1.2 Transitions de phase


On appelle transition de phase, lorsque la matière change de phase. Il peut y avoir coexistence de phases,
par exemple gaz et liquide, liquide et solide etc., voici le diagramme de phase de l’eau, H2 O :

127
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 128

L’huile d’olive a une température de solidification, fusion à T = 14C ◦ :

La lave volcanique en refroidissant peut produire des “orgues volcaniques” dont les directions sont ortho-
gonales aux courbes de niveau de la température.

5.1.3 Coexistence de phases


Voir cette simulation [Link]

5.2 Modèle d’Ising du ferromagnétisme


Dans cette section on présente un modèle simple d’interactions entre moments magnétiques disposés sur
un réseau en dimension 1 ou 2 ou plus, appelé le modèle d’Ising. Ce modèle est un des modèles les plus
simples pour étudier les transitions de phase. Il a joué (et continue de jouer) un rôle historique important en
science. Voir Friedli & Velenik (2017).
Lorsque la température varie, il y a une variation des propriétés d’aimantation du système, avec une phase
aimantée à basse température vers une phase non aimantée à haute température. Cette variation de l’aiman-
tation est continue avec la température mais non dérivable en dimension supérieure ou égale à 2 (sur un
réseau infini), où l’aimantation moyenne est strictement nulle si la température est supérieure à une certaine
température Tc appelée température critique.
129 5.2. MODÈLE D’ISING DU FERROMAGNÉTISME

5.2.1 Définition du modèle


Soit N ≥ 1 entier qui est la taille du réseau. On considère le réseau de 1 Λ = (Z/ ( NZ))2 c’est à dire de
taille N × N et périodique. Chaque site est noté X = ( x, y) ∈ Λ et possède une variable f X = ±1 qui modélise
un moment magnétique ou spin up ou down. Une configuration notée 2 f = ( f X ) X ∈Λ ∈ {−1, +1}Λ est un
choix f X = ±1 pour chaque point X ∈ Λ du réseau.
2
Remarque 5.2.1. il y a donc N 2 sites et chaque site X ∈ Λ a deux états possibles f X = ±1, donc il y a 2 N
2
configurations possibles. Par exemple pour N = 5, cela donne 25 ≈ 33 106 configurations possibles.
Soit B ∈ R donné qui correspond à un champ magnétique extérieur. On note X ∼ Y si X, Y sont proches
voisins (chaque site a 4 proches voisins). L’énergie de la configuration f est définie par

E ( f ) := ∑ ∑ (− f X . f Y ) + ∑ B f X (5.2.1)
X Y tq X ∼Y X

L’aimantation de la configuration f est définie par


1
M ( f ) :=
N2 ∑ fX ∈ [−1, +1] (5.2.2)
X

Remarque 5.2.2. Pour deux sites voisins, X ∼ Y, si f X = f Y alors leur énergie mutuelles est (− f X . f Y ) = −1
et sinon (− f X . f Y ) = +1. Ainsi si le champ extérieur B = 0 est nul, alors les deux configurations où tous
les spins sont égaux sont les deux configurations d’énergie minimale du système, appelé état fondamental,
correspondent respectivement à
1. f X = +1, ∀ X ∈ Λ, donnant E ( f ) = ∑ X ∑Y tq X ∼Y (−1) = −4N 2 et M f = +1,
2. f X = −1, ∀ X ∈ Λ, donnant E ( f ) = −4N 2 et M f = −1.
On suppose que le système est en contact avec un réservoir à la température T fixée (i.e. il échange de
l’énergie avec ce réservoir d’énergie). On notera
1
β= .
kT
D’après la loi de Boltzmann Gibbs, la probabilité d’une configuration f est
1 − βE( f )
p(f) = e . (5.2.3)
Z
Ainsi l’aimantation moyenne est
⟨ M⟩ p = ∑ M(f) p(f). (5.2.4)
f ∈{−1,+1}Λ

Remarque 5.2.3. L’objectif est de calculer cette aimantation moyenne ⟨ M ⟩ p en fonction de la température β et
éventuellement du champ extérieur B. En fait ce calcul exact est impossible en dimension plus grande que 2
et très difficile en dimension 2 (mais facile en dimension 1). La difficulté vient des termes de “couplage” f X . f Y
dans l’énergie (5.3.1). Cette énergie apparaît dans l’exponentielle de la probabilité (5.2.3).
Dans la suite on va présenter :
1. une méthode numérique de l’aimantation, appelée méthode de Monte-Carlo
2. une méthode approximative qui consiste à calculer l’aimantation pour une expression de p ( f ) simpli-
fiée qui ne présente pas de terme de couplage, appelée méthode du champ moyen,
 √ 
3. un calcul exact de la température critique βexact
c = 14 ln 1 + 2 ≈ 0.22 donnée par la méthode de
Kramers-Wannier (1941) qui est un argument de dualité. Il faut savoir que L. Onsager a obtenu en 1944
l’expression exacte de l’énergie libre pour le modèle d’Ising sur Z2 , Friedli & Velenik (2017, p.132), Yvan
Velenik. Le modèle d’Ising. DEA. 2009. cel-00392289.
La figure 5.3.1 présente un résultat numérique pour B = 0 (en fait B > 0 très petit, proche de 0 dans le calcul) :
A température assez basse (ou β ≫ 1), on observe un état collectif où les moment magnétiques ont une
aimantation totale moyenne non nulle (ici positive), donc une aimantation du matériau. Au dessus d’une cer-
taine température appelée “transition” ou température critique, ici β < β c ≈ 0.2, l’aimantation totale moyenne
est nulle. On va aussi étudier l’effet d’un champ magnétique extérieur B sur l’aimantation du matériau.
1. On rappelle que Z/ ( NZ) est l’ensemble des entiers Z modulo N. Ainsi Z/ ( NZ) = {0, 1, . . . N − 1} et avec la règle que ( N − 1) +
1 = 0.
2. Rappel : en mathématiques, si A, B sont deux ensembles, on note B A l’ensemble des applications f : A → B.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 130

F IGURE 5.2.1 – Résultat numérique de la méthode de Monte-Carlo pour le modèle d’Ising. Configurations
prises au hasard pour les paramètres β = 0.1 (désordre, aimantation nulle), β = 0.21 (transition de phase) et
β = 0.3 (ordre magnétique, aimantation non nulle). Aimantation M = N12 ∑ X f X en fonction de β.

5.2.2 Dynamique probabiliste de Markov d’un réseau de spins (Monte Carlo)


Dans cette partie on présente un modèle de dynamique du réseau de spin définit précédemment, qui
évolue vers l’état d’équilibre de Boltzmann. Cet algorithme permet de calculer numériquement l’aimantation
moyenne et d’observer la transition de phase.

[Link] Algorithme de Monte-Carlo


On considère le modèle suivant de dynamique probabiliste des configurations f (t) du réseau en fonction
du temps t ∈ N discret. La configuration f (t + 1) à la date t + 1 s’obtient à partir de la configuration f (t) à la
date t par les règles suivantes. On note f = f (t).
1. on choisit un site X ∈ Λ au hasard (avec probabilité uniforme, donc chaque site X a la probabilité 1
N2
d’apparaître). On note f ′ la configuration identique à f sauf que le spin du site X est retournée :
(
′ fY si Y ̸= X
fY =
− f X si Y = X

2. Si E ( f ′ ) < E ( f ) alors on pose f (t + 1) = f ′ .


′ )− E ( f ))
3. Si E ( f ′ ) ≥ E ( f ) alors on on choisit f (t + 1) = f ′ avec la probabilité e− β(E( f et on reste sur l’état

f avec la probabilité complémentaire 1 − e− β(E( f )− E( f )) .

[Link] Dynamique de Markov


On peut reformuler cet algorithme comme étant une dynamique probabiliste de Markov comme définie
Λ
en
 section  1.6.1. Ici l’espace des états est l’espace des configurations possibles {−1, +1} et la matrice M =
M f ′ , f ′ de transitions f → f ′ a pour éléments de matrices :
f ,f
1. si f et f ′ ont au moins deux spins différents alors M f ′ , f = 0
2. sinon, si f et f ′ ont tous les spins identiques sauf en un site X où f X = − f X′ alors
— Si E ( f ′ ) < E ( f ) alors M f ′ , f = N12 .
1 − β( E( f ′ )− E( f ))
— Si E ( f ′ ) ≥ E ( f ) alors M f ′ , f = N2
e et à M f , f on ajoute

1  ′

2
1 − e− β(E( f )−E( f )) .
N

La somme de ces deux contributions est N12 .


 
On vérifie que cette matrice M = M f ′ , f ′ est stochastique car à f fixé,
f ,f

1 1
∑′ M f ′ , f = ∑ N2
= ∑ N2
=1
f ′
f cas 2 X ∈Λ
131 5.2. MODÈLE D’ISING DU FERROMAGNÉTISME

On démontre en TD que cette matrice est mélangeante et que l’état d’équilibre est la mesure de probabilité de
Boltzmann-Gibbs (en fait on a choisit la dynamique pour cela) :
1 − βE( f )
p(f) = e .
Z
Ainsi d’après le théorème de Perron Frobenius, le système évolue vers cet état d’équilibre avec un écart
qui décroît exponentiellement vite, i.e. comme e−t/τ avec un temps caractéristique τ ( β) qui dépend de la
température.

5.2.3 Méthode variationnelle du champ moyen dans le modèle d’Ising (Curie-Weiss)


Référence : Balian (2007, Tome 1, p.427, p264,p301), Friedli & Velenik (2017).
On considère à nouveau le modèle d’Ising (5.3.1) mais en généralisant un petit peu. On suppose donnée
une fonction de couplage
V : X ∈ Λ → R+ .
L’énergie d’une configuration est

E ( f ) := ∑ ∑ (−V ( X − Y ) f X . f Y ) + ∑ B f X (5.2.5)
X Y, Y ̸= X X

Dans l’exemple (5.3.1), la fonction couplage est V ( X − Y ) = 1 si X ∼ Y et V ( X − Y ) = 0 sinon.


On souhaite calculer l’aimantation moyenne (5.2.4) pour la mesure de probabilité de Boltzmann-Gibbs
(5.2.3) p ( f ), mais ce calcul est trop difficile (ou impossible) alors on va utiliser une mesure approchée p x0 ( f )
plus simple pour lequel le calcul est possible, et que l’on va d’abord déterminer (optimiser) grâce au principe
variationnel s’inspirant de la proposition 3.6.1.

[Link] Famille variationnelle et calcul de l’énergie libre


On va définir de façon arbitraire une famille de mesures de probabilité ( p x ) x∈R dépendant d’un paramètre
x ∈ R donné. Pour une configuration f ∈ {−1, +1}Λ et un site X ∈ Λ, on définit la probabilité
1 x fX
p̃ x ( f X ) = e (5.2.6)
z
et une constante de normalisation
z = e x + e− x .
On définit ainsi la mesure de probabilité produit

p x ( f ) = Π X ∈Λ p̃ x ( f X ) (5.2.7)
1
qui signifie l’indépendance statistique des sites entre eux. Pour x, T fixés (rappel β = kT ), on calcule l’énergie
moyenne ⟨ E⟩ px , l’entropie S ( p x ) et on déduit l’énergie libre (voir exercice de TD)

FT ( x ) := ⟨ E⟩ px − TS ( p x )
 
= ... = N −v tanh2 ( x ) + B tanh x + kT ( x tanh x − ln 2 − ln cosh x )

avec
v= ∑ V (X)
X,X ̸=0

et N est le nombre total de sites.

[Link] Recherche du minimum de FT ( x )


Le principe variationnel suggère de chercher la distribution de probabilité p x , donc le paramètre x ∈ R,
qui minimise l’énergie libre FT ( x ).
On écrit
dFT
( x0 ) = 0,
dx
et cela donne x0 solution de
1
tanh x0 = (kTx0 + B)
2v
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 132

qui est une équation transcendante. La résolution graphique montre qu’il y a une température critique

2v
Tc := ,
k
et
— si T > Tc alors x0 ( T ) = 0
— si T < Tc alors il y a deux solutions, qui sont pour T proche de Tc ,
 1/2
3k
x0 ( T ) = ± ( Tc − T ) (5.2.8)
2v

[Link] Aimantation moyenne


Pour le paramètre x0 obtenu qui minimise l’énergie libre dans la famille variationnelle, on calcule l’aiman-
tation moyenne (5.2.4) pour la mesure de probabilité p x0 (T ) (voir TD). Pour B = 0, on obtient

1
⟨ M⟩ px = ∑ M ( f ) p x0 (T ) ( f ) = ... = kTx0 ( T )
0 (T )
f
2v
√  T 1/2

= ± 3 1−
(5.2.8) Tc

où la dernière ligne est pour T proche de Tc . On obtient l’allure de la figure 5.3.1. Dans le modèle (5.3.1), on a
1
v = 4 donc β c = kT1 c = 2v = 18 = 0.125.

[Link] Interprétation de l’approximation comme un champ moyen


La famille variationnelle de mesures de probabilité choisie (5.2.7) a la particularité d’être un produit de
mesures sur chaque site, signifiant que l’on ne considère pas les corrélations entre sites. D’après la remarque
5.2.3 il y a des termes de corrélations dans la mesure de Boltzmann à cause des termes de couplages dans
l’énergie. Ces effets de corrélations sont donc simplement ignorés (en fait ils ne sont pas négligeables) dans
cette approche variationnelle.
Mais c’est cela qui a permit d’effectuer le calcul. Précisément, dans le calcul de l’énergie libre on avait un
terme (la première égalité vient du fait que c’est une mesure produit)
 
* +  
∑ XY ∑ X Y ∑ X ∑ Y
 
f f V ( X − Y ) = ⟨ f ⟩ ⟨ f ⟩ V ( X − Y ) = ⟨ f ⟩  ⟨ f ⟩ V ( X − Y ) 

X,Y X,Y X Y 
| {z }
BX

qui s’interprète comme l’interaction d’un site X avec les autres sites Y agit comme un champ magnétique
effectif BX obtenu par la contribution des moyennes ⟨ f Y ⟩ des autres sites voisins. Pour cette raison, cette
approximation s’appelle aussi approximation du champ moyen.

5.2.4 Dualité de Kramers-Wannier pour le modèle d’Ising 2D (1940)


Nous présentons ici l’argument de symétrie de Kramers-Wannier de 1940, qui permet de calculer la valeur
exacte de la température critique pour le réseau carré Z2 pour B = 0 :

1  √ 
βexact
c = ln 1 + 2 ≈ 0.22..
4
Ensuite en 1944, Onsager a effectué le calcul exact de l’énergie libre de ce même modèle, ce qui permet de
déduire toutes les grandeurs thermodynamiques.
Pour le modèle d’Ising dont l’énergie d’une configuration est f

E(f) = − ∑ f X fY
X ∼Y

Voici les étapes de l’argument de Kramers-Wannier (voir détails en TD).


5.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES TRANSITIONS DE PHASE EN
133 FERROMAGNÉTISME

— La mesure de probabilité de Boltzmann est

1 − βE( f )
p(f) = e
Z
1
avec β = kT et la constante de normalisation

Z ( β) = ∑ e−βE( f ) .
f

— La température critique recherchée β c est une valeur de β donnant des grandeurs thermodynamique
singulières (non dérivabilité, divergente, etc) donc pour laquelle la fonction β → Z ( β) est non analy-
tique (i.e. n’admet pas une expression en série entière convergente). Plus précisément, par définition
une transition de phase est dite :
— transition de phase du premier ordre si Z ( β) n’est pas continue (pas C0 ) en β c .
— transition de phase du deuxième ordre si Z ( β) est continue mais pas différentiable (pas C1 ) en β c .
etc
— On considère le réseau carré fini Λ = (Z/ ( NZ))2 . A partir de l’observation qu’une configuration f (ici
points noirs/blancs) est uniquement associée à un ensemble d’arêtes sur le réseau dual noté E ∈ E (Λ∗ ),
formant des courbes fermées (ici en bleu) et représentant les parois de domaines d’aimantation :

= +1
= −1
Λ
Λ∗
on déduit deux expressions différentes pour la fonction β → Z ( β), en utilisant le fait que le réseau
carré est self-dual.
1. Une série appelée « High Temperature » car convergente dans la limite thermodynamique N → +∞,
pour β assez petit, notée

Z HT ( β) = lim (cosh β)|E(Λ)| 2|Λ| ∑ (tanh β)|E| ,


N →+∞
E∈E (Λ∗ )

où E (Λ) est l’ensemble des arêtes et |E (Λ)| le cardinal.


2. Une série appelée « Low Temperature » car convergente pour β assez grand est notée
 | E|
Z LT ( β) = lim e β|E(Λ)| ∑ e−2β .
N →+∞
E∈E (Λ∗ )

On suppose que ces séries divergent à une certaine valeur β c que l’on suppose unique. Cela implique

tanh β c = e−2β c ,

donnant
1  √ 
βc = ln 1 + 2 ≈ 0.44
2

5.3 Exercices et problèmes corrigés sur les transitions de phase en ferro-


magnétisme
Introduction
— Dans le problème 1 on observe numériquement une transition de phase dans le modèle ferromagné-
1
tique d’Ising. C’est à dire que pour β = kT ≫ 1 l’aimantation moyenne ⟨ M⟩ est non nulle (i.e. les spins
sont parallèles) alors que pour β ≪ 1 l’aimantation moyenne est nulle car les spins sont désordonnés.
Voir Figure 5.3.1.
— Dans le problème 2 on montre “le principe variationnel” de portée générale en physique statistique :
la mesure de Boltzmann p B est celle qui minimise la fonctionnelle énergie libre F ( p) parmi toutes les
mesures de probabilités p.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 134

— Dans le problème 3 on se sert du principe variationnel pour calculer de façon approchée l’aimantation
moyenne ⟨ M⟩ non pas pour la mesure de Boltzmann p B car le calcul est impossible, mais pour une
mesure p x0 approchée qui est choisie en minimisant F ( p x ) parmi un ensemble restreint de mesures
( p x ) x choisies de sorte à ce que la moyenne ⟨ M⟩ px est calculable. Ici ce choix est appelé “approximation
du champ moyen” ou méthode de Weiss. Cette méthode variationnelle est fondamentale en physique
statistique mais aussi en physique quantique.
Voir ce document, cette expérience.

5.3.1 (optionnel) Méthode de Monte-Carlo pour le modèle d’Ising


Vidéo de la solution.
Références : voir le cours suivant sur la dynamique de Markov. Programme en c++.
Soit N ≥ 1 entier qui est la taille du réseau. On considère le réseau 3 Λ = (Z/ ( NZ))2 de taille N × N et
périodique. Chaque site est noté X = ( x, y) ∈ Λ et possède une variable f X = ±1 qui modélise un spin up ou
down. Une configuration f = ( f X ) X ∈Λ est un choix f X = ±1 pour chaque point X ∈ Λ du réseau. Soit B ∈ R
donné qui correspond à un champ magnétique extérieur. On note X ∼ Y si X, Y sont proche voisins. L’énergie
de la configuration f est
E ( f ) := ∑ ∑ (− f X . f Y ) + ∑ B f X (5.3.1)
X Y tq X ∼Y X

1. Combien y a t-il configurations f possibles ? Si B = 0, quelle(s) configuration(s) donnent l’énergie


minimale ?
2. On fait évoluer les configurations f de façon aléatoire et selon un temps discret n ∈ N selon l’algo-
1
rithme d’évolution suivant appelé méthode de montecarlo. Soit β ≥ 0 paramètre fixé qui est β = kT .
On part d’une configuration f (n = 0) choisie au hasard. Etant donnée une configuration f = f (n) à
la date n, on obtient la configuration f (n + 1) de la façon suivante. On choisit un site X ∈ Λ au hasard
de façon uniforme, et on note f ′ la configuration identique à f sauf au site X où la valeur est opposée :
f X′ = − f X .
— Si E ( f ′ ) < E ( f ) on choisit la configuration f (n + 1) = f ′
— Si E ( f ′ ) ≥ E ( f ) on choisit la configuration f (n + 1) = f ′ avec la probabilité exp (− β ( E ( f ′ ) − E ( f )))
et on choisit f (n + 1) = f avec la probabilité complémentaire.
Exprimer simplement E ( f ′ ) − E ( f ) et écrire l’algorithme. Voir Figure 5.3.1.
 
3. Cet algorithme définit donc une matrice de probabilités de transitions L = L f ′ , f ′ appelée matrice
f ,f
de Markov (voir TD1). Exprimer les éléments de matrice L f ′ , f .
(a) Montrer la matrice L est stochastique, c’est à dire si ∑ f ′ L f ′ , f = 1, ∀ f et si L f ′ , f ≥ 0; ∀ f , f ′′ .
(b) Montrer que la matrice L est réversible (ou vérifie le principe de balance détaillée) c’est à dire qu’il
existe un vecteur p appelé état d’équilibre tel que L f ′ , f p f = L f , f ′ p f ′ , ∀ f , f ′ où p est précisément la
mesure d’équilibre de Boltzmann-Gibbs

1
p(f) = exp (− βE ( f )) .
Z
Montrer que L réversible implique l’invariance de la mesure p : Lp = p.
(c) Montrer que la matrice L est mélangeante, c’est à dire que ∃n ≥ 1, ∀ f , f ′ , ( Ln ) f ′ , f > 0. D’après
le théorème de Perron-Frobenius, les trois propriétés précédentes impliquent que la dynamique
va converger exponentiellement vite vers l’état d’équilibre p (avec un temps caractéristique τβ qui
dépend de β).

5.3.2 Le principe variationnel


vidéo de la solution.
1. On considère n états d’énergie ϵ1 ≤ ϵ2 . . . ≤ ϵn et une mesure de probabilité quelconque sur ces états
notée p = ( p1 , p2 . . . pn ) avec pi ≥ 0 et ∑in=1 pi = 1. L’énergie moyenne pour cette mesure est notée

3. On rappelle que Z/ ( NZ) est l’ensemble des entiers Z modulo N. Ainsi Z/ ( NZ) = {0, 1, . . . N − 1} et avec la règle que ( N − 1) +
1 = 0.
5.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES TRANSITIONS DE PHASE EN
135 FERROMAGNÉTISME

F IGURE 5.3.1 – Résultat numérique de la méthode de Monte-Carlo pour le modèle d’Ising. Configurations
prises au hasard pour les paramètres β = 0.1 (désordre), 0.21 (transition de phase) et 0.3 (ordre magnétique).
Aimantation M = N12 ∑ X f X en fonction de β.

⟨ E⟩ p := ∑i pi ϵi et l’entropie de la mesure est S ( p) = − ∑in=1 pi ln pi . On introduit la fonctionnelle


suivante sur les mesures de probabilités

F ( p) := ⟨ E⟩ p − S ( p)

1 − ϵi
appelée énergie libre. Montrer 4 que F est minimale pour la mesure de Boltzmann pi = Ze , ∀i avec
Z = ∑i e−ϵi constante de normalisation, et que la valeur minimale est

F = − ln Z

2. On note k la constante de Boltzmann. On suppose la température T, la pression p et un potentiel


chimique µ fixés. A chaque état i possible du système on associe maintenant son énergie Ei , son vo-
lume Vi , son nombre de particules Ni et on note l’entropie S ( p) = −k ∑in=1 pi ln pi , l’énergie moyenne
⟨ E⟩ p := ∑i pi Ei , le volume moyen ⟨V ⟩ p := ∑i pi Vi , le nombre moyen de particules ⟨ N ⟩ p = ∑i pi Ni .
Déduire de (1) que les fonctionnelles

FT ( p) = ⟨ E⟩ p − TS ( p) : énergie libre

GT,p ( p) = ⟨ E⟩ p + p ⟨V ⟩ p − TS ( p) : enthalpie libre

JT,µ ( p) = ⟨ E⟩ p − µ ⟨ N ⟩ p − TS ( p) : grand potentiel


E Ei + pVi Ei −µNi
1 − kTi 1 − 1 −
sont minimales respectivement pour les mesures d’équilibres pi = Ze , pi = Ze
kT , pi = Ze
kT

et les valeurs respectives sont −kT ln Z.


Remarque 5.3.1. Par exemple en Thermo-chimie, un système chimique peut échanger de l’énergie et du volume
(il évolue à température T et pression p fixés) et donc l’équilibre chimique correspond au minimum de G.

5.3.3 Méthode variationnelle du champ moyen dans le modèle d’Ising (Curie-Weiss)


vidéo de la solution.
Référence : Balian (2007, Tome 1, p.427, p264,p301), Friedli & Velenik (2017), Velenik (2009, chap.5).
On considère à nouveau le modèle d’Ising (5.3.1) mais en généralisant un petit peu :

E ( f ) := ∑ ∑ (−V ( X − Y ) f X . f Y ) + ∑ B f X (5.3.2)
X Y, Y ̸= X X

où V ( X ) > 0 est une fonction de couplage donnée. On note M ( f ) := ∑ X f X l’aimantation de la configuration


f . On souhaiterait calculer l’aimantation moyenne ⟨ M ⟩ P := ∑ f p ( f ) M ( f ) et la capacité calorifique C ( T ) =
d⟨ E⟩ P E( f )
dT avec ⟨ E⟩ P = ∑ f p ( f ) E ( f ) avec p ( f ) = Z1 e− kT la mesure de probabilité de Boltzmann. Le calcul est trop
difficile (ou impossible) alors on ne va pas utiliser la mesure de Boltzmann p ( f ) mais une mesure approchée
p x0 ( f ) que l’on va d’abord déterminer grâce au principe variationnel.
4. Utiliser la méthode des multiplicateurs de Lagrange qui consiste à résoudre dF = λdΣ avec Σ ( p) = ∑i pi et λ ∈ R.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 136

1. Pour x ∈ R, on choisit d’utiliser la mesure de probabilité p x ( f ) := 1 xM( f )


Ze qui a la simplicité d’être un
produit de mesures identiques
p x ( f ) = ∏ p̃ x ( f X )
X ∈Λ
1 x fX
avec p̃ x ( f X ) = ze et z que l’on calculera. Pour x, T fixés on définit l’énergie libre FT ( x ) := ⟨ E⟩ px −
TS ( p x ) où S ( p x ) := −k ∑ f p x ( f ) ln p x ( f ) est l’entropie. Montrer que ⟨ f X ⟩ p̃x = tanh x, puis

FT ( x ) = N −v tanh2 ( x ) + B tanh x
+kT ( x tanh x − ln 2 − ln cosh x ))

avec v = ∑ X,X ̸=0 V ( X ) et N est le nombre total de sites.


0 (kTx + B)
2. A T fixé, montrer que FT ( x ) est minimum en x0 vérifiant tanh x0 = 2v . Si B = 0, résoudre graphi-
quement cette équation et tracer l’allure de x0 ( T ) puis de FT ( x ). Observer qu’il y a une bifurcation à la
température Tc = 2vk appelée température critique ou température de Curie.Comparer β c = kT1 c avec
√ 
la valeur numérique obtenue à l’exercice 1 et à la valeur exact βexact c = 14 ln 1 + 2 ≈ 0.22 donnée
par la méthode de Kramers-Wannier. Donner l’expression de x0 ( T ) pour | T − Tc | ≪ 1.
3. Pour cette mesure de probabilité p x0 à B = 0, calculer et étudier l’aimantation moyenne ⟨ M ⟩ en fonction
de T, près de la température critique Tc .
4. Pourquoi appelle t-on la mesure de probabilité p x0 l’approximation du champ moyen ? Quelles carac-
E( f )
1 −
téristiques statistiques supplémentaires possède la distribution de Boltzmann p B ( f ) := Ze
kT ?

5.3.4 (optionnel) Dualité de Kramers-Wannier pour le modèle d’Ising 2D (1940)


Références : Friedli & Velenik (2017, p.132), Yvan Velenik. Le modèle d’Ising. DEA. 2009. cel-00392289.
On présente un argument de symétrie de Krammer-Wannier (1941) 5 qui permet de calculer la valeur exacte
de la température critique
1  √ 
βexact
c = ln 1 + 2 ≈ 0.44
2
 2
Z
pour la transition de phase dans le modèle 2D du modèle d’Ising sur le réseau Λ = NZ de taille N × N et
périodique, pour N → ∞ dans la situation sans champ externe (B = 0).
On rappelle que l’énergie d’une configuration f ∈ {−1, 1}Λ est

E ( f ) := ∑ (− f X . f Y ) (5.3.3)
X ∼Y

où X ∼ Y signifie que X, Y sont des sites voisins. Ce réseau Λ peut être considéré comme un graphe dont les
sommets sont les sites et les arêtes sont les paires e = {e1 , e2 } de deux sites voisins e1 = X ∼ e2 = Y. On notera
E (Λ) l’ensemble de ces arêtes. Ainsi on peut écrire l’énergie d’une configuration

E(f) = ∑ (− f e1 . f e2 ) .
e ∈E( Λ )

1
La loi de Boltzmann donne la probabilité d’une configuration f à la température β = T :

1
p(f) = e− βE( f ) ,
ZΛ ( β)

où la constante de normalisation ZΛ ( β) appelée fonction de partition du réseau Λ à la température β est telle


que ∑ f ∈{−1,1}Λ p ( f ) = 1. La température critique recherchée β c est une valeur de β donnant des grandeurs
thermodynamique singulières (non dérivabilité, divergente, etc) donc pour laquelle la fonction β → ZΛ ( β)
est non analytique (i.e. n’admet pas une expression en série entière convergente). Plus précisément, par défi-
nition une transition de phase est dite :
— transition de phase du premier ordre si Z ( β) n’est pas continue (pas C0 ) en β c .
— transition de phase du deuxième ordre si Z ( β) est continue mais pas différentiable (pas C1 ) en β c . etc
5. Ensuite Onsager en 1944 a réalisé le calcul exact de l’énergie libre.
5.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES TRANSITIONS DE PHASE EN
137 FERROMAGNÉTISME

1. Montrer l’égalité ∀ β ∈ R, ∀ f X , f Y ∈ {−1, +1},

e β f X fY = cosh β (1 + f X f Y tanh β)

2. Montrer que ZΛ ( β) peut s’écrire

ZΛ ( β) = (cosh β)|E(Λ)| ∑ (tanh β)|E| ∑ ∏ ( f e1 f e2 )


E ⊂E( Λ ) Λ
f ∈{−1,1} e∈ E

où |E (Λ)| est le cardinal (nombre d’éléments) de E (Λ) et E ⊂ E (Λ) désigne un sous ensemble quel-
conque d’arêtes. Exemple :

E ∈ E( Λ )
3. On note

E (Λ) := { E ⊂ E (Λ) , t.q. chaque sommet


X ∈ Λ apparait un nombre pair de fois}

Exemple de configuration E ∈ E (Λ) :

E ∈ E (Λ)
Montrer que
ZΛ ( β) = (cosh β)|E(Λ)| 2|Λ| ∑ (tanh β)|E| . (5.3.4)
E∈E (Λ)

Aide : on montrera au préalable que pour un ensemble d’arêtes E ⊂ E (Λ) fixé, si le sommet a ∈ Λ
apparaît un nombre impair de fois alors ∑ f ∈{−1,1}Λ ∏e∈E ( f e1 f e2 ) = 0.
4. On note Λ∗ le graphe dual de Λ : les sommets de Λ∗ sont le centre des faces de Λ et les arêtes de Λ∗
croisent une arête de Λ :

Λ
Λ∗

On note
Φ : f ∈ {−1, +1}Λ → E ∈ E (Λ∗ )
l’application qui sélectionne les arrêtes de Λ∗ séparant deux valeurs +1, −1 différentes de f , par exemple 6 :

= +1
= −1
Λ
Λ∗

6. Remarquer la ressemblance avec les territoires et les frontières en fin de partie dans le jeu de GO. See [Link]
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 138

Observer que f X f Y = 1 − 21 f X ̸= fY où 1 f X ̸= fY = 1 si f X ̸= f Y et 1 f X ̸= fY = 0 sinon. Déduire que pour


une configuration f donnée
∑ f X fY = |E (Λ)| − 2 |Φ ( f )|
X ∼Y
Observer que Φ est une bijection et obtenir une nouvelle expression de ZΛ ( β) :
 | E|
ZΛ ( β) = e β|E(Λ)| ∑ e−2β (5.3.5)
E∈E (Λ∗ )

5. On a obtenu deux expressions de Z ( β). La première (5.3.4) appelée « High Temperature » car conver-
gente dans la limite thermodynamique N → +∞, pour β assez petit, notée
HT
ZΛ ∗ ( β) = lim (cosh β)|E(Λ)| 2|Λ| ∑ (tanh β)|E| ,
N →+∞
E∈E (Λ∗ )

et la deuxième (5.3.5) appelée « Low Temperature » car convergente pour β assez grand est notée
 | E|
LT
ZΛ ( β) = lim e β|E(Λ)| ∑ e−2β .
N →+∞
E∈E (Λ∗ )

Si il y a une transition de phase, ces expressions vont diverger à une certaine valeur β c (car sinon Z ( β)
serait analytique et les grandeurs thermodynamiques aussi) et que l’on suppose unique. De plus, le
graphe carré considéré est self-dual Λ = Λ∗ . D’après les expressions ci-dessus, cela implique 7

tanh β c = e−2β c .

Déduire que
1  √ 
βc = ln 1 + 2 ≈ 0.44
2

5.4 Modèle BCS : transition de phase en supraconductivité


5.4.1 Introduction
Le phénomène de super conductivité est un phénomène physique très surprenant : en dessous d’une cer-
taine température Tc appelée température critique et généralement très basse, certains métaux n’ont plus au-
cune résistance aux courants électriques (circulation de charges sans aucune dissipation). Ces propriétés font
que les matériaux supraconducteurs sont très utilisés en technologie, pour créer de forts champs magnétique,
pour l’effet Josephson, etc.
D’un point de vue microscopique, il apparaît que ces propriétés découlent de la présence d’un gap en
énergie E0 au dessus de l’état fondamental pour des température assez basse T < Tc du système constitué
par le gaz d’électrons. Il y a une transition de phase à T = Tc et l’état supraconducteur (ce gap) disparaît pour
T > Tc . Voir tableau 5.1.

E0 E0 ED
Elément T° critique(K) Tc gap (K) k rapport kTc Debye (K) Θ D = k
Al 1.196 4.06 3.4 394
Zn 0.875 2.8 3.2 234
Sn 3.72 13.02 3.5 170
Pb 7.19 30.917 4.3 88

TABLE 5.1 – Exemples de matériaux supraconducteur, température critique Tc en Kelvin (K), énergie du gap
E0 qui sépare l’état fondamental des états excités en K, énergie de Debye des vibrations du réseau en K.

Remarque 5.4.1. Habituellement, un gap spectral est une propriété d’un opérateur Hamiltonien qui ne dépend
pas de la température T. Alors, qu’elle est la signification ici d’un gap qui dépend de la température ? On verra
que c’est un “gap effectif” pour un modèle effectif sans interaction mais qui dépend de T et prédit les même
observables que le modèle initial avec interactions qui ne dépend pas de T.
7. Plus généralement on a une relation de dualité tanh β∗ = e−2β entre les températures sur les réseau Λ et Λ∗ .
139 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ

E0
Dans cette section, on verra que le modèle BCS prédit le rapport universel = 2π
kTc eγ ≈ 3.53 bien observé ici
(avec la constante de Euler γ := limn→∞ ∑nk=1 n1 − ln n ≈ 0.57. L’existence de ce gap se manifeste dans le fait
que la capacité calorifique s’annulle très vite pour T → 0 (idem modèle d’Einstein) et se manifeste aussi dans
des expériences d’absorption d’ondes électromagnétiques.

F IGURE 5.4.1 – (a) Lévitation d’un aimant à basse température, il n’y a pas de dissipation grâce à l’état
supraconducteur. (b) Gap en énergie dans différent supraconducteurs, comparé à la prédiction BCS ∆ ( T ),
eq.(5.5.12).

Histoire : (voir Combescot & Shiau (2015), chap.6). L’effet supraconducteur a été découvert expérimentale-
ment en 1911 par Heike Kamerlingh Onnes. Ensuite Meissner et Ochsenfeld 1933 ont observé que le champ
magnétique est expulsé du matériau supraconducteur. London 1935, puis Ginzburg et Landau 1950, ont pro-
posé un modèle phénoménologique. En 1950, Fröhlich a suggéré que les électrons peuvent s’apparier en
paires, à cause d’une force attractive effective entre eux, via le réseau des atomes.
Le premier modèle microscopique démontrant l’existence d’un gap spectral au dessus de l’état fondamen-
tal a été proposé en 1957 par Bardeen,Cooper,Schrieffer appelé modèle BCS. Les calculs ont été améliorés par
Bogoliubov 1958, Gorkov 1958.
Dans cette section on présente ce modèle. L’effet Josephson a été prédit en 1962 à partir de la théorie BCS.
Remarque 5.4.2. Ce modèle BCS est basé sur l’appariement des électrons en paires d’électrons ayant des im-
pulsions opposées ( p, − p) et formant un état stable collectif appelé condensat de Bose. Ce phénomène d’ap-
pariement se retrouve dans d’autres domaines de la physique, par exemple pour expliquer la superfluidité
de l’He3, ou la stabilité de certaines noyaux nucléaires (appariement de paires de nucleons), les condensats
d’atomes froids, etc, voir Martin & Rothen (1990).
Ce qui suit est basé sur le livre Couture & Zitoun (1992), chap 15.3. Voir aussi Combescot & Shiau (2015),
chap.6, chap.9.

5.4.2 Modèle d’un métal comme gaz d’électrons libres


Comme dans la section 4.7.2, on considère au départ les électrons dans un métal comme un gaz de N
électrons libres dans un volume V. A basse température, on a vu que dans l’espace des impulsions d’un
électron, p ∈ R3 , les états à un électron occupés sont p ∈ R3 tel que

| p |2
Ecin ( p) = ≤µ (5.4.1)
2m
l’intérieur de la « sphère de Fermi », avec µ le potentiel chimique et m la masse d’un électron. En appliquant la
loi de Weyl, on a déduit que le niveau de Fermi µ est donné par (4.8.3) :
2/3
h̄2

2N
µ= 3π
2m V
Ainsi l’état fondamental du gaz d’électrons libres est la configuration où tous les états à un électron dans la
sphère de Fermi sont occupés par un électron et les états hors de la sphère sont inoccupés.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 140

p2 p3
p
x2 p′ p

p′ p2
p1
p1 Fermi’s sphere
x1

F IGURE 5.4.2 – Représentation de deux ondes planes ou modes de Fourier ψ p ( x ) = eipx/h̄ dans l’espace réel
où les fonctions sont délocalisées et dans l’espace de Fourier (ou espace réciproque) où ce sont des points.

5.4.3 Base de l’espace de Fock Fermionique et opérateurs de création/annihilation


Dans ce paragraphe on revient sur la description de l’espace Fermionique F des électrons définit en section
4.2 et on reformule l’état fondamental à l’aide d’opérateurs dans cet espace F .
Les électrons sont des Fermions, cela signifie que le nombre d’électron dans chaque état d’impulsion p ∈
R3 décrivant une particule est N ( p) ∈ {0, 1}. On a vu qu’une configuration du système à plusieurs particules
est caractérisée par la donnée simultanée de toutes les valeurs d’occupation que l’on notera
N (.) := ( N ( p)) p∈R3 .

Autrement dit N (.) est une fonction N (.) : p → N ( p) aussi appelé champs classique en physique.
Remarque 5.4.3. Dans la suite, pour être rigoureux, il faudrait remplacer la mesure d3 p par la mesure de Liou-
ville
V
dµ ( p) = d3 p
(2πh̄)3
R d3 pd3 x
qui est la mesure induite par la loi de Weyl dµ = V 3.
(2πh̄)

Exemple graphique : On considère 3 ondes plane p, p′ , p′′ , et p, p′′ sont occupées par un électron, p′ n’est
pas occupé. L’état est donc noté N (.) = |1, 0, 1⟩ :

p2
p′′ p′ p′
x2 p′′
p
p
p1

x1

En mécanique quantique, d’après le principe de superposition, les différentes configurations possibles


N (.) forment une base orthonormée de l’espace vectoriel quantique F des états possibles, appelé espace de
Fock Fermionique. On notera | N (.)⟩ le vecteur normalisé de base associé au champs classique N (.). Ainsi un
vecteur quelconque de F est une superposition (ou combinaison linéaire) de ces états de base :

ψ= ∑ CN (.) | N (.)⟩ ∈ F, CN (.) ∈ C.


N (.)

On appelle ψ un champs quantique. Les vecteurs de base | N (.)⟩ sont des champs quantiques particuliers.
Parmi ces vecteurs de base il y a le champs N ( p) = 0, ∀ p, où tous les états sont vides. On l’appelle état du
vide, noté |0⟩. Ne pas confondre le vecteur nul 0 avec l’état du vide |0⟩ = |0, . . . , 0⟩ qui est un vecteur de base
de F de norme 1.
Dans le modèle des électrons libres et indépendants, l’énergie est formée seulement par l’énergie cinétique
et chaque configuration | N (.)⟩ a une énergie qui est la somme des énergie cinétiques individuelles Ecin ( p) =
| p |2
2m : Z
E N (.) = N ( p) Ecin ( p) d3 p.
R3
141 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ

On peut décrire cela par un opérateur énergie cinétique Ĥcin. dans cet espace F définit par le fait que les
vecteurs de base | N (.)⟩ sont des vecteurs propres, de valeur propre EN (.) :

Ĥcin. | N (.)⟩ = EN (.) | N (.)⟩

De même le nombre total d’électron dans l’état | N (.)⟩ est


Z
NN (.) = N ( p ) d3 p
R3

et on peut définir l’opérateur nombre de particules N̂ définit par :


N̂ | N (.)⟩ = NN (.) | N (.)⟩
Pour une valeur µ ∈ R donnée du potentiel chimique, on définit alors l’opérateur appelé Hamiltonien
grand canonique
ĤGC := Ĥcin. − µ N̂
et on a
ĤGC | N (.)⟩ = ϵ′N (.) | N (.)⟩
avec la valeur propre
  Z
ϵ′N (.) := EN (.) − µNN (.) = N ( p) ϵ′ ( p) d3 p,
R3

| p |2
ϵ′ ( p) := Ecin ( p) − µ =
−µ (5.4.2)
2m
On rappelle que N ( p) ∈ {0, 1}. L’état fondamental de ĤGC , i.e. le vecteur propre | N (.)⟩ de valeur propre
minimale, est celui pour lequel

N ( p) = 1 si ϵ′ ( p) < 0 ⇔ Ecin ( p) < µ


N ( p) = 0 si ϵ′ ( p) > 0 ⇔ Ecin ( p) > µ
correspondant donc à la sphère de Fermi (5.4.1) des états occupés.
Remarque 5.4.4. Jusqu’à présent, dans ce cours, on n’avait pas insisté sur cette vision d’espace de Fock car
jusqu’alors on a considéré des électrons libres et il n’était pas nécessaire de considérer ces combinaisons li-
néaires et ces opérateurs dans l’espace de Hilbert F . Dans la suite, on va considérer des interactions entre les
électrons et il deviendra nécessaire d’utiliser ce formalisme pour décrire les états propres du Hamiltonien Ĥ
avec interactions.
On introduit maintenant d’autres opérateurs qui n’ont pas directement de sens physique mais qui seront
utile pour décrire l’opérateur Hamiltonien et les termes d’interaction qu’il contient.

Définition 5.4.5. Pour une impulsion p ∈ R3 fixée,


— l’opérateur de création a†p : F → F est définit par son action sur un vecteur de base (voir
schéma ci-dessous)
(
† ′ ′ ′
 N ( p′ ) pour p′ ̸= p
si N ( p) = 0, a p | N (.)⟩ = | N (.)⟩ avec N p =
1 pour p′ = p
si N ( p) = 1, a†p | N (.)⟩ = 0.

Autrement dit, cet opérateur a†p fait apparaître un électron dans l’état p si il n’y en avait pas et
donne le vecteur nul sinon.
— De même on définit l’opérateur d’annihilation a p : F → F par
(
N ( p′ ) pour p′ ̸= p
si N ( p) = 1, a p | N (.)⟩ = | N ′ (.)⟩ avec N ′ p′ =

0 pour p′ = p
si N ( p) = 0, a p | N (.)⟩ = 0.

Autrement dit, cet opérateur a p fait disparaître un électron dans l’état p si il y en avait un et
donne le vecteur nul sinon.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 142

Exemple 5.4.6. quelques exemples d’action des opérateurs de création sur les vecteurs de base | N (.)⟩ =
| N1 , N2 ⟩ avec N1 , N2 ∈ {0, 1}. C’est un espace de dimension 2 × 2 = 4 et 0 désigne le vecteur nul.

a1† | N (.)⟩ a2 a1† | N (.)⟩ a1† a1 + a2† a2 | N (.)⟩



| N (.)⟩ a1 | N (.)⟩
|0, 1⟩ |1, 1⟩ 0 |1, 0⟩ 1 × |0, 1⟩
|1, 0⟩ 0 |0, 0⟩ 0 1 × |1, 0⟩
|0, 0⟩ |1, 0⟩ 0 0 0 = 0 × |0, 0⟩
|1, 1⟩ 0 |0, 1⟩ 0 2 × |1, 1⟩

Lemme 5.4.7. L’opérateur a†p est l’adjoint de a p c’est à dire que

⟨u| a†p v⟩ = ⟨ a p u|v⟩, ∀u, v ∈ F .

On a les expressions Z
Ĥcin. = Ecin ( p) a†p a p d3 p (5.4.3)
R3
Z
N̂ = a†p a p d3 p
R3
Z
ĤGC = ϵ′ ( p) a†p a p d3 p
R3

L’état fondamental de ĤGC dans F s’écrit


 

|ψfond. ⟩ =  ∏ a†p  |0⟩


p t.q. Ecin ( p)<µ

où |0⟩ est l’état | N (.)⟩ tel que N ( p) = 0, ∀ p, appelé état du vide.

Démonstration. Il suffit de vérifier ces relations sur les vecteurs de base | N (.)⟩. Par exemple on observe que

a†p a p | N (.)⟩ = N ( p) | N (.)⟩.

Remarque 5.4.8. Le formalisme qui consiste à utiliser des opérateurs de création/annihilation dans l’espace
de Fock F s’appelle “quantum many-body problem”, “second quantization”, “quantum field theory” et est à
la base de la physique (quantique) depuis les années 1930. Il y a de nombreux ouvrages conseillés, Martin &
Rothen (1990), Peskin & Schroeder (1995)Blaizot & Ripka (1986), Negele & Orland (1998), etc.

5.4.4 Interactions entre électrons et Hamiltonien B.C.S.


On va s’intéresser maintenant à l’interaction entre deux électrons. On ne mentionne pas le spin bien qu’il
soit important. Les paires d’électrons considérées sont dans l’état singulet (spin total nul). On considère une
interaction (i.e. collision) entre deux électrons ayant des impulsions respectives p1 , p2 ∈ R3 avant la collision
et p1′ , p2′ ∈ R3 après la collision.

Paires de Cooper : On souhaite que l’impulsion totale soit nulle. D’après la conservation de l’impulsion
totale on a
0 = p1 + p2 = p1′ + p2′ .

Pour simplifier on notera p = p1 et p′ = p1′ . Ainsi avant collision on a une paire d’électrons d’impulsions
( p, − p) devenant ( p′ , − p′ ) après collision, avec p, p′ ∈ R3 arbitraires. Ces paires d’électron qui interagissent
(ou collisionnent) sont appelées paire de Cooper.
Voici deux représentations schématiques possibles dans l’espace réel :
143 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ

p
p′
x2
p′ −p

−p
− p′
p x1 − p′

Couche d’interaction de DeBye : L’interaction entre les électrons ne provient pas de la répulsion électrosta-
tique qui est écrantée par les atomes, mais provient d’un couplage avec les déformations du réseau cristallin
(ondes de vibrations, phonons). Seuls les électrons près de la surface de Fermi contribuent et sont pertur-
bés par les vibrations du réseau d’atome dont l’énergie est de l’ordre de ED (énergie de Debye), on note
ϵ′ ( p) := Ecin ( p) − µ l’écart à l’énergie de Fermi comme en (5.4.2), et on va considérer dans la suite les élec-
trons dans cette couche (Shell) notée :
n o
S : = p ∈ R3 , ϵ ′ ( p ) < ED .

ED
Par exemple pour l’étain Θ D = k = 200K.

p2

p1
Fermi surface µ
Shell S

Ce couplage des électrons avec le réseau cristallin induit une force effective attractive entre les électrons
(Fröhlich 1954), modélisée dans la suite par l’énergie potentielle

−V0 < 0.

Expression de l’interaction avec des opérateurs : de la même façon que l’énergie cinétique a été exprimée
par a†p a p dans (5.5.1), il nous sera utile, pour décrire ces processus de transition en terme d’opérateurs, d’utili-
ser les opérateurs de création et annihilation de paires de Cooper, pour p ∈ R3 donné, définis par :

b†p := a†p a†− p : opérateur création de paire ( p, − p)

b p := a p a− p : opérateur annihilation de paire ( p, − p)

Définition 5.4.9. Le modèle BCS est le Hamiltonien suivant dans l’espace de Fock F :

ĤBCS = Ĥcin. + Ĥinter. − µ N̂ (5.4.4)

avec le terme d’interaction Z


Ĥinter. := −V0 b†p′ b p d3 pd3 p′ (5.4.5)
p,p′ ∈S

Remarque 5.4.10. On a la conservation du nombre de particules (électrons) qui s’écrit


 
ĤBCS , N̂ = 0. (5.4.6)
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 144

Objectif : A basse température, l’état du gaz d’électrons en interaction correspond à l’état fondamental de
l’opérateur ĤBCS . A plus haute température il est dans la superposition statistique des états d’énergie plus
élevés (les états excités) E selon la mesure de probabilité de Boltzmann Gibbs p = Z1 e− βE . Il faudrait donc
trouver ces états propres d’énergie pour ensuite déduire des propriétés thermodynamiques du gaz d’électron
comme la capacité calorifique en calculant des valeurs moyenne d’observables. La difficulté est que le terme
d’interaction Ĥinter. rend ce calcul très difficile. Dans la section suivante on va plutôt faire un calcul appro-
ché du spectre en utilisant la “méthode variationnelle de Hartree-Fock-Bogoliubov” ou “approximation du
champ moyen”. (similaire au calcul effectué pour le modèle de spins avec la méthode de Curie-Weiss).
Le calcul exact du spectre de ĤBCS a été réalisé par Richardson et Gaudin dans les années 60’,70’ ref :
Combescot & Shiau (2015, chap.10).

5.4.5 Approximation du champs moyen, méthode variationnelle de Hartree-Fock-Bogoliubov


Dans ce paragraphe on décrit l’approximation variationnelle de façon directe et efficace par la méthode de
Gorkov, qui évite le formalisme abstrait de l’espace de Fock,voir Combescot & Shiau (2015, chap.9)..

[Link] Opérateur approché et apparition d’un gap spectral


Ce sont les termes b†p′ b p dans (5.5.4) qui rendent difficile le calcul du spectre de ĤBCS . On considère à la
place l’opérateur
 (approx)  D E
b†p′ b p := b†p′ b p − b†p′ − b†p′

bp − bp (5.4.7)
D E D E
= b†p′ b p + b†p′ b p − b†p′ b p (5.4.8)
D E
où b p , b†p′ ∈ C, p ∈ S, sont des nombres (paramètres) que l’on choisira plus tard en imposant qu’ils ap-
 D E
prochent au mieux les valeurs moyennes de b p , b†p′ dans l’état fondamental. Le terme correctif b†p′ − b†p′

bp − bp
s’interprète comme des “fluctuations quantiques” que l’on soustrait du problème original. Au lieu de ĤBCS ,
eq.(5.5.3), on considère l’opérateur d’approximation
(approx) (approx)
ĤBCS := Ĥcin. + Ĥinter. − µ N̂ (5.4.9)
Z  (approx)
(approx)
Ĥinter. := −V0 b†p′ b p d3 p ′ d3 p
p,p′ ∈S

(approx)
L’avantage de cette approximation est que le spectre de l’opérateur ĤBCS dans l’espace de Fock F sera cal-
culable explicitement, car il n’y a plus d’opérateurs de transition b†p′ b p , mais seulement des opérateurs b†p ou b p
qui créent/annihile une paire de Cooper. On va pouvoir considérer chaque paire de Cooper individuellement.
Introduisons donc l’espace de Fock F( p,− p) d’une paire de Cooper.

Proposition 5.4.11. Pour une impulsion p ∈ R3 donnée, on considère la paire de Cooper ( p, − p). Son espace de
Fock est noté F( p,− p) , de dimension 4 dont les vecteurs de base sont | N ( p) , N (− p)⟩, avec N ( p) , N (− p) ∈
{0, 1}. Cela donne 4 vecteurs de base notés

|1, 0⟩, |0, 1⟩, |0, 0⟩, |1, 1⟩. (5.4.10)

L’espace de Fock total F est le produit tensoriel antisymétrique de tous ces espaces

F = F( p,− p) ∧ F( p′ ,− p′ ) ∧ . . .
^
= F( p,− p) . (5.4.11)
p∈ D

où D = R3 / ∼ est le demi espace avec l’identification de parité p ∼ (− p), afin de ne considérer que les paires.

Remarque 5.4.12. Contrairement à (5.4.6), on n’a plus la conservation du nombre de particules :


h i
(approx)
ĤBCS , N̂ ̸= 0. (5.4.12)

Pour chaque p ∈ S, β p est fixé arbitrairement pour le moment.


145 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ

Proposition 5.4.13. On a l’expression


Z
(approx) (approx)
ĤBCS = ĤBCS ( p) d3 p + C Id (5.4.13)
p∈ D

(approx)
où l’opérateur ĤBCS ( p) est représenté dans la base (5.4.10) par la matrice

ϵ′p 0 0 0
 

(approx)  0 ϵ′p 0 0 
ĤBCS ( p) ≡   (5.4.14)
 0 0 0 ∆ 
0 0 ∆ 2ϵ′p

avec

| p |2
ϵ′p = Ecin ( p) − µ = − µ, (5.4.15)
2m
1
Z
∆ = −V0 β p dp, C= | ∆ |2 , (5.4.16)
p∈S V0
les 4 valeurs propres de (5.5.9) sont
ϵ′p , ϵ′p ,
E± ( p) = ϵ′p ± δp , (5.4.17)
 1/2
avec δp = ϵ′p 2 + |∆|2 . (5.4.18)

(approx)
Voici un schéma des valeurs propres E± , (5.4.17), et vecteurs propres de ĤBCS ( p) en fonction de ϵ′p :

|1, 1⟩ + b|0, 0⟩ E+ |0, 0⟩ + a|1, 1⟩ E+


2ϵ′ ∆
|0, 1⟩ excitation ≈ 2δ |0, 1⟩ excitation ≈ 2δ
|1, 0⟩ ϵ′ |1, 0⟩ ϵ′

∆ 2ϵ′
Cooper pair Cooper pair
|0, 0⟩ + a|1, 1⟩ E− |1, 1⟩ + b|0, 0⟩ E−
Si Ecin ( p) > µ Si Ecin ( p) < µ

Interprétation :
— Remarquer que ∆ = 0 correspond au modèle sans interaction.
— Si ϵ′p = Ecin ( p) − µ > 0 ⇔ Ecin ( p) > µ, cela signifie que p est hors de la sphère de Fermi.
— Dans le cas ∆ = 0, l’état fondamental est |0, 0⟩ sans électron, comme attendu.
— Dans le cas ∆ ̸= 0, l’état fondamental est un mélange |0, 0⟩ + a|1, 1⟩ avec a ̸= 0. (paire est partielle-
ment vide/occupée).
— Si ϵ′p = Ecin ( p) − µ < 0 ⇔ Ecin ( p) < µ, cela signifie que p est dans la sphère de Fermi.
— Dans le cas ∆ = 0, l’état fondamental est |1, 1⟩ occupé par des électrons, comme attendu.
— Dans le cas ∆ ̸= 0, l’état fondamental est un mélange |1, 1⟩ + b|0, 0⟩ avec b ̸= 0. (paire est partielle-
ment occupée/vide).
— La règle de conservation du nombre d’électrons interdit les transitions de l’état fondamental E− ayant
nombre pair de particules, vers les états intermédiaires |1, 0⟩, |0, 1⟩, ayant un nombre impair de parti-
cules. Mais les transition de E− vers E+ sont permises. Pour cette raison, on observe expérimentalement
un gap spectral qui est l’écart

| E+ − E− | := 2δp > 2 |∆|

dont l’expression en fonction de la température ∆ ( T ) sera obtenu en (5.5.12) et correspondra à la figure


5.5.1 expérimentale.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 146

Démonstration. On a
(approx) (approx)
ĤBCS = Ĥcin. − µ N̂ + Ĥinter.
Z Z  D E D E 
= ϵ′p a†p a p d3 p − V0 b†p′ b p + b†p′ b p − b†p′ b p d3 p′ d3 p
p ∈ R3 p,p′ ∈S
Z
(approx)
= ĤBCS ( p) d3 p + C Id (5.4.19)
p∈S

avec l’opérateur spécifique à la paire ( p − p) :


(approx)
ĤBCS ( p) = ϵ′p a†p a p + ϵ′p a†− p a− p + ∆b†p + ∆b p (5.4.20)

et la constante Z
C= ∆ b p d3 p.
p∈S

On calcule,

a†p a p |1, 0⟩ = |1, 0⟩, b†p |1, 0⟩ = a†p a†− p |1, 0⟩ = 0, b p |1, 0⟩ = a p a− p |1, 0⟩ = 0

donc
(approx)
ĤBCS ( p) |1, 0⟩ = ϵ′p |1, 0⟩
De même
(approx)
ĤBCS ( p) |0, 1⟩ = ϵ′p |0, 1⟩, b†p |0, 0⟩ = a†p a†− p |0, 0⟩ = |1, 1⟩

b p |0, 0⟩ = a p a− p |0, 0⟩ = 0, b†p |1, 1⟩ = a†p a†− p |1, 1⟩ = 0


(approx)
b p |1, 1⟩ = a p a− p |1, 1⟩ = |0, 0⟩, ĤBCS ( p) |0, 0⟩ = ∆|1, 1⟩
(approx)
ĤBCS ( p) |1, 1⟩ = 2ϵ′p |1, 1⟩ + ∆|0, 0⟩
On déduit l’expression (5.5.9). Cette matrice contient une sous matrice 2 × 2 qu’il faut diagonaliser. On obtient
(5.4.17).

[Link] Optimisation
D E
Dans le calcul précédent, les paramètres complexes b p , b†p′ ∈ C sont arbitraires. Pour justifier l’ap-
proximation (5.5.6), on impose qu’ils coïncident avec les valeurs moyennes de b p , b†p′ pour l’état de Boltzmann
(approx)
Gibbs de l’Hamiltonien approché ĤBCS . Avant cela rappelons les propriétés générales suivantes

Proposition 5.4.14. En mécanique quantique, si une grandeur physique A est représentée par l’opérateur au-
toadjoint  (appelée observable) qui a des valeurs propres a j et vecteurs propres ψj alors pour tout état quantique
φ, la probabilité d’observer la valeur a j est

1 2
p φ ( j) = 2
⟨ψj | φ⟩ (5.4.21)
ψj ∥ φ ∥2

et donc la “valeur moyenne quantique” dans l’état φ est

⟨ A⟩ φ = ∑ a j p φ ( j) (5.4.22)
j

que l’on peut écrire


1
⟨ A⟩ φ = ⟨ φ| Âφ⟩.
∥ φ ∥2

Démonstration. On a la décomposition spectrale de l’opérateur

|ψj ⟩⟨ψj |.⟩


 = ∑ aj 2
(5.4.23)
j ψj
147 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ

donc

1 1 1 1 1
∑ ∑ aj
2
2
⟨ φ| Âφ⟩ = 2 2
⟨ φ| a j ψj ⟩⟨ψj | φ⟩ = 2 2
⟨ φ|ψj ⟩
∥ φ∥ (5.4.23) ∥ φ∥ j ψj ∥ φ∥ j ψj
=
(5.4.21) j
∑ p φ ( j) a j (5.4.22
= ⟨ A⟩ φ
)

Proposition 5.4.15. Si Ĥ est le Hamiltonien du système avec Ĥ φ j = Ej φ j qui sont les vecteurs propres et
1
valeurs propres d’énergie de Ĥ, si β = kT est la température de environnement, la valeur moyenne de la
grandeur physique A pour la mesure de probabilité de Boltzmann Gibbs p BG est définie par

⟨ A⟩ pBG := ∑ ⟨ A⟩ φ j p BG ( j) (5.4.24)
j

1
où ⟨ A⟩ φ j = 2 ⟨ φ j | Âφ j ⟩ est la valeur moyenne quantique dans l’état φ j , et
∥ φj ∥
1 − βEj
p BG ( j) := e . (5.4.25)
Z
On peut écrire
1  − β Ĥ 
⟨ A⟩ pBG = Tr Âe (5.4.26)
Z
avec la constante de normalisation  
Z = Tr e− β Ĥ .

Remarque 5.4.16. Noter que la valeur moyenne (5.4.24) fait intervenir une moyenne quantique (qui repose sur
du hasard quantique dont l’origine est encore inconnue) et aussi une moyenne statistique liée à la température
décrite par la loi de Boltzmann et qui provient des échanges d’énergie avec l’environnement chaotique.

Démonstration.
 Comme l’opération Trace ne dépend pas de la base utilisée, on utilise la base des vecteurs
propres φ j j . On calcule 8

  1
Tr e− β Ĥ = ∑ 2
⟨ φ j |e− β Ĥ φ j ⟩ = ∑ e− βEj = Z
j φj j

et

1  − β Ĥ  1 1 1 1
Z
Tr Âe =
Z ∑ 2
⟨ φ j | Âe− β Ĥ φ j ⟩ =
Z ∑ 2
⟨ φ j | Âφ j ⟩e− βEj
j φj j φj
=
(5.4.25) j
∑ ⟨ A⟩ φj p ( j) (5.4.24
= ⟨ A⟩ pBG .
)

est une base quelconque d’un espace de Hilbert, la base duale φ∗k k est une base de l’espace dual définie par φ∗k φ j = δj=k .
  
8. Si φ j j
La trace d’un opérateur  est donnée par Tr ( A) = ∑ j φ∗j Âφ j . Par exemple si φ j j est une base orthogonale d’un espace de Hilbert
 

(pas forcément normée) alors φ∗k = 1


⟨ φ k |.⟩ est la base duale et donc Tr ( A) = ∑ j 1
⟨ φ j | Âφ j ⟩.
∥ φ k ∥2 ∥ φj ∥
2
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 148

D E
Proposition 5.4.17. Soit T une température fixée et β = 1
kT . Si on impose que les paramètres b p , b†p′ ∈ C
(approx)
sont donnés par les valeurs moyennes pour le Hamiltonien ĤBCS
D E D E
bp = bp p BG
, b†p = b†p , (5.4.27)
p BG

− 1
Pour une température assez basse T < Tc , β > β c avec la température critique (valable si e V0 g ≪ 1) donnée
par
2eγ − V1 g
kTc ≈ ED e 0
π
 
avec la constante de Euler γ := limn→+∞ ∑nk=1 1k − ln n = 0.577.. , alors ∆ = ∆ ( T ) > 0 est solution de
l’équation du gap  √ 
Z ED tanh β ϵ′ 2 + ∆2
2 1
√ dϵ′ = (5.4.28)
0 ϵ +∆
′ 2 2 V0 g
avec g la densité d’états au niveau de Fermi. A basse température T → 0, la solution est

− V1 g
∆ (0) = 2ED e 0

près de la température critique, T → Tc ,


T < Tc

T 1/2
 
∆ ( T ) ≈ 3.06 kTC 1 − (5.4.29)
TC

Voir figure 5.5.1(b) qui représente la solution T → ∆ ( T ). Pour représenter cette courbe, il faut résoudre
numériquement l’équation (5.5.12).
Remarque 5.4.18. “Gap effectif”. Le fait que le gap spectral dépend de la température est un artefact de la
méthode utilisée. En effet pour le problème exact, il y a un gap fixé ∆ (0) dans le spectre, et des probabilité de
transition vers les états excités qui vont dépendre de la température.

Remarque 5.4.19. “Universalité”. Une conséquence remarquable relie le gap spectral E0 = 2∆ (0) à la tempé-
rature critique :
E0 2∆ (0) 2π
= = γ ≈ 3.53..
kTc kTc e
est une constante universelle. Les expérience sont en bon accord avec cette prédiction. Voir tableau 5.1, Couture
& Zitoun (1992, p479),Kittel (1987, p.336).

Remarque 5.4.20. “Effet isotopique”. Une prédiction de ce modèle, bien vérifié expérimentalement est que si
on change de matériau par des atomes isotopes, c’est à dire de même charge donc même propriétés chimique,
mais masse M des noyaux différentes, alors l’énergie de Debye ED lié aux fréquences de vibration, varie
comme ED ∝ M−1/2 donc Tc ∝ M−1/2
Démonstration. On part de  
1 (approx)
bp =
p BG (5.4.26)
Tr b p e− β ĤBCS
Z
On calcule
    Z 
(approx) (approx)
Z = Tr e− β ĤBCS = Tr exp − β ĤBCS ( p) d3 p + C Id
p∈ D
 
  (approx)
= Tr e− βC Id ∏ Tr e− β ĤBCS ( p)
p∈ D

On a de même    
(approx) (approx)
( p′ )
 
Tr b p e − β ĤBCS
= Tr e − βC
Id ∏ Tr b p e − β ĤBCS
p′ ∈ D
149 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ

où b p agit comme Id dans F( p′ ,− p′ ) pour p′ ̸= p. Donc il reste


 
(approx)
Tr b p e− β ĤBCS ( p)
bp p =   . (5.4.30)
BG (approx)
− β ĤBCS ( p)
Tr e

On va calculer chacun de ces termes. Comme la trace ne dépend pas de la base, on utilise les valeurs propres
(approx)
de ĤBCS ( p) pour calculer
 
(approx) ′
Tr e − β ĤBCS ( p)
= 2e− βϵ p + e− βE+ ( p) + e− βE− ( p)
′ ′ ′
= 2e− βϵ p + e− βϵ p e− βδp + e− βϵ p e βδp

  ′
 β β 2
= e− βϵ p 2 + e− βδp + e βδp = e− βϵ p e 2 δp + e− 2 δp (5.4.31)
 
− βϵ′p 2 β
= 4e cosh δp (5.4.32)
2
Pour le numérateur de (5.4.30), on observe que
 
(approx)
− β ĤBCS ( p) 1 ∂ − β Ĥ (approx) ( p)
bp e = e BCS
(5.4.20) −β ∂∆
Donc
     
(approx) 1 ∂ (approx)
Tr b p e− β ĤBCS ( p) = Tr e− β ĤBCS ( p)
− β ∂∆
    
1 ∂ ′ β
= 4e− βϵ p cosh2 δp
(5.4.31) − β ∂∆ 2
  
∂ cosh2 2 δp
  β  
1 − βϵ′p  ∂δp
= 4e 
−β ∂δp ∂∆

      
1 − βϵ′p β β β
= 4e 2 cosh δp sinh δp
(5.4.18) − β 2 2 2 2δp

   
′ β β
= −2e− βϵ p cosh δp sinh δp
2 2 δp
et

   
2e− βϵ p cosh
β β
sinh 2 δp ∆
2 δp ∆

β

bp =
p BG (5.4.30)
− ′
  =− tanh δp . (5.4.33)
4e− βϵ p cosh2 2 δp
β δp 2δp 2

Ensuite
Z D E Z D E
∆ = −V0 b p′ dp′ = −V0 b p′ dp′
(5.4.16) p′ (5.4.27) p′ p BG


Z  
β
= − −V0 tanh δp′ dp′
(5.4.33) p′ 2δp′ 2
Ainsi ∆ vérifie l’équation du gap

Z  
β
∆= V0 tanh δ ′ d3 p ′ .

p t.q. |ϵ p |< ED
′ 2δ p′ 2 p
Il y a la solution ∆ = 0. Si ∆ ̸= 0 alors en notant g la densité d’état au niveau de Fermi ϵ = µ, (on néglige ses
variation sur l’intervalle d’énergie |ϵ′ | < ED )
V0 ED 1
   
V0
Z Z
β β
1= tanh δ p ′ d3 p ′ = g tanh δp′ dϵ′ (5.4.34)
p′ t.q. |ϵ′p |< ED 2δ p′ 2 2 − ED δ p ′ 2
Z ED  
1 β
= gV0 tanh δ ′ dϵ′ (5.4.35)
0 δ p′ 2 p

avec δp′ = ϵ′ 2 + ∆2 . On a obtenu (5.5.12).
(5.4.18)
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 150
 
Basse température : Pour β → ∞, c’est à dire T → 0, on a tanh
β
2 δ p′ → 1, et utilisant que pour y > 0 et
y ≫ 1,
s !
Z y −1/2 q 
2 1
1+x dx = − ln y2 +1−y = − ln y 1+ 2 −y (5.4.36)
0 (xcas) y
   
1 
−2
= − ln y 1 + 2 + o y −y (5.4.37)
2y
  
1    
= − ln 1 + o y −2 = ln (2y) + o y−2 (5.4.38)
2y
ϵ′
et posant x = ∆, on obtient pour ∆ ≪ ED
Z ED Z ED
1 gV0 1
1 = gV0 √ dϵ′ = dϵ′
+ ∆2 ∆
r 
0 ϵ′ 2 0 ′ 2 ϵ
∆ +1
ED 2 !!

  
1 E
Z

= gV0 √ dx = gV0 ln 2 D +o
0 x2 + 1 (5.4.36) ∆ ED

donc
− gV1
∆ (0) = 2ED e 0 . (5.4.39)

Température critique : La valeur critique β c est donnée par le fait que ∆ ( β c ) = 0, donc δp′ = ϵ′ . On
(5.4.18)
utilisera que pour y > 0, u′ = 1x , v = tanh ( x ), u = ln x, v′ = 1
, ln ( x ) tanh ( x ) → 0,
cosh2 ( x ) x →0

Z y Z y
1 ln ( x )
tanh ( x ) dx = ln (y) tanh (y) − dx (5.4.40)
0 x ( p.p.) 0 cosh2 ( x )
(5.4.41)
Et pour y ≫ 1, tanh (y) → 1 et
Z y
ln ( x )  π 
dx → ln
0 cosh2 ( x ) 4eγ
 
avec γ := limn→+∞ ∑nk=1 1
k − ln n = 0.577.. la constante de Euler. Donc pour y ≫ 1, l’équation
Z y
1
tanh ( x ) dx = C
0 x
a la solution  π  π
ln (y) = C + ln ⇔ y ≈ γ eC
4eγ 4e
βc ′
On pose x = 2 ϵ. Alors
Z ED   β c ED
1 1
Z
βc ′ 2
1 = gV0 tanh ϵ dϵ′ = gV0 tanh ( x ) dx
(5.4.34) 0 ϵ′ 2 0 x
β c ED
Donc dans le cas 2 ≫ 1, la solution est
β c ED π 1 π 1
≈ γ e gV0 ⇔ β c ≈ γ e gV0
2 4e 2e ED
2eγ − gV1
⇔kTc = ED e 0
π
Conséquence
∆ (0) − gV1 π 1 π
= 2ED e 0 e gV0 = ≈ 1.76..
kTc (5.4.39) 2eγ E D eγ
est une constante universelle. Voir Kittel (1987, p.336). Notre hypothèse a été
β c ED − 1
≫ 1 ⇔ e gV0 ≪ 1.
2
5.5. EXERCICES ET PROBLÈMES CORRIGÉS LES TRANSITIONS DE PHASE EN SUPRACONDUCTIVITÉ.
151 MODÈLE BCS

Exposant critique : Pour montrer (5.4.29), on affine le calcul précédent, en supposant ∆ ≪ 1 et on cherche
β (∆) par développement limité

5.5 Exercices et problèmes corrigés les transitions de phase en supracon-


ductivité. Modèle BCS
La solution de ce TD se trouve dans le cours Faure (2022, chap 5.3).

5.5.1 Introduction
Le phénomène de super conductivité est un phénomène physique très surprenant : en dessous d’une cer-
taine température Tc appelée température critique et généralement très basse, certains métaux n’ont plus au-
cune résistance aux courants électriques. Ces propriétés font que les matériaux supraconducteurs sont très
utilisés en technologie, pour créer de forts champs magnétique, pour l’effet Josephson, etc.
Il apparaît que ces propriétés découlent de la présence d’un gap en énergie Ek0 au dessus de l’état fon-
damental du système constitué par le gaz d’électrons, pour des température assez basse T < Tc . Il y a une
transition de phase à la température critique T = Tc et l’état supraconducteur disparaît pour T > Tc .
E0 E0 ED
Tc (K) k (K) kTc ΘD = k (K)
Al 1.196 4.06 3.4 394
Zn 0.875 2.8 3.2 234
Sn 3.72 13.02 3.5 170
Pb 7.19 30.917 4.3 88
E0 2π
Dans ce TD, on verra que le modèle BCS prédit le rapport universel kTc = eγ ≈ 3.53 bien observé ici.

F IGURE 5.5.1 – (a) Lévitation d’un aimant à basse température, il n’y a pas de dissipation grâce à l’état su-
praconducteur. (b) Gap en énergie dans différent supraconducteurs, comparé à la prédiction BCS : 2∆ ( T ),
eq.(5.5.12).

Histoire : L’effet supraconducteur a été découvert expérimentalement en 1911 par Heike Kamerlingh Onnes.
Le premier modèle microscopique démontrant l’existence d’un gap spectral au dessus de l’état fondamen-
tal a été proposé en 1957 par Bardeen, Cooper, Schrieffer appelé modèle BCS. Dans ce TD on étudie ce modèle
BCS. L’effet Josephson a été prédit en 1962 à partir de la théorie BCS.
Remarque 5.5.1. Ce modèle BCS est basé sur l’appariement des électrons en paires paires d’électrons ayant
des impulsions opposées ( p, − p) et formant un état stable collectif appelé condensat de Bose. Ce phénomène
d’appariement se retrouve dans d’autres domaines de la physique, par exemple pour expliquer la superfluidité
de l’He3, ou la stabilité de certaines noyaux nucléaires (appariement de paires de nucleons), les condensats
d’atomes froids, etc, voir Martin & Rothen (1990).
Ce qui suit est basé sur le livre Couture & Zitoun (1992), chap 15.3. Voir aussi Combescot & Shiau (2015).
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 152

5.5.2 Modèle d’un métal comme gaz d’électrons libres (rappel)


On modélise un métal par un gaz de N électrons libres dans un volume V. Ce sont des Fermions de masse
m.
1. (déjà vu au TD8, pb2, question 5). En appliquant la loi de Weyl, montrer que à T = 0, les états à un
| p |2
électron occupés sont p ∈ R3 tel que Ecin ( p) = 2m ≤ µ avec le niveau de Fermi µ donné par
2/3
h̄2

2N
µ= 3π
2m V

5.5.3 Base de l’espace de Fock Fermionique et opérateurs de création/annihilation


Les électrons sont des Fermions, cela signifie que le nombre d’électron dans chaque état d’impulsion
p ∈ R3 décrivant une particule est N ( p) ∈ {0, 1}. Une configuration du système à plusieurs particules est
caractérisée par la donnée simultanée de toutes les valeurs d’occupation que l’on notera N (.), coorespondant
à la fonction N (.) : p ∈ R3 → N ( p) ∈ {0, 1} appelée champs classique.

Exemple graphique : On considère 3 ondes plane p, p′ , p′′ , et p, p′′ sont occupées par un électron, p′ n’est
pas occupé. L’état est donc noté N (.) = (1, 0, 1) :

p2
p′′ p′ p′
x2 p′′
p
p
p1

x1

D’après le principe de superposition en mécanique quantique toutes ces différentes configurations pos-
sibles N (.) forment une base orthonormée de l’espace vectoriel quantique F des états possibles, appelé es-
pace de Fock Fermionique et formé donc par les combinaisons linéaires complexes de ces états de base appelés
champs quantiques :

ψ= ∑ CN (.) | N (.)⟩ ∈ F, CN (.) ∈ C.


N (.)

En particulier, un champ classique N (.) correspond à un champs quantique | N (.)⟩ qui sert de vecteur
de base. Dans le modèle des électrons libres et indépendants, l’énergie est formée seulement par l’énergie
cinétique et chaque configuration | N (.)⟩ a une énergie qui est la somme des énergie cinétiques individuelles.
On peut décrire cela par un opérateur énergie cinétique Ĥcin. dans cet espace F définit par le fait que les
vecteurs de base | N (.)⟩ sont des vecteurs propres, de valeur propre EN (.) :

Ĥcin. | N (.)⟩ = EN (.) | N (.)⟩,


Z
E N (.) = N ( p) Ecin ( p) d3 p.
R3

De même le nombre total d’électron dans l’état | N (.)⟩ est NN (.) = R3 N ( p) d3 p et on peut définir l’opérateur
R

nombre de particules N̂ définit par :


N̂ | N (.)⟩ = NN (.) | N (.)⟩.
Pour une valeur µ ∈ R donnée du potentiel chimique, on définit alors l’opérateur appelé Hamiltonien grand
canonique
ĤGC := Ĥcin. − µ N̂
On introduit des opérateurs qui n’ont pas directement de sens physique mais qui seront utile pour décrire
l’opérateur Hamiltonien et les termes d’interaction qu’il contient.
5.5. EXERCICES ET PROBLÈMES CORRIGÉS LES TRANSITIONS DE PHASE EN SUPRACONDUCTIVITÉ.
153 MODÈLE BCS

Définition 5.5.2. Pour une impulsion p ∈ R3 fixée,


— l’opérateur de création a†p : F → F est définit par son action sur un vecteur de base (voir
schéma ci-dessous)
a†p | N (.)⟩ = | N ′ (.)⟩ si N ( p) = 0,
(
′ ′
 N ( p′ ) pour p′ ̸= p
avec N p =
1 pour p′ = p

a†p | N (.)⟩ = 0 si N ( p) = 1
— De même on définit l’opérateur d’annihilation a p : F → F par

a†p | N (.)⟩ = | N ′ (.)⟩ si N ( p) = 1,


(
′ ′
 N ( p′ ) pour p′ ̸= p
avec N p =
0 pour p′ = p
a p | N (.)⟩ = 0 si N ( p) = 0

1. Compléter le tableau suivant qui considère deux états électroniques notés 1, 2. Les vecteurs de base
normalisés | N (.)⟩ = | N1 , N2 ⟩ avec N1 , N2 ∈ {0, 1} le nombre d’électrons respectivement dans chaque
état. C’est un espace de dimension 2 × 2 = 4 et 0 désigne le vecteur nul.
a1† a1 + a2† a2 | N (.)⟩

| N (.)⟩ a† | N (.)⟩ a1 | N (.)⟩ a2 a† | N (.)⟩
1 1

|0, 1⟩ |1, 1⟩ 0
|1, 0⟩
|0, 0⟩
|1, 1⟩
Et conclure que en général a†p a p | N (.)⟩ = N ( p) | N (.)⟩.
2. Montrer que l’opérateur a†p est l’adjoint de a p c’est à dire que

⟨u| a†p v⟩ = ⟨ a p u|v⟩, ∀u, v ∈ F .

3. Montrer que Z
Ĥcin. = Ecin ( p) a†p a p d3 p (5.5.1)
R3
Z
N̂ = a†p a p d3 p
R3
Z
ĤGC = ϵ′ ( p) a†p a p d3 p avec ϵ′ ( p) = Ecin ( p) − µ.
R3

4. Montrer que l’état fondamental de ĤGC dans F s’écrit


 

|ψfond. ⟩ =  ∏ a†p  |0⟩


p t.q. Ecin ( p)<µ

où |0⟩ est l’état | N (.)⟩ tel que N ( p) = 0, ∀ p, appelé état du vide.


5. (Non essentiel pour la suite).
n Montrer
o que pour les Fermions (où N ( p) ∈ {0, 1}), et pour p ∈ R3 donné,
on a l’anti-commutateur a p , a†p
:= a p a†p + a†p a p = Id. En considérant le même formalisme pour des
√ √
Bosons (où N ( p) ∈ N), avec la définition a p | N ⟩ = h N |iN − 1⟩ et a p | N ⟩ = N + 1| N + 1⟩, sur l’état à
N particules, montrer que l’on a le commutateur a p , a†p := a p a†p − a†p a p = Id.

Remarque 5.5.3. Le formalisme qui consiste à utiliser des opérateurs de création/annihilation dans l’espace
de Fock s’appelle “quantum many-body problem”, “second quantization”, “quantum field theory” et est à
la base de la physique (quantique) depuis les années 1930. Il y a de nombreux ouvrages, Martin & Rothen
(1990),Blaizot & Ripka (1986), Negele & Orland (1998), etc.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 154

5.5.4 Interactions entre électrons et Hamiltonien B.C.S.


On va s’intéresser maintenant à l’interaction entre deux électrons. On ne mentionne pas le rôle du spin bien
qu’il soit important (Les paires d’électrons considérées sont dans l’état singulet, spin total nul). On considère
une collision entre deux électrons ayant des impulsions respectives p1 , p2 ∈ R3 avant la collision et p1′ , p2′ ∈ R3
après la collision.

Paires de Cooper :
1. On souhaite que l’impulsion totale soit nulle (car on s’intéresse ici à une état supraconducteur immo-
bile). Utilisant la conservation de l’impulsion totale, montrer que

p1′ = − p2′ , p2 = − p1 . (5.5.2)

Ainsi les deux électrons sont d’impulsion opposée p, − p, pour une valeur de p ∈ R3 donnée, formant ce
que l’on appelle une paire de Cooper. On s’intéresse donc à des collisions ou processus de transitions
entre paires de Cooper ( p, − p) → ( p′ , − p′ ).
Voici deux représentations schématiques possibles dans l’espace réel :

p
p′
x2
p′ −p

−p
− p′
p x1 − p′

Couche d’interaction de DeBye : L’interaction entre les électrons ne provient pas de la répulsion électrosta-
tique qui est écrantée par les atomes, mais provient d’un couplage avec les déformations du réseau cristallin
(ondes de vibrations, phonons). Seuls les électrons près de la surface de Fermi contribuent et sont pertur-
bés par les vibrations du réseau d’atome dont l’énergie est de l’ordre de ED (énergie de Debye), on note
ϵ′ ( p) := Ecin ( p) − µ l’écart à l’énergie de Fermi, et on va considérer dans la suite les électrons dans cette
couche (Shell) notée : n o
S := p ∈ R3 , ϵ ′ ( p ) < ED , p1 > 0 ,

(la condition p1 > 0 est pour considérer le demi espace et ne pas compter deux fois la même paire). Par
exemple pour l’étain Θ D = EkD = 200K.

p2

p1
Fermi surface µ
Shell S

Ce couplage induit une force effective attractive entre les électrons (Fröhlich 1954), modélisée dans la suite
par l’énergie potentielle
−V0 < 0.

Expression de l’interaction avec des opérateurs : De la même façon que l’énergie cinétique a été exprimée
par a†p a p dans (5.5.1), il nous sera utile, pour décrire ces processus de transition en terme d’opérateurs, d’utili-
ser les opérateurs de création et annihilation de paires de Cooper, pour p ∈ R3 donné, définis par :

b†p := a†p a†− p : opérateur création de paire ( p, − p)

b p := a p a− p : opérateur annihilation de paire ( p, − p)


5.5. EXERCICES ET PROBLÈMES CORRIGÉS LES TRANSITIONS DE PHASE EN SUPRACONDUCTIVITÉ.
155 MODÈLE BCS

Définition 5.5.4. Le modèle BCS est le Hamiltonien suivant dans l’espace de Fock F :

ĤBCS = Ĥcin. + Ĥinter. − µ N̂ (5.5.3)

avec le terme d’interaction Z


Ĥinter. := −V0 b†p′ b p d3 pd3 p′ (5.5.4)
p,p′ ∈S

Objectif : A basse température, l’état du gaz d’électrons en interaction correspond à l’état fondamental de
l’opérateur ĤBCS . A plus haute température il est dans la superposition statistique des états d’énergie plus
élevés (les états excités) E selon la mesure de probabilité de Boltzmann Gibbs p = Z1 e− βE . Il faudrait donc
trouver ces états propres d’énergie pour ensuite déduire des propriétés thermodynamiques du gaz d’électron
en calculant des valeurs moyenne d’observables. La difficulté est que le terme d’interaction Ĥinter. rend ce
calcul très difficile. Dans la section suivante on va plutôt faire un calcul approché du spectre en utilisant la
“méthode variationnelle de Hartree-Fock-Bogoliubov” ou “approximation du champ moyen”.
Le calcul exact du spectre de ĤBCS a été réalisé par Richardson et Gaudin dans les années 60’,70’ ref :
Combescot & Shiau (2015, chap.10).

5.5.5 Approximation du champs moyen


Aussi appelée méthode variationnelle de Hartree-Fock-Bogoliubov. A la place de ĤBCS on considère l’opé-
rateur approché
(approx) (approx)
ĤBCS := Ĥcin. + Ĥinter. − µ N̂ (5.5.5)
avec
Z  (approx)
(approx)
Ĥinter. := −V0 b†p′ b p d3 p ′ d3 p
p,p′ ∈S

 (approx)  D E
b†p′ b p := b†p′ b p − b†p′ − β p′ b†p′

bp − β p (5.5.6)
= b†p′ β p + β p′ b p − β p′ β p (5.5.7)

où β p ∈ C, ∀ p, sont des nombres (paramètres) que l’on choisira plus tard en imposant  qu’ils
 approchent


au mieux les valeurs moyennes de b p dans l’état fondamental. Le terme correctif b p′ − β p′ b p − β p s’in-
terprète comme des “fluctuations quantiques” que l’on soustrait du problème original. Pour une impulsion
p ∈ R3 donnée, si on note | N ( p) , N (− p)⟩ , les 4 états d’occupation possible pour une paire de Cooper ( p, − p),
avec N ( p) , N (− p) ∈ {0, 1}. Cela donne 4 vecteurs de base notés

|1, 0⟩, |0, 1⟩, |0, 0⟩, |1, 1⟩ (5.5.8)

d’un espace de Fock F(− p,p) associé à la paire de Cooper (− p, p).


1. Montrer que on peut écrire
Z
(approx) (approx)
ĤBCS = ĤBCS ( p) d3 p + C Id
p∈S

(approx)
où l’opérateur ĤBCS ( p) est représenté dans la base (5.5.8) par la matrice
 ′
ϵp 0 0 0

(approx)  0 ϵ′p 0 0 
ĤBCS ( p) ≡ 
 0 0 0 ∆ 
 (5.5.9)
0 0 ∆ 2ϵ′p
avec
| p |2
ϵ′p = Ecin ( p) − µ = − µ, (5.5.10)
2m
1
Z
∆ = −V0 β p dp, C= | ∆ |2 ,
p∈S V0
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 156

2. Montrer que les 4 valeurs propres de (5.5.9) sont

ϵ′p , ϵ′p , E± ( p) = ϵ′p ± δp , (5.5.11)


 1/2
avec δp = ϵ′p 2 + |∆|2

et les représenter en fonction de ∆. Discuter quel est l’état fondamental du système selon le signe de ϵ′p
et interpréter 2∆ comme un gap spectral global.
3. Pour la suite, on établit au préalable une formule générale très utile en physique statistique quantique.
Si  est une observable (i.e. opérateur auto-adjoint), montrer que la valeur moyenne (ou espérance)
des résultats de mesure par rapport
 à lamesure de probabilité de Boltzmann-Gibbs àla température
 T
est donnée par 9 ⟨ A⟩ pBG = 1
Z Tr Âe− β Ĥ avec la constante de normalisation Z = Tr e− β Ĥ et β = 1
kT
(pour simplifier on suppose ici que Ĥ est une matrice).
4. On impose que les paramètres β p ∈ C pour chaque p ∈ S, sont donnés par les valeurs moyennes par
(approx)
rapport à la mesure d’équilibre de Boltzmann-Gibbs à température T pour le Hamiltonien ĤBCS :
β p = b p p . Montrer que ∆ = ∆ ( T ) > 0 doit être solution de l’équation du gap
BG
 √ 
ϵ ′ 2 + ∆2
Z ED tanh β
2 1
√ dϵ′ = (5.5.12)
0 ϵ′ 2 + ∆2 V0 g

avec g la densité d’états au niveau de Fermi.


5. Supposant ∆ ≪ ED , montrer que pour la température T → 0, l’équation (5.5.12) a une solution non
nulle 10
− 1
∆ (0) = 2ED e V0 g .
6. Montrer que l’équation (5.5.12) a une solution non nulle ∆ ( T ) > 0 pour une température assez basse
T ∈ [0, Tc [ avec la « température critique » Tc donnée par (supposant toujours ∆ ≪ ED )

2eγ − V1 g
kTc ≈ ED e 0
π
 
avec la constante de Euler γ := limn→+∞ ∑nk=1 1
k − ln n = 0.577.. . Aide 11
7. Déduire le rapport universel concernant le gap spectral E0 = 2∆ (0) et la température critique

2∆ (0) 2π
= γ ≈ 3.53
kTc e

8. Montrer que près de la température critique, T → Tc ,


T < Tc

T 1/2
 
∆ ( T ) ≈ 3.06 kTC 1 −
TC

est une base quelconque d’un espace de Hilbert, la base duale φ∗k k est une base de l’espace dual définie par φ∗k φ j = δj=k .
  
9. Si φ j j
La trace d’un opérateur  est donnée par Tr ( A) = ∑ j φ∗j Âφ j . Par exemple si φ j j est une base orthogonale d’un espace de Hilbert
 

(pas forcément normée) alors φ∗k = 1 2 ⟨ φk |.⟩ est la base duale, et donc Tr ( A) = ∑ j 1 2 ⟨ φ j | Âφ j ⟩.
∥ φk ∥ ∥ φj ∥
Ry −1/2
10. Aide : si y ≫ 1, 0 1R + x2 dx = ln (2y) + o y−2 .

y
11. Si y ≫ 1, l’équation 0 1x tanh ( x ) dx = C a la solution y ≈ 4eπγ eC .
Annexe A

Formulaire

A.1 Série géométrique


Proposition A.1.1. La série
n

Sn : = ∑

rn
n =0

s’appelle série géométrique. Si r ̸= 1, on a


r n +1 − 1
Sn = ,
r−1
et si r = 1 alors Sn = n + 1. En particulier si |r | < 1 alors la série

′ 1
S∞ = ∑

rn =
1−r
. (A.1.1)
n =0

est convergente.

Démonstration. On a Sn = r0 + . . . + r n−1 + r n donc

rSn = r1 + . . . + r n + r n+1 = Sn + r n+1 − r0

donc si r ̸= 1,
r n +1 − r 0
Sn = .
r−1

157
ANNEXE A. FORMULAIRE 158
Bibliographie

Balian, Roger. 2007. From microphysics to macrophysics : methods and applications of statistical physics. Vol. 1,2.
Springer Science & Business Media.
B.H. Bransden, & C.J. Joachain. 1989. Introduction to quantum mechanics. Longman.
Blaizot, J.P., & Ripka, G. 1986. Quantum theory of finite systems.
Brin, M., & Stuck, G. 2002. Introduction to Dynamical Systems. Cambridge University Press.

Combescot, Monique, & Shiau, Shiue-Yuan. 2015. Excitons and Cooper pairs : two composite bosons in many-body
physics. Oxford University Press.
Couture, L., & Zitoun, R. 1992. Physique statistique.
Cover, Thomas M. 1999. Elements of information theory. John Wiley & Sons.

Davies, E.B., & Davies, E.B. 1996. Spectral theory and differential operators. Vol. 42. Cambridge Univ Pr.
Den Hollander, Frank. 2008. Large deviations. Vol. 14. American Mathematical Soc.
Diu, B., Guthmann, C., Lederer, D., & Roulet, B. 1989. Physique statistique.

Faure, F. 2010. Cours de Mathématiques pour la physique. Niveau Master 1. link.


Faure, F. 2014a. Cours de Mécanique quantique pour Master M1 de physique. link.
Faure, F. 2014b. Introduction au chaos quantique. In : journées X-UPS. Éditions de l’école polytechnique link.
Faure, F. 2016. Cours de systémes dynamiques. link.

Faure, F. 2022. Cours de Physique statistique. link.


Friedli, Sacha, & Velenik, Yvan. 2017. Statistical Mechanics of Lattice Systems : A Concrete Mathematical Introduc-
tion. Cambridge University Press.
Khinchin, A Ya. 2013. Mathematical foundations of information theory. Courier Corporation.

Kittel, C. 1987. Quantum theory of Solids.


Martin, Philippe, & Rothen, Francis. 1990. Problèmes à N-corps et champs quantiques. Presses Polytechniques et
Universitaires Romandes (PPUR).
Negele, J.W., & Orland, H. 1998. Quantum many-particle systems. Perseus Books.

Peskin, M.E., & Schroeder, D.V. 1995. An introduction to quantum field theory. Vol. 94. Westview press.
Pottier, Noelle. 2000. Physique statistique hors d’équilibre.
Sternberg, S. 1994. Group theory and physics. Cambridge University Press.

Velenik, Yvan. 2009. Le modèle d’Ising.


Zinsmeister, Michel, & Anderson, C Greg. 2000. Thermodynamic formalism and holomorphic dynamical systems.
Vol. 4. American Mathematical Soc.

159

Vous aimerez peut-être aussi