Cours Phys Stat
Cours Phys Stat
Physique statistique
par Frédéric Faure 1
1.
Remarque 0.0.1.
— La version de ce cours au PDF, les solutions aux exercices et autres documents, se trouvent sur la
page web [Link] . Il y a un forum de
discussions.
— Dans la version électronique PDF de ce document, les couleurs sur le texte sont souvent des liens vers
des pages de wikipedia pour avoir plus d’informations ou vers d’autres documents ou vidéos.
— Les paragraphes avec la mention (*) sont complémentaires, peuvent être sauté en première lecture.
— copyright CC BY-NC : © Frédéric Faure, 2025. Ce document est distribué sous licence Creative Com-
mons Attribution. Pas d’Utilisation Commerciale 4.0 International (CC BY-NC 4.0). Vous pouvez copier,
partager et adapter ce contenu, mais uniquement à des fins non commerciales, et en mentionnant l’au-
teur.
Table des matières
I Probabilités 9
1 Dynamique probabiliste 11
1.1 Mesure de probabilité sur un espace fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Mesure de probabilité sur X = Rd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Transformations de loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Probabilités d’évènements indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.2 Loi induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4 Loi des grands nombres et théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5 Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5.2 (*) Cas d’un espace X fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.3 (*) Entropie pour un espace X infini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.6 Dynamique de Markov probabiliste et état d’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.6.1 Dynamique de Markov sur un espace fini X avec temps discret . . . . . . . . . . . . . . . 31
1.6.2 Dynamique de Markov en musique (*) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.6.3 Augmentation de l’entropie : “2ème principe” . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.7 Exercices et problèmes corrigés sur les probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.7.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.7.2 Dynamique stochastique de Markov. Convergence vers un état d’équilibre. . . . . . . . . 41
1.7.3 Entropie et suites typique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.7.4 (*) Entropie d’un oscillateur harmonique quantique à l’équilibre thermique . . . . . . . . 43
1.7.5 Loi de Boltzmann dans un modèle simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.7.6 Théorème Central Limite (TCL). Dynamique stochastique de “pile ou face”. . . . . . . . . 44
1.7.7 Les états statistique quantiques. Opérateur densité et entropie . . . . . . . . . . . . . . . . 46
1.7.8 (optionnel) Modèle simple de décohérence quantique . . . . . . . . . . . . . . . . . . . . . 46
3
TABLE DES MATIÈRES 4
4 Statistiques quantiques 97
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.1 Champ et particules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.2 Fermions/Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.1.3 Liste des champs existants d’après le modèle standard (1970) . . . . . . . . . . . . . . . . 97
4.1.4 Grandeurs caractéristiques de chaque champ . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.1.5 Lois de conservation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.6 Désintégrations. Particules stables et instables . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.1.7 Compositions de particules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.2 Définition des Fermions et Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.2.1 (*) Statistiques quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.3 Distribution de Bose-Einstein et de Fermi-Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.4 Exercices et problèmes corrigés sur les Fermions et Bosons . . . . . . . . . . . . . . . . . . . . . . 105
4.4.1 Fermions et Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.4.2 (Optionnel) Statistiques quantiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.4.3 Comparaison des statistiques pour des particules dans un puits de potentiel harmonique 108
4.5 Interprétations et applications de la distribution de Bose-Einstein . . . . . . . . . . . . . . . . . . 109
4.5.1 Densité d’énergie des photons : la loi de Planck (1900). . . . . . . . . . . . . . . . . . . . . 109
4.5.2 Conséquences et applications de la loi de Planck . . . . . . . . . . . . . . . . . . . . . . . . 111
4.5.3 Propriétés de la distribution de Planck (voir figure) . . . . . . . . . . . . . . . . . . . . . . 111
4.5.4 Autres remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.5.5 La condensation de Bose-Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.6 Exercices et problèmes corrigés sur la loi de Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
4.6.1 Loi de Planck : gaz de photons à l’équilibre thermique . . . . . . . . . . . . . . . . . . . . 114
4.6.2 Nombre de photons par mètre cubes et “photons fossiles” dans l’univers . . . . . . . . . 116
4.7 Interprétations et applications de la distribution de Fermi-Dirac . . . . . . . . . . . . . . . . . . . 117
4.7.1 Interprétations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.7.2 Application de la distribution de Fermi : électrons dans un métal avec potentiel constant 118
4.8 Exercices et problèmes corrigés sur les électrons dans les métaux . . . . . . . . . . . . . . . . . . 120
4.8.1 Expansion de Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.8.2 Capacité calorifique des électrons d’un métal . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.8.3 (Optionnel) Paramagnétisme de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.9 Exercices et problèmes corrigés sur les étoiles naines blanches . . . . . . . . . . . . . . . . . . . . 121
4.9.1 Scénario d’évolution d’une étoile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.9.2 Etude d’un gaz d’électrons relativistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5 TABLE DES MATIÈRES
A Formulaire 157
A.1 Série géométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
TABLE DES MATIÈRES 6
Introduction
Historique
Les lois de la thermodynamique ont été découvertes au XIXème siècle. Pour un système donné (ex. un gaz,
un fluide dans une enceinte) ces lois sont basées seulement sur une fonction S ( E, V, N ) appelée entropie qui
dépend de paramètres conservés globalement : l’énergie totale E de ce système, le volume total V, le nombre
de particules total N. Les paramètres physique importants de ce système seront donnés par les variations
de cette fonction (ses dérivées), qui respectivement sont appelées pour des raison historiques, la température
−1
T = ∂E ∂S
, la pression p = T ∂V∂S
, le potentiel chimique µ = − T ∂N
∂S
.
A la fin du XIXème siècle, la physique statistique a expliqué comment la thermodynamique est une théorie
émergente à l’échelle macroscopique, à partir d’une description microscopique : les multiples degrés de liber-
tés des particules qui composent le gaz et interagissent de façon complexes et chaotique. Avec la physique
statistique, on a obtenu une explication de l’expression de la fonction entropie S ( E, V, N ). C’est le sujet de ce
cours.
Références : Diu et al. (1989, p.201).
7
TABLE DES MATIÈRES 8
Première partie
Probabilités
9
Chapitre 1
Dynamique probabiliste
Introduction : La physique statistique est basée sur une étude probabiliste des phénomènes collectifs. Dans
ce chapitre on étudie quelques notions fondamentales en théorie des probabilités, qui sont indispensables et
sont à la base de la physique statistique, mais qui ont des applications plus générales.
X = {1, 2, . . . n}
on dit qu’il est de cardinal n = ♯ X. On appellera X, l’espace des données ou espace des évènements.
Définition 1.1.1. Une suite empirique (ou données expérimentales) est une suite
( x t ) t ∈N = ( x 0 , x 1 , x 2 , . . . )
où pour t ∈ N,
xt ∈ X = {1, 2, . . . , n} .
Exemple 1.1.2. “au jeu de dé”, X = {1, 2, . . . , 6} et un tirage pourrait donner par exemple la suite
( xt )t = (1, 5, 4, 3, 2, 1, 3, . . .)
Noter que en pratique cette suite n’est pas infinie, et que chaque valeur de cette suite résulte de phénomènes
physique complexes qui sont le mouvement du dé, ses rebonds, l’amortissement, etc.
2t
t ∈N
= (1, 2, 4, 8, 16, 32, 64, 128, 256, . . .)
( xt )t∈N = (1, 2, 4, 8, 1, 3, 6, 1, 2, . . .)
Remarquer que cette suite résulte d’une formule déterministe simple. On expliquera le comportement de cette
suite ci-dessous en section 1.1.13.
11
CHAPITRE 1. DYNAMIQUE PROBABILISTE 12
Définition 1.1.4. Une observable (ou fonction test) est une fonction
f : X → R (ou C)
1 t −1
t t∑
⟨ f ⟩ x[0,t−1] := f ( xt′ ) , t ∈ N. (1.1.2)
′ =0
donnera une moyenne empirique qui est la proportion de valeur k parmi les t premiers éléments 1 :
1
⟨ f k ⟩ x[0,t−1] = ♯ xt′ = k, t′ ∈ {0, . . . , t − 1} ∈ [0, 1] .
t
Avec ces “fonctions de base” ( f k )k∈X on peut construire pour chaque instant t, un histogramme qui est la
fonction
X → R+
(
Ht : .
k → ⟨ f k ⟩x
[0,t−1]
Jusqu’à présent on a parlé de suite empirique et moyenne empirique. On va maintenant parler de mesures
de probabilité et moyenne statistique ou espérance. Ensuite on verra comment ces deux notions sont reliées.
Définition 1.1.6. Une mesure de probabilité (ou variable aléatoire ou loi de probabilité) est une
fonction positive (
X → R+
p:
x → p (x)
telle que
∑ p ( x ) = 1. (1.1.4)
x∈X
Pour une fonction (observable) f : X → R, on définit l’espérance (ou moyenne statistique) par rapport
à la mesure p
E p ( f ) := ∑ p ( x ) f ( x ) , (1.1.5)
x∈X
Remarque 1.1.7. On notera P ( X ) l’ensemble des mesures de probabilité sur X. Il sera utile de considérer la
fonction p ∈ P ( X ) comme un vecteur de composantes ( p ( x )) x∈X et de même pour la fonction f , de compo-
santes ( f ( x )) x∈X . En introduisant le vecteur 1 = (1, 1, . . . 1), et le produit scalaire l 2 entre deux vecteurs u, v
défini par
⟨u|v⟩ := ∑ u x v x ,
x∈X
⟨1| p ⟩ = 1
Définition 1.1.8. On dit qu’une mesure de probabilité p modélise une suite empirique ( xt )t∈N si pour
toute fonction (observable) f : X → R,
lim ⟨ f ⟩ x = Ep ( f ) . (1.1.6)
t→∞ [0,t−1]
On dit aussi que la suite ( xt )t est une suite typique pour la mesure p.
Remarque 1.1.9. Comme la formule (1.1.6) est linéaire en f , il suffit de la vérifier pour des fonctions de base
comme les fonctions f k en (1.1.3).
Exemple 1.1.10. (que vous pouvez réaliser vous même). Pour le jeu de dé, X = {1, 2, . . . 6}, pour un “dé
parfait” c’est à dire bien équilibré, on peut supposer que la loi de probabilité p ( x ) = 16 (qui ne dépend pas
de x) modélise toute suite empirique (suite expérimentale que l’on peut faire). On vérifie que ∑ x∈X p ( x ) = 1.
Considérons par exemple la fonction (ou observable)
f ( x ) = δx=1 + δx=2 .
Alors la moyenne empirique ⟨ f ⟩ x est la proportion des chiffres 1 et 2 parmi les t premiers lancés et la
[0,t−1]
moyenne statistique est E ( f ) = ∑ x p ( x ) f ( x ) = 1
6 + 1
6 = 13 . On prédit donc que limt→∞ ⟨ f ⟩ x 0,t−1 = 13 .
[ ]
Exemple 1.1.11. La loi de probabilité p ( x ) = δx=1 modélise des suites empiriques où “presque tous les évè-
nements” sont égaux à 1. On peut appeler une telle loi, une “loi presque-déterministe”. (Par définition, une
suite suivant une “loi déterministe” aurait dans ce cas, tous ses évènements égaux à 1.)
Exemple 1.1.12. La suite empirique ( xt )t = {0, 1, 0, 1, 0, 1, . . .} de structure périodique est modélisée par la loi
de probabilité uniforme p (0) = p (1) = 21 . Noter que cette suite ne semble pas aléatoire.
Exemple 1.1.13. La suite de Benford (1.1.1) est modélisée par la mesure de probabilité sur X = {1, 2, . . . , 9},
1 1
p (x) = ln 1 + .
ln 10 x
Ainsi on obtient que p (1) = 30%, p (2) = 17%, .., p (9) = 4%. Pour la preuve, voir Faure (2014b, page 9).
L’explication vient du fait que la mesure est uniforme sur une échelle logarithmique et que la suite de Benford
s’exprime comme une rotation d’angle irrationnel :
Exemple 1.1.14. (*) Voici une suite empirique qui n’est modélisée par aucune de mesure de probabilité. X =
{0, 1},
( xt )t∈N = |{z}
1 , 0, 0 , 1, . . . , 1, 0, . . . , 0, 1, . . . , 1, . . .
n =1 |{z} | {z } | {z } | {z }
1 n2 =2 n3 =6 n4 =18 n5
avec
j −1
nj = 2 ∑ nk .
k =1
CHAPITRE 1. DYNAMIQUE PROBABILISTE 14
j
Démonstration. Soit Nj = ∑k=1 nk . On va montrer que
1
Si j pair alors ⟨ x ⟩ Nj ≤ ,
3
2
Si j impair alors ⟨ x ⟩ Nj ≥ ,
3
ce qui implique que ⟨ x ⟩t = ⟨ x ⟩ x n’a pas de limite pour t → ∞ et contredit (1.1.6). En effet, si j est pair alors
0,t−1
[ ]
j −1
!
1 1
∑ nk
⟨ x ⟩ Nj = n 1 + n 3 + . . . + n j −1 ≤ j −1
Nj ∑ k =1 n k + n j k =1
1 1 1
= nj = .
1 2 3
2 nj + nj
1 nj nj 2
⟨ x ⟩ Nj = n1 + n3 + . . . + n j ≥ = = .
Nj Nj 1 3
2 nj + nj
En physique les phénomènes sont très souvent modélisés par des points dans des espaces X admettant des
coordonnées x = ( x1 , x2 , . . . xd ) ∈ Rd . On dit que
X = Rd
est un espace réel de dimension d (finie) (plus généralement on peut considérer une variété différentielle
réelle de dimension d). Par exemple la position d’une particule est x = ( x1 , x2 , x3 ) ∈ R3 , l’état de la particule
en mécanique du point est ( x1 , x2 , x3 , p1 , p2 , p3 ) ∈ R6 où p = ( p1 , p2 , p3 ) sont les coordonnées des l’impulsion,
etc.
On note
l’élément de volume associé à ces coordonnées sur cet espace X. La mesure dx est appelée la mesure de Le-
besgue et servira de “mesure de référence”. Dans la suite on utilisera comme exemple la droite réelle X = R
de dimension d = 1 avec la mesure de Lebesgue dx = dx1 .
L’espace X contient donc un nombre infini de points x etRce qui change avec la section précédente est
que les sommes ∑ x∈X .. sont remplacées par des intégrales x∈X ..dx. On va préciser cela, en reprenant les
définitions du paragraphe précédent.
On rappelle que si f , g : X → C sont deux fonctions dérivables à support compact (i.e. nulles hors d’un
intervalle, et on note f , g ∈ Cc∞ ( X )) alors on définit leur produit scalaire L2 par
Z
⟨ f | g⟩ L2 (X,dx) := f ( x ) g ( x ) dx. (1.2.1)
X
15 1.2. MESURE DE PROBABILITÉ SUR X = Rd
Définition 1.2.1. Une mesure de probabilité (ou variable aléatoire ou loi de probabilité) est une
mesure p ( x ) dx avec la fonction positive (ou distribution positive) appelée densité de probabilité
(
X → R+
p:
x → p (x)
telle que Z
p ( x ) dx = 1. (1.2.2)
X
(ce qui s’écrit aussi ⟨1| p⟩ = 1 avec la fonction 1 ( x ) = 1, ∀ x). Pour une fonction (appelée observable ou
fonction test ) f : X → R, f ∈ Cc∞ ( X ), on définit l’espérance de f (ou moyenne statistique)
Z
E p ( f ) := p ( x ) f ( x ) dx = ⟨ p| f ⟩ , (1.2.3)
X
Remarque 1.2.2. On notera P ( X ) l’ensemble des mesures de probabilité sur X. Attention à la notation et
au vocabulaire : p ( x ) dx est appelée la mesure de probabilité et le pré-facteur p ( x ) est appelé densité de
probabilité. On verra plus tard (au chapitre loi induite) l’utilité de garder le symbole dx dans la mesure lorsque
l’on fait des changements de variable.
Remarque 1.2.3. Attention une mesure de probabilité n’est pas toujours une fonction continue, c’est en général
ce qui est appelé une distribution p sur X, vérifiant ∀ f ∈ Cc∞ ( X, R+ ), ⟨ f | p⟩ ≥ 0 et ⟨1| p⟩ = 1. Voir ci-dessous
l’exemple de la distribution de Dirac qui ne correspond pas à une fonction.
La définition suivante confronte les données expérimentales et la loi de probabilité. Une suite empirique
( xt )t∈N est une suite de valeurs xt ∈ X.
Définition 1.2.4. On dit qu’une loi de probabilité p modélise une suite empirique ( xt )t∈N si pour toute
fonction (observable) f : X → R,
lim ⟨ f ⟩ x = Ep ( f ) . (1.2.4)
t→∞ [0,t−1]
On dit aussi que la suite ( xt )t est une suite typique pour la mesure p. (Définition précise en 1.5.7).
1 2
Exemple 1.2.5. Sur X = R, la densité de probabilité p ( x ) = π1/2
1
e− 2 x donne la mesure de probabilité p ( x ) dx
normale N (0, 1). Plus généralement, pour une variable réelle aléatoire x ∈ R, la loi normale
appelé loi
N µ, σ2 de paramètres µ ∈ R (moyenne), σ2 > 0 (variance), est la mesure de probabilité
1 1 x −µ 2
p ( x ) dx = e− 2 ( σ ) dx
Z
R
avec la “constante de normalisation” Z > 0 tel que R p ( x ) dx = 1.
Exemple 1.2.8. Sur X = R, pour un point x0 ∈ R, la mesure de Dirac (ou distribution de Dirac) δx0 est définie
par, pour toute fonction test f ∈ Cc∞ (R),
D E Z
f | δx 0 = f ( x 0 ) = f ( x ) δx0 ( x ) dx,
Voici quelques exemples importants utilisés en probabilité, de fonctions (ou observables) f et des moyennes
associées E p ( f ) (défini en (1.2.3)) .
et
σ = (Var ( x ))1/2 (1.2.7)
s’appelle l’écart type. m
Pour la fonction f ( x ) = x − E p ( x ) , la moyenne E p ( f ) de f s’appelle le moment d’ordre m.
où pour chaque k ∈ [1, K ], f k : X → R est une fonction (observable) telle que cette famille de fonction
( f k )k vérifie la relation appelée “partition de l’unité” :
K
∑ f k ( x ) = 1, ∀ x ∈ X.
k =1
La notion d’évènements indépendants est très importante et très simple : elle correspond à la géométrie
d’espace produit. Voici la définition.
17 1.3. TRANSFORMATIONS DE LOI DE PROBABILITÉ
Cov1,2
r :=
V1 V2
et la covariance
Cov1,2 := E p x1 − E p ( x1 ) x2 − E p ( x2 )
Exercice 1.3.2.
1. Montrer que
2 2
Vj = E p xj − Ep xj = E p x2j − E p x j
Cov1,2 := E p x1 − E p ( x1 ) x2 − E p ( x2 ) = E p ( x1 x2 ) − E p ( x1 ) E p ( x2 )
2. Montrer que si les variables x1 et x2 sont indépendantes alors Cov1,2 = 0, donc le degré de corrélation
est r = 0.
3. Donner un exemple de variables non indépendantes mais avec r = 0.
Exemple 1.3.3. Si pour le jeu de dés, x1 , x2 ∈ X = {1, 2, . . . 6} sont deux variables indépendantes de même loi
p ( x ) = 16 ,∀ x ∈ {1, . . . 6}, alors
1
p ( x1 , x2 ) = p ( x1 ) p ( x2 ) = .
36
On considère la somme
S = x1 + x2 ∈ {2, 3, . . . 11, 12} .
Intuitivement ou d’après la figure ci-dessous, la loi de S notée pS , appelée loi induite est donnée par la formule
générale (l’explication sera donnée en (1.3.3)) :
où l’on rappelle que δx1 + x2 =S = 1 si x1 + x2 = S et δx1 + x2 =S = 0 sinon. Cela donne simplement par exemple
d’après le schéma ci-dessous,
1 1 1 1
p S (4) = 3 × = , p S (7) = 6 × = ,
36 12 36 6
CHAPITRE 1. DYNAMIQUE PROBABILISTE 18
6 7 8 9 10 11 12
5 6 7 8 9 10 11
4 5 6 7 8 9 10
3 4 5 6 7 8 9
2 3 4 5 6 7 8
1 2 3 4 5 6 7
1 2 3 4 5 6
La façon rigoureuse de justifier la formule (1.3.2) est de dire : s’intéresser à seulement la variable S revient à
ne considérer que des fonctions f (S)arbitraires (appelées observables ou fonction test) qui ne dépendent que
de S = x1 + x2 . Alors l’espérance est
⟨ f | pS ⟩ = ⟨ f | p⟩ = ∑
(1.1.5) x1 ,x2
f ( S ) p ( x1 , x2 ) = ∑ f (S) ∑ p ( x1 , x2 ) , (1.3.3)
S x1 ,x2 ∈ X
S= x1 + x2 fixe
et l’on déduit la formule (1.3.2). On reprendra ce formalisme dans le cas de variables continues, dans l’exercice
suivant.
Exemple 1.3.4. Considérons deux variables aléatoires x1 , x2 ∈ X = R indépendantes, chacune de loi normale
1 − x22
p (x) = e 2σ
Z
avec un écart type σ > 0 et Z > 0 qui est une constante de normalisation. On a alors
1 − 12 ( x12 + x22 ) 1 − 1 r2
p ( x1 , x2 ) = p ( x1 ) p ( x2 ) = 2
e 2σ = 2 e 2σ2 (1.3.4)
Z Z
avec les coordonnées polaires r, θ définies par
x1 = r cos θ, x2 = r sin θ.
On a la mesure de Lebesgue
dx1 dx2 = rdθdr (1.3.5)
Supposons que l’on cherche la loi induite pr (r ) sur la variable r. On considère une fonction arbitraire f (r )
(appelée “fonction test” ou “observable”) ne dépendant que de la variable r et on écrit
1 − 12 r 2
Z Z
⟨ f | pr ⟩ = ⟨ f | p ⟩ = f (r ) p ( x1 , x2 ) dx1 dx2 = f (r ) e 2σ rdrdθ (1.3.6)
(1.2.3) (1.3.4,1.3.5) Z2
2π − 12 r2
Z
= f (r ) e 2σ rdr.
Z2
On déduit que
2π − 12 r2
pr (r ) dr = e 2σ rdr (1.3.7)
Z2
On obtient le résultat attendu que pr (0) = 0, i.e. le cercle de rayon r = 0 est “non probable”, bien que
le point origine ( x1 , x2 ) = (0, 0) soit le maximum de la fonction p ( x1 , x2 ), i.e. le point “le plus probable”. Le
maximum de pr (r ) se situe à une valeur rmax > 0 telle que
dpr 1 2
= 0 ⇔ − 2 rmax + 1 = 0 ⇔ rmax = σ.
dr σ
Voici l’allure des fonctions p ( x1 , x2 ) et pr (r ) pour σ = 1, obtenues avec le logiciel ROOT 2 :
2. code script ROOT pour obtenir les figures :
19 1.3. TRANSFORMATIONS DE LOI DE PROBABILITÉ
Définition 1.3.5. Supposons donné une loi p X ( x ) dx sur la variable x ∈ X et une application C ∞
π : X → Y.
La loi induite pY (y) dy sur la variable y = π ( x ) est définie par : pour toute observable f : Y → R, on
a
⟨ f | pY ⟩ L2 (Y;dy) = ⟨ f ◦ π | p X ⟩ L2 (X;dx) . (1.3.8)
où ( f ◦ π ) ( x ) := f (π ( x )) est la fonction composée.
Remarque 1.3.6. On donne cidessous en (1.3.10) une expression plus concise de la loi induite pY . Pour cela, on
note π ◦ l’opérateur de composition (ou pull-back) des fonctions par π :
∞ ∞
(
◦ C (Y ) → C ( X )
π
f → f ◦π
On suppose qu’il y a des mesures dx, dy (arbitraires) respectivement sur les espaces X, Y. Cela permet de
définir les produits scalaires L2 ( X, dx ) et L2 (Y, dy) par (1.2.1). On définit alors l’opérateur L2 -adjoint
( π ◦ ) † : C ∞ ( X ) → C ∞ (Y )
et finalement la loi induite pY (y) sur Y (aussi appelée mesure push-forward) est donnée par
donc
pY = ( π ◦ ) † p X . (1.3.10)
On vérifie que c’est une loi de probabilité car
Question 1.4.1. “Somme de variables aléatoires”. Si ( xt )t∈N sont des variables aléatoires indépendantes de
même mesure de probabilité p ( x ) dx (i.e. “identiquement distribuées”), on souhaite décrire pour t ≫ 1, la loi
PSt (s) ds de la somme
t −1
St = ∑ x t ′ = x 0 + x 1 + . . . x t −1 .
t ′ =0
1
p (x) = (δ ( x ) + δ2 ( x )) .
2 1
Cette loi signifie que sa valeur est 1 avec probabilité 1/2 ou 2 avec probabilité 1/2. Alors on déduit que pour
la somme S2 = x0 + x1 formée par deux variables identiques, indépendantes de même loi p ( x ), on a
1
PS2 = (δ2 + 2δ3 + δ4 )
4
et de même pour la somme S3 = x0 + x1 + x2 ,
1
PS3 = (δ3 + 3δ4 + 3δ5 + δ6 ) .
8
Observations : on pourrait continuer avec les formules de combinatoire et observer que la distribution PSt
pour t ≫ 1, est de support dans l’intervalle [t, 2t], avec une concentration de pics en s = µt avec la moyenne
1 1 3
Z
µ = E p (x) = xp ( x ) dx = 1 + 2 = ,
2 2 2
21 1.4. LOI DES GRANDS NOMBRES ET THÉORÈME CENTRAL LIMITE
√
et plus précisément, que ce groupe central a une forme Gaussienne, centré en µt et de largeur σ t avec l’écart
type (1.2.7)
1/2 1 1 1 1 1/2 1
2
σ = E p ( x − µ) = + = .
24 24 2
Si regarde de plus près, cette gaussienne est en fait une contribution de pics de Dirac, distants de 1. Hors de ce
groupe central les évènements, bien que en nombre infinis dans la limite t → +∞, deviennent extrêmement
rares et sont décrit par la théorie des grandes déviations 3 . Voir ces vidéos.
Remarque 1.4.4. On peut faire la même observation à partir d’une loi p ( x ) continue, mais dans ce cas on ne
peut pas faire d’étude combinatoire. En général il n’y a plus de superpositions de pics comme dans le cas ci-
dessus, chaque pic est isolé mais on observe encore une concentration vers la moyenne comme précédemment.
Cependant pour l’exprimer, il devient nécessaire d’utiliser la notion de “observable” et de normaliser la
somme par 1t .
Voici un énoncé précis et une preuve des ces phénomènes observés.
Théorème 1.4.5. « loi des grands nombres ». Si x1 , x2 , . . . sont des variables aléatoires indépendantes de
mêmeqmesure de probabilité p ( x ) dx, d’espérance (i.e. moyenne) finie µ = E ( x ) < ∞ et de écart type fini
σ = E ( x − µ)2 < ∞ alors la somme St = x0 + x1 + . . . + xt−1 renormalisée par 1/t
1
st = St
t
a une mesure de probabilité pst (s) qui vérifie que pour toute observable f ∈ Cc∞ ( X ),
a. La convergence (1.4.1) s’appelle “convergence au sens des distributions”, ou “convergence faible”, ou “convergence en
loi” et est notée avec une étoile ∗ comme en (1.4.2).
Remarque 1.4.6. Pour avoir le résultat (1.4.1) il a été important de considérer non pas la variable St mais la
variable 1t St qui est divisée par t, comme observé sur la figure .
Observer que la loi limite δµ dans (1.4.2) est une loi déterministe et ne dépend de la loi initiale p que par sa
moyenne µ. On dit que c’est un “résultat d’universalité”.
On cherche l’expression de la loi induite pst (s) ds pour t → ∞. Pour cela, on considère une fonction (obser-
vable) quelconque f : s ∈ R → f (s) ∈ R, et on écrit
Les variables ( x0 , . . . xt−1 ) sont indépendantes, donc la loi globale est le produit
p ( x 0 , . . . x t −1 ) = p ( x 0 ) p ( x 1 ) . . . p ( x t −1 ) . (1.4.4)
(1.3.1)
Pour démontrer (1.4.1), on va voir qu’il est utile d’utiliser la transformée de Fourier, i.e. la décomposition sur
les modes de Fourier
φk : x ∈ R → eikx ∈ C (1.4.5)
3. Références conseillées : introduction An Introduction to Large Deviations for. Teletraffic Engineers. John T. Lewis1, un livre Den Hol-
lander (2008, chap1, chap2, section1.), plus développé : The large deviation approach to statistical mechanics by Hugo Touchette.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 22
dk
Z
Id = φ k ⟨ φ k |.⟩ . (1.4.6)
2π
et avec l’application linéaire (appelée “ket”) ⟨ φk |.⟩ : u ∈ Cc∞ (R) → ⟨ φk |u⟩ ∈ C. Ainsi
dk
Z
⟨ f | pst ⟩ = ⟨ f |Id pst ⟩ = ⟨ f | φk ⟩⟨ φk | pst ⟩ . (1.4.7)
(1.4.6) 2π
Or
Z Z
−iks 1
⟨ φk | p st ⟩ = e pst (s) ds = e−ik t ( x0 +...xt−1 ) p ( x0 , . . . xt−1 ) dx0 . . . dxt−1
(1.4.3)
Z
1
= e−ik t ( x0 +...xt−1 ) p ( x0 ) . . . p ( xt−1 ) dx0 . . . dxt−1
(1.4.4)
Z t
−i kt x
= e p ( x ) dx
où
!
2
−i kt x k k
φk/t ( x ) = e = 1−i x+O x
(1.4.5) t t
t
Ensuite on utilise que X t = eln X = et ln X et que ln (1 + X ) = X + O X 2 et ⟨ φk |δµ ⟩ = φk (µ) = e−ikµ ,
!!t
k k 2
t
⟨ φk | pst ⟩ = (⟨ φk/t | p⟩) = 1−i µ+O
(1.4.8) (1.4.9) t t
!!!
k k 2
= exp t ln 1 − i µ + O
t t
!!! !!
k k2 k2
= exp t −i µ + O 2 = exp −ikµ + O
t t t
k2
O
= ⟨ φk |δµ ⟩e t
→ ⟨ φk |δµ ⟩
t→∞
Attention ce dernier résultat converge à k fixé pour t → ∞. Le fait que l’on considère des mesures de pro-
babilité, c’est suffisant pour terminer la preuve : on utilise le théorème de Levy 1.4.7 ci-dessous, (on vérifie
1/2
l’hypothèse E pst (|s|) = E p (|s|) < E p | s |2 < M) qui donne
Cauchy−Schwartz
dk dk
Z Z
⟨ f | pst ⟩ = ⟨ f | φk ⟩⟨ φk | pst ⟩ → ⟨ f | φk ⟩⟨ φk |δµ ⟩ = ⟨ f |δµ ⟩.
(1.4.7) 2π t→∞ 2π (1.4.6)
Théorème 1.4.7. (*) “Théorème de Levy faible” Si µ j j ∈N
sont des mesures de probabilité de premier moment
uniformément bornée : ∃ M > 0, ∀ j, Eµ j (|s|) ≤ M et
∀k ∈ R, ∃µ̂k ∈ C, ⟨ φk |µ j ⟩ → µ̂k ,
j→∞
dk
R
alors µ = φk µ̂k 2π est une mesure de probabilité (i.e. ⟨ φk |µ⟩ = µ̂k ) et
(1.4.6)
∗
µ j → µ. (1.4.10)
j→∞
Remarque 1.4.8. On utilise l’hypothèse ∃ M > 0, ∀ j, Eµ j (|s|) ≤ M dans la preuve ci-dessous. D’après le
théorème de Levy, le résultat est encore vrai sans cette hypothèse.
Démonstration. Comme µ j est une mesure de probabilité, on a la majoration générale de sa transformée de Fou-
R −iks R
rier : ∀k, ⟨ φk |µ j ⟩ = e µ j (s) ds ≤ µ j (s) ds = 1 et les fonctions µ̂ j : k → ⟨ φk |µ j ⟩ sont équicontinues
(1.4.5)
car on a
′ 1 ′ 1 ′ 1
e−ik s − e−iks = ei 2 (k−k )s − e−i 2 (k−k )s = 2 sin k − k′ s k − k′ s ,
≤
2
Z Z
′
µ̂ j k′ − µ̂ j (k) ≤ e−ik s − e−iks µ j (s) ds = k − k′
sµ j (s) ds
Z
= k − k′ |s| µ j (s) ds ≤ k − k′ M
On a donc (Théorème de Dini) convergence uniforme sur les compacts :∀K > 0, ∀ |k| ≤ K, ⟨ φk |µ j ⟩ − µ̂k ≤ ϵK,j
avec ϵK,j → 0. Par ailleurs si f est C ∞ , alors ses composantes de Fourier décroissent très vite : ∀ N > 0, ∃CN >
j→∞
0, |⟨ f | φk ⟩| ≤ CN ⟨k⟩− N .
dk
Z
⟨ f |µ j ⟩ = ⟨ f | φk ⟩⟨ φk |µ j ⟩ = ⟨ f |µ⟩ + r j
(1.4.7) 2π
avec
dk
Z
rj ≤ |⟨ f | φk ⟩| ⟨ φk |µ j ⟩ − µ̂k
2π
dk dk
Z Z
≤ |⟨ f | φk ⟩| ϵK,j + CN ⟨k ⟩− N
|k|≤K 2π |k|≥K 2π
≤ CϵK,j + O ⟨K ⟩− N −1
Pour tout ϵ > 0, on choisit K assez grand de sorte que O ⟨K ⟩− N −1 < 1
2 ϵ, puis j assez grand de sorte que
1
CϵK,j < 2 ϵ, donnant r j < ϵ et donc r j → 0, c’est à dire (1.4.2).
j→∞
CHAPITRE 1. DYNAMIQUE PROBABILISTE 24
Théorème 1.4.9. « théorème central limite ». Si x1 , x2 , . . . sont des variables aléatoires indépendantes de même
mesure
r de probabilité p ( x ) dx, d’espérance (i.e. moyenne) finie µ = E ( x ) < ∞ et de variance finie σ =
E ( x − µ)2 < ∞ et E x3 < ∞, alors la somme St = x0 + x1 + . . . + xt−1 décalée de µt et renormalisée
par √1 ,
t
1
st = √ (St − tµ)
t
a une mesure de probabilité pst (s) qui converge pour t → ∞ vers la loi normale N 0, σ2 :
∗ 1 − 1 ( s )2
pst (s) ds → Gσ (s) ds, avec Gσ (s) = e 2 σ , (1.4.11)
t→∞ Z
(qui signifie que pour toute observable f ∈ Cc∞ ( X ), ⟨ f | pst ⟩ → ⟨ f | Gσ ⟩).
t→∞
Démonstration. (*) en TD. On suit la même démarche que dans la preuve du théorème 1.4.5. Les seuls change-
ments sont (1) à cause du décalage de µt et pour cela on peut supposer que µ = 0 et (2) au lieu du facteur 1t ,
il faut mettre le facteur √1 . Au lieu de (1.4.8) on a
t
t
⟨ φk | pst ⟩ = ⟨ φk/√t | p⟩ (1.4.12)
1 k2 2
3
√ k k 3
⟨ φk/ t | p⟩ = ⟨1| p⟩ − i √ ⟨ x | p⟩ − ⟨ x | p⟩ + O 3/2 |⟨ x | p⟩|
t 2 t t
1 k2 2
3
k
= 1− σ + O 3/2 . (1.4.13)
2 t t
3 t
1 k2 2
t
√ k
⟨ φk | pst ⟩ = ⟨ φk/ t | p⟩ = 1− σ + O 3/2
(1.4.12) (1.4.13) 2 t t
2
1k 2
3
k
= exp t ln 1 − σ + O 3/2
2 t t
!!
3
1 k2 2
3
k 1 k
= exp t − σ + O 3/2 = exp − k2 σ2 + O
2 t t 2 t1/2
3
O k
= ⟨ φk | Gσ ⟩e t1/2 → ⟨ φk | Gσ ⟩
t→∞
1 s 2 1 2 σ2
e−iks Z1 e− 2 ( σ ) ds = e− 2 k
R
où on a utilisé que (par intégrale Gaussienne) ⟨ φk | Gσ ⟩ = . Donc (et utilisant le
théorème de Levy 1.4.7)
dk dk
Z Z
⟨ f | p st ⟩ = ⟨ f | φk ⟩⟨ φk | pst ⟩ → ⟨ f | φk ⟩⟨ φk | Gσ ⟩ = ⟨ f | Gσ ⟩.
(1.4.7) 2π t→∞ 2π (1.4.6)
1.5 Entropie
1.5.1 Introduction
En termes simples on dit que l’entropie mesure le “désordre” ou “l’incertitude sur l’avenir”. L’entropie est
une valeur S sans dimension.
— Une valeur d’entropie élevée S ≫ 1 signifie qu’il y a beaucoup de désordre ou une grande imprévisi-
bilité (par exemple l’évènement “pile” au jeu de pile ou face ou l’évènement “jour ensoleillé” pour les
jours à venir à Grenoble)
— au contraire S ≈ 0 signifie que les évènements à venir sont prédictibles (par exemple l’évènement “jour
ensoleillé” pour les jours à venir à Dakar).
Précisément, on va définir l’entropie relative d’une mesure de probabilité p par rapport à une autre mesure
de référence m (ce seront dans les théorèmes 1.5.11 dans le cas fini et 1.5.13 dans le cas infini), comme étant le
taux d’incertitude pour une suite typique 5 d’évènements issue de cette loi de probabilité. L’entropie est à la
base de la physique statistique.
Voici la question à laquelle on va répondre ensuite. Cette question contient la définition d’entropie.
Question 1.5.1. Soit une mesure de probabilité donnée p : X → R+ , et ⃗xt = ( x1 , x2 , . . . xt ) une suite de
données avec x j ∈ X variables aléatoires indépendantes identiquement distribuées selon la loi p. La question est
d’estimer le nombre Nt de telles suites typiques ⃗xt de longueur t, c’est à dire qui apparaissent de façon probable
pour t ≫ 1. Montrer que
Nt ≈ etS
avec un taux S ≥ 0 appelé entropie qui s’exprime à partir de la loi p par (théorème de Shannon-MacMullen
1948 1.5.11)
1
S = ∑ p ( x ) ln . (1.5.1)
x∈X
p (x)
Explorons tout d’abord cette question de façon heuristique (i.e. de façon non rigoureuse mais convain-
quante) sur des exemples.
Remarque 1.5.2. On verra en dans la section 1.6.3 qu’une expression générale et plus correcte de l’entropie est
m( x )
S = ∑ x∈X p ( x ) ln p( x) où m ( x ) est une “mesure de référence”, ici m ( x ) = 1.
Exemple 1.5.3. X = {1, 2} et on considère la loi de probabilité déterministe p (1) = 1, p (2) = 0. Une
suite typique de longueur t est ⃗xt = (1, 1, . . . 1) (ou en ajoutant quelques rares 0). Donc Nt ∼ 1 = e0×t ,
donnant S = 0, (conformément à (1.5.1) car ∑ x∈X p ( x ) ln p(1x) = 1 ln 1 + 0 ln 0 = 0 (avec la convention
0 ln 0 = limϵ→0 ϵ ln ϵ = 0)).
Exemple 1.5.4. X = {1, 2} et on considère la loi de probabilité uniforme p (1) = 21 , p (2) = 12 . Alors à chaque
étape les 2 évènement 1, 2 sont équiprobables, ainsi il y a Nt = 2t = e(ln 2)t suites typiques de longueur t,
par exemple ⃗xt = (1, 2, 2, 1, . . . , 2). Donc S = ln 2 ≈ 0.69, (conformément à (1.5.1) car ∑ x∈X p ( x ) ln p(1x) =
1
2 ln 2 + 21 ln 2 = ln 2).
Exemple 1.5.5. Cas plus général. X = {1, 2} et on considère la loi de probabilité quelconque p (1) = 1 − ϵ,
p (2) = ϵ avec un paramètre 0 ≤ ϵ ≤ 1 fixé. Les deux exemples précédents correspondaient aux cas ϵ = 0
et ϵ = 1/2. Une suite typique de longueur t ressemble à ⃗xt = (1, 1, 1, 2, 1 . . . , 1, 2, 1) avec une proportion
p (1) = 1 − ϵ de 1 et p (2) = ϵ de 2. On démontre ci-dessous en section [Link], (voir aussi en TD avec une
méthode combinatoire) que le nombre de telles suites typiques est
N t ≈ e Sϵ t
5. On rappelle que l’on a définit une suite typique dans la définition 1.1.8.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 26
avec
1
Sϵ = ∑ p ( x ) ln
p (x)
(1.5.2)
x∈X
1 1
+ p (2) ln
= p (1) ln
p (1) p (2)
1 1
= (1 − ϵ) ln + ϵ ln
1−ϵ ϵ
′
f′ f′
Observons que (utilisons que (ln f )′ = f donc ln 1f = − f )
dSϵ 1 1 1 1 1 1
= − ln + (1 − ϵ ) + ln − ϵ = − ln + ln
dϵ 1−ϵ (1 − ϵ ) ϵ ϵ 1−ϵ ϵ
d2 Sϵ 1 1
2
=− − <0
dϵ 1−ϵ ϵ
ainsi la fonction ϵ → Sϵ est concave et le maximum est
dSϵ 1 1 1
=0⇔ = ⇔ϵ=
dϵ ϵ 1−ϵ 2
dSϵ
qui correspond à la distribution uniforme donnant Sϵ= 1 = ln 2. La dérivée diverge aux bords : →
dϵ ϵ→ ±∞.
2 0,1
Voici le schéma 6
Remarque 1.5.6. Historiquement, en 1877, Boltzmann a introduit l’entropie et la formule S = k ln W qui est
gravée sur sa tombe. Par rapport à ce qui précède, ici W est le nombre d’état supposés équiprobables pour
un ensemble de particules de taille macroscopique (W = 2 dans le jeu de pile/face), et le résultat ln W étant
cependant énorme, on rajoute en physique une constante k très petite pour obtenir une valeur S = k ln W
de l’ordre de 1 (voir discussion en section 2.2.1). . En 1948, Shannon, ingénieur en télécommunications veut
estimer combien de copies Nt du même message il faut envoyer au minimum, pour compenser les modifica-
tions aléatoires des caractères lors du transfert. Il donne alors la définition et les propriétés que l’on va voir
ci-dessous Cover (1999).
même loi p est le produit des probabilité. On va utiliser ln (.) pour transformer ce produit en somme afin
d’utiliser la loi des grands nombres (1.4.2). On écrit
t
∏p
p (⃗xt ) = p ( x1 ) p ( x2 ) . . . p ( xt ) = xj
(1.3.1) j =1
!
t −t 1
t ∑tj=1 ln 1
= e ∑ j =1
ln p( x j ) ( ) = e−tSt
p xj
=e (1.5.3)
avec la quantité
t
1 1
St =
t ∑ ln p xj
.
j =1
La variable St est définie à partir de la suite aléatoire ⃗xt , donc St est une variable aléatoire. On cherche sa loi
de probabilité pSt (s) ds. D’après la loi des grands nombres (1.4.2),
∗
pSt (s) ds → δS
t→∞
avec la moyenne
1 1
S := E ln
p (x)
= ∑ p ( x ) ln
p (x)
,
x∈X
qui est l’entropie. Cela montre que pour t ≫ 1, la variable St a une loi déterministe : elle prend presque
xt ont toutes la même probabilité p (⃗xt ) ≈ e−tS .
surement la valeur S et d’après (1.5.3), les suites typiques ⃗
Toujours d’après la loi des grands nombre, cela est vrai pour presque toutes les suites donc
Nt × e−tS ≈ 1 ⇔ Nt ≈ etS .
Définition 1.5.7. ( xt )t∈N ∈ X N est typique pour la mesure p si pour toute observable f : X → R,
∃C f > 0
1
⟨ f ⟩ x[0,t−1] − E p ( f ) ≤ C f t− 3 , ∀t ∈ N. (1.5.4)
Remarque 1.5.8. Dans la description ci-dessus de la loi des grands nombres, la définition (1.5.4) signifie que la
suite est dans le groupe central.
Remarque 1.5.9. L’exposant − 31 dans (1.5.4) est choisit dans l’intervalle ] − 12 , 0[ et conviendra d’après le théo-
rème central limite.
Pour une suite ( xt )t∈N = ( x0 , x1 , . . .) on note
On notera
∑
p Rt S p = p x[0,t−1] (1.5.7)
x[0,t−1] ∈ Rt (S p )
la probabilité de l’ensemble Rt S p . Un premier résultat important est le suivant
Théorème 1.5.10. Cover (1999, thm 3.1.2 p.51)Soit p ∈ P ( X ) une loi de probabilité et S p les suites typiques
associées.
lim p Rt S p = 1, (1.5.8)
t→∞
c’est à dire que une longue suite empirique est une suite typique presque sûrement.
Il devient alors important de dénombrer le nombre de suites typiques x[0,t−1] ∈ Rt S p , autrement dit de
calculer le cardinal ♯ Rt S p et calculer p x[0,t−1] la probabilité individuelle d’une suite typique. C’est
t
donné par les résultats suivants et parfois appelé “AEP : asymptotic equipartition property” Cover (1999,
chap.3).
Théorème 1.5.11. Cover (1999, thm 15.7.1 p.475)”Shanon-MacMullen-Bricman” Soit p ∈ P ( X ) une loi de
probabilité sur un espace fini X. Alors pour toute suite typique ( xt )t ∈ S p ,
1 1
lim ln = S ( p) (1.5.9)
t→∞ t p x [0,t−1]
avec
n
1
S ( p) = ∑ p (x) ln p (x)
, (1.5.10)
x =1
qui signifie que le nombre de suites typiques croit comme ♯ Rt S p = et(S( p)+o(1)) .
L’entropie vérifie
0 ≤ S ( p) ≤ ln n
et en particulier :
— Entropie nulle S ( p) = 0 si et seulement si p ( x ) = δx=k pour un certain k, i.e. p est une mesure presque
déterministe.
— Entropie maximale
S ( p) = ln n (1.5.12)
si et seulement si p ( x ) = n1 , ∀ x, i.e. p est la mesure uniforme.
Démonstration. On a
t −1
p x[0,t−1] = p ( x 0 ) p ( x 1 ) . . . p ( x t −1 ) =
(1.5.6)
∏ p ( xt′ )
t ′ =0
! !
t −1 t −1
1
= exp ∑
′
ln p ( xt′ ) = exp − ∑
′
ln
p ( xt′ )
= e−tSt
t =0 t =0
avec
1 t −1 1
t t∑
St = ln .
′ =0 p ( xt′ )
1
D’après la loi des grands nombres (1.4.2), appliquée ici à la fonction f ( x ) = ln p( x )
, la loi pSt de St converge
vers un Dirac vers la moyenne S
∗
pSt → δS (1.5.13)
t→∞
29 1.5. ENTROPIE
avec
1 1
S = E ln
p (x)
=
(1.1.5) x
∑ p (x) ln p (x) .
Soit S p′ l’ensemble des suites typiques pour la mesure p et la fonction f ( x ) = ln p(1x) seulement c’est à
dire vérifiant (1.5.4). On a donc S p ⊂ S p′ . On admet que S p = S p′ . D’après le théorème central limite, on a
limt→∞ p Rt S p = 1 c’est à dire (1.5.8).
Par définition de S p on a donc (1.5.9) et par conséquence (1.5.11) car
♯ Rt S p e−t(S( p)+o(1)) ∼ 1.
On reproduit les définitions et propriétés de la section 1.5.2. La définition 1.5.7 de suite typique ne change pas.
Pour une suite restreinte x[0,t−1] = ( Rt x ) = ( x0 , x1 , . . . xt−1 ), comme en (1.5.5), on définit comme en (1.5.6)
m x[0,t−1] = m ( x 0 ) m ( x 1 ) . . . m ( x t −1 ) , (1.5.14)
(1.3.1)
et pour remplacer le cardinal ♯ Rt S p dans (1.5.11) , on écrit
Z
Volm Rt S p := m x[0,t−1] dx[0,t−1] .
Rt (S p )
est le volume de l’ensemble Rt S p pour la mesure m. De même pour remplacer (1.5.7), on écrit
Z
p Rt S p = p x[0,t−1] dx[0,t−1] ,
Rt (S p )
qui est la probabilité de l’ensemble Rt S p . Le Théorème 1.5.10 ne change pas :
Théorème 1.5.12. Cover (1999, thm 3.1.2 p.51)Soit p ∈ P ( X ) une loi de probabilité et S p les suites typiques
associées.
lim p Rt S p = 1, (1.5.15)
t→∞
c’est à dire que une longue suite empirique est une suite typique presque sûrement.
Théorème 1.5.13. Cover (1999, thm 15.7.1 p.475)”Shanon-MacMullen-Bricman” Soit p ∈ P ( X ) une loi de
probabilité et m = m ( x ) dx une mesure sur X. Alors pour toute suite typique ( xt )t ∈ S p ,
1 m x [0,t−1]
Sm ( p) = lim ln (1.5.16)
t→∞ t p x [0,t−1]
avec
m (x)
Z
Sm ( p ) = p ( x ) ln dx, (1.5.17)
X p (x)
appelée entropie de la mesure p relative à la
mesure
m. Eq.(1.5.16) signifie t ≫ 1 les suites typiques
que pour
ont des probabilités “presque” identiques : p x[0,t−1] = e−t(S( p)+o(1)) m x[0,t−1] .
Conséquences :
1
Sm ( p) = lim ln Volm Rt S p (1.5.18)
t→∞ t
qui signifie que le volume de suites typiques croit comme Volm Rt S p = et(S( p)+o(1)) .
L’entropie vérifie
Sm ( p) ≤ ln Volm ( X )
et en particulier :
— Entropie maximale S ( p) = ln Volm ( X ) si et seulement si p ( x ) = Vol 1(X ) m ( x ) , ∀ x est la mesure
m
uniforme pour m.
— Pour une mesure de Dirac p ( x ) = δx0 avec x0 ∈ X, on a S (δx0 ) = −∞.
— Voir ci-dessous une discussion sur les conditions pour avoir Sm ( p) ≥ 0.
avec
1 t −1 p ( xt′ )
St = ∑ ln
t t ′ =0 m ( x t ′ )
.
m( x )
D’après la loi des grands nombres (1.4.2), appliquée ici à la fonction f ( x ) = ln p( x )
, la loi pSt de St converge
vers un Dirac vers la moyenne S
∗
pSt → δS (1.5.19)
t→∞
avec
m (x) m (x)
Z
S = E ln = p ( x ) ln dx.
p (x) (1.2.5) X p (x)
m( x )
Soit S p′ l’ensemble des suites typiques pour la mesure p et la fonction f ( x ) = ln p( x) seulement c’est à
dire vérifiant (1.5.4). On a donc S p ⊂ S p′ . On admet que S p = S p′ . D’après le théorème central limite, on a
limt→∞ p Rt S p = 1 c’est à dire (1.5.15). Par définition de S p on a donc (1.5.16) et par conséquence (1.5.18)
car
Volm Rt S p e−t(S( p)+o(1)) ∼ 1.
donc “une particule ne peut pas occuper un m-volume inférieur à 1”. On appelle donc l’hypothèse (1.5.20),
“principe d’incertitude”.
Si de plus p ( x ) = Vol 1(Ω) m ( x ), c’est à dire que la mesure de probabilité est m-uniforme sur Ω alors
m
Sm ( p ) = ln (Volm (Ω))
(1.5.17)
et Sm ( p) = 0 si Volm (Ω) = 1.
Remarque 1.5.14. En mécanique quantique, m = m ( x ) dx sera la mesure de Liouville sur l’espace des phases
(espace cotangent). L’hypothèse (1.5.20) est une conséquence du principe d’incertitude en mécanique ondula-
toire. On aura Sm ( p) = 0 à température nulle, cela est appelé le principe de Nerst, ou 3eme principe, car le
système est dans un état quantique.
Références :
— Chapitre 4 de ce cours Faure (2016).
Définition 1.6.1. Soit X = {1, 2, . . . n} l’espace des évènements que l’on suppose fini. Une matrice
stochastique M est une matrice M = Mx′ ,x x′ ,x∈X ∈ Rn×n réelle de taille n × n à coefficients Mx′ ,x ∈
(i.e. la somme sur chaque colonne est 1). A l’instant t = 0, on considère une mesure de probabilité
pt=0 ∈ P ( X ) sur X, i.e. un vecteur ( p0 ( x )) x∈X vérifiant ∑ x p0 ( x ) = 1. La loi d’évolution de Markov
est que la mesure de probabilité pt ∈ P ( X ) à la date t ∈ N est donnée pour tout t ≥ 1 par
Remarque 1.6.2. On verra des exemples simples et concrets ci-dessous. Cette loi d’évolution (1.6.2) correspond
à des phénomènes très courants en physique. Par exemple supposons que l’on connait bien le système à la
date t = 0 : il est dans l’état x = 1 ∈ X. Cela est donc modélisé par la mesure de proba p0 = (1, 0, . . . 0). Mais
à cause des transitions aléatoires x → x ′ de probabilité de transition Mx′ ,x données, on ne peut pas prédire
précisément l’état du système à la date t. On peut seulement prédire qu’il sera dans un état x ∈ X quelconque
avec la probabilité pt ( x ) où la mesure de probabilité pt est donnée par (1.6.2).
CHAPITRE 1. DYNAMIQUE PROBABILISTE 32
Exercice 1.6.3. (*) Montrer que la condition (1.6.1) est nécessaire et suffisante pour que : si pt−1 ∈ P ( X ) est
une mesure de probabilité alors pt+1 ∈ P ( X ) est aussi une mesure de probabilité et que cette condition (1.6.1)
s’écrit aussi
M T 1 = 1,
avec la matrice transposée M T et le vecteur 1 = (1, 1, . . . 1).
∀ p ∈ P (X) , Mp ∈ P ( X )
⇔∀ p ∈ R , ∑ ( Mp) x ′ = ∑ p ( x )
n
x′ x
⇔∀ p ∈ Rn , ⟨1| Mp⟩ = ⟨1| p⟩
D E
⇔∀ p ∈ Rn , M T 1| p = ⟨1| p⟩
⇔ MT 1 = 1
⇔ ∑ MT = 1 ⇔ ∑ Mx′ ,x = 1.
x,x ′
x′ x′
Remarque 1.6.5. Du fait de son importance en science, l’équation d’évolution de Markov (1.6.2) est apparue
avec des variantes, dans différents domaines avec différents noms et s’appelle aussi “équation maitresse”, ou
“équation de Fokker Planck discrète”, ou “équation de Kolmogorov”,...
La réponse à cette question sera donnée par le célèbre théorème de Perron-Frobenius 1.6.13.
Remarque 1.6.7. La formule matricielle pt = Mpt−1 donne pt = Mt p0 en fonction de p0 qui est un produit de
matrices donnant une expression très compliquée et incalculable en général :
qui est une somme sur toutes les suites x0 → x1 → x2 . . . → xt−1 aussi appelés “chemins”. Pour cette raison
cette expression est aussi appelé “intégrale de chemins de Feynman”). En fait, pour calculer pt = Mt p0 il est
−1 t t −1
préférable de diagonaliser M au préalable : M = PDP avec D = Diag (λ1 , λ2 , . . . λn ), ainsi M = AD A
où D = Diag λ1 , λ2 , . . . λn . De plus pour t → ∞ cette expression se simplifie si des valeurs propres ont un
t t t t
Dans ce cas il est clair quele point x = 1 va évoluer point x = 2 après une date t impair, etc. On a
au
t 0 1 t 1 0
explicitement M = si t impair et M = si t pair, donc si au départ, p0 = ( a, b) alors
1 0 0 1
pt = ( a, b) si t est pair et pt = (b, a) si t est impair. Il n’a pas été utile de diagonaliser M dans cet exemple très
particulier que l’on considère comme “déterministe” (ici les valeurs propres de M sont {i, −i }). Un exemple
encore plus simple serait M = Id qui correspond à aucun mouvement.
1
2 0
Exemple 1.6.9. Pour X = {1, 2}, la matrice M = 1 représentée par le graphe suivant.
2 1
33 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE
On peut deviner que une trajectoire typique passera deux fois plus de temps sur le point x = 1 que le point
x = 2. Ci-dessous on va démontrer précisément que pt converge vers la mesure de probabilité pequil. appelée
mesure d’équilibre, qui est indépendante de p0 :
2
pt → pequil. = 3 . (1.6.3)
1
t→∞ 3
Remarque 1.6.10. Une différence cruciale entre cet exemple et le précédent est qu’ici on a
3 1
2 4 2
M = 1 1 , (1.6.4)
4 2
qui est une matrice à coefficients tous positifs et ce qui signifie que à partir du temps t = 2, il y a transition
possible de x à x ′ pour tout couple ( x, x ′ ). On dit que la matrice M est mélangeante.
Voici comment montrer rigoureusement (1.6.3) et ce sera la démarche générale pour répondre à la ques-
tion 1.6.6 . Il faut diagonaliser 7 la matrice M, i.e. la décomposer selon ses espaces propres E1 , E2 (si M est
diagonalisable) :
n
M= ∑ λk Πk
k =1
où λk ∈ C sont les valeurs propres de M et
Π k : Rn → Rn
est le projecteur spectral sur l’espace propre Ek associé à la valeur propre λk . Ces projecteurs vérifient les
relations
Π j Π k = Π k δj = k . (1.6.5)
Dans le cas où dimEk = 1, alors Πk = |Uk ⟩ ⟨Vk |.⟩ avec Uk appelé “vecteur propre à droite”, i.e. MUk = λk Uk
et Vk “vecteur propre à gauche” i.e. Vk M = λk Vk , vérifiant de plus Vj |Uk = δj=k d’après (1.6.5).
Interprétation géométrique :
On a alors
Mt = (λ1 Π1 + λ2 Π2 )t = λ1t Π1 + λ2t Π2 (1.6.7)
(1.6.6) (1.6.5)
où λ1 = 1 et
1
| λ2 | t = = e−t ln 2 = e−t/τ
2t
qui tend exponentiellement vite vers 0 avec le temps caractéristique τ = ln12 ≈ 1.44. Donc
pt = Mt p0 = Π1 p0 + O e−t/τ = U1 ⟨V1 | p0 ⟩ +O e−t/τ
(1.6.2) (1.6.7) | {z }
1
−t/τ
= U1 + O e
Il y a donc convergence exponentielle de toute mesure de probabilité initiale p0 vers la mesure d’équilibre
2
pequil. := U1 = 3 .
1
3
On a démontré (1.6.3).
1
Remarque 1.6.11. “paradoxe sur l’entropie”. Si au départ on part de l’état uniforme, punif = 2 , on vient
1
2 2
de montrer qu’il évolue vers l’état d’équilibre pequil. = 3 . Or d’après la formule (3.3.10) l’entropie de
1
3
−1 1 1 −1
départ est S ( punif ) = ln 2 ≈ 0.69 supérieure à l’entropie finale S pequil. = 32 ln 23 + 3 ln 3 ≈ 0.63.
Paradoxalement, cette entropie décroît avec le temps. On verra au théorème 1.6.17 appelé “deuxième prin-
cipe de la thermodynamique” que l’expression
correcte
de l’entropie à utiliser est plutôt l’entropie relative
S pequil. ( p (t)) = p1 (t) ln p2/3 + p2 (t) ln 1/3
(contenant les composantes de la mesure d’équilibre) qui
1 (t) p2 ( t )
elle augmente avec le temps.
Le résultat suivant montre que le phénomène de convergence vers une mesure d’équilibre observé dans
l’exemple précédent se produit généralement pour une matrice mélangeante comme on l’a vu avec (1.6.4).
∃t ≥ 1, ∀ x ′ , x ∈ X, Mt x′ ,x > 0.
Cela signifie que il existe un temps t auquel il est possible de transiter entre toute paire d’états x, x ′ .
Théorème 1.6.13. “Perron-Frobenius (1907)”. Si M est une matrice stochastique et mélangeante alors ses
valeurs propres (λk )k∈{1,2...n} vérifient
| λ n | ≤ | λ n −1 | ≤ . . . ≤ | λ 2 | < λ 1 = 1
i.e. la valeur propre dominante est λ1 = 1 et les suivantes sont de module strictement inférieur à 1. De plus le
projecteur spectral associé à λ1 est E
Π1 = pequil. ⟨1|.⟩
avec pequil. une mesure de probabilité vérifiant pequil. ( x ) > 0, ∀ x, appelée mesure d’équilibre. Par conséquent
toute mesure initiale p0 ∈ P ( X ), évolue selon
1
pt = Mt p0 = pequil. + O e−t/τ , ∀τ > > 0. (1.6.8)
(1.6.2) ln |λ2 |−1
Il y a donc convergence exponentielle de toute mesure de probabilité initiale p0 vers la mesure d’équilibre pequil.
avec un temps caractéristique τ.
Remarque 1.6.14. Ce modèle précédent est à la base de la physique statistique, lorsque de nombreuses parti-
cules ou degrés de liberté interagissent. On pense (mais cela n’est pas encore rigoureusement démontré) que le
35 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE
“processus de thermalisation” est un processus de convergence local vers un état d’équilibre. Cela sera étudié
dans le chapitre 3.
Démonstration. (*) (ref : Brin Brin & Stuck (2002, p.78), Davies Davies & Davies (1996, p.355)). On note
( )
m
S1+ := u∈R , m
∑ u j = 1 et ∀ j, u j ≥ 0 = P (X) .
j =1
∃u ∈ P ( X ) , f (u) = u
1
M̃ := (Diag (u))−1 ◦ M ◦ Diag (u)
λ
alors
M̃1 = 1
Soit ( )
m
D := (P ( X ) − w) ⊂ S0 := u∈R ,m
∑ uj = 0 .
j =1
On a
M̃∗ (D) ⊂ D
†
donc le spectre de M̃/S est contenu dans le disque unité. Si de plus M̃ est mélangeante alors il existe t ≥ 1 tel
0
que
t
M̃† (D) ⊂ Int (D)
t
donc M̃† /S0
est contractante et donc son spectre est strictement inclu dans le disque unité.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 36
Ce graphe a 7 sommets. Les points rouges indiquent les extrémités des flèches pour les transitions entre
sommets. Le compositeur a utilisé un dé pour réaliser ce morceau Chunky Delice à partir de cette partition.
D’autres musiciens ont aussi utilisé les graphes de Markov. Par exemple le compositeur Iannis Xenakis
a utilisé des modèles dynamiques de Markov pour composer de la musique en s’inspirant de la physique
statistique.
mesure pequil qui a une entropie plus faible et donc l’entropie S ( p) diminue. Par contre, on va démontrer que
l’entropie relative Sm ( p) augmente toujours, c’est donc la bonne définition à considérer en général.
On rappelle la définition suivante :
Définition 1.6.15. Si p ∈ P ( X ) est une mesure de probabilité sur X et m une mesure sur X (i.e. on
demande seulement m ( x ) ≥ 0), l’entropie relative de p par rapport à m est
m (x)
Sm ( p) := ∑ p ( x ) ln . (1.6.9)
x∈X
p (x)
Remarque 1.6.16. L’entropie relative Sm ( p) est aussi appelée Kullback–Leibler divergence par ces auteurs qui
l’ont introduite en 1951.
Corollaire 1.6.18. En particulier si m = cpequil. est proportionnelle à la mesure d’équilibre qui vérifie
Mpequil. = pequil. , avec une constante c = ∑ x m ( x ) = Volm ( X ) > 0, alors mt = Mt m = m n’évolue
pas, et d’après (1.6.10), Sm ( pt ) augmente avec le temps t. De plus si la matrice M est mélangeante, alors
pt → pequil et donc
Sm ( pt ) → Sm pequil = ln (Volm ( X )) ,
t→+∞
i.e. l’entropie de pt augmente avec le temps et converge vers sa valeur maximale Sm pequil = ln (Volm ( X )).
[Link] (*) Preuve du théorème 1.6.17 “2ème principe”, suivant Cover (1999, p.34).
Pour cela on va utiliser quelques résultats intermédiaires importants.
Théorème 1.6.19. “Inégalité de Jensen” Cover (1999, p.25). Si f : R → R est une fonction convexe, i.e.
f ′′ (s) ≥ 0, ∀s ∈ R, et p ∈ P ( X ) une mesure de probabilité alors
E p ( f ) ≥ f E p (x) .
(1.6.11)
Si f est strictement convexe, i.e. f ′′ (s) > 0, ∀s ∈ R, et E p ( f ) = f E p ( x ) alors la loi est déterministe :
p = δµ avec µ ∈ R.
Démonstration. Cover (1999, p.25)On le vérifie d’abord pour une mesure p = αδx0 + (1 − α) δx1 supportée en
deux points, avec α ∈ [0, 1]. Dans ce cas E p ( f ) = α f ( x0 ) + (1 − α) f ( x1 ) et f E p ( x ) = f (αx0 + (1 − α) x1 )
donc l’inégalité de Jensen (1.6.11) correspond à l’inégalité de convexité de la fonction f :
α f ( x0 ) + (1 − α) f ( x1 ) ≥ f (αx0 + (1 − α) x1 ) .
Par récurrence sur le nombre de point, on déduit l’inégalité de Jensen pour une mesure supportée par un
nombre fini arbitraire de points et par passage à la limite, pour toute mesure p.
Théorème 1.6.20. “Inégalité de Log-Sum” Cover (1999, p.29). Pour des nombres quelconques a j , b j ≥ 0, j ∈
{1, . . . n}, on a !
n n
∑in=1 ai
ai
∑ i a ln
bi
≥ ∑ i a ln
∑in=1 bi
, (1.6.12)
i =1 i =1
bi ai
αi = , ti = .
∑ j bj bi
Alors ∑i αi = 1 et
∑i ai
bi ai
∑ αi ti = ∑ ∑ j bj bi
=
∑ j bj
i i
et l’inégalité de Jensen (1.6.11) pour la mesure de probabilité p = ∑i αi δti donne
!
∑ αi f ( ti ) ≥ f ∑ αi ti
i i
∑i ai ∑i ai
bi ai ai
⇔∑ ln ≥ ln
i ∑j j ∑ k bk ∑ k bk
b bi bi
!
∑i ai
a
⇔ ∑ ai ln i ≥ ∑ ai ln
i
b i i ∑ k bk
On définit
Volm ( X ) := ∑ m (x) . (1.6.13)
x∈X
Sm ( p) ≤ ln (Volm ( X )) , (1.6.14)
1
Il y a égalité si et seulement si p ( x ) = Volm ( X )
m ( x ) , ∀ x.
p( x )
Il y a égalité si et seulement si m( x )
= c, ∀ x avec c = Volm ( X ).
p X1 ( x 1 ) = ∑ pY ( x 1 , x 2 ) , (1.6.15)
x 2 ∈ X2
pY ( x 1 , x 2 )
p X2 ,x1 ( x2 ) := . (1.6.16)
p X1 ( x 1 )
∑
SmY ,X2 ( pY ) = p X1 ( x 1 ) S m X p X2 ,x1 (1.6.17)
2 ,x1
x 1 ∈ X1
m X2 ,x1 ( x2 )
∑
Sm X
2 ,x1
p X2 ,x1 = p X2 ,x1 ( x2 ) ln . (1.6.18)
(1.6.9) x ∈ X p X2 ,x1 ( x2 )
2 2
39 1.6. DYNAMIQUE DE MARKOV PROBABILISTE ET ÉTAT D’ÉQUILIBRE
Théorème 1.6.22. Cover (1999, p.23)“Chain rule for relative entropy”. Avec les définitions précédentes
SmY ( pY ) = SmX p X1 + SmY ,X2 ( pY ) . (1.6.19)
1
Démonstration. On a
mY ( x 1 , x 2 )
SmY ( pY ) = ∑ ∑ p ( x1 , x2 ) ln
(1.6.9) x1 x2 p ( x1 , x2 )
m X1 ( x1 ) m X2 ,x1 ( x2 )
= ∑ ∑ p X1 ( x1 ) p X2 ,x1 ( x2 ) ln
(1.6.16) x1 x2 p X1 ( x1 ) p X2 ,x1 ( x2 )
m X1 ( x 1 ) m X2 ,x1 ( x2 )
= ∑ p X1 ( x1 ) ln + ∑ ∑ p X1 ( x1 ) p X2 ,x1 ( x2 ) ln
(1.6.15) x1 p X1 ( x 1 ) x1 x2 p X2 ,x1 ( x2 )
= SmX p X1 + SmY ,X2 ( p) .
1
(1.6.9,1.6.17)
Démonstration. On a
∑
SmY ,X2 ( pY ) = p X1 ( x 1 ) S m X
2 ,x1
p X2 ,x1 (1.6.21)
(1.6.17) x ∈ X
1 1
Or
Sm X
2 ,x1
p X2 ,x1 ≤ ln VolmX
2 ,x1
( X2 ) ,
(1.6.14)
∑ x 2 mY ( x 1 , x 2 )
VolmX
2 ,x1
( X2 ) =
(1.6.13)
∑ mX2 ,x1 (x2 ) (1.6.16
=
) m X1 ( x 1 )
x2
∑ x 2 mY ( x 1 , x 2 )
= = 1.
(1.6.15) ∑ x 2 mY ( x 1 , x 2 )
Donc SmX p X2 ,x1 ≤ 0 et SmY ,X2 ( pY ) ≤ 0.
2 ,x1
(1.6.21)
Preuve du théorème 1.6.17 “2ème principe” : Si M est une matrice stochastique, p ∈ P ( X ) et m une mesure
sur X, évoluant selon la dynamique de Markov pt+1 = Mpt , mt+1 = Mmt . On considère l’espace produit
Y = X1 × X2 qui est deux copies de l’espace X1 = X2 = X, contenant les couples possibles ( x1 (t) , x2 (t + 1))
pour les temps t, t + 1. Sur cet espace Y = X1 × X2 on a les mesures induites pY , mY : la probabilité d’un couple
( x1 , x2 ) est donnée par la dynamique de Markov
où p X1 = pt , p X2 = pt+1 donc
Or
p X1 ( x 1 ) = ∑
(1.6.15) x ∈ X
pY ( x 1 , x 2 ) =
(1.6.22) x ∈ X
∑ Mx2 ,x1 p ( x1 ) =
(1.6.1)
p ( x1 )
2 2 2 2
donc
pY ( x 1 , x 2 ) Mx2 ,x1 p ( x1 )
p X2 ,x1 ( x2 ) = = = Mx2 ,x1
(1.6.16) p X1 ( x 1 )
(1.6.22) p ( x1 )
m X2 ,x1 ( x2 )
et de même m X2 ,x1 ( x2 ) = Mx2 ,x1 = p X2 ,x1 ( x2 ). Donc ln p (x )
= ln 1 = 0 et
X2 ,x1 2
Sm X
2 ,x1
p X2 ,x1 = 0.
(1.6.18)
Par ailleurs
SmY ,X1 ( pY ) ≤ 0
(1.6.20)
donc
S m t +1 ( p t +1 ) = Smt ( pt ) − SmY ,X1 ( pY ) ≥ Smt ( pt ) .
(1.6.24,1.6.25,)
Par définition, pour une variable réelle aléatoire x ∈ R, la loi normale N µ, σ2 de paramètres µ ∈ R,
On rappelle la signification expérimentale d’une mesure de probabilité : si on fait une série de N expé-
riences identiques, et que l’on mesure le nombre de fois N[ a,b] où le résultat x appartient à un intervalle donné
[ a, b], la proportion N1 N[a,b] s’appelle la mesure empririque et on a la convergence
1
Z
N → p ( x ) dx.
N [ a,b] N →∞ x ∈[ a,b]
Voici une animation normal_law.gif pour N = 1 → 200 réalisée par ce programme en python nor-
mal_law.py.
1. Tracer l’allure de la densité de probabilité p ( x ). Calculer 10 la constante de normalisation
Z. Calculer
l’espérance E ( x ) := xp ( x ) dx (aussi appelée moyenne ⟨ x ⟩) et la variance Var ( x ) = E ( x − E ( x ))2 .
11
R
Voici une simulation illustrant l’évolution des lois de probabilité ut étudiée dans cet exercice et montrant
la convergence vers l’équilibre. Autres exemples.
1. Écrire la matrice P = Px′ ,x x,x′ dans l’exemple (1.7.1) ?
2. On décrit la connaissance du système à l’instant t par une distribution de probabilité ut ( x ) ≥ 0 telle
que ∑nx=1 ut ( x ) = 1. Dans le cas général, exprimer le vecteur ut+1 = (ut+1 ( x )) x∈{1,...n} ∈ Rn à partir
du vecteur ut ∈ Rn et de la matrice P. Que vaut ∑ x′ Px′ ,x à x fixé (somme sur les colonnes) ?
3. Par exemple dans le jeu de pile ou face, il y a n = 2 états possibles. Écrire l’expression de la matrice P
et dessiner le graphe de Markov. Supposer que à l’instant t = 0 l’état u0 est connu. Que vaut u (t) pour
t ≥ 1?
4. Pour l’exemple (1.7.1), on suppose l’état u0 ∈ R3 connu. Montrer 15 que pour t → ∞, ut → u∞ converge
exponentiellement vite vers un “état d’équilibre” u∞ que l’on calculera. C’est la propriété de “mé-
lange”.
5. Quelle matrice de Markov permet de générer une suite d’évènements aléatoires indépendants et de
même loi ?
Comme exemple simple, on pourra considérer un jeu de pile/face, c’est à dire n = 2 évènements possibles,
mais de probabilités non égale (appelé loi de Bernouilli) :
2. Par définition, on appelle “suite typique” une suite ⃗i := (i1 , i2 , . . . , i N ) très longue, i.e. N ≫ 1 et où
le nombre d’apparition Ni de chaque chiffre i est Ni ≈ pi N (précisément Ni = pi N + o ( N )). Dans
l’exemple de pile/face, une suite typique ressemblerait à
⃗i = (1, 2, 1, 1, 2, 1, 2, 1, 1, 1, 2, 1 . . . , 1) (1.7.3)
avec le nombre de 1 qui est N1 ≈ p1 N = 32 N et le nombre de 2 qui est N2 ≈ 31 N. Est-ce que la suite
la plus probable (respect. moins probable) de la question (1) est typique ? Montrer que la probabilité
d’apparition d’une suite typique ⃗is donnée est
p ⃗is = e− NS
avec
n
S := − ∑ pi log pi
i =1
N
appelée entropie. Aide : utiliser que p ⃗i = pi1 .pi2 . . . . .pi N = p1 1 p2N2 . . . pnNn . Calculer l’entropie de
l’exemple ?
3. Pour N ≫ 1, on note N N le nombre de suites typique de longueur N. Montrer que
1
N N ≈ e NS ⇔ S ≈ log N N
N
c’est à dire que l’entropie est le taux exponentiel du nombre de suites typique. Aide : montrer que
N N = N1 !NN!2 !...Nn !
et utiliser la formule de Stirling ln N! ≃ N ln N − N + o ( N ) pour N ≫ 1.
4. D’après les résultats précédents les suites typique sont équiprobables et de probabilité p ⃗is = e− N (S+o(1)) .
Il y en a N N = e N (S+o(1)) . Cela semblent indiquer 17 que leur probabilité cumulée est N N p ⃗is ≈ 1 pour
N ≫ 1 (la preuve sera dans la question 5). Quelle signification des suites typique et de l’entropie S cela
suggère t-il ? Pour quelle(s) lois de probabilité ( pi )i=1→n a t-on S = log n ? S = 0 ? Quelle est la valeur
maximale de S ? Comparer N N et Ntot ( N ) ? Dans quel cas a t-on N N = Ntot ( N ) ?
5. (*) Pour montrer que N N p ⃗is ≈ 1 pour N ≫ 1, écrire p ⃗i = exp − ∑ N j=1 X j avec X j = − log p j et
appliquer la loi des grands nombres.
Introduction : La loi de Boltzmann est à la base de la physique statistique (c’est aussi relié à l’hypothèse
ergodique). Elle affirme qu’un système qui échange de l’énergie avec un plus gros système, est dans un état
aléatoire distribué selon la mesure de probabilité 1z e− E/(kT ) dµ où E est l’énergie de l’état µ et T la température
du gros système. Il n’y a pas de démonstration de la loi de Boltzmann à l’heure actuelle. L’exercice suivant
donne une idée du mécanisme.
Remarque 1.7.2. Pour N ∈ N, la sphère SRN −1 de rayon R est l’ensemble des points x = ( x1 , x2 , . . . x N ) ∈ R N à
distance R de l’origine : n o
SRN −1 := x t.q. x12 + x22 + . . . + x2N = R2 ⊂ RN .
Par exemple S1R ⊂ R2 est le cercle de rayon R et S2R ⊂ R3 est la sphère (surface).
Dans ce problème on considère un point x = ( x1 , x2 , . . . x N ) aléatoire sur SRN −1 pour la mesure de proba-
bilité uniforme. On souhaite montrer que si N ≫ 1 et le rayon est R2 = σ2 N avec σ > 0 fixé, alors la mesure
de probabilité de la composante x1 converge vers la loi normale N 0, σ2
1 − 1 ( x1 ) 2
P ( x1 ) dx1 = e 2 σ dx1 (1.7.4)
Z
1. Si N = 2, donner et tracer la mesure de probabilité de x1 . (Diu et al. (1989) p.60). Même question pour
N = 3.
2. Considérons la variable aléatoire y = (y1 , . . . y N ) ∈ R N avec la densité de probabilité
N
1 − 1 2 ∥ y ∥2 1 − 1 y2
P (y) =
Z
e 2∆ = ∏ ze 2∆2 j
j =1
y
avec ∆ > 0 arbitraire. Montrer que la variable aléatoire x = R ∥y∥ ∈ S N −1 est distribuée uniformément
sur la sphère SRN −1 comme on le souhaite. D’après la loi des grands nombres 18 , quelle 19 est la mesure
de probabilité de la variable aléatoire N1 ∥y∥2 dans la limite N ≫ 1 ? Déduire (1.7.4).
3. Application : considérons N particules libres de masse m en dimension 1. On note v j la vitesse de la
particule j = 1 . . . N. Les particules échangent de l’énergie de façon aléatoire, mais on suppose que
l’énergie totale Etot = ∑ N 1 2
j=1 2 mv j est conservée. Montrer que pour N ≫ 1, la vitesse v j se distribue
selon la loi de Boltzmann
1
P v j dv j = e− Ej /(kT ) dv j
z
Etot
avec Ej = 21 mv2j , et E = N = 12 kT énergie moyenne par particule (formule d’équipartition de l’éner-
gie).
4. On définit l’entropie par S = k
N log Vol SRN −1 où Vol SRN −1 est le volume de la sphère de rayon
R2 = Etot . Montrer que
1 ∂S
=
T ∂E
qui sert plus généralement de définition de la température.
Préliminaires sur les mesures de probabilité : On notera le produit scalaire L2 de deux fonctions par
⟨ψ| φ⟩ := ψ ( x ) φ ( x ) dx ∈ C où ψ ( x ) est le complexe conjugué.
R
— Une variable aléatoire réelle x est caractérisée par sa mesure de Probabilité P = P ( x ) dx. Si 1[ x1 ,x2 ] est
Rx
la fonction caractéristique 20 de l’intervalle [ x1 , x2 ], on a que ⟨1[ x1 ,x2 ] | P⟩ = x 2 P ( x ) dx est la probabilité
R 1
pour que x ∈ [ x1 , x2 ]. En particulier, ⟨1| P⟩ = R P ( x ) dx = 1.
18. La loi des grands nombres montre que si X j j ∈N
sont des variables aléatoires indépendantes d’espérance µ alors la mesure de
probabilité de YN = N1 ( X1 + X2 + . . . + X N ) converge vers la mesure de Dirac δµ pour N → ∞.
y y
19. Il faut aussi utiliser le Théorème de Slutsky qui montre que si ∥y∥ → c converge vers une constante c en probabilité alors ∥y∥
→ c
converge en loi.
20. 1[ x1 ,x2 ] ( x ) = 1 si x ∈ [ x1 , x2 ], sinon 1[ x1 ,x2 ] ( x ) = 0.
45 1.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES PROBABILITÉS
— Plus généralement, les mesures P sont des distributions et sont utilisées avec des fonctions C ∞ à sup-
port compact ψ fixées (appelées fonctions test ou observable) pour donner un nombre ⟨ψ| P⟩ ∈ C. Si
( PT )T >0 est une suite de mesures (ou de distributions), la convergence PT → P vers une mesure P
T →∞
donnée, signifie que pour toute fonction test ψ fixée on a ⟨ψ| PT ⟩ → ⟨ψ| P⟩. Cette notion de conver-
T →∞
gence s’appelle “convergence au sens des distributions”, ou “convergence faible”, ou “convergence
en loi”.
Introduction :
Théorème 1.7.3. « théorème central limite ». Si x1 , x2 , . . . x T sont des variables aléatoires indépendantes de
mêmeqmesure de probabilité P ( x ) dx, d’espérance (i.e. moyenne) finie µ = E ( x ) < ∞ et de variance finie
σ= E ( x − µ)2 < ∞ alors la somme renormalisée
1
ST := √ (( x1 + x2 + . . . x T ) − Tµ)
T
1 − 1 ( S )2
PT (S) dS −→ e 2 σ dS (1.7.5)
T →∞ Z
indépendamment de la mesure initiale P.
Théorème 1.7.4. « loi des grands nombres ». Avec les même hypothèses, pour T → ∞, la mesure de probabilité
de la moyenne T1 ( x1 + x2 + . . . x T ) converge vers la mesure de Dirac δµ .
Remarque 1.7.5. Le théorème central limite montre que la loi normale est une loi stable (comme un “point
fixe stable” en dynamique). C’est un phénomène essentiel en physique qui explique l’émergence de la loi de
Boltzmann (Exercice 1.7.5).
Pile ou face : Pour simplifier, on considère le cas particulier du jeu de pile ou face : à chaque instant t ∈ N,
l’état du système est xt ∈ {−1, 1} et choisit au hasard avec probabilités p (−1) = 1/2, p (1) = 1/2. Voir figure
1.7.1.
1. On considère une suite de T réalisations aléatoires x = ( x1 , x2 , . . . x T ) ∈ {−1, 1} T . Quelle est la proba-
bilité p ( x ) d’une telle suite x ? On souhaite montrer que la somme
T
1
Sx ( T ) := √
T
∑ xt
t =1
2
se distribue pour T ≫ 1 selon une loi normale N 0, σ avec un écart type σ > 0 que l’on va calculer.
Pour cela on considère la distribution sur S ∈ R des valeurs de Sx ( T ). Sa mesure de probabilité est
PT := ∑ p ( x ) δSx (T )
x ∈{−1,1} T
⟨ψ| PT ⟩ = ∑ ψ (Sx ( T )) p ( x )
x ∈{−1,1} T
.
(b) Dans un premier temps, on choisit la fonction test ψk (S) = exp (ikS) avec k ∈ R (mode de Fourier).
T
Montrer que ⟨ψk | PT ⟩ = cos √k .
T
T 4
(c) Montrer 21 que cos √k = exp − 21 k2 1 + O kT .
T
T T
√k X2
= exp ln cos √k + O X 4 et ln (1 + X ) = X + O X 2 .
21. Aide : écrire cos . Utiliser cos ( X ) = 1 − 2
T T
CHAPITRE 1. DYNAMIQUE PROBABILISTE 46
F IGURE 1.7.1 – Histogrammes pour Pile ou Face. A gauche représentation de St := ∑tt′ =1 xt où xt′ = ±1
sont aléatoires équidistribués. A droite, c’est l’histogramme de St à t = 30 avec N = 2 tirages, puis t = 1000
avec N = 3 puis N = 991 tirages. Dans ce dernier q cas on observe que la distribution est bien ajustée par une
Var(St )
Gaussienne avec un coefficient de diffusion σ = t = 1. Voir vidéo section 2.6.
le postulat de la mesure, les résultats possibles d’une mesure de l’observable  sont les
que, d’après
valeurs a j j et la probabilité conditionnelle d’observer une certaine valeur a j dans un état ψi donné est
⟨ψi |P φ j ψi ⟩
p a j |ψi = .
⟨ψi |ψi ⟩
Montrer que pour l’état statistique quantique, la probabilité d’observer a j est donnée par
p a j = Tr ρ̂P φ j
|ψ ⟩⟨ψ |
avec l’opérateur densité ρ̂ := ∑i pi Pψi , et Pψi := ⟨ψi |ψ i⟩ . Déduire que la moyenne statistique des a j j
i i
est donnée par
⟨ A⟩ = Tr ρ̂ Â .
2. Quelle est l’entropie de la distribution de probabilité p a j j notée S ρ̂, Â ? On définit l’entropie de
l’état statistique quantique par S (ρ̂) := min  S ρ̂,  . On peut montrer que S ρ̂,  est minimale
pour  = ρ̂. Montrer que
S (ρ̂) = − ∑ ρk ln ρk =: −Tr (ρ̂ ln ρ̂)
k
où (ρk )k sont les valeurs propres de ρ̂. Que vaut S (ρ̂) pour un état pur ρ̂ = |ψ⟩⟨ψ| ?
Introduction : C’est un modèle dynamique qui traite l’état d’un spin 1/2 (vecteur de l’espace C2 ), couplé à
l’environnement (vecteur d’un espace de Hilbert Henv ) et qui montre comment l’équation de Schrödinger (qui
est unitaire) peut expliquer que la matrice densité réduite ρ̃ (t) = Trenv (ρ (t)) du spin peut évoluer de façon
irréversible vers l’état d’entropie maximale qui est non polarisé :
1
2 0
ρ̃ apres = 1 .
0 2
Cette évolution d’un état initial pur vers un état non pur, s’appelle la décohérence. Elle est due au couplage
du spin avec son environnement. En résolvant ce modèle on obtiendra de plus une expression du temps
caractéristique de convergence vers cet état d’équilibre appelé temps de décohérence τdecoh. .
L’espace total du système étudié est Htot = C2 ⊗ Henv . L’état initial est |ψ (0)⟩ = |S (0)⟩ ⊗ | E (0)⟩ avec
1
|S (0)⟩ = |+z ⟩ = √ (|+ x ⟩ + |− x ⟩) ∈ C2 , | E (0)⟩ ∈ Henv .
2
Le Hamiltonien total est
1/2 0
Ĥ = Ŝz ⊗ Ĥe , Ŝz = dans la base |± x ⟩
0 −1/2
où Ĥe agit dans Henv . Noter que l’on ne précise ni | E (0)⟩, ni Ĥe .
1. Écrire l’état total |ψ (t)⟩ = e−it Ĥ |ψ (0)⟩ à l’instant t puis l’opérateur densité total ρ (t) = |ψ (t)⟩⟨ψ (t) |.
Déduire l’expression de la matrice densité réduite de ρ̃ = Trenv (ρ (t)) dans la base |± x ⟩ en fonction de
la fonction de “corrélation temporelle” de l’environnement ⟨ E (0) | E (t)⟩ = ⟨ E (0) |e−it Ĥe | E (0)⟩.
2. On suppose maintenant que l’environnement est composé de N degrés de libertés indépendants mais
identiques (penser N particules d’un gaz), chacun décrit par un espace quantique H et un opérateur
Hamiltonien Ĥ : H → H, c’est à dire que :
N
1
Henv = |H ⊗ H ⊗
{z
. . . ⊗ H,
}
Ĥenv = √
N
∑ Ĥi
i =1
N
où Ĥi = Id ⊗ . . . Id ⊗ |{z}
Ĥ ⊗Id . . . ⊗ Id agit dans l’espace de la particule i de l’environnement. L’état
position i
initial de l’environnement est un produit
Pour simplifier les calculs, on suppose que l’énergie moyenne de chaque particule est nulle : ⟨e (0) | Ĥ |e (0)⟩ =
0 et on note σ2 := ⟨e (0) | Ĥ 2 |e (0)⟩ la variance (carré de l’incertitude en énergie). Montrer que à t fixé
2 2
(quelconque) et pour N → ∞, on a ⟨ E (0) | E (t)⟩ = e−t σ /2 et déduire que la matrice densité réduite est
donnée par !
2 2
1 1 e−t σ /2
ρ̃ (t) = Trenv (ρ (t)) −→ 2 2
N →∞ 2 e−t σ /2 1
1 1
|+z ⟩ = (|+ x ⟩ + |− x ⟩) , |−z ⟩ = (|+ x ⟩ − |− x ⟩) .
2 2
4. Déduire l’expression de l’entropie S (ρ̃ (t)) (en particulier simplifier pour les limites t → 0, t → ∞)
⃗
fonction det. De même donner et tracer le vecteur polarisation P (t) du spin,
et tracer son allure en
défini par ρ̃ (t) = 1 Id + ⃗
2 P (t) .⃗σˆ . Déduire que le temps caractéristique de décohérence est donné
par τdecoh. = σ1 .
5. Montrer plus généralement que les calculs précédents sont identiques (mais préciser les nouvelles ex-
pressions) si l’état initial total est donné
par un opérateur densité ρ (0) = (|S (0)⟩⟨S (0) |) ⊗ ρenv avec
ρenv = ρe ⊗ . . . ⊗ ρe tel que Tr Ĥρe = 0.
CHAPITRE 1. DYNAMIQUE PROBABILISTE 48
Deuxième partie
49
Chapitre 2
2.1 Introduction
On commence par quelques rappels de mécanique.
— En 1685, Newton établit la loi d’évolution d’une particule de position q (t) = (q1 (t) , q2 (t) , q3 (t)) ∈ R3 ,
masse m :
∂2 q j ( t ) ∂U
m = Fj (q) = − , j = 1, 2, 3, (2.1.1)
∂t2 ∂q j
où U (q) est la fonction énergie potentielle et F (q) = ( F1 (q) , F2 (q) , F3 (q)) ∈ R3 le vecteur force qui en
dérive. L’expression de (2.1.1) peut paraître étrange pour deux raisons : elle est du deuxième ordre en
temps et le terme de droite n’est pas quelconque : c’est le gradient d’une fonction U.
— En 1834, Hamilton reformule l’équation de Newton (2.1.1) en introduisant une nouvelle variable p (t) =
( p1 (t) , p2 (t) , p3 (t)) ∈ R3 appelée impulsion, et la fonction énergie totale (ou Hamiltonien)
∥ p ∥2
H (q, p) = + U (q) (2.1.2)
2m
où le premier terme est appelé énergie cinétique avec ∥ p∥2 := p21 + p22 + p23 . L’équation de Newton
(2.1.1) s’écrit ∂q
j = ∂H
∂t ∂p j
(2.1.1) ⇔ ∂p j , j = 1, 2, 3 (2.1.3)
∂t = − ∂H∂q j
∂2 q
j (t)
m ∂t2
= − ∂q
∂U
qui est l’équation de Newton (2.1.1).
j
— De nombreux modèles en physique utilisent les équations de Hamilton avec des fontions H (q, p) quel-
conques, plus générales que (2.1.2). Cependant ces “équations de Hamilton” (2.1.3) sont, tout comme
les équations de Newton, aussi un peu étranges car elles ont un aspect “antisymétriques” par rapport
aux termes q, p. La raison de cela était déjà connu à l’époque de Hamilton : il a utilisé ces équations
pour décrire l’aspect corpusculaire de la lumière (i.e. les rayons lumineux) comme cas limite de la théo-
rie ondulatoire de la lumière dans la limite des petites longueurs d’ondes (en effet la longueur d’onde
de la lumière λ ≈ 1µm ≪ 1m est très petite à l’échelle humaine). Plus généralement on verra dans la
section 2.2 que :
Proposition 2.1.1. toute équation ondulatoire linéaire fait émerger dans la limite des petites longueurs
d’ondes une dynamique corpusculaire régit par les équations de Hamilton (2.1.3) avec une certaine fonc-
tion H qui dépend de l’équation ondulatoire de départ.
— En 1920, Schrödinger montre que les équations de Hamilton de la mécanique (et donc l’équation de
Newton) sont aussi une approximation (ou émergence) d’une mécanique ondulatoire sous-jacente pour
la matière, régit par “l’équation de Schrödinger”. Maintenant on comprends que l’aspect étrange des
équations de la mécanique classique, indiquent une réalité ondulatoire sous-jacente. Ainsi connaissant
51
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 52
la proposition mathématique précédente, Newton (ou ses contemporains) aurait pu deviner l’existence
de la mécanique quantique ondulatoire sous-jacente.
Il y a deux propriétés importantes des équations de mouvement de Hamilton qui seront utiles dans la suite.
Théorème 2.1.2. “Conservation de l’énergie”. Pour une fonction de Hamilton quelconque H (q, p), les tra-
jectoires q (t) , p (t) solutions de (2.1.3) conservent l’énergie définie par E (t) = H (q (t) , p (t)), i.e. dE
dt = 0.
Démonstration. On écrit
dE ∂H ∂q j ∂H ∂p j
dt
= ∑ ∂q j ∂t
+
∂p j ∂t
j
! ! ! !
∂H ∂H ∂H ∂H
= ∑ + − = 0.
(2.1.3) j ∂q j ∂p j ∂p j ∂q j
Théorème “Conservation de la mesure de Liouville dans l’espace des phases”. Le champ de vecteur
2.1.3.
∂q ∂p
j j
X = ∂t , ∂t défini par (2.1.3) dans l’espace des phases (q, p) préserve le volume dqdp (appelée mesure
j=1,2,3
de Liouville), i.e. vérifie divX = 0.
Démonstration. On écrit
! !
∂Xq j ∂X p j ∂ ∂H ∂ ∂H
divX = ∑ ∂q j
+
∂p j
= ∑
(2.1.3) j ∂q j ∂p j
+
∂p j
−
∂q j
= 0.
j
F a été choisi. Historiquement la seconde est une durée compatible à la perception humaine, comme la
période moyenne du cœur humain et ce chiffre F a donc été choisi pour approximer le rapport entre la
période de l’atome et la période du cœur. (Rem : cette définition n’est pas affectée par la déformation du
temps en relativité générale car la taille de l’atome est très petite, donc indépendante de la courbure).
La grande valeur de F traduit le fait que notre perception humaine fonctionne à des échelles de temps
très longues par rapports aux mécanismes physiques élémentaires.
— En 1983, on a choisi la valeur de la vitesse de la lumière :
Comme on a déjà défini la seconde, c défini donc l’unité de distance (le mètre) à partir de l’unité de
temps (la seconde). Historiquement, le mètre est une distance comparable à la taille humaine. La grande
valeur de c montre en fait que “l’organisme humain est très lent”.
53 2.2. ÉMERGENCE DE LA DYNAMIQUE HAMILTONIENNE CORPUSCULAIRE
qui définit donc l’unité d’énergie (le Joule) à partir de la fréquence s−1 . Ainsi, par définition, une
énergie E en Joule est une fréquence ω en Hz = s−1 et le facteur h̄ sert seulement à changer d’échelle
(et d’unité) :
E = h̄ω.
E
Cela est clair par exemple lorsque l’on écrit par exemple en mécanique quantique e−iωt = e−i h̄ t . De
même l’impulsion ⃗p est identique à un vecteur d’onde ⃗k après un changement d’échelle :
⃗p = h̄⃗k.
⃗ ⃗p
Intervient par exemple lorsque l’on écrit en mécanique quantique une onde plane ψ (⃗q) = eik.⃗q = ei h̄ .⃗q .
Cela défini aussi l’unité de masse (en kilogramme) (d’après par exemple la formule Ecin = 12 mv2 ),
m 2
1J = 1kg .
s
Pour plus d’explications sur l’identification entre énergie/fréquence et impulsion/vecteur d’onde, voir
la section 2.2.2.
— En 2018, la constante de Boltzmann est choisi
R = NA k = 8, 31446261815324Jmol −1 K −1
En fait il faut retenir que NA et k sont a peu près l’inverse l’un de l’autre et NA mesure à peu près
(l’ordre de grandeur) du nombre de particules dans un objet de taille humaine. Ces valeur définissent
donc l’unité de température (K) et l’unité de quantité d’atomes (mol).
Remarque 2.2.1. Les valeurs précises des constantes qui précèdent ont des raisons historiques. Il faut retenir
que leur ordre de grandeur est relié à la “taille humaine” par rapport aux phénomène physiques élémentaires.
Si on devait ou pouvait tout re-choisir, probablement (et utilisant la base 10) on prendrait des valeurs plus
simples, plus rondes, par exemple F = 1010 Hz pour définir s, c = 108 m/s pour définir m, 2πh̄ = 10−33 J/s−1
pour définir J, kg, N A = 1024 mol −1 , k B = N A−1 pour définir mol et K.
Remarque 2.2.2. Il faut retenir de la discussion précédente que les constantes F, h̄, k B , c ont été choisi et permette
seulement de relier des unités différentes pour des grandeurs physique équivalentes, et qu’il n’y a en fait
pas d’unité dans la nature, mais que des phénomènes élémentaires qui engendrent des phénomènes plus
complexes. On peut comparer par exemple h̄ qui relier énergie et fréquence au changement d’unité entre
degré Celsius et degrés Fahrenheit). En physique il y a cependant des constantes (sans unité) que l’on mesure
expérimentalement et que l’on ne choisit pas. Par exemple la constante de structure fine α−1 = 137, 035999206..
intervenant dans les interactions électromagnétiques (de façon équivalente α est reliée à la perméabilité µ0 ou
la permittivité ϵ0 . Ces constantes mesurées expérimentalement, ont un vrai sens physique.
où Ω est un opérateur autoadjoint (Ω† = Ω. Par conséquent les valeurs propres ω j j de Ω sont réelles et
les espaces propres sont orthogonaux entre eux). L’équation d’évolution définit l’évolution de la fonction (ou
onde) t → ψt étant donné une onde initiale ψt=0 .
Remarque 2.2.3. D’après (2.2.1), Ω a l’unité d’une fréquence t−1 ≡ Hz.
Exemple 2.2.4. “L’équation de Schrödinger”. En 1920, Schrödinger montre que la matière est modélisée par
des ondes ψt (q) appelée ondes de matière ou ondes quantiques et solutions de l’équation d’évolution
∂ψt
ih̄ = Ĥψt (2.2.2)
∂t
avec l’opérateur
h̄2
Ĥ = − ∆ + U (q)
2m
∂2
où ∆ = ∑3j=1 ∂q2j
est l’opérateur Laplacien. On peut ré-écrire (2.2.2) sous la forme (2.2.1) avec
1
Ω = Ĥ
|{z} h̄ |{z}
fréquence énergie
Voici quelques vidéos qui montrent l’évolution de la fonction ψt et la compare à la dynamique d’une parti-
cule (point) avec les équations de Hamilton (2.1.3) : (1) oscillateur harmonique (2) oscillateur non linéaire, (3)
double puits. Ces vidéos sont extraites de ce site web sur l’animation d’ondes quantiques. L’analogie observée
entre dynamique ondulatoire et dynamique des particules est expliquée dans le théorème 2.2.15 ci-dessous.
Exemple 2.2.5. “L’équation des ondes”. Dans le cas simple d’une onde scalaire i.e. ψt (q) ∈ R évoluant dans
un milieu d’indice variable, l’équation d’onde s’écrit
∂2 ψ
+ (c (q))2 ∆ψ = 0, (2.2.3)
∂t2
avec une fonction c (q) > 0 qui correspond à l’indice de réfraction du milieu. On peut ré-écrire cette équation 1
sous la forme (2.2.1) avec l’opérateur √
Ω± = ±ic (q) −∆.
Remarque 2.2.6. La présence du facteur i dans (2.2.1) est une convention en physique. Il serait peut être plus
naturel d’écrire ∂t = Ω′ ψ avec Ω′ = −iΩ qui est anti auto-adjoint, i.e. Ω′ † = −Ω′ . Ses valeurs propres sont
∂ψ
Question 2.2.7. Comment décrire précisément l’évolution des ondes t → ψt solutions de l’équation (2.2.1) ?
On observe en mécanique des fluides que les ondes de surface se déplacent en ligne droite et diffractent sur
les obstacles, en acoustique que les ondes se réfléchissent sur des parois, en physique atomique quantique que
les ondes orbitent autour des noyaux, etc. Comment décrire précisément ces mouvements que l’on observe ?
La réponse à cette question sera donnée dans les théorèmes 2.2.10 et 2.2.15. Mais avant, on doit introduire
les définitions suivantes.
Définition 2.2.8. Un paquet d’onde Gaussien φ⃗q,⃗k est une fonction de la forme
2
⃗q′ −⃗q
−3/4 − 12
−iθ i⃗k.(⃗q′ −⃗q)
′ 3 ′ 2
⃗q ∈ R → φ⃗q,⃗k ⃗q
σ
φ⃗q,⃗k : = σ π e e e (2.2.4)
avec les paramètres fixés σ > 0 (taille du paquet d’onde), phase θ, position ⃗q ∈ R3 , vecteur d’onde
⃗k ∈ R3 . Le préfacteur de normalisation assure que φ ⃗ = 1.
⃗q,k 2 3 L (R )
√
1. L’opérateur −∆ est défini par son action sur la base de Fourier φk (q) = eik.q , k ∈ R3 , q ∈ R3 , observant que ∆φk = − ∥k∥2 φk , par
√
−∆φk = ∥k∥ φk .
√ ∂2 ψ
On vérifie l’équation (2.2.1), ∂t = −iΩ± ψ avec Ω± = ±ic (q) −∆ donne Ω2± = h̄2 (c (q))2 ∆ et donc ∂t2 = (−iΩ± )2 ψ = − (c (q))2 ∆ψ
∂ψ
2
⃗q′ −⃗q
−3/4 − 12
Remarque 2.2.9. Le module de cette fonction est φ⃗q,⃗k (⃗q′ ) = σ2 π
σ
e qui est une Gaussienne
centrée en ⃗q et de largeur σ. Le module de la transformée de Fourier (obtenue par intégrale Gaussienne) est
⃗′ ⃗ 2
− 1 k −k
F φ⃗q,⃗k ⃗k′ = (2πσ)3/2 e 2 1/σ qui est une Gaussienne centrée en ⃗k et de largeur 1/σ.
Théorème 2.2.10 (Décomposition en paquets d’ondes). Toute fonction se décompose comme superposition
de paquets d’ondes : ∀ψ ∈ L2 R3 ,
Z d3⃗qd3⃗k
ψ ⃗q′ = ψ⃗q,⃗k φ⃗q,⃗k ⃗q′
(2π )3
Remarque 2.2.12. Une façon équivalente d’obtenir la fonction ω ⃗q,⃗k à partir de l’opérateur différentiel Ω est
de remplacer les opérateur −i ∂q
∂. ∂.
par la variable k j et i ∂t par ω, autrement dit
j
∂ ∂
→ ik j , → −iω (2.2.5)
∂q j ∂t
Exemple 2.2.13. “L’équation de Schrödinger”. (Suite de 2.2.4). D’après le principe de correspondance (2.2.5),
⃗
ou en remplaçant l’onde ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation (2.2.2), on obtient
t
2
h̄2 i⃗k
ih̄ (−iω ) ψt = − ψt + U (q) ψt
2m
2
h̄⃗k
⇔h̄ω = + U (q)
2m
(⃗p)2
⇔ E (⃗q, ⃗p) = H (⃗q, ⃗p) = + U (q)
2m
en utilisant plutôt les variables (i.e. changement d’échelle) énergie E = h̄ω et impulsion ⃗p = h̄⃗k.
Exemple 2.2.14. “L’équation d’onde”. (Suite de 2.2.5). D’après le principe de correspondance (2.2.5), ou en
⃗
remplaçant l’onde ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation (2.2.2), on obtient
t
i (−iω ) ψt = ±c (q) ⃗k ψt
⇔ ω ⃗q,⃗k = ±c (⃗q) ⃗k .
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 56
Théorème 2.2.15 (de Hamilton-Ehrenfest). Un paquet d’onde (2.2.4) est solution de l’équation d’évolution
(2.2.1), i ∂tt = Ωψ si (en approximation au premier ordre) ses paramètres θ (t) , ⃗q (t) ,⃗k (t) sont solution des
∂ψ
dq j ∂ω dk j ∂ω
= , =− , j = 1, 2, 3, (2.2.6)
dt ∂k j dt ∂q j
où ω ⃗q,⃗k est le symbole de l’opérateur Ω. De plus :
dθ
= L ⃗q (t) ,⃗k (t) , (2.2.7)
dt
avec ∂⃗q (t)
L ⃗q,⃗k = ω ⃗q,⃗k −⃗k.
∂t
appelée fonction Lagrangien.
La preuve est donnée plus bas en section [Link]. Ce théorème énoncé ainsi est en fait imprécis car nous
n’avons pas précisé ce que signifie l’expression utilisée
“en approximation au premier ordre”. Cela apparaîtra
dans la preuve : l’hypothèse est que le symbole ω ⃗q,⃗k varie lentement à l’échelle ∆q = σ, ∆k = σ−1 qui est
la taille du paquet d’onde est peut donc être approximé par son développement au premier ordre.
Remarque 2.2.16. La proposition 2.2.15 est valable dans la limite des petites longueurs d’ondes λ ≪ L de-
vant la taille L caractéristique du problème, donc valable si ⃗k ≫ 1 . En géométrie, ⃗k s’appelle un “vecteur L
cotangent”.
Remarque 2.2.17. d’après l’expression (2.2.4), un paquet d’onde a une enveloppe Gaussienne de largeur σ > 0
centrée en ⃗q (t), des oscillations internes de longueur d’onde λ = ⃗2π , les plans de phase sont orthogonaux
∥k(t)∥
à la direction du vecteur ⃗k (t). D’après les équations de mouvement (2.2.6), le paquet d’onde se déplace à la
dq j ∂ω
vitesse dt = ∂k j appelée vitesse de groupe. La vitesse de chaque plan de phase, appelée vitesse de phase est
⃗v φ est donc parallèle à ⃗k (t) et de norme 2
ω
⃗v φ = . (2.2.8)
⃗k
Exemple 2.2.18. “L’équation de Schrödinger”. (Suite de 2.2.4). Alors les équation de mouvement (2.2.6) sont
équivalentes aux équations de Hamilton (2.1.3).
Exemple 2.2.19. “L’équation d’onde”. (Suite de 2.2.5). D’après le principe de correspondance (2.2.5), ou en
⃗
remplaçant l’onde ψ (⃗q) = ei(k.⃗q−ωt) dans l’équation (2.2.2), on obtient
t
i (−iω ) ψt = ±c (q) ⃗k ψt
⇔ ω ⃗q,⃗k = ±c (⃗q) ⃗k .
Remarque 2.2.20. On a déjà vu, Théorèmes 2.1.2 et 2.1.3, que les équations de mouvement de Hamilton (2.2.6)
impliquent la conservation de l’énergie, qui est ici ω et du volume dans l’espace de phases.
Par exemple utilisant les équations de Hamilton, on peut déduire la loi de la réfraction en optique :
Exercice 2.2.21. (*) Réfraction : Loi de Snell (1621)-Descartes (1637) (trouvée avant par Ibn Sahl (983) à
Bagdad). Supposons que dans l’espace q = (q1 , q2 ) ∈ R2 , il y a une interface en q1 = 0, de sorte que pour
q1 < 0 on a c (q) = c et pour q1 > 0 on a c (q) = c′ avec c′ < c. Déduire de (2.2.3), de l’équation de mouvement
de Hamilton (2.1.3) et de la conservation de l’énergie que : dans chaque domaine un rayon (lumineux ou
sonore) se déplace en ligne droite et à l’interface on a la relation
1 1
sin θ = ′ sin θ ′ (2.2.9)
c c
où θ (respect. θ ′ ) est l’angle du rayon avec la normale de l’interface. Voir schéma. Cette formule de réfraction
(2.2.9) est appelée loi de IbnSahl-Snall-Descartes.
θ′
θ
c c′
F IGURE 2.2.1 – Si c (q) = c, c′ prend deux valeurs différentes de part et d’autre d’une interface alors la rayon
est dévié d’après la loi de Snell-Descartes (2.2.9).
cvide
Remarque 2.2.22. En optique, on définit l’indice du milieu par n (q) = c(q)
où cvide est la vitesse de la lumière
dans le vide.
p
Solution : L’énergie est ω (q) = c (q1 ) |k| avec le vecteur d’onde k = h̄ (ou poser h̄ = 1). L’équation de mou-
vement (2.1.3) donne ∂t k2 = −∂q2 H = 0 donc k′2 = k2 à l’interface. La conservation de l’énergie à l’interface
donne
c ∥k ∥ = c′ k′
On a
k2 k′2
sin θ = , sin θ ′ = .
∥k∥ ∥k′ ∥
On déduit
k′2 k2 c′
sin θ ′ = = c = sin θ
∥k′ ∥ c′ ∥k∥ c
et donc (2.2.9).
appelées paquets d’ondes, qui dépendent des paramètres t ∈ R, ⃗q (t) ∈ R3 ,⃗k (t) ∈ R3 . On calcule d’une part
∂⃗k (t)
∂φ ′ ∂θ
. ⃗q′ − ⃗q (t)
i ⃗q = i −i +i
∂t (2.2.11) ∂t ∂t
∂⃗q (t) 1 ∂⃗q (t)
−i⃗k (t) . . ⃗q′ − ⃗q (t) φ
+ (2.2.12)
∂t σ ∂t
!
∂⃗q (t) ∂⃗k (t) ′
∂θ ⃗
1 ∂q (t) ′
= + k (t) . − ⃗q − ⃗q (t) + i q − q (t) φ (2.2.13)
∂t ∂t ∂t σ ∂t
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 58
D’autre part, concernant l’opérateur Ω, l’hypothèse importante est que le symbole ω ⃗q,⃗k varie lentement.
Donc près d’un point ⃗q (t) ,⃗k (t) arbitraire, on suppose une expression linéaire (qui serait le résultat d’un
développement de Taylor à l’ordre 1) :
ω ⃗q,⃗k = ω0 +⃗a. (⃗q − ⃗q (t)) + ⃗b. ⃗k −⃗k (t) (2.2.14)
Avec le principe de correspondance (2.2.5), cela revient à supposer l’expression suivante pour l’opérateur Ω :
∂.
Ω = ω0 +⃗a. ⃗q′ − ⃗q (t) + ⃗b. −i ′ −⃗k (t)
∂⃗q
avec la notation ∂∂.⃗q = ∂q∂. , ∂q∂. , ∂q∂. avec des coefficients ω0 , ⃗a,⃗b réels de sorte que Ω† = Ω et ω ⃗q,⃗k ∈ R.
1 2 3
On calcule alors
′ ⃗ ⃗ 1 ′ ⃗
Ωφ =
ω0 +⃗a. ⃗q − ⃗q (t) + b. k (t) − i − ⃗q − ⃗q (t) − k (t) φ (2.2.15)
(2.2.11) σ
1
= ω0 +⃗a. ⃗q′ − ⃗q (t) + i ⃗b. ⃗q′ − ⃗q (t) φ
(2.2.16)
σ
Identifiant les termes (partie réelle et imaginaire de degré 0 et 1 en ⃗q′ ) de (2.2.13) à (2.2.15), l’équation (2.2.10)
est donc équivalente à
∂θ ⃗ ∂⃗q (t)
+ k (t) . = ω0 = ω ⃗q (t) ,⃗k (t) ,
∂t ∂t (2.2.14)
Ĥ φ = Eφ
avec une fonction propre φ : q → φ (q) et valeur propre (énergie) E, alors la fonction
E
ψ (q, t) = e−i h̄ t φ (q) (2.3.1)
est solution de l’équation d’évolution (2.2.1), ih̄∂t ψ = Ĥψ, appelée solution stationnaire car le module
|ψ (q, t)| = | φ (q)| est indépendant du temps.
Démonstration. On calcule ∂t ψ = −i Eh̄ ψ donc ih̄∂t ψ = Eψ = Ĥψ.
(2.3.1)
Remarque 2.3.2. Les vecteur propres d’un opérateur Ĥ sont en général impossible à calculer exactement. On
sait parfois montrer leur existence seulement. Expérimentalement, on les observe approximativement en ré-
gime stationnaire, c’est à dire en excitant le système par un signal d’amplitude temporelle eiωt = e−iEt/h̄
appelé signal monochromatique. Par exemple en physique moléculaire, ce peut être une onde lumineuse laser
envoyée sur une cible.
L’intérêt de la formule de Weyl ci-dessous ou formule du “comptage d’états ondulatoires” est de donner
approximativement la position des niveaux d’énergie Ej et leur densité moyenne. (Voir par exemple ce cours
de mecanique quantique).
Comme expliqué en section 2.2.2, il est préférable de travailler avec les variables originales k (vecteur
d’onde) et ω (fréquence) plutot que p = h̄k (impulsion) et énergie E = h̄ω qui ne sont que des quantités
59 2.3. FORMULE DE WEYL SEMI-CLASSIQUE
après changement d’échelle. On va donc présenter la formule de Weyl en variables (q, k ) et ensuite déduire la
formulation équivalente et plus habituelle en variables (q, p).
Rappelons que par définition si D ⊂ R2d est un domaine de l’espaceRdes phases (q, k), alors son volume
est donné par une intégrale multiple des élements de volume Vol ( D ) := (q,k)∈ D dqdk.
Théorème 2.3.3. “Formule de Weyl semi-classique (en (q, k))”. Si un opérateur Ω̂ auto-adjoint est défini à
partir d’un symbole ω (q, k) où q, k ∈ Rd sont les variables de position et vecteur d’onde pour d degrés de liberté
et si on note
Ω̂φ j = ω j φ j (2.3.2)
avec ω j les valeurs propres (fréquences propres) de Ω̂ et φ j vecteurs propres (ou modes propres) alors le nombre
de valeurs propres ω j inférieures à ω donnée, noté n (ω ) := ♯ j | ω j ≤ ω est approximativement (à hautes
fréquences)
1
n (ω ) ≈ Vol ({((q, k) t.q. ω (q, k) ≤ ω )}) (2.3.3)
(2π )d
Dans le terme de droite, il apparaît le volume dans l’espace des phases, occupé par les points (q, k) d’énergie
inférieure à ω.
Démonstration. (*) On donne seulement une idée de la preuve du théorème 2.3.3 : c’est de supposer que ω (q, k )
avec q et donc se ramener localement au cas simple suivant : symbole ω (q, k) = ω (k), opérateur
varie peu
Ω = ω −i ∂q∂ , . . . , −i ∂q∂ (indépendant de q) sur un petit rectangle q ∈ [0, ϵ]d avec les conditions périodiques
1 d
aux bord. Les solutions de (2.3.2) sont donc les modes de Fourier φk (q) = eik.q avec k ∈ Rd de sorte que
2πn
φk (q + (ϵ, 0 . . .)) = φk (q) ⇔ k1 ϵ = n1 2π, n1 ∈ Z et de même pour les autres composantes k j = ϵ j , n j ∈
Z, j ∈ {1,
. . . , d}. La valeur propre est ωk = ω (k ). Alors on peut faire le comptage explicitement, comme
Vol [0, ϵ]d = ϵd :
n o 2π
n ( ω ) = ♯ k ∈ Rd | ω ( k ) ≤ ω = ♯ n ∈ Zd | ω n ≤ω
ϵ
−d Z −d
2π 2π
Z
d
≈ dn = dk = Vol k ∈ R | ω ( k ) ≤ ω
ω ( 2π
ϵ n)≤ω
ϵ ω (k )≤ω ϵ
1
= Vol k ∈ Rd | q ∈ [0, ϵ]d , ω (k) ≤ ω
(2π )d
1
On voit donc que le terme provient des modes de Fourier (ou de la transformée de Fourier). Le vrai
(2π )d
théorème de la loi de Weyl et la vraie preuve consiste à bien controller l’approximation .
On déduit immédiatement du Théorème 2.3.3, une formulation équivalente pour la mécanique avec les
variables p = h̄k (impulsion) et énergie E = h̄ω :
Théorème 2.3.4. “Formule de Weyl semi-classique (en (q, p)).”. Si un opérateur (Hamiltonien quantique)
Ĥ est défini à partir d’un Hamiltonien classique H (q, p) où q, p ∈ Rd sont les variables de position et impulsion
pour d degrés de liberté et si on note
Ĥ φ j = Ej φ j
avec Ej niveaux d’énergie (valeurs propres) de Ĥ alors le nombre de valeurs propres Ej inférieures à E donnée,
noté n ( E) := ♯ j | Ej ≤ E est
1
−d
n ( E) = d
Vol ({( q, p t.q. H ( q, p ) ≤ E )}) + o h̄ (2.3.4)
(2πh̄)
où le terme d’erreur devient négligeable dans la limite où h̄ est petit devant les grandeurs du problème. Dans le
terme de droite, il apparaît le volume dans l’espace des phases, occupé par les points (q, p) d’énergie inférieure à
E.
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 60
Démonstration. de (2.3.4) à partir de (2.3.3) : par le changement d’échelle Ĥ = h̄Ω̂, Ej = h̄ω j , E = h̄ω, p = h̄k,
on a les élements de volume dp = dp1 . . . dpd = h̄d dk1 . . . dk d = h̄d dk donc dqdp = h̄d dqdk et
1 1 1
Z Z
d
Vol ({(q, p t.q. H (q, p) ≤ E)}) = dqdp = h̄d dqdk
(2πh̄) (2πh̄)d (q,p)∈ D (2πh̄) d(q,k)∈ D
1
= Vol ({((q, k ) t.q. ω (q, k) ≤ ω )}) .
(2π )d
est un ensemble de dimension n − 1 (car il n’y a plus que n − 1 variables indépendantes à cause de la
contrainte) appelé la « sphère Sn−1 ». Par exemple S1 est le cercle de rayon R dans R2 . S2 est la sphère ha-
n−1 est
R . S nest constitué des deux points {− R, + R} ⊂ R. On montre que le
3 0
bituelle dans
n − 1 − 1 1
« volume » de S
Vol S = Cn−1 R avec Cn−1 ≥ 0 qui ne dépend pas de R. Par exemple Vol S = 2πR est aussi appelé
périmètre du cercle. Vol S2 = 4πR2 , Vol S0 = 0, etc.
Boules : L’ensemble n o
Bn := x t.q. x12 + x22 + . . . + xn2 ≤ R2 (2.3.5)
est un ensemble de dimension n appelée la « boule fermée Bn » que l’on appelle aussi intérieur de la sphère
Sn−1 . Par exemple B2 est en fait le disque de rayon R dans R2 . B1 est le segment [− R, + R] ⊂ R. On montre que
61 2.3. FORMULE DE WEYL SEMI-CLASSIQUE
le « volume » de Bn est Vol ( Bn ) = Cn′ Rn avec Cn′ > 0 qui ne dépend pas de R. Par exemple Vol B2 = πR2 est
aussi appelé surface du disque. Vol B1 = 2R, Vol B3 = 34 πR3 , etc. Pour n ≫ 1, on a l’équivalence
1 1 2πe
ln Cn′ ∼ ln , (2.3.6)
n 2 n
2πe n/2
autrement dit Cn′ ≍
n .
C n := { x t.q. 0 ≤ xi ≤ R, ∀i = 1 . . . n}
qui est un espace de dimension n appelé cube de côté R. Son volume est simplement le produit des côtés
Vol (C n ) = Rn . Par exemple C2 est en fait un carré de surface Vol C2 = R2 . C1 est un segment de longueur
Vol C1 = R.
Produit cartésien d’ensembles : Considérons maintenant un cas intermédiaire. Par exemple si on considère
l’ensemble de points dans R4
n o
E := x t.q. 0 ≤ x1 ≤ L, 0 ≤ x2 ≤ L, x32 + x42 = R2 ,
on observe que les conditions sur les variables ( x1 , x2 ) correspondent à un cube C2 (un carré) que les condi-
tions sur les variables ( x3 , x4 ) correspondent à une sphère S2−1 = S1 (un cercle). C’est deux conditions sont
indépendantes, par conséquent E = C2 × S1 est le produit cartésien d’un carré C2 de dimension 2 et d’une
1 2
sphère S de dimension 1. Ainsi Vol ( E) = Vol C Vol S = L 2πR.1 2
0 L q
p
R
L q
−R
Vol ({(q, p t.q. H (q, p) ≤ E)}) = Vol ({q ∈ [0, L]}) × Vol ({ p ∈ [− R, R]}) = L × 2R
√
= 2L 2mE
1 √ 1 √
n ( E) = 2L 2mE + o h̄−1 = L 2mE + o h̄−1 .
(2.3.3) 2πh̄ πh̄
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 62
et leur impulsions :
p = ⃗p(1) , ⃗p(2) , . . . ⃗p( N ) ∈ R3N .
On suppose les particules libres, c’est à dire que leur énergie est seulement l’énergie cinétique :
N 2
1
H (q, p) = ∑ 2m ⃗p( j) .
j =1
N 2
H (q, p) ≤ E ⇔ ∑ ⃗p( j) ≤ 2mE = R2
j =1
. . × Ω et p ∈ B3N ( R)
⇔ q ∈ |Ω × .{z }
N
car d’après (2.3.5), on reconnaît l’équation d’une boule B3N ( R) de rayon R dont le volume est donnée en
(2.3.6). On suppose les particules identiques et donc indiscernables. Cela signifie que la permutation j ←→ j′
de deux particules quelconques ne change pas l’état et qu’il faut donc réduire le volume de l’espace de phase
par un facteur N! qui est le nombre de permutations. La formule de Stirling donne n1 ln (n!) ∼ ln ne si n ≫ 1,
avec e = exp (1) soit
n n
n! ≍ .
e
Alors
1 1 N
Vol ({(q, p t.q. H (q, p) ≤ E)}) = (Vol (Ω)) N Vol B3N ( R) = V C3N R N .
N! (2.3.6) N!
63 2.5. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE WEYL
On utilisera cette formule de la façon suivante. Par dérivation, on déduit une approximation de la densité
d’états
dn 3N 1
ρ ( E) := ( E) = n ( E) . (2.4.2)
dE 2 E
Pour un petit intervalle d’énergie de largeur ∆E autour de E donnés, on déduit le nombre d’états ∆n par
∆n
3N 1
= ρ ( E) = n ( E) (2.4.3)
∆E (2.4.2) 2 E
E E ∆n
∆n ∆E
E
1 ∂S P ∂S
= , = . (2.5.1)
T ∂E T ∂V
Déduire les deux relations suivantes donnant l’énergie moyenne E/N par particule, la loi des gaz
parfaits,
E 3
= kT, PV = NkT. (2.5.2)
N 2
4. On considère maintenant le nombre N ≫ 1 de particules comme une variable. Donnerl’expression
de l’entropie, (formule de Sackur Tetrode), définie par S ( E, V, N ) = k ln (∆n) avec ∆n = ∂E
∂n
∆E. On
1
définit le potentiel chimique µ par la différentielle dS = T (dE + PdV − µdN ) i.e.
−µ ∂S
= . (2.5.3)
T ∂N
Déduire la relation
µ V
e− kT = (2.5.4)
Nλ3T
1/2
2πh̄2
avec λ T := mkT appelée longueur d’onde thermique de de Broglie dont on rappellera l’interpré-
tation.
5. Montrer que la fonction S ( E, V, N ) est extensive, i.e. S (λE, λV, λN ) = λS ( E, V, N ), , ∀λ > 0, et que
T, p, µ sont intensives, i.e. T (λE, λV, λN ) = T ( E, V, N ) , ∀λ > 0, etc. Déduire la relation de Euler :
1 P µ
S= E+ V− N (ou E = TS − PV + µN ). (2.5.5)
T T T
Cette relation montre que les trois relations d’états (2.5.1),(2.5.3) ne sont pas indépendantes. Retrouver
(4.8.3) à partir de (2.5.5) et (2.5.2).
6. Pour comprendre les définitions précédentes de T, P, µ par les relations (2.5.3), voir Diu et al. (1989,
p.207, chap.4), ou TD ultérieur. On observe que T est relié à l’énergie moyenne par particule. On peut
vérifier que P correspond à la pression mécanique de la façon suivante. Considérons que le volume V
5. La boule BRn de rayon R dans Rn défini par l’équation x12 + x22 .. + xn2 ≤ R2 a pour volume Vol ( BRn ) = Cn Rn avec n1 ln (Cn ) ∼
1
ln 2πe
2 n si n ≫ 1 avec e = exp (1), obtenu en utilisant la formule de Stirling.
6. On suppose ici le système isolé. Donc son énergie E est conservée. Cependant à cause des interactions entre particules que l’on
néglige mais qui sont pourtant présentes, on ne connaît pas exactement dans quel état il est vraiment (c’est un peu comme si il change
d’état en permanence mais gardant son énergie E fixée). On suppose donc une mesure de probabilité uniforme sur tous les états d’énergie
dn
dans un intervalle [ E, E + dE] avec dE très petit. Dans cet intervalle, il y a dn = dE dE = ρ ( E) dE états. D’après le TD1, l’entropie est
alors S = k ln (dn) = k ln (ρ ( E) dE) = k ln (ρ ( E)) + klog (dE) ≈ k ln (ρ ( E)) indépendamment du choix de dE.
7. La formule de Stirling donne n1 ln (n!) ∼ ln ne si n ≫ 1, avec e = exp (1).
65 2.5. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE WEYL
puisse varier en déplaçant de dx une paroi de surface s selon une dimension x, donnant une variation
de volume dV = sdx. Par définition, la force exercée par le gaz sur la paroi est F = − dE
dx où E ( x ) est
l’énergie interne du système et la pression mécanique est définie comme étant la force par unité de
surface Pmec = Fs . Montrer que Pmec = P.
CHAPITRE 2. MÉCANIQUE DES ONDES ET DES PARTICULES 66
Chapitre 3
Dans ce chapitre on considère un ensemble physique de plusieurs particules comme le modèle du gaz
parfait étudié en section 2.4. On va faire une hypothèse de “chaos”, habituellement appelée “hypothèse ergo-
dique” et déduire des propriétés importantes sur l’état d’équilibre et sur le comportement de deux systèmes
physiques qui sont en contact.
A partir de maintenant les notions ne sont plus très rigoureuses (c’est encore un défi de la science actuelle
de les rendre rigoureuses). On va se baser plus sur l’intuition physique et sur quelques modèles physiques
particuliers.
SShannon = ln (∆n)
(1.5.12)
et l’entropie de Boltzmann est définie par (la constante de Boltzmann fixée en 1966 est k =
1.380649 10−23 J/K)
S ( E, V, N ) := kSShannon = k ln (∆n) (3.1.1)
et caractérise le système thermodynamique à l’échelle macroscopique. D’après la localité des interac-
tions, la fonction entropie est supposée extensive, c’est à dire que pour tout facteur de proportionnalité
λ > 0,
S (λE, λV, λN ) = λS ( E, V, N ) . (3.1.2)
∂2 S
Finalement on suppose que la fonction S ( E, V, N ) est concave, i.e. ∂E2
< 0. Cela sera nécessaire pour
déduire la stabilité du système thermodynamique, cf Prop. 3.4.3.
67
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 68
— Attention dans les systèmes décrit précédemment, gaz, liquide ou solide, l’état d’équilibre est atteints
que sur une petite échelle de la taille de quelques micromètres appelée échelle mésoscopique, car
grande devant l’échelle microscopique des particules et petite devant l’échelle humaine macroscopique.
Ainsi un système thermodynamique est toujours de taille mésoscopique. A l’échelle macroscopique,
il faut considérer les fluides comme un ensemble de plusieurs systèmes thermodynamiques qui
interagissent entre eux. On étudiera ces interactions dans la suite.
— D’autres modèles importants en physique sont les ondes de vibration d’un solide cristallin (appelés
phonons, bien que les phonons soient précisément la quantification de ces ondes). A cause des non
linéarité, il y a des interactions entre les paquets d’ondes (appelés quasi-particules) et on peut supposer
que ces comportements sont chaotiques, justifiant l’hypothèse ergodique et donc le fait de considérer
ces ondes comme un système thermodynamique.
— Dans un solide, les moments magnétiques des particules, appelés spins interagissent entre eux. Un
modèle simplifié est de considérer des états de spins sur un réseau fixé. Ces spins interagissent avec
leur proches voisins. De même, supposant quelques interactions générant du chaos, on peut considérer
ce modèle comme un système thermodynamique. Son étude montre l’existence de transitions de phase,
par exemple des états où les spins sont collectivement parallèle, donnant une aimantation au matériau.
On étudiera le modèle d’Ising du ferromagnétisme qui est un exemple simple de tel modèle. (Pour
avoir la thermalisation il faut supposer que les ondes de spins ont des comportements non linéaires ?)
— Un système dynamique simple n’est pas un système thermodynamique (exemple une planète consi-
dérée comme un point ou un pendule). On ne le décrit pas par une mesure de probabilité d’équilibre
qui n’évolue pas mais par son état dynamique qui évolue d’après les lois de Newton par exemple. Par
contre un tel système dynamique interagit éventuellement avec des systèmes thermodynamiques, par
exemple le pendule bouge dans un fluide comme l’air ou l’eau. Il sera important d’étudier les interac-
tions entre ces différents systèmes et observer les phénomènes de fluctuation et dissipation.
69 3.1. SYSTÈME THERMODYNAMIQUE ET HYPOTHÈSE ERGODIQUE
Remarque 3.1.2. “Sur les quantités conservées”. Plus généralement, on peut avoir un système thermodyna-
mique avec p familles différentes de particules où le nombre de particules Nj dans chaque famille est conservé
j = 1, . . . p. On considérera l’ensemble de ces quantités conservées N1 , . . . Np . Par exemple en chimie, avec
des réactions comme 2H2 O ⇔ 2H2 + O2 , le nombre de molécules NH2 O n’est pas conservé mais le nombre
d’atomes NH , NO est conservé. Attention, dans le cas des photons, le nombre de photons Nγ n’est pas une
quantité conservée, car un photon peut être absorbé et/ou émit par la matière (on le voit tous les jours, lorsque
on allume et éteints la lumière dans une pièce).
En mécanique des fluides on peut avoir un déplacement du système et considérer l’impulsion totale qui
est une grandeur conservée, ou le moment cinétique total.
Remarque 3.1.3. “Sur la constante de Boltzmann k”. On verra que l’entropie de Shannon est de l’ordre de
SShannon ( E) ≈ N qui est de l’ordre du nombre d’Avogadro NAv. = 6.02 1023 pour un gaz à l’échelle humaine.
Afin d’obtenir une grandeur de l’ordre de l’unité, on change d’échelle, on multiplie SShannon ( E) par k =
1
NAv. R pour obtenir SBotlz. ( E ) = kSShannon ( E ) ≈ R dans la définition (3.1.1) de l’entropie de Boltzmann, où
R = 8.31J/K est une grandeur à l’échelle humaine. L’entropie de Shannon SShannon n’a pas d’unité mais est
immense, l’entropie de Boltzmann S a l’unité J/K.
Remarque 3.1.4. “Sur l’entropie à basse énergie”. Pour un système physique à basse énergie on s’attend à ce
qu’il ait un seul état fondamental, ∆n = 1 donc l’entropie est nulle S = k ln ∆n = 0. Cette propriété s’appelle
le 3eme principe de la thermodynamique ou principe de Nernst (1906). Cela est théorique, et valable pour
un système strictement isolé et pour E → 0 (T → 0). En pratique, certains systèmes appelés verre de spins,
admettent un grand nombre d’états à basse énergie et donc une entropie résiduelle. Ces modèles de “verre
de spin” sont étudiés dans le cadre des modèles d’apprentissage neuronale (voir cours de Bernard Derrida au
collège de France).
Définition 3.1.5. Pour une fonction entropie S ( E, V, N ) donnée, on définit la température T, la pres-
sion p, le potentiel chimique µ par
∂S 1 ∂S p ∂S µ
=: , =: , =: − , (3.1.3)
∂E T ∂V T ∂N T
appelée équations d’état.
Remarque 3.1.6. Ce qui est important est que l’on s’interesse aux dérivées partielles de S, autrement dit aux
changement de S sous des petites variations des quantités conservées ( E, V, N ). Les noms associés à ces déri-
vées partielles sont des raisons plutôt historiques (i.e. 1/T , p/T, −µ/T plutot que plus simplement κ E , κV , κ N
comme on verra plus loin). Noter que ces dérivées sont elles-même des fonctions T ( E, V, N ) , p ( E, V, N ) , µ ( E, V, N )
et que l’unité de la température T est K, l’unité de la pression p est mJ3 ≡ Pa, l’unité du potentiel chimique µ
est J.
Remarque 3.1.8. On peut justifier dès à présent que la pression p correspond à la pression mécanique pmec. = SF
qui est une force par surface de la façon suivante. Considérons que une paroi de surface S de l’enceinte du
gaz peut se déplacer de dx et que le déplacement est isentropique, i.e. à entropie constante, alors 0 = dS =
1 dE dE
T ( dE + pdV ) donc dV = − p. Alors le changement de volume est dV = Sdx. La force est F = − dx et donc
F 1 dE dE
pmec = = − =− = p.
S S dx dV
S
F
dx
Remarque 3.1.9. “sur le signe de la pression p” : si p < 0 ⇔ ∂V ∂S
< 0, on aurait que S augmente en
diminuant V. Par l’évolution naturelle (2eme principe, S augmente) le système aurait tendance à s’effondrer
jusqu’à retrouver une pression positive (ou pas). Ce n’est donc pas une situation stable. Par contre si p > 0,
la système a tendance a s’étendre, mais en pratique il est limité par des parois (gaz dans une enceinte) ou des
forces de rappels comme la force gravitationnelle à longue portée qui limite la taille d’une étoile ou d’une
atmosphère planétaire.
Pour la même raison T > 0 en général, car si T < 0, alors le système a tendance à donner de l’énergie pour
augmenter l’entropie, jusqu’à ce que T > 0. C’est le cas dans un système de spins, cf TD.
Remarque 3.1.10. “sur le potentiel chimique µ”. (ref : Diu et al. (1989, p.168)). On va expliquer que l’on a µ < 0
pour un gaz de particules sans interactions ou avec des interactions attractives, mais on peut avoir µ > 0 dans
un système où il y a des forces suffisamment répulsives entre particules, comme entre les électrons par leur
charges ou par l’effet d’exclusion de Pauli.
En effet, si on ajoute un certain nombre ∆N > 0 de particules immobiles au système (c’est à dire avec
énergie cinétique nulle), alors cela induit une variation d’entropie positive ∆S > 0 car cela ajoute des degrés
de liberté donc augmente le nombre de micro-états ∆n. Si il n’y a pas d’interactions entre particules (i.e. pas
d’énergie potentielle ∆E p = 0), alors l’énergie totale est inchangée ∆E = ∆Ec + ∆E p = 0. Si au contraire il y
a des interactions répulsives entre les particules, i.e. ∆E p > 0, alors il y a une variation positive de l’énergie
totale ∆E > 0 et si il y a des interactions attractives, i.e. ∆E p < 0, alors ∆E < 0. Dans tous les cas, si T > 0, on
obtient
∂S ∂S 1 µ
∆S = ∆E + ∆N = ∆E − ∆N
∂E ∂N T T
Donc
1
µ= (∆E − T∆S)
∆N
peut être positif si ∆E > T∆S > 0, i.e. des forces suffisamment répulsives mais µ < 0 si ∆E = 0 ou ∆E < 0.
T (λE, λV, λN ) = T ( E, V, N ) ,
1 p µ
S= E+ V− N
T T T
qui s’écrit aussi
E = TS − pV + µN.
à comparer avec (3.1.4).
Remarque 3.1.13. Cette relation montre que deux équations d’états (3.1.3) déterminent la 3ème.
Démonstration. D’après l’extensivité S (λE, λV, λN ) = λS ( E, V, N ),
(3.2.2)
d d
S (λE, λV, λN ) = (λS ( E, V, N )) = S ( E, V, N )
dλ dλ
En λ = 1 cela donne
∂S∂S ∂S
V+E+ N=S
∂E
∂V ∂N
1 p µ
⇔ E+ V− N = S
T T T
Remarque 3.1.14. En mathématiques, la relation d’Euler s’applique plus généralement, aux fonctions homo-
gènes.
3N ∆E
S ( E, V, N ) = k ln (∆n) = k ln n ( E)
(3.1.1) (2.4.3) 2 E
3N ∆E
= k ln (n ( E)) + k ln
2 E
Avec (2.4.1) on obtient que S ≈ N et donc le deuxième terme est négligeable et on obtient
Proposition 3.2.1. “Entropie du gaz parfait”, “formule de Sachur Tetrode”. Diu et al. (1989, p.197).
3/2 !
Ve5/2
mE
S ( E, V, N ) = kN ln . (3.2.1)
(2.4.1) N 3πh̄2 N
Remarque 3.2.3. Le facteur N! venant de l’indiscernabilité des particules est essentiel pour déduire cette pro-
priété d’extensivité. Sinon il apparaît le “paradoxe de Gibbs”.
Voici un schéma représentant pour le modèle du gaz parfait, le nombre de micro-états ∆n ( E) à l’énergie
E ≥ 0 dans un petit intervalle ∆E fixé d’énergie.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 72
3N
E ∆n( E) ∝ E 2 E
S( E) ∝ ln( E)
S( E) = k ln ∆n( E)
augmente très vite avec l’énergie et par conséquent, l’entropie se comporte comme
3N
S ( E) = k ln (∆n) ≈ k ln E ∝ ln E
2
Ses dérivées sont
1 ∂S 1
= ∝ >0
T ∂E E
∂2 S 1
∝− 2 <0 (3.2.3)
∂E2 E
donc S ( E) est une fonction concave 1 . Ce sera important dans la suite pour établir la stabilité des systèmes
thermodynamiques.
Dans le cas du gaz parfait, en utilisant l’expression de l’entropie (3.2.1), on peut expliciter les équations
d’état.
Proposition 3.2.4. “Equations d’états du gaz parfait”. Pour le gaz parfait on a les trois équations d’état
E 3
= kT (3.2.4)
N 2
signifiant que l’énergie moyenne par particule est proportionnelle à la température.
pV = NkT (3.2.5)
V
qui montre que N = 1p kT, i.e. la pression est inversement proportionnel au volume moyen V/N par particule.
µ V
e− kT = (3.2.6)
Nλ3T
avec !1/2
2πh̄2
λT =
mkT
appelée longueur d’onde thermique de de Broglie.
Démonstration. On calcule
1 ∂S 31
= = kN
T ∂E (3.2.1) 2E
donnant (3.2.4). De même
p ∂S 1
= = kN .
T ∂V (3.2.1) V
1. De même on a vu pour le gaz parfait que concernant le volume et la pression,
∆n (V ) ∝ V N , S (V ) = k ln (∆n) ∝ ln V
p ∂S 1 ∂2 S 1
= ∝ > 0, ∝ − 2 < 0.
T ∂V V ∂V 2 V
73 3.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA THERMODYNAMIQUE
donnant (3.2.6).
qui permet de mesurer la variation d’une fonction f donnée le long de la courbe γ au point γ (t). Cette
variation est
d ( f (γ (t))) d ( f ( x1 (t) , x2 (t)))
V ( f ) := = (3.3.1)
dt γ(t) dt γ(t)
∂f dx1 ∂f dx2
= + (3.3.2)
∂x1 dt ∂x2 dt
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 74
Ainsi on écrit
dx1 ∂. dx2 ∂.
V (.) = + , (3.3.3)
dt ∂x1 dt ∂x2
| {z } | {z }
V1 V2
dx1 dx2
ce qui montre que V est un opérateur différentiel d’ordre 1 avec deux composantes (V1 , V2 ) = dt , dt ∈
R2 .
— La différentielle de la fonction f est l’application linéaire
d f : V → d f (V ) : = V ( f )
qui mesure les variations de f selon un vecteur tangent V donné (Noter que c’est la même quantité
V ( f ) qui a défini V en (3.3.1)). En particulier, prenant la fonction f ( x1 , x2 ) = x1 on a
dx1
V ( x1 ) = = dx1 (V ) (3.3.4)
(3.3.3) dt
dx2 ∂f ∂f
, et de même dt = dx2 (V ). Donc en général d f (V ) = V ( f ) = ∂x1 dx1 (V ) + ∂x2 dx2 (V ) donnant la
(3.3.1)
notation
∂f ∂f
df = dx1 + dx2 . (3.3.5)
∂x1 ∂x2
La variation totale de f le long de la courbe γ est alors
1 d Z
f (γ (1)) − f (γ (0)) = ( f (γ (t))) dt
0 dt
Z 1
∂ f dx1 ∂ f dx2
Z
= + dt = df
(3.3.1) 0 ∂x1 dt ∂x2 dt (3.3.5) γ
avec des composantes (α1 , α2 ) ∈ R2 à priori arbitraires. On peut sommer ces variations infinitésimales
le long de la courbe γ et obtenir
Z 1
dγ
α dt =
0 dt (3.3.6,3.3.4)
Z 1
dx1 dx2
Z
α1 ( x1 , x2 ) + α2 ( x1 , x2 ) dt = α
0 dt dt γ
R
En général ce résultat γ α dépend du chemin γ et n’est pas nul sur un chemin fermé : si γ est fermé
et γ = ∂C (i.e. γ est le bord orienté du domaine C ⊂ R2 ), alors d’après le théorème de Stokes on peut
écrire :
Z Z ZZ
α= α= dα
γ ∂C C
∂α1 ∂α2
— Etant donné une 1-forme α générale, on dit qu’elle est fermée si dα = 0 ( ⇔ ∂x2 = ∂x1 ). D’après
(3.3.7)
(3.3.8), une forme exacte est fermée et on peut se demander si la réciproque est vraie. Le Lemme de
Poincaré montre que oui : sur R2 , une forme fermée est exacte.
γ = γ1 ∪ γ2 ∪ γ3 ∪ γ4 (3.3.9)
avec pour t ∈ [0, 1] ,γ1 (t) = (t, 0), γ2 (t) = (1, t), γ3 (t) = (1 − t, 1), γ4 (t) = (0, 1 − t).
1. Soit la fonction f ( x1 , x2 ) = x12 + x22 . Calculer sa différentielle d f . Calculer les intégrales γ d f (i.e.
R
R j
variation de f sur les segments) pour j = 1, 2, 3, 4 et vérifier que la variations totale γ d f = 0.
R
2. Soit la différentielle α = x2 dx1 . Est elle fermée ? Calculer les intégrales γ α pour j = 1, 2, 3, 4 et l’inté-
R j
grale totale γ α deux façons (directement et en utilisant la formule de Stokes).
1
3. En coordonnées polaires (r, θ ) bien définies pour r > 0 et θ ∈]0, 2π [, montrer que α = dθ = x12 + x22
( x1 dx2 − x2 dx1 ) .
R
Calculer γ α où γ est le cercle de rayon 1. α est-elle fermée ?
4. Exercice similaire avec les notations de la thermodynamique (mais simplifiées) : dans le plan ( E, V ) ∈
R2 , on suppose avoir la fonction « entropie » S ( E, V ) = ln (VE) et on note sa différentielle
1 P
dS = dE + dV
T T
avec des fonctions T ( E, V ), P ( E, V ) que l’on calculera. On définit les 1-formes
δQ := TdS, δW := − PdV.
On considère un gaz parfait dans une enceinte de volume V, contenant N particules, d’énergie totale E.
1 P
On définit
(en général)
la température T et la pression P par la différentielle dS = T dE + T dV, autrement dit,
1 ∂S P ∂S
T = ∂E V et T = ∂V .
E
1. Partant de l’expression de l’entropie (3.3.10), montrer que
E 3
= kT, PV = NkT.
N 2
2. On définit la 1-forme (échange de chaleur) δQ := TdS et 1-forme (échange de travail) δW := − PdV.
Montrer que en général dE = δQ + δW et que δQ, δW ne sont pas des 1-formes fermées.
3. Dans la suite on va utiliser les variables ( T, V ) plutôt que ( E, V ) et pour cela, on effectue le changement
2E
de variable E → T = 3kN . Donner l’expression de l’entropie S ( T, V ) et identifier les courbes de « trans-
formations adiabatiques » dans le plan ( T, V ) correspondant à des changement avec dS = 0, c’est à dire
en restant à l’équilibre local et sans échange de chaleur avec l’extérieur : δQ = TdS = 0. Pour cela on
isole les parois de l’enceinte du gaz.
4. On considère deux valeurs de température extérieures 0 < T1 < T2 (deux thermostats). Dans le plan
( T, V ) du gaz, on définit la courbe fermée appelée « cycle moteur de Carnot » par (voir figure) :
(a) « Détente isotherme ». L’enceinte n’est pas isolée, mais en contact avec le thermostat extérieur de
température T2 . On tire sur le piston pour augmenter le volume. Partant d’un point A : TA = T2 ,
VA > 0 donné vers un point B : TB = T2 , VB > VA et T = T2 pendant la détente.
(b) « Détente adiabatique ». L’enceinte est isolée. On tire sur le piston pour augmenter le volume et
rejoindre la température T1 . Partant du point B précédent vers un point C : TC = T1 , VC > VB telle
que cette transformation soit adiabatique.
(c) « Compression isotherme ». L’enceinte n’est pas isolée, mais en contact avec le thermostat extérieur
de température T1 . On pousse tire sur le piston pour diminuer le volume. Partant du point C vers
un point D : TD = T1 , VD < VC et T = T1 pendant la compression.
(d) « Compression adiabatique ». L’enceinte est isolée. On pousse sur le piston pour diminuer le volume
et rejoindre la température T2 et le volume VA . Partant du point D précédent vers le point A de
départ telle que cette transformation soit adiabatique.
VB
Utilisant les formules des courbes adiabatiques, montrer que V
A
= VVDC et donc le cycle est caractérisé
par les paramètres indépendants T1 < T2 et VA < VB . A quoi est égal la variation d’énergie ∆E = γ dE
R
6. Montrer que la seule partie où le gaz reçoit de la chaleur est ∆Q A→ B > 0. Déduire que l’expression du
(−∆W )
rendement du moteur définie par η := ∆Q > 0 en fonction de T1 < T2 . Application numérique pour
A→ B
◦ ◦
T1 = 20 C, T2 = 100 C, calculer le rendement η ?
7. Expliquer pourquoi le cycle γ parcouru dans l’autre sens correspond à une pompe à chaleur ou à un
réfrigérateur (qui refroidit le thermostat froid et réchauffe le thermostat chaud) ?
F IGURE 3.3.1 – Ondes sonores (ultra sons) observées par effet Schlieren et par éclairage stroboscopique. Les
ondes sont émises à gauche et se réfléchissent sur la plaque. On observe des figures d’interférence.
dérivation de l’entropie du gaz parfait (voir TD2) et montrer que l’on obtient
(3+2) N
N
S ( E, V ) = k log CN V E 2 ,
où le chiffre 2 en gras vient de ces deux degrés de liberté supplémentaire par rapport à un gaz monoato-
mique. De la même façon, qu’obtiendrait t-on pour un gaz polyatomique sans symétrie moléculaire ?
(3+2) N
3. En appliquant la définition dS = T1 (dE + PdV ), déduire l’équation des gaz parfait et E = 2 PV.
Dans le cas d’une transformation adiabatique (i.e. à entropie constante ce qui signifie que l’équilibre
statistique a toujours lieu) déduire la loi de Laplace PV γ = cste avec γ = 1 + 3+2 2 = 75 .
(Aide : Notes de cours.) On décrit l’air (fluide gazeux) par un modèle de gaz parfait à l’équilibre local
décrit par avec un champ de pression p ( x, t) ∈ R, un champ de densité (masse volumique) ρ ( x, t) ∈ R et
d’un champ de vitesse v ( x, t) ∈ R3 , où x ∈ R3 est la variables d’espace et t ∈ R est le temps. Le champ de
vitesse détermine des trajectoires du fluide t → x (t) par l’équation dx dt = v. On notera l’accélération du fluide
par
dv d
= v ( x (t) , t) .
dt dt
Le fluide subit des forces de pression internes, la force résultante est opposée au gradient de pression et l’équa-
tion de la dynamique de Newton pour le fluide par unité de volume prend donc la forme
dv
ρ = −grad ( p) (3.3.11)
dt
appelée équation d’Euler.
1. Montrer que la fonction densité ρ ( x, t) satisfait
p ( x, t) = p0 + p ( x, t)
ρ ( x, t) = ρ0 + ρ ( x, t)
avec | p| ≪ p0 et |ρ| ≪ ρ0 . Montrer que au premier ordre le champ de fluctuation de pression p ( x, t)
satisfait
∂2t p − c2 ∆p = 0
appelée équation des ondes avec la vitesse du son
E1 E2 V1 V2 N1 N2
T1 T2 p1 p2 µ1 µ2
Définition 3.4.2. Deux systèmes thermodynamiques 1 et 2 sont en contact si chacun est à l’équilibre
thermodynamique, caractérisé par leur fonction entropie S j Ej , Vj , Nj respectives j = 1, 2, mais que
cet équilibre peut varier du à un échange d’énergie, volume, ou particules entre ces deux systèmes :
— Si la paroi est non rigide, elle permet d’échanger de l’énergie (via des vibrations) mais on sup-
pose
E = E1 + E2 est constant.
— Si la paroi peut se déplacer, elle permet l’échange de volume mais
V = V1 + V2 est constant.
N = N1 + N2 est constant.
Donc les valeurs E1 , V1 , N1 peuvent varier au cours du temps. Dans cette section, on souhaite décrire leur
évolution et tout d’abord l’état d’équilibre qui est la situation la plus probable des systèmes 1 et 2.
Proposition 3.4.3. Si deux systèmes thermodynamiques 1, 2 sont en contact alors l’état d’équilibre, i.e.
situation la plus probable, est donnée par les conditions
T1 = T2 , p1 = p2 , µ1 = µ2 .
qui déterminent indirectement les valeurs E1 , V1 , N1 par les “équations d’état” (3.1.3).
∂2 S ∂2 S ∂2 S
— L’existence de cet état d’équilibre nécessite que S ( E, V, N ) soit concave, i.e. ∂E 2 < 0, ∂V 2 < 0, ∂N 2 < 0.
— Les fluctuations autour de cet état d’équilibre sont très petites, de l’ordre de √1 ≪ 1.
N
— Toute situation initiale hors équilibre évolue vers cet état d’équilibre. Par exemple
equil.
— Si au départ E1 > E1 (et donc T1 > T2 ) alors le système évolue vers l’état d’équilibre avec
transfert d’énergie de 1 vers 2.
equil.
— Si au départ V1 > V1 (et donc p1 > p2 ) alors le système évolue vers l’état d’équilibre avec
transfert de volume de 1 vers 2.
equil.
— Si au départ N1 > N1 (et donc µ1 > µ2 ) alors le système évolue vers l’état d’équilibre avec
transfert de particules de 1 vers 2.
E E1 S1 ( E1 ) E1
E SE ( E1 )
∆n( E) n1 ( E1 ) n2 ( E2 )
Equilibrium
S2 ( E2 ) E2
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 80
1
i.e. n j Ej = e k S j ( Ej ) , on obtient
1
p E1 ( E1 ) ∝ n ( E1 ) ≈ n1 ( E1 ) n2 ( E2 ) = e k (S1 (E1 )+S2 (E2 ))
(3.4.2) (3.4.3) (3.4.4)
1 1
= e k (S1 (E1 )+S2 (E−E1 )) = e k SE (E1 ) (3.4.5)
(3.4.1)
avec
SE ( E1 ) := S1 ( E1 ) + S2 ( E − E1 ) . (3.4.6)
1
p E1 ( E1 ) = e k S E ( E1 )
N1 σ
equil.
E1 E1
equil equil
A l’équilibre E1 = E1 , la probabilité p E1 E1 est maximale et vérifie donc
equil equil
∂p E1 E1 ∂SE E1 ∂S1 ∂S
=0 ⇔ =0 ⇔ ( E ) − 2 ( E − E1 ) = 0
∂E1 (3.4.5) ∂E1 (3.4.6) ∂E1 1 ∂E2
⇔ T1 = T2 .
(3.1.3)
equil
De plus pour E1 proche du maximum E1 , par un développement de Taylor à l’ordre 2 :
! !
1 1 equil. equil 1
∂SE 1 equil 2 1
∂2 S E
SE ( E1 ) = SE E1 + E1 − E1 + E1 − E1 +... (3.4.7)
k k k ∂E12 2 k ∂E12
| {z } | {z }
=0 <0
∂2 S E
où ∂E12
< 0 d’après la concavité de l’entropie (3.2.3). On se rappelle que Ej , S j ∝ Nj car sont extensives. En
equil
E1 − E1
faisant le changement de variable E1 → x = N1 qui représente l’écart à l’équilibre, on a
1 x 2
p E1 ( E1 ) ∝ e− 2 ( σ )
(3.4.5)
avec un écart type σ > 0 qui mesure les fluctuations, donné par
!
x 2
equil 2
1 ∂2 S E
− = E1 − E1
σ (3.4.5,3.4.7) k ∂E12
!!−1/2 !−1/2
1 1 ∂2 S E 1 N 1
⇔σ= − ∝ ∝ .
N1 k ∂E12 N1 N12 N 1/2
Avec N = N1 + N2 . Ainsi pour le système thermodynamique où on a supposé N ≫ 1, les fluctuations sont
relativement très petites. Pour comprendre la dernière remarque, regarder la figure .
Définition 3.4.4. On dira que le système 2 est un réservoir ou thermostat pour le système 1 si c’est un
système thermodynamique et
E2 ≫ E1 et V2 ≫ V1 et N2 ≫ N1 .
81 3.4. ÉCHANGES ENTRE DEUX SYSTÈMES THERMODYNAMIQUES
Remarque 3.4.5. Dans la suite, le système 1 n’est pas forcément un système thermodynamique, ce peut être
une seule particule (ou plusieurs), ou un spin unique (ou plusieurs), on suppose seulement que l’interaction
avec le système 2 est négligeable au sens où elle ne perturbe pas la dynamique de 1. Par contre on supposera
que le système 2 est un système thermodynamique comme précisé dans la définition 3.1.1, en plus que c’est
un réservoir pour le système 1, selon la définition 3.4.4.
On a le résultat fondamental suivant, qui est à la base de la “physique statistique à l’équilibre”.
Proposition 3.4.6. Pour deux systèmes 1,2 en contact, supposant que le système 2 est un réservoir pour le
système 1, alors
T2 , p2 , µ2 sont constants,
La mesure de probabilité sur un micro-état m1 du système 1 d’énergie E1 (m1 ), volume V1 (m1 ) et nombre
de particules N1 (m1 ), appelée “mesure de probabilité de Boltzmann Gibbs”est
− 1 E (m )
Remarque 3.4.7. Si il y a seulement échange d’énergie, la mesure est p (m1 ) = Z1 e kT2 1 1 et appelée aussi
“ensemble canonique”. Si il y a aussi échange de particules (paroi poreuse ou autre) alors la mesure de pro-
babilité (3.4.8) est aussi appelée “ensemble grand canonique”.
La constante de normalisation Z = Z ( T2 , p2 , µ2 ) qui dépend des paramètres s’appelle la fonction de par-
tition.
Remarque 3.4.8. Comme T2 , p2 > 0, on observe que comme conséquence de (3.4.8), le micro-état m1 le plus
probable (i.e. donnant p (m1 ) maximal) est celui avec E1 (m1 ) , V1 (m1 ) minimaux et N1 (m1 ) minimal si µ2 < 0.
Démonstration. Considérons seulement un échange d’énergie pour simplifier. D’après le schéma,
1 1
p (m1 ) ∝ n2 ( E2 ) = e k S2 (E2 ) = e k S2 (E−E1 ) .
(3.4.4) (3.4.1)
Reservoir
E1 E1
m1
m1 n2 ( E2 )
m1
1
S2 ( E2 ) E2 pm1 ( E1 ) ∝ e k S2 (E2)
donnant (3.4.8).
Remarque 3.4.9. Dans la preuve précédente, l’entropie S1 ( E1 ) ne joue plus aucun rôle puisque on ne considère
que des micro-états individuels du système 1. On ne suppose même pas que le système 1 soit un système
thermodynamique.
Remarque 3.4.10. (*) Plus généralement, si Q = ( Q1 , Q2 , . . . Qn ) sont des quantités extensives conservées dans
un système thermodynamique, on définit
∂S
κ j :=
∂Q j
qui donne κ = (κ1 , κ2 , . . . κn ), quantités intensives et la mesure de probabilité d’un micro-état
qui montre que le rapports des probabilités décroît avec l’écart en énergie ∆E = E1 (m′ ) − E1 (m) comparative-
ment aux « fluctuations d’énergie thermique » kT2 . Il est utile de retenir l’idée physique que deux micro-états
ont à peu près la même probabilité d’apparaître si leur écart en énergie est petite devant l’échelle des “fluc-
tuations thermiques” kT2 :
µB
avec x = kT . On observe un état aimanté à basse température et non aimanté à haute température, appelé
“paramagnétisme”. En particulier à T fixé, l’aimantation s’annule si B → 0 et la susceptibilité magnétique est
µ2
d ⟨ M⟩
χ := = ... =
dB B =0 2kT
E ( m ) = − Mm B
Le micro-état du système 1 est ici caractérisé par la variable discrète m = ± 12 La loi de Boltzmann dit que
sa mesure de probabilité est
1 E(m)
p (m) = e− kT
Z
D E
On déduit sa moyenne M ⃗ qui est l’aimantation par (calcul détaillé en TD)
⟨ M⟩ = ∑ Mm p (m) = . . . = µ B tanh x
m=± 21
µB
avec x = kT .En particulier à T fixé, l’aimantation s’annule si B → 0 et la susceptibilité magnétique est
µ2
d ⟨ M⟩
χ := = ... =
dB B =0 kT
On va considérer 3 modèles différents, chacun étant plus précis que le précédent. Ces modèles ont joué un
grand rôle historique. Plus de détails en TD. Dans chaque modèle on décrit les vibrations au premier ordre,
c’est à dire à l’ordre linéaire avec des termes quadratiques dans le Hamiltonien (i.e. oscillateurs harmoniques).
En appliquant la loi de Boltzmann qui affirme que la mesure de probabilité sur l’espace des phases est
1 − E(x,p)
p ( x, p) dxdp = e kT dxdp
(3.4.8) Z
, on calcule les valeurs moyennes des énergie
1
Z
⟨ Ec ⟩ = Ec ( x, p) p ( x, p) dxdp = . . . = kT
2
1
Z
Ep = E p ( x, p) p ( x, p) dxdp = . . . =
kT
2
où le calcule (. . . détaillé en TD) utilise une formule d’intégrale Gaussienne. Il est remarquable que le résultat
ne dépend pas ni de m, ni de K, et soit donc indépendant du matériau. Cela s’appelle le « théorème d’équi-
partition de l’énergie » qui montre en général que l’énergie moyenne est 12 kT par terme quadratique dans le
Hamiltonien. Ainsi
pour un atome à 3 dimensions (somme de 3 oscillateurs), obtient que l’énergie moyenne
est ⟨ E⟩ = 3 × 12 kT + 12 kT = 3kT et pour une mole d’atomes N = N a , on déduit que l’énergie interne est
proportionnelle à la température :
⟨ Emole ⟩ = N a 3kT = 3RT,
la constante de proportionnalité, appelée capacité calorifique molaire est une constante indépendante du ma-
tériau :
d ⟨ Emole ⟩
Cmole ( T ) := = 3R ≈ 25J/K.
dT
Ce résultat important appelé loi de dulong-petit (1819) était connu de façon expérimentale depuis longtemps.
Cependant ce modèle ne correspond pas aux mesures expérimentales à basse température.
, on calcule les valeurs moyennes des énergie et obtient (calculs détaillés en TD)
ΘE
h̄ω 1 + e − T
⟨ E⟩ = ∑ En p (n) = . . . = ΘE
n ∈N
2 1 − e− T
avec Θ E := h̄ω
k appelée température d’Einstein. On déduit
2
ΘE
d ⟨ Emole ⟩ 2T
Cmole ( T ) := = 3R2
sinh2 ΘE
dT
2T
Dans le modèle de Langmuir 1918, on suppose qu’un gaz est en contact avec une surface solide. Le gaz est
modélisé par le modèle du gaz parfait de N particules à la température T, pression p, potentiel chimique µ et
considéré comme un réservoir d’énergie et de particules. La surface est modélisée par un ensemble de sites
indépendants, chaque site peut contenir m = 0 particule ou m = 1 particule dans un état d’énergie (−ϵ) < 0
fixée.
L’objectif est d’exprimer Pm ( p, T ) qui est la probabilité pour qu’un site soit dans l’état m = 0, 1, en fonction
des paramètres T, p, µ du gaz que l’on peut contrôler.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 86
— Dans un premier temps, d’après la loi de Boltzmann de l’ensemble grand canonique, la probabilité
que le site est dans l’état m = 0 ou m = 1 est
1 1
Pm = exp − ( Em − µNm )
(3.4.8) Z kT
où T est la température externe, µ le potentiel chimique externe, Em l’énergie du site, Nm le nombre de
particules sur le site. Or dans ce modèle,
si m = 0, alors E0 = 0, N0 = 0,
si m = 1, alors E1 = −ϵ, N1 = 1,
ainsi
1 1 1 1 1
Pm=0 = , Pm=1 = exp − (−ϵ − µ) = exp (ϵ + µ)
Z Z kT Z kT
1
Comme c’est une mesure de probabilité, on a 1 = P0 + P1 , on déduit que Z = 1 + exp kT (ϵ + µ)
(1.1.4)
donc ϵ+µ
e kT 1
Pm=1 = ϵ+µ = ϵ+µ (3.5.1)
1+e 1 + e− kT kT
— Dans un deuxième temps on utilise le modèle du gaz parfait pour exprimer µ à partir de p, T :
µ V kT T 5/2
e− kT = = = C
2 3/2 3/2 p
(3.2.6) 2πh̄ (3.2.5) 2πh̄2
N mkT p mkT
qui ne dépend pas de p et qui est une fonction croissante de T. A T fixé, les courbes p → Pm=1 ( p, T )
sont appelées isothermes de Langmuir.
87 3.6. LE PRINCIPE VARIATIONNEL
La deuxième figure avec des données expérimentales est de Morvan Clotaire Nko’o Abuiboto et al, Came-
roun.
Proposition 3.6.1. “Le principe variationnel”. Considérons un système physique dont les micro-états sont
indicés par i ∈ I, ayant des énergies ( Ei )i . Supposons que ce système est en contact (échange d’énergie) avec un
réservoir de température T.
Pour une distribution de probabilité p = ( pi )i∈ I quelconque sur les états i (i.e. vérifiant ∑i∈ I pi = 1 et pi ∈
[0, 1]), on définit l’énergie libre
1 − 1 Ei
pi = e kT ,
Z
et sa valeur au minimum est
FT ( p) = −kT ln Z.
Proposition 3.6.2. “Le principe variationnel plus général”. Plus généralement, notant le volume Vi , le
nombre de particules Ni du micro-état i, supposons que le système est en contact avec un réservoir de volume
et/ou de particules de pression P, de potentiel chimique µ. Pour une mesure de probabilité p = ( pi )i sur les
micro-états, on définit les fonctionnelles appelées potentiel thermodynamique
Remarque 3.6.4. Par exemple en Thermo-chimie, un système chimique peut échanger de l’énergie et du vo-
lume (il évolue à température T et pression p fixés) et donc d’après la proposition 3.6.2, l’équilibre chimique
2. FT : p → FT ( p) est une fonction dont la variable est une mesure de probabilité p = p ( x ) dx que l’on identifie elle même à une
fonction p : x → p ( x ). Pour cela on appelle parfois FT une fonctionnelle (sous entendu fonction de fonction).
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 88
F ( p) := ⟨ E⟩ p − S ( p) (3.6.4)
F = − ln Z.
Démonstration. Considérons des nombres pi ∈ R sans contrainte et posons σ = ∑i pi (plus tard on ajoutera la
contrainte σ = 1). On calcule les différentielles
dσ = ∑ dpi
i
et
p
dF = d ⟨ E⟩ − dS
(3.6.4)
=
(3.6.2,3.6.3) i
∑ ϵi + ln pi + i
pi
dpi (3.6.5)
∂F
Pour résoudre ∂p = 0, ∀i, i.e. trouver un point critique de F, avec la contrainte σ = 1, on doit avoir λ ∈ R,
i
appelé multiplicateur de Lagrange tel que dF = λdσ (voir schéma)
Cela donne
∃λ ∈ R, dF = λdσ.
∃λ ∈ R, ∀i, ϵi + ln pi + 1 = λ, (3.6.6)
1 − ϵi
⇔∃λ ∈ R, ∀i, pi = exp (λ − 1 − ϵi ) = e (3.6.7)
Z
avec Z = e1−λ donné par la contrainte ∑i pi = 1 donc Z = ∑i e−ϵi . On doit ensuite vérifier que cette solution
p = ( pi )i est bien un minimum de F. D’après (3.6.5), on a
∂F ∂2 F 1
= ϵi + ln pi + 1, = δi= j ,
∂pi ∂p j ∂pi pi
∂2 F
On observe que la matrice ∂p j ∂pi est diagonale, définie positive, donc F est convexe. C’est bien un mini-
i,j
mum. Pour cette solution (3.6.7), on calcule la valeur de F :
1 1
F ( p) =
(3.6.4)
∑ ϵi pi + pi ln pi = Z ∑ ϵi e−ϵi + e−ϵi (− ln Z − ϵi ) = − Z ∑ e−ϵi ln Z = − ln Z.
i i i
893.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE D’ÉNERGIE
FT ( p) = ⟨ E⟩ p − TS ( p) = ∑ Ei pi + Tkpi ln pi
i
!
Ei
= kT ∑ kT
pi + pi ln pi
i
Ei
On se ramène donc au problème précédent, en posant ϵi = kT sans dimension. On a obtenu la mesure d’équi-
libre
1 1 Ei
pi = e−ϵi = e− kT .
Z Z
De même
GT,P ( p) = ⟨ E⟩ p + P ⟨V ⟩ p − TS ( p)
= ∑ Ei pi + Ppi Vi + Tkpi ln pi
i
!
Ei + PVi
= kT ∑ kT
pi + pi ln pi
i
Ei + PVi
et posant ϵi = kT on a la mesure d’équilibre
1 − ϵi 1 Ei +PVi
pi = e = e− kT ,
Z Z
etc.
3.7.1 Paramagnétisme
[Link] Paramagnétisme. Modèle discret
Vidéo de la solution.
Références : paramagnétisme.
Considérons un modèle très simple pour comprendre le comportement d’un matériau (comme un sel io-
nique) dans un champ magnétique uniforme B et à une température T. Dans la suite, le système étudié est
un atome particulier. On modélise le moment magnétique de chaque atome par deux états possible m = ± 12
. L’aimantation d’un atome est Mm = gµ B m avec g = 2 (facteur de Landé), µ B = 2m eh̄
e
= 0, 927.10−23 J/T
(magnéton de Bohr). L’énergie de l’atome dans le champ magnétique extérieur B est alors :
Em = − Mm B
Remarque 3.7.1. Le champ magnétique B ≥ 0 a tendance à ordonner les moments magnétiques, et la tempéra-
ture T à les désordonner.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 90
1. Tracer Em ( B). Utilisant la loi de Boltzmann, calculer la probabilité Pm de trouver un atome dans un des
deux états m = ±1/2. Tracer P+ 1 en fonction de x, une variable sans dimension appropriée et interpré-
2
ter les cas limites. Application numérique : pour un champ magnétique B = 10−3 Tesla et température
ambiante, entre les effets de B et de T, qui domine ?
2. Pour T quelconque, calculer l’aimantation moyenne ⟨ Matome ⟩ d’un atome puis l’aimantation ⟨ M ⟩ du
matériaux constitué de N atomes indépendants. Tracer ⟨ M⟩ ( x ). Dans quelle situation a t-on ⟨ M⟩ ∼ χB
(état paramagnétique) où χ (la susceptibilité magnétique) est une constante ? Comment varie χ avec la
température (loi de Curie) ?
⃗ ⃗B = −µ B B cos θ
E = − M.
où θ = [
⃗ ⃗B
M, ⃗ et ⃗B.
∈ [0, π ] est l’angle entre M
La particule est dans un environnement à la température T et donc son énergie fluctue d’après la loi de Boltz-
mann.
1. Montrer qu’en moyenne ⟨ Ec ⟩ = 21 kT, E p = 12 kT. Plus généralement, montrer le « théorème d’équi-
partition de l’énergie » : si l’énergie d’un système classique est une somme de terme quadratiques
(i.e. degré 2) en x j , p j alors la moyenne de chaque terme est 12 kT. Aide : cela découle directement de la
√ √
2 2
formule I0 = R e−X dX = π, I2 := R X 2 e− X dX = 2π donc I2 /I0 = 12 .
R R
913.7. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE D’ÉNERGIE
Cmol
Cuivre
Dulong-Petit
25J/K
Diamant
0 300 T (K )
2. Supposer qu’un gaz dans une enceinte (à 3 dimensions) à la température T contienne deux types de
E M
particules : Dde masse E masse m, avec m < M. Comparer la moyenne des vitesses au carré
D et de
respectives ∥V ∥2 et ∥v∥2 ?
3. On considère un cristal (trois dimensions), où chaque atome peut vibrer autour de sa position d’équi-
libre. Justifier pourquoi, en première approximation, on peut considérer que chaque atome oscille dans
un potentiel harmonique. Donner alors l’expression de l’énergie d’un atome. En appliquant le théorème
d’équipartition de l’énergie, en déduire la contribution des atomes à la capacité thermique molaire
d⟨ E⟩
Cmole = dT du cristal (Loi empirique de Dulong-Petit 1819). Comparer aux courbes expérimentales
de la figure 3.7.1 (rappel R = NA k = 8.31J/K ).
vidéo de la solution.
référence : Guinnier p16, Diu et al. (1989, p.378)
Le modèle classique (avec le théorème d’équipartition de l’énergie) de l’exercice précédent n’explique pas
le comportement de C ( T ) à basse température de la figure 3.7.1. En 1907 (avant la naissance de la mécanique
quantique) Einstein a montré que ce comportement est d’origine quantique dans cet article, voir aussi Travaux
d’Einstein.
1. On considère maintenant que la vibration de chaque atome sur son site est quantifiée. Il oscille à la
pulsation ω. Suivant le modèle de l’oscillateur harmonique à une dimension, rappeler l’expression des
niveaux quantiques d’énergie En , n = 0, 1, 2, ... ? (ref : cours de mécanique quantique sur l’oscillateur
harmonique)
2. L’oscillateur est dans un environnement à la température T. Avant tout calcul, montrer qu’il y a une
température caractéristique Θ E (température d’Einstein) dans le problème ? Discuter heuristiquement
d⟨ E⟩
les valeurs attendues de C ( T ) = dT pour T ≪ Θ E et T ≫ Θ E ?
3. Pour un atome oscillant à une dimension, écrire la probabilité d’occupation Pn du niveau n à la tempé-
rature T (donnée par la loi de Boltzmann) et déduire l’expression de l’énergie moyenne
1 + e−α
h̄ω h̄ω
⟨ E⟩ = , α= .
2 1 − e−α kT
4. En déduire l’expression suivante pour la capacité thermique molaire d’un réseau cristallin en 3 dimen-
sions, fait d’atomes quantiques indépendants :
2
ΘE
d ⟨ Emole ⟩ 1
C ( T ) := = 3R
ΘE
dT 2T sinh2
2T
[Link] (optionnel) Capacité thermique : modèle quantique d’oscillateurs couplés (Debye 1912)
Vidéo de la solution.
Afin d’améliorer le modèle d’Einstein de l’exercice précédent dans le régime des faibles températures,
voir figure 3.7.1, nous allons tenir compte de l’interaction entre atomes voisins (modèle de Debye). Article de
Debye..
On considère un réseau à une dimension constitué de N atomes identiques de masse m, dont les positions
d’équilibres sont régulièrement espacées de a. On suppose que les atomes interagissent avec leurs proches
voisins seulement, et que l’énergie potentielle d’interaction entre deux atomes voisins est φ(r ), où r est la
distance entre deux atomes voisins. Pour simplifier le calcul, on va supposer des conditions périodiques :
u p+ N = u p , ∀ p.
up u p +1
... ...
0 p p+1 N−1
1. On note u p l’écart de l’atome p ∈ {0, 1, . . . , N − 1} par rapport à sa position d’équilibre. Montrer que
l’énergie potentielle de la file est
N −1
E = ∑ φ a + u p +1 − u p
p =0
m 2 N −1
ω0 ∑ u p +1 − u p
2
E = E0 +
2 p =0
d2 u p
= ω02 u p+1 + u p−1 − 2u p
dt 2
3. On cherche les solutions de ces équations sous la forme ondulatoire complexe u p (t) = u0 exp (i (kpa − ωt))
avec p ∈ {0, . . . N − 1}. Exprimer ω en fonction de k, appelée relation de dispersion. Préciser la signifi-
cation physique de ω et k ? Pourquoi peut-on se limiter aux valeurs de k telles que |k | ≤ πa et discrètes
2π
k = j Na avec j ∈ Z ?
4. Tracer ω (k) en précisant son comportement au voisinage de k = 0 et de k = ±π/a ?
5. Dans la limite d’un grand nombre N d’atomes, on traite j comme une variable continue. Calculer la
dj
densité de modes en pulsation g(ω ) = dω , en fonction de N, ω0 , ω. Représenter la fonction g(ω ).
2. Chaque mode de vibration j de fréquence ω j a donc une énergie moyenne ε j . Dans la limite d’un
grand nombre de modes, exprimer l’énergie moyenne totale de la file ⟨U ⟩ = ∑ N
j=1 ε j à partir de ε j et
g ( ω ).
h̄ω0
3. Dans la limite des hautes températures T ≫ Θ E , avec Θ E = k B , donner l’expression simplifiée de
εj ,
d ⟨U ⟩
puis de la capacité calorifique C = dT , et enfin de la capacité calorifique molaire Cmol ? Commentaires ?
d⟨ε⟩
4. Exprimer dT en fonction de α = h̄ω kT (déjà obtenu avec le modèle d’Einstein). Dans la limite des basses
d⟨ε⟩
températures, en observant l’allure de la fonction dT (ω ), déduire l’expression simplifiée de la capacité
d⟨ε⟩ R∞ α 2
calorifique en fonction de dT (ω ) et g(0). . A l’aide de 0 α2 α e 2 dα = π3 , déduire l’expression de
( e −1)
Cmol en fonction de R et ( T/Θ E ) ? Tracer l’allure globale de Cmol ( T ).
5. Refaire le calcul de Cmol ( T ) pour un modèle de réseau tridimensionnel en indiquant les changements
avec la dimension 1. Discuter la différence entre ce modèle et le modèle d’Einstein.
Rappel : Dans les TD précédents on a considéré par exemple le modèle d’un gaz parfait. Pour un sys-
tème isolé et de géométrie fixée, l’énergie E, le volume V et le nombre de particules N sont des quanti-
tés conservées et ce sont les seules à priori. On a défini l’entropie du système comme étant la fonction
S ( E, V, N ) := k log N ( E, V, N ) où N ( E, V, N ) est le nombre d’états accessibles qui est un volume dans l’es-
pace des phases total. Remarquons une propriété de l’entropie qui est que pour deux systèmes considérés
ensemble, on a Ntot = N(1) N(2) et donc l’entropie
Stot = k log Ntot = k log N(1) N(2)
= k log N(1) + k log N(2)
= S (1) + S (2)
est une quantité qui s’additionne, dite extensive.
Ensuite on a définit les paramètres température T, pression p et potentiel chimique µ par
1 ∂S p ∂S −µ ∂S
= , = , =
T ∂E T ∂V T ∂N
respectivement associés à E, V, N.
— On observe que si deux systèmes sont en contact et peuvent échanger de l’énergie alors l’énergie est
transférée sous forme de chaleur du système le plus chaud T2 vers le plus froid T1 < T2 jusqu’à atteindre
l’équilibre où T1 = T2 .
E1 E2 V1 V2 N1 N2
T1 T2 p1 p2 µ1 µ2
Généralisation : Si Q1 , Q2 , . . . sont des quantités conservées dans des interactions physiques (ex : énergie E,
volume disponible V, nombre d’atome N de carbones dans des réactions chimique, etc), on note N ( Q1 , Q2 , . . .)
le nombre d’états correspondants et
S ( Q1 , Q2 , . . .) = k log (N ( Q1 , Q2 , . . .))
appelée entropie du système pour une valeur précise de ces quantités. La différentielle de S, notées
!
∂S
dS = ∑ ∂Q j
dQ j = ∑ κ j dQ j
j j
∂S
informe sur les variations de S engendrée par des variations des Q j . On appelle κ j = ∂Q j le “potentiel”
associé à la grandeur Q j . En particulier pour les grandeurs E, V, N, on note, pour des raisons historiques
1 ∂S p µ
T = ∂E , T = ∂V , − T = ∂N .
∂S ∂S
Démonstration. La preuve est que l’on a Qtot = Q(1) + Q(2) conservée et la situation
de l’équilibre
est
( 1 ) ( 2 )
la plus probable, donc maximum de Ntot = N N , cad maximum de Stot Q ( 1 ) =S ( 1 ) Q ( 1 ) +
∂S(1) ∂S(2)
S(2) Q(2) donnant ∂Stot
=0⇔ − = 0 ⇔ κ (1) = κ (2) .
|{z} ∂Q(1) ∂Q(1) ∂Q(2)
Qtot − Q(1)
2. Si de plus le système (2) = (ext.) est très grand (appelé extérieur ou réservoir) c’est à dire non per-
turbé par le système (1) plus petit, alors sa valeur κ ext.
j est fixée et la probabilité d’apparition d’une
configuration m du système (1) est donnée par la “loi de Boltzmann-Gibbs”
1 − 1k ∑ j κext.
j Q j (m)
P (m) = e
Z
où Z = Z κ1ext. , κ2ext. , . . . est une constante de normalisation qui dépend des paramètres κ ext.
j et est
appelée fonction de partition.
Démonstration. La preuve est que la proba est proportionnelle au nombre d’états correspondant dans
le système extérieur P (m) ∝ N ( Qm ) = exp k S
ext 1 ext
Q ext . Or au premier ordre Sext ( Qtot − Qm ) =
ext 1 ext
Sext ( Qtot ) − ∂S∂Q Qm = Sext ( Q0 ) − κ ext Qm , donc P (m) ∝ e− k κ Qm .
3.8. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE BOLTZMANN ET ÉCHANGE DE
95 PARTICULES
3.8.2 Adsorption
[Link] Adsorption, modèle de Langmuir (1918).
vidéo de la solution (12’).
Références : Diu et al. (1989, p.677), Balian (2007, Tome1, p174), adsorption sur wikipedia.
Introduction : L’adsorption est le phénomène qu’une surface peut capturer (et/ou libérer) de façon aléatoire
des particules d’un gaz ou d’un liquide. Par exemple l’adsorption avec du charbon actif est un traitement
efficace pour enlever la matière organique, les phénols, les hydrocarbures saturés qui sont des molécules in-
solubles difficilement attaquables par l’ozone, les pesticides, les métaux lourds, les agents tensio-actifs...
Dans le modèle de Langmuir, on suppose qu’un gaz est en contact avec une surface. Le gaz est modélisé
par le modèle du gaz parfait de N particules à la température T, pression p, potentiel chimique µ et considéré
comme un réservoir. La surface est modélisée par un ensemble de sites indépendants, chaque site peut contenir
m = 0 particule ou m = 1 particule dans un état d’énergie (−ϵ) < 0 fixée.
1. Considérer un site de la surface et montrer que la probabilité 3 qu’il soit occupé par une particule est
1
Pm=1 = ϵ+µ
1 + e− kT
3. Aide
: utiliser la loi générale de Boltzmann : la probabilité que le site est dans l’état m = 0 ou m = 1 est Pm =
1 1
Z exp − kT ( Em − µNm ) où T est la température externe, µ le potentiel chimique externe, Em l’énergie du site, Nm le nombre de parti-
cules sur le site.
CHAPITRE 3. MODÈLE DE BOLTZMANN DE L’ÉQUILIBRE THERMODYNAMIQUE 96
2. Utiliser l’équation d’état du gaz parfait (TD2) pour exprimer µ en fonction de p, T et déduire que
p
Pm=1 ( p, T ) = p+ p (T ) avec une fonction p0 ( T ) indépendante de p. Tracer l’allure des courbes p →
0
Pm=1 ( p, T ) à T fixé, appelées isothermes de Langmuir.
ϵ1
ϵ0
N = 5, N0 = 2, N1 = 3
Statistiques quantiques
Dans ce chapitre on décrit les “statistiques de Fermi-Dirac et de Bose-Einstein” qui permettent de décrire
les particules élémentaires observées dans la nature et par conséquent les propriétés des éléments composés
de particules élémentaires comme les noyaux atomiques, les atomes, les molécules, les matériaux etc, i.e. tout
ce qui compose le monde qui nous entoure.
4.1 Introduction
Référence : Particule data book du CERN ou Review of particle physics téléchargeable. Voici un aperçu des
particules élémentaires selon le modèle standard (1970) (en conformité avec les expériences) et un aperçu des
particules composées de particules élémentaires.
4.1.2 Fermions/Bosons
On donnera plus loin une définition plus précise des fermions et des bosons, qui concerne une propriété
du comportement collectif des particules et donc une propriété du champ. Un champ donné est soit de type
Fermion, soit Boson. Par exemple les électrons sont des Fermions et les photons sont des Bosons.
En termes simples :
— Un champ est de type Fermion si il n’y a pas plus qu’une particule (excitation) dans un état physique
donné.
Par exemple : les électrons sont des Fermions : il ne peut y avoir que 0 ou 1 électron dans l’état orbital
de basse énergie autour du noyau hydrogène (précisément l’état 1s, + spin + 12 ).
— Pour un champ de type Boson, il n’y a pas cette contrainte.
Par exemple les photons sont des Bosons : il peut y avoir un nombre arbitraire de photons dans un mode
⃗
électromagnétique donné, comme par exemple une onde plane φ⃗k,+1 (⃗x ) = eik.⃗x de vecteur d’onde ⃗k et
hélicité +1 (i.e. polarisation circulaire +1) dans un faisceau laser.
97
CHAPITRE 4. STATISTIQUES QUANTIQUES 98
Pour chaque champ (par exemple le champ d’électrons e), il existe le champ d’antimatière noté e (aussi appelé
positron, noté e+ ).
Dans la “matière ordinaire” sur Terre, que l’on perçoit autour de nous, il y a seulement les champs de
matière e, u, d.
A cause du confinement de couleur, les champs de quarks ne se manifestent pas sous forme de particule
élémentaire
n omais sous forme composée appelé hadron, par exemple par groupe de deux, appelés méson ex :
π + = u, d , ou par groupe de trois, ex : proton p+ = {u, u, d} ou neutron n = {u, d, d}.
Les champs de matières sont couplés à des « champs de Jauge », que l’on appelle aussi interactions fonda-
mentales :
— Les photons γ, (champ ou force électromagnétique)
— Les bosons faibles W ± , Z0 (champ ou force nucléaire faible)
— Les gluons g (champ ou force nucléaire forte)
Les leptons sont couplés au champs de photons γ et de bosons faibles W ± , Z0 mais les leptons ne sont pas
couplés aux champs de gluons g. Les baryons sont couplés aux trois champs de Jauge.
Exemple 4.1.2. Un proton est constitué de trois quarks p = (u, u, d) couplés à des gluons et plus faiblement à
des photons et bosons faibles. Un atome d’hydrogène est constitué d’un proton et d’un électron couplés par
l’intermédiaire du champ de photon.
Remarque 4.1.3. (*) Le champ de gravitation est aussi une théorie de Jauge qui concerne la métrique de l’espace-
temps. Tous les champs de matière et de Jauge sont couplés au champ métrique. Ainsi l’énergie et la masse
déforme la géométrie de l’espace-temps via sa métrique et inversement la trajectoire d’un photon (lumière),
d’une particule massive ou d’une planète est déviée (suit une géodésique) dans l’espace-temps. Cela explique
les trajectoires elliptiques des planètes autour du soleil (dans le cadre de la théorie d’Einstein). Mais il n’y
a pas de formulation quantique de la gravitation connue ni même d’expérience suggérant cela. L’excitation
quantique du champ de gravitation est donc très hypothétique, mais ce serait un boson de spin s = ±2,
appelé graviton.
Remarque 4.1.4. (*) La théorie de Jauge aussi appelée théorie géométrique de Yang-Mills est une formulation
géométrique où les champs de matière sont des sections de fibrés vectoriels complexes et les champs de Jauge
sont des connections de ces fibrés, respectivement de rang 1, 2, 3, voir Faure (2010). Cependant le cadre ma-
thématique de la version quantique n’est pas établie.
Remarque 4.1.5. (*) Le champ de Higgs est un champ scalaire (i.e. à valeur complexe) de type Boson. Sa pré-
sence permet d’expliquer la masse des champs de matière et des champ de Jauge des bosons faibles, par un
mécanisme appelé “brisure de symétrie”. Quelle est sa signification géométrique en termes d’espaces fibrés ?
Toutes les particules élémentaires possèdent une masse m ≥n 0 et un momentoangulaire appelé spin ou
moment angulaire intrinsèque caractérisé par son intensité s ∈ 0, 21 , 1, 23 , 2, 52 , . . . si la masse est m > 0 (et
n o
si la masse est m = 0, le spin appelé hélicité est caractérisé par s ∈ 0, ± 12 , ±1, ± 23 , . . . ). Il apparaît que les
n o
Fermions ont un spin demi-entier s ∈ 12 , 32 , 25 , . . . et les Bosons ont un spin entier s ∈ {0, 1, 2 . . .} (idem
dans le cas m = 0). Cette correspondance s’appelle « le théorème spin-statistique ».
Remarque 4.1.6. (*) Les paramètres de masse m ≥ 0 et de spin s sont associés à chaque champ élémentaire
et sont des invariants (représentations irréductibles) du groupe de symétrie de Poincaré qui est le groupe de
symétrie de l’espace temps, voir Sternberg (1994, p.148).
[Link] Charges
Remarque 4.1.7. pour le photon et autres bosons de Jauge il n’y a pas de règle de conservation sur leur nombre.
∂ψ
i = Ĥψ
∂t
où ψ représente tous les champs quantiques et Ĥ le Hamiltonien quantique du modèle standard. Dans ce
Hamiltonien il y a des couplages entre les champs de matière et les champs de Jauge et par conséquent il y a
des transitions possibles, les particules élémentaires peuvent apparaître/disparaître au cours du temps. Il y a
seulement quelques contraintes globales appelées lois de conservations et souvent associées à des symétries
du modèle :
— Il y a conservation de l’impulsion totale ⃗p ∈ R3 et énergie totale E d’un système de particules (cela
découle de l’invariance par translation dans l’espace-temps de Ĥ). Ne pas oublier de plus que pour
chaque particule on a la relation
E2 − ∥⃗p∥2 c2 = m2 c4 .
— Il y a conservation du moment angulaire total (qui découle de l’invariance par rotation dans l’espace
temps de Ĥ).
— Conservation de la charge électrique totale Q, des nombres leptoniques Ll , du nombre baryonique B.
A→B
où la masse totale de A (énergie au repos) est supérieure à la masse totale de B : M A ≥ MB se sorte que pour
satisfaire la conservation de l’énergie totale, les composés B auront éventuellement de l’énergie cinétique qui
est toujours positive. Une telle réaction est possible si elle ne contredit pas une des règles de conservation
ci-dessus et donc se produira avec une probabilité plus ou moins grande donc un certain temps moyen τ.
Ainsi la plupart des particules élémentaires et composés sont instables et se désintègrent en particules ou
composés stables (qui eux n’ont pas la possibilité de se désintégrer). Un particule instable A est souvent appelé
résonance.
1. Nouvelle valeur à partir du 20 mai 2019
CHAPITRE 4. STATISTIQUES QUANTIQUES 100
Exemples :
— Par exemple le muon se désintègre ainsi
µ− → e− + νe + νµ
en τ ∼ 2 × 10−6 s ref. La charge Q = −1, les nombres leptoniques Lµ = 1 et Le = 0 sont conservés. Les
masses 2 sont mµ− = 0.11u, me− = 0.5 × 10−3 u, mνe , mνµ < 2.4 × 10−7 u, ainsi mµ− > me− + mνe + mνµ ,
la réaction n’est pas interdite par les règles de conservation.
— Le neutron se désintègre ainsi
n → p+ + e− + νe
en τ ∼ 879s ref. La charge Q = 0, les nombres leptoniques Le = 0, nombre baryonique B = 1 sont
conservés. Les masses sont mn = 1.0087u, m p+ = 1.0073u, me− = 0.0005u, mνe < 2.4 × 10−7 u ainsi
mn > m p+ + me− + mνe , la réaction n’est pas interdite par les règles de conservation.
— Voici la liste des masses et de toutes les réactions de désintégrations connues Particule data book du
CERN.
— Les particules plus lourdes ont plus de possibilités de désintégrations. Par exemple le lepton τ (tau)
τ − → µ− + νµ + ντ
τ − → e− + νe + ντ
— Au final, les seules particules élémentaires stables sont électrons e− , neutrinos ν (mais les neutrinos
oscillent), photons γ.
Exemple 4.1.9. Le proton est constitué de 3 quarks u, u, d de spin respectifs s = 21 , 12 , − 12 et charges électriques
s = 23 , 32 , − 13 , donc son spin est s = + 12 et sa charge électrique est q = +1. De même le neutron n = (u, d, d) a
un spin s = 12 et une charge q = 0.
Attention que l’énergie du composé est l’énergie des constituants plus l’énergie de liaison qui est négative
en générale.
Exemple 4.1.10. L’énergie du noyau d’Hélium 4 constitué de ( p, p, n, n) est 3 EHe4 = 4.002u inférieure à 4 ×
E p = 4 × 1.007u donc il ne peut se désintégrer, il est stable (ainsi les neutrons qu’ils contient sont devenus
stables).
2. en unité de masse atomique unifiée u = NA−1 × 10−3 kg
3. u = 931.494Mev/c2 appelé unité de masse atomique.
101 4.2. DÉFINITION DES FERMIONS ET BOSONS
Concernant les propriétés statistiques qui nous intéressent dans ce cours, en première approximation (i.e.
à faible dilution et petit nombre de degrés de liberté), un composé de nombre impair de Fermions a les
propriétés d’un Fermion et un composé de nombre pair de Fermions a les propriétés d’un Boson.
Exemple 4.1.11. Le proton et le neutron sont chacun composés de gluons (Bosons) et de trois quarks (Fer-
mions), ce sont donc des Fermions. Le noyau He4 est composé de 2 protons et 2 neutrons (Fermions), c’est
donc un Boson. Le noyau He3 est composé de 2 protons et 1 neutron, c’est donc un Fermion.
Définition 4.2.1. Dans le cas des Bosons, chaque état possible m d’un ensemble de plusieurs particules
est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0. Ainsi
un état possible est noté
m = ( N0 , N1 , N2 , . . .) , avec Nn ≥ 0.
Le nombre total de particules dans cet état m est donc
N (m) = ∑ Nn
n ≥0
Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Bosonique F . Autrement dit, un état quelconque de plusieurs particules est une com-
binaison linéaire de ces états de base m. Voir figure 4.4.1.
Définition 4.2.2. Dans le cas des Fermions, chaque état possible m d’un ensemble de plusieurs parti-
cules est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0,
mais avec la contrainte supplémentaire que Nn ≤ 1. Ainsi un état possible est noté
m = ( N0 , N1 , N2 , . . .) , avec 0 ≤ Nn ≤ 1.
N (m) = ∑ Nn
n ≥0
Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Fermionique F . Autrement dit, un état quelconque de plusieurs particules est une
combinaison linéaire de ces états de base m. Voir figure 4.4.1.
F = F0 ⊕ F1 ⊕ F2 . . . (4.2.1)
en particulier F1 = H1 est l’espace à une particule et F0 est un espace à zéro particule, contenant un seul
état m = (0, 0, . . .) appelé état du vide quantique. Cette décomposition (4.4.1) signifie qu’un état quantique
CHAPITRE 4. STATISTIQUES QUANTIQUES 102
..
. N3 = 0 N3 = 1
φ2 N2 = 2 φ2 N2 = 1
φ1 N1 = 0 φ1 N1 = 0
φ0 N0 = 1 φ0 N0 = 1
Bosons Fermions
F IGURE 4.2.1 – On note Nn le nombre de particules dans l’état φn . N = ∑n Nn est le nombre total. Exemples d’
un état m = ( N0 , N1 , N2 , N3 , . . .) à N = 3 particules. Dans le cas des Fermions on a la contrainte 0 ≤ Nn ≤ 1.
général du système ψ ∈ F peut être une combinaison linéaire d’états (i.e. superposition) appartenant à chaque
espace F N . L’état ψ n’a pas un nombre déterminé de particules.
Comme expliqué plus haut, dans le modèle standard, il y a plusieurs familles de particules : électrons,
muons, etc. Il y a un espace de Fock F ( f ) pour chaque famille f et l’espace de Fock total de toutes les familles
est
F = ⊕f F(f)
Noter que les interactions sont responsables de transitions entres ces différentes composantes.
1
Ŝ :=
N! ∑ σ̂
σ∈S N
où S N est le groupe des permutations de N éléments et σ̂ est l’opérateur qui permute les vecteurs
du produit tensoriel, ex : σ̂ ( φ1 ⊗ φ2 ) = φ2 ⊗ φ1 . De même les états possible des Fermions sont les
combinaisons linéaires des états suivant
ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )
1
 :=
N! ∑ ϵ (σ ) σ̂
σ∈S N
avec ϵ (σ ) = ±1 la signature de la permutation. Montrer que ces définitions sont équivalentes aux
précédentes. Pour cela, montrer qu’une base de F N des bosons est
ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )
avec n1 ≤ n2 ≤ . . . ≤ n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.
Montrer qu’une base de F N des Fermions est
ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )
avec n1 < n2 < . . . < n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.
103 4.3. DISTRIBUTION DE BOSE-EINSTEIN ET DE FERMI-DIRAC
4. Dans l’espace H ⊗ N := H1 ⊗ H1 ⊗ . . . ⊗ H1 , montrer que Ŝ2 = Ŝ, Ŝ† = Ŝ et donc Ŝ est un projec-
teur orthogonal sur le sous espace de Fock Bosonique F N . De même montrer que  est un projecteur
orthogonal sur le sous espace de Fock Fermionique.
Ĥ φn = ϵn φn
avec ϵ0 ≤ ϵ1 ≤ ϵ2 ≤ . . ..
On suppose que ce système échange de l’énergie et des particules avec son environnement, un réservoir de
température T et potentiel chimique µ. On note m = ( N0 , N1 , N2 , . . .) un état du système à plusieurs particules
comme expliqué ci-dessus.
Pour la suite, il est utile de remarquer le résultat suivant qui est assez intuitif.
Lemme 4.3.1. Pour un système de particules identiques et indépendantes, (Fermions ou Bosons), la mesure
de probabilité P (m) de Boltzmann-Gibbs d’un micro-état m = ( N0 , N1 , N2 , . . .) du système, d’énergie E (m) =
∑n≥0 Nn ϵn et de nombre de particules N (m) = ∑n≥0 Nn , se factorise (i.e. évènements indépendants)
1
P (m) = exp (− β ( E (m) − µN (m)))
Z
= ∏ pn ( Nn )
n ≥0
où pn ( Nn ) est la probabilité pour que le niveau n possède Nn particules, aussi donné par la mesure de Boltzmann
Gibbs
1 − β( Nn ϵn −µNn )
pn ( Nn ) = e .
Zn
Démonstration. Considérons un état à plusieurs particules noté m = ( N0 , N1 , N2 , . . .). D’après la loi de Boltzmann-
Gibbs, la probabilité d’apparition de l’état m est
1
P (m) = exp (− β ( E (m) − µN (m)))
Z
!!
exp (− β ( E (m) − µN (m))) = exp − β ∑ Nn ϵn − µNn
n ≥0
= ∏ exp (− βNn (ϵn − µ))
n ≥0
1
⟨ Nn ⟩ = (4.3.2)
e β ( ϵn − µ ) +1
appelée distribution de Fermi-Dirac.
Remarque 4.3.3. Les distributions dépendent de l’état n à travers son énergie ϵn . On trace donc les fonctions
⟨ N ⟩ (ϵ) = (exp ( β (ϵ − µ)) ± 1)−1 avec β, µ fixés :
Bose distribution Fermi distribution
⟨ N ⟩(ϵ) = β(ϵ−1µ)
e −1 ⟨ N ⟩(ϵ) = 1
e β ( ϵ − µ ) +1
∼ kT = 1/β
∼ kT = 1/β
µ ϵ µ ϵ
Remarque 4.3.4. Dans les deux cas, pour β (ϵn − µ) ≫ 1, on a
⟨ Nn ⟩ ≈ e− β(ϵn −µ) ,
qui correspond à la décroissance exponentielle observée à la droite des figures. L’effet statistique Boson/Fer-
mion n’a pas d’importance dans ce régime à “faible densité”.
Démonstration. Faisons la preuve de la proposition 4.3.2. pour un niveau n ≥ 0 donné,
⟨ Nn ⟩ = ∑ pn ( Nn ) Nn
Nn
1
=
Zn ∑ e− βNn (ϵn −µ) Nn (4.3.3)
Nn ≥0
avec
et
∂Zn βe− β(ϵn −µ)
= ∑ βNn e− βNn (ϵn −µ) = 2
∂µ Nn ≥0 1 − e − β ( ϵn − µ )
donc
e − β ( ϵn − µ )
⟨ Nn ⟩ = 1 − e − β ( ϵn − µ ) 2
(4.3.3) 1 − e − β ( ϵn − µ )
e − β ( ϵn − µ ) 1
= − ( − )
= β ϵ −µ
1−e β ϵ n µ e n )−1
(
105 4.4. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES FERMIONS ET BOSONS
Dans le cas des Fermions, la somme est sur Nn ∈ {0, 1}. On calcule
Zn = 1 + e − β ( ϵn − µ ) ,
(4.3.4)
1
⟨ Nn ⟩ = 0 + e − β ( ϵn − µ )
(4.3.3) 1 + e− β(ϵn −µ)
1
=
e β ( ϵn − µ ) + 1
..
. N3 = 0 N3 = 1
φ2 N2 = 2 φ2 N2 = 1
φ1 N1 = 0 φ1 N1 = 0
φ0 N0 = 1 φ0 N0 = 1
Bosons Fermions
F IGURE 4.4.1 – On note Nn le nombre de particules dans l’état φn . N = ∑n Nn est le nombre total. Exemples d’
un état m = ( N0 , N1 , N2 , N3 , . . .) à N = 3 particules. Dans le cas des Fermions on a la contrainte 0 ≤ Nn ≤ 1.
On considère maintenant plusieurs de particules d’une même famille (ex : des électrons). Elles ont toutes
les même caractéristiques physique : même masse, charge, spin etc.. on dit qu’elles sont identiques et indis-
cernables. Conformément à l’expérience, on postule :
Définition 4.4.1. Dans le cas des Bosons, chaque état possible m d’un ensemble de plusieurs particules
est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0. Ainsi
un état possible est noté
m = ( N0 , N1 , N2 , . . .) , avec Nn ≥ 0.
Le nombre total de particules dans cet état m est donc
N (m) = ∑ Nn
n ≥0
Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Bosonique F . Autrement dit, un état quelconque de plusieurs particules est une com-
binaison linéaire de ces états de base m. Voir figure 4.4.1.
Définition 4.4.2. Dans le cas des Fermions, chaque état possible m d’un ensemble de plusieurs parti-
cules est caractérisé par le nombre de particules Nn ≥ 0 dans chaque état individuel φn avec n ≥ 0,
mais avec la contrainte supplémentaire que Nn ≤ 1. Ainsi un état possible est noté
m = ( N0 , N1 , N2 , . . .) , avec 0 ≤ Nn ≤ 1.
N (m) = ∑ Nn
n ≥0
Ces états m forment une base orthonormée de l’espace quantique de tous les états possibles, appelé
espace de Fock Fermionique F . Autrement dit, un état quelconque de plusieurs particules est une
combinaison linéaire de ces états de base m. Voir figure 4.4.1.
F = F0 ⊕ F1 ⊕ F2 . . . (4.4.1)
en particulier F1 = H1 est l’espace à une particule et F0 est un espace à zéro particule, contenant un seul état
m = (0, 0, . . .) appelé état du vide quantique.
qu’il est dans un état d’équilibre statistique à la température T imposée par l’extérieur. La mesure de probabi-
lité de Boltzmann, (appelé “ensemble canonique”, vue au TD précédents) est
1 − βE(m)
P (m) := e (4.4.2)
ZN
1
avec β = kT et ZN ( β) une constante de normalisation qui dépend de β.
1. Montrer que l’énergie moyenne du système ⟨ E⟩ := ∑m P (m) E (m) est donnée par
⟨ E⟩ = −∂ β ln ZN
1
S= ⟨ E⟩ + k ln ZN
T
1 − β(E(m)−µN (m))
P (m) := e , (4.4.3)
Ξ
où µ est le potentiel chimique imposé par l’extérieur et Ξ ( β, µ) une constante de normalisation qui dépend de
β, µ.
1. Montrer que
Ξ= ∑ e Nβµ ZN .
N ≥0
2. Montrer que l’énergie moyenne du système ⟨ E⟩ := ∑m P (m) E (m) est donnée par
⟨ E⟩ = −∂ β ln Ξ + µ ⟨ N ⟩
ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )
1
Ŝ :=
N! ∑ σ̂
σ∈S N
où S N est le groupe des permutations de N éléments et σ̂ est l’opérateur qui permute les vecteurs
du produit tensoriel, ex : σ̂ ( φ1 ⊗ φ2 ) = φ2 ⊗ φ1 . De même les états possible des Fermions sont les
combinaisons linéaires des états suivant
ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )
1
 :=
N! ∑ ϵ (σ ) σ̂
σ∈S N
avec ϵ (σ ) = ±1 la signature de la permutation. Montrer que ces définitions sont équivalentes aux
précédentes. Pour cela, montrer qu’une base de F N des bosons est
ψm = Ŝ ( φn1 ⊗ φn2 . . . ⊗ φn N )
ψm = Â ( φn1 ⊗ φn2 . . . ⊗ φn N )
avec n1 < n2 < . . . < n N et est caractérisé par m = ( N0 , N1 , N2 , . . .) avec Nn que l’on exprimera.
3. Montrer que pour σ ∈ S N , σ̂ Ŝ = Ŝ et σ̂ Â = Â.
4. Dans l’espace H ⊗ N := H1 ⊗ H1 ⊗ . . . ⊗ H1 , montrer que Ŝ2 = Ŝ, Ŝ† = Ŝ et donc Ŝ est un projec-
teur orthogonal sur le sous espace de Fock Bosonique F N . De même montrer que  est un projecteur
orthogonal sur le sous espace de Fock Fermionique.
4.4.3 Comparaison des statistiques pour des particules dans un puits de potentiel har-
monique
vidéo de la solution.
1 2
Le spectre de l’oscillateur harmonique quantique Ĥ = 2m p̂ + 12 K q̂2 pour une particule à une dimension
est
1
ϵn = h̄ω n + , n ∈ N,
2
q
avec la fréquence ω = m K
. On posera y = e− βh̄ω et x = h̄ω
kT 1
= βh̄ω .
1. On considère N = 1 particule (i.e. dans l’ensemble canonique). Calculer ZN =1 défini en (4.4.2), en
fonction de y.
2. On considère N = 2 particules (i.e. dans l’ensemble canonique), et successivement le cas des Bosons,
des Fermions.
(a) Calculer ZN =2 défini en (4.4.2), en fonction de y.
1
(b) Calculer u := h̄ω ⟨ E⟩ en fonction de y et tracer l’allure des fonctions.
(c) Calculer 1k S en fonction de y et tracer l’allure des fonctions.
109 4.5. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE BOSE-EINSTEIN
Dans cette section on interprète la formule (4.3.1) donnant que le nombre moyen de bosons dans un état à
une particule d’énergie ϵn est
1
⟨ Nn ⟩ = .
e β ( ϵn − µ ) − 1
Bose distribution
⟨ N ⟩(ϵ) = β(ϵ−1µ) e −1
∼ kT = 1/β
µ ϵ
1
où β = kT est relié à la température extérieure et µ est le potentiel chimique extérieur. On discute surtout
d’une application importante qui est la densité d’énergie des photons appelée la loi de Planck (1900).
Dans cette section nous allons considérer un “gaz de photon à l’équilibre thermique, à la température T”.
Les photons sont les excitations quantiques du champ électromagnétique. Comme expliqué dans l’introduc-
tion, c’est un champ de Jauge et par conséquent les photons sont des bosons.
Considérons un volume V fixé, qui contient un gaz de photons à l’équilibre thermodynamique à la tempé-
rature T fixée. Cela signifie que ces photons sont en contact avec de la matière qui a la température T (car il
n’y a pas d’interaction directe entre les photons). Noter qu’il n’y a pas de loi de conservation sur le nombre de
photons. Donc il n’y a pas de potentiel chimique pour les photons. On pose µ = 0 dans la formule (4.3.1).
Proposition 4.5.1. La densité d’énergie en fréquence ν, par unité de volume d’un gaz de photons à la température
T est
8πhν3 dν
u(ν)dν = 3 hν/kT : loi de Planck
c e −1
CHAPITRE 4. STATISTIQUES QUANTIQUES 110
Démonstration. (*) voir TD. Considérons une enceinte de volume V. Il contient des modes électromagnétiques.
On peut estimer leur densité i.e. le nombre de modes ondulatoires par intervalle de fréquence dndν par la loi de
ω
Weyl de la façon suivante. Pour un mode électromagnétique, la fréquence ν = 2π est reliée au vecteur d’onde
⃗k par la relation de dispersion
ω = c ⃗k .
D’après la loi de Weyl, et n’oubliant pas que chaque mode spatial a deux états de polarisation possible, le
nombre de modes de fréquence inférieure à ω est
n o
2 × V × Vol ⃗k, c ⃗k ≤ ω
3
2V 43 π ωc V8πω 3
n= 3
= 3
=
(2π ) (2π ) 3 (2π )3 c3
La densité est donc
dn dn V8πω 2 2Vω 2
= 2π = 2π =
dν dω (2π )3 c3 πc3
On rappelle que d’après la mécanique quantique, chaque mode électromagnétique est peuplé de photons
et l’énergie d’un photon est E = h̄ω = hν, son impulsion est ⃗p = h̄⃗k. Ces photons sont des bosons, donc
d⟨ N ⟩
le nombre moyen dans chaque mode dn est donné par la distribution de Bose-Einstein (4.3.1). Et l’énergie
d⟨ N ⟩
s’obtient en multipliant l’énergie d’un photon par le nombre de photons donc l’énergie par mode est dn E.
On cherche u (ν) qui est la densité d’énergie en fréquence ν et par unité de volume. On écrit donc
1 d ⟨N⟩ 1 d ⟨N⟩ dn
u (ν) = E= E
V dν V dn dν
2Vω 2 2h̄ω 3
1 1 1
= (h̄ω ) =
V e βE − 1 πc3 e βE − 1 πc3
8πhν3
= hν .
c3 e kT − 1
111 4.5. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE BOSE-EINSTEIN
kT 2
ucl (ν) ≃ 8π ν
c3
h 3 − hν
u(ν) ≃ 8π ν e kT
c3
c’est la loi de Wien (1893) qui a trouvé cette décroissance exponentielle ; mais il lui manquait la constante
fondamentale h pour préciser cette décroissance. C’est une manifestation des photons en tant que par-
ticules. En effet, ce résultat se retrouve en utilisant la loi de Boltzmann, et en tenant compte de la quan-
tification de l’énergie par le photon : du = (hν) dn e− E/(kT ) .
— Fréquence du maximum de u(ν) : on calcule (voir TD)
kT
νmax ≃ 2, 821
h̄
la position du maximum est linéaire avec T : c’est la loi du déplacement de Wien déduit de l’étude
empirique des courbes expérimentales.
— Energie totale : pour un gaz de photons à l’équilibre, à la température T dans une enceinte de volume
V, l’énergie totale est (voir TD) :
Z +∞
E( T, V ) = V u(ν)dν
0
π 2 k4
= VT 4
15 h̄3 c3
= VσT 4
avec
π 2 k4
σ= = 5.67.10−8 J.m−3 .K −4
15 h̄3 c3
c’est la loi de Stephan-Boltzmann. Stephan (1879) avait observé la relation empirique E = VσT 4 , et
Boltzmann (1884) l’a obtenue par des arguments de thermodynamique (voir B.H. Bransden & C.J. Joa-
chain (1989, p.5)).
CHAPITRE 4. STATISTIQUES QUANTIQUES 112
Système physique : Le système physique considéré est un ensemble d’atomes identiques à très basse tem-
pérature (10−7 K par refroidissement laser et évaporatif), appelés “atomes froids”, contenant un nombre pair
de protons et de neutrons. Par conséquent un nombre pair d’électrons. Ces atomes ont donc un spin entier
et sont des bosons, comme discuté en section [Link]. Par exemple l’Hélium 4 (2 protons et 2 neutrons). A la
différence des photons, les atomes sont de la matière et il y a des règle de conservation du nombre d’atome lors
des interactions. Dans les expériences (à basse énergie) le nombre total d’atome N est une quantité conser-
vée. N ≈ 103 à 106 . La densité est assez faible pour pouvoir négliger les interactions mutuelles en première
approximation.
Modèle : On va décrire un gaz de N atomes identiques qui sont des bosons de masse m > 0 de spin s
entier, à l’équilibre thermique, caractérisé par une température T ≥ 0 et un potentiel chimique µ.
On rappelle que le terme “gaz” signifie que dans ce modèle il n’y a pas d’interaction entre les particules.
Par ailleurs µ < ϵ0 où ϵ0 est le niveau d’énergie le plus bas pour un atome seul. On va supposer N ≫ 1
N
très grand et la densité de particules ρ = V fixée. On va noter Nn le nombre moyen d’atomes dans le niveau
d’énergie ϵn à une particule. On va s’intéresser à la proportion Nn /N dans la limite N ≫ 1.
On va aussi considérer des atomes libres dans une boite cubique de côté L, donc de volume V = L3 .
Ainsi, notant x = ( x1 , x2 , x3 ) avec x j ∈ [0, L], j = 1, 2, 3, les niveaux d’énergie à une particule sont φn ( x ) =
x
2
Π3j=1 sin πn j Lj avec n = (n1 , n2 , n3 ) ∈ (N\ {0})3 d’énergie ϵn = 2m 1 πh̄
L |n|2 . Ainsi l’écart entre l’état
2 h̄2
fondamental et le premier niveau d’énergie est ∆1 = ϵ1,0,0 − ϵ0 = π2 mL 2 .
où s est le spin (entier) de chaque atome, et qui donne la densité moyenne d’états à 1 particule dans la boite
(on remplace ϵ par (ϵ − ϵ0 ) car n ≫ 1)
dn
= C (ϵ − ϵ0 )1/2
dϵ
113 4.5. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE BOSE-EINSTEIN
avec
3/2
mL2
(2s + 1) (2s + 1) π
C = 1/2 2 2
=
2 π h̄ 4∆3/2
1
En effet
Dans la limite N ≫ 1, la proportion d’atomes N0 /N dans l’état fondamental d’énergie ϵ0 est nul pour T ≥ TB ,
mais pour T < TB , il y a “condensation dans l’état fondamental” :
3/2
N0 T
= 1− ,
N TB
Pour les autres niveaux d’énergie ϵn > ϵ0 , la proportion Nn /N est toujours nulle.
2/3 !2/3
2πh̄2
N 1
kTB = = ρ 3
.
CI m (2s + 1) ζ 2
1 1 kT kT kT
Nn = < (∆ +∆ )/(kT ) ≈ ≈ ≪ ≈ N0 .
e(ϵn −µ)/(kT ) − 1 e 1 0 −1 ( ∆1 + ∆0 ) ∆1 ∆0
Z +∞
1
N ≈ N0 + C (ϵ − ϵ0 )1/2 dϵ
ϵ1 e(ϵ−µ)/(kT ) −1
Z +∞
1
= N0 + C (kT )3/2 ( x − ∆0 / (kT ))1/2 dx
(∆1 +∆0 )/(kT ) ex − 1
3/2
≈ N0 + C (kT ) I
Ainsi
N0 CI
≈ 1− (kT )3/2 .
N N
C (kTB )3/2
2/3
N
0 = 1− I ⇔ kTB =
N CI
et on peut écrire
3/2
N0 T
≈ 1− .
N TB
2. Si
kT ≪ ∆1 ,
N0
alors N ≈ 1.
3. Si
∆1 ≪ ∆0 ≪ kT
N0
alors N ≈ 0.
[Link] Introduction
Soit un volume V fixé, qui contient un gaz de photons à l’équilibre thermodynamique à la température T
fixée. Cela signifie que ces photons sont en contact avec de la matière qui est à la température T, car il n’y a
pas d’interaction directe entre les photons pouvant donner l’équilibre thermique.
La distribution d’énergie de ces photons étudiée ici s’appelle la loi de Planck ou spectre du corps noir.
L’allure de ce spectre dépend de la température T. La position du maximum de ce spectre par rapport à
l’intervalle des fréquences visible explique la couleur apparente du gaz de photons.
115 4.6. EXERCICES ET PROBLÈMES CORRIGÉS SUR LA LOI DE PLANCK
Exemple 4.6.1.
— A la surface du Soleil (blanc-jaune), le magma a la température T = 60000 K. L’étoile Bételgeuse qui
est rouge a une température T = 2400K. L’étoile Bellatrix qui est bleue a la température de surface
T = 22000K.
— Dans un four, on peut avoir T = 6000 K. Cf Diu et al. (1989, p826-917) pour une barre de fer. Le forgeron
a des tables de couleurs, lui donnant la température, à partir de la couleur observée.
— Le rayonnement fossile de l’univers suit la loi de Planck pour T = 2, 725 K ± 0.002. Attention, ce gaz de
photons n’est pas à l’équilibre thermique car il ne subit plus d’interactions. Il ne s’agit donc pas d’une
“véritable température”.
d⃗x d⃗k
Z
⟨ E⟩ = 2
(2π )3
∑ Eω,N P ( φω,N )
N ≥0
dθ dΩ
dS
2. Déterminez la masse que le Soleil perd en 1 seconde ? Quel est le temps nécessaire pour que le Soleil
voit sa masse diminuer de 1% ?
3. En assimilant la Terre à un second corps noir, déterminez sa température d’équilibre sous l’effet du
rayonnement solaire ? 5
4. Pourquoi le Soleil qui est une sphère nous parait il être un disque d’intensité uniforme ?
4.6.2 Nombre de photons par mètre cubes et “photons fossiles” dans l’univers
ref : Diu et al. (1989, p.222).Balian (2007, vol2, p.220, p.235)
Jusqu’à 300 000 ans après “la grande explosion” (le big bang), les photons de l’univers étaient en équilibre
thermique avec la matière, formant un “magma”. A cause de l’expansion, la température a diminuée ; à cette
date, elle était de 3000 K, et ensuite, les photons n’ont plus interagit avec la matière (essentiellement car il
n’y avait plus d’électrons libres), et cette population de photons distribuée selon la loi de Planck, et devenue
“fossile”.
1. On note u(ω ) la distribution de Planck de densité d’énergie, lorsque T = 3000K. Soit f > 0 le facteur
avec lequel l’univers s’est dilaté depuis cette date. Sachant que le nombre de photons s’est conservé
(car transformation adiabatique), établir la loi de distribution actuelle pour cette population fossile, et
montrer que c’est encore une distribution de Planck pour une température effective T ′ . Actuellement
des mesures précises de ce rayonnement montrent que T ′ = 2.728 ± 0.002 K. En déduire le facteur
d’expansion f .
R +∞ x3 dx π4
4. Utiliser : 0 e x −1 = 15 .
5. A.N. RSoleil = 0.7 106 km, R Terre = 6400km, d Terre−soleil = 1.5 108 km,Msoleil = 2 1030 kg
6. Aide : en posant x = h̄ω/(kT ), il faut résoudre x = 3(1 − e− x ), que l’on résout approximativement en posant x = 3 − ϵ.
h = 6, 62 10−34 J.s ; c = 3 108 m.s−1 ; k = 1, 38 10−23 J.K −1
117 4.7. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE FERMI-DIRAC
(a) : (b) :
2. A partir de la distribution de Planck, montrez que la densité volumique de photons d’un gaz de photons
à l’équilibre thermique à la température T, est égale 7 à n = 8 104 T 3 K −3 m−3 ? En déduire le nombre de
photons fossiles par cm3 actuellement ?
(a) Spectre mesuré par le satellite COBE.
(b) : The plane of the Milky Way Galaxy is horizontal across the middle of each picture. Sagittarius is in the center of the map, Orion
is to the right and Cygnus is to the left. The image just shows the reduced map (i.e., both the dipole and Galactic emission subtracted).
The cosmic microwave background fluctuations are extremely faint, only one part in 100,000 compared to the 2.73 degree Kelvin average
temperature of the radiation field. The cosmic microwave background radiation is a remnant of the Big Bang and the fluctuations are the
imprint of density contrast in the early universe. The density ripples are believed to have given rise to the structures that populate the
universe today : clusters of galaxies and vast regions devoid of galaxies.
Fermi distribution
1
⟨ N ⟩(ϵ) = e β ( ϵ − µ ) +1
∼ kT = 1/β
µ ϵ
1
où β = kT est relié à la température extérieure et µ est le potentiel chimique extérieur. On discute surtout
d’une application importante qui est la distribution des électrons dans les métaux et semi-conducteurs.
4.7.1 Interprétations
Il est habituel de définir
µ
θ F :=
k
appelée température de Fermi. Voici son interprétation
R +∞
7. On donne 0 x2 /(exp( x ) − 1)dx = 2.40.
CHAPITRE 4. STATISTIQUES QUANTIQUES 118
Proposition 4.7.1. Si le nombre de particules N et le volume V sont fixés, la densité de particules (d’électrons
libres) n = N
V est relié au potentiel chimique µ, à T = 0 par
h̄2 2 2/3
µ= 3π n (4.7.1)
2m
Démonstration. Cette relation s’obtient directement à partir de la formule de Weyl du comptage d’états (voir
TD2) dans l’espace des phases ( x, k) où x est la position dans un volume V et k ∈ R3 est le vecteur d’onde.
| p |2 2
L’impulsion 8 est p = h̄k ∈ R3 . L’énergie d’une particule libre est son énergie cinétique E = 2m = 2mh̄
k2 . A
T = 0, tous les niveaux d’énergie jusqu’à E = µ sont occupés par les N particules. La condition que l’énergie
est inférieure à µ, s’écrit
h̄2 2 2mµ 1/2
E≤µ⇔ k ≤ µ ⇔ |k | ≤ Rµ =
2m h̄2
2mµ 1/2
qui s’interprète comme le fait que le vecteur d’onde est dans une sphère de rayon Rµ = , appelée
h̄2
sphère de Fermi.
La loi de Weyl donne que le nombre d’état N d’énergie plus petite que µ est (le préfacteur 2 est pour
compter deux états de spins différents)
2 2 4
N ( E) = 3
Vol {( x, k) t.q.E ≤ µ} = 3
V πR3µ
(2π ) (2πh̄) 3
3
V 2mµ 2
=
3π 2 h̄2
Donnant
2/3
h̄2
2N
µ= 3π .
2m V
[Link] Remarques :
p2
— Comme E = 2m ,à T = 0, dans l’espace des impulsions, les états occupés sont ceux d’impulsion | p| <
p
p F = 2mµ . p F s’appelle l’impulsion de Fermi. Ces impulsions forment la sphère de Fermi. A la
surface de cette sphère (surface de Fermi), les électrons ont une grande vitesse VF = p F /m ≃ 106 m/s
pour les électrons du Sodium !
8. on rappelle que en physique l’énergie est reliée à une fréquence par E = h̄ω et l’impulsion à une fréquence spatiale ou vecteur
d’onde par p = h̄k. C’est la définition de la constante de Planck.
119 4.7. INTERPRÉTATIONS ET APPLICATIONS DE LA DISTRIBUTION DE FERMI-DIRAC
dN dN dn
= = ⟨ N ⟩ (ε)ρ(ε)
dε dn dε
θF = µ/k = 35000K
à température
q ambiante, Tmetal ≪ θ F . La vitesse de Fermi, (i.e. vitesse des électrons au niveau de Fermi) est
2kθ F 6
VF = m = 10 m/s.
[Link] Remarques :
— Ces résultats sont très différents de l’idée que à T = 0 les vitesses sont nulles.
— Le principe d’exclusion de Pauli explique en particulier que l’on ne pénètre pas le plancher, car les
électrons du plancher et de la chaussure s’excluent !
— A température ordinaire, pour un métal, on a T ≪ θ F : donc les électrons forment un gaz dégénéré.
CHAPITRE 4. STATISTIQUES QUANTIQUES 120
— Pour He3 liquide : m HE3 est 104 plus lourd que me donc θ F = 2, 7K et µ = 10−4 eV.
— Pour les noyaux nucléaires : θ F très élevé, car m lourd mais la densité n est très élevée. Donc T ≪ θ F .
Les nucléons forment donc un gaz dégénéré.
— Pour les étoiles à neutrons : gaz de neutron à volume ∞, voir TD.
— Pour les étoiles naines blanches : T = 107 K ≪ θ F , voir Diu et al. (1989, p.794), voir TD.
— Notion de pression quantique , voir Diu et al. (1989, p.785, p.659).
4.8 Exercices et problèmes corrigés sur les électrons dans les métaux
4.8.1 Expansion de Sommerfeld
vidéo de la solution.
Diu et al. (1989, p.787), Balian (2007, Tome2, p.41).
Ce premier problème concerne la distribution de Fermi-Dirac et établie une formule bien utile pour la suite,
dans le régime de basse température. La distribution de Fermi-Dirac donne le nombre moyen de Fermions
dans un état individuel d’énergie ϵ (voir TD 8) :
1
N (ϵ) =
e β(ϵ−µ) + 1
π2 ′
1
N (ϵ) = 1]−∞,µ] − δ +O (4.8.2)
6β2 µ β3
où δµ′ est la dérivée de la distribution de Dirac en µ définie par ⟨δµ′ |u⟩ = −u′ (µ).
9. Plus précisément pour toute fonction u ∈ Cc∞ (R) lisse à support compact, appelée fonction test en théorie des distributions
10. Cela se justifie par la théorie du liquide de Fermi
121 4.9. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES ÉTOILES NAINES BLANCHES
5. En particulier, à température T = 0, déduire la relation entre le potentiel chimique µ (0) aussi appelé
énergie de Fermi, et la densité électronique ν = N V (nombre d’électrons par unité de volume). Calculer
µ (0) pour le Sodium 11 et la vitesse des électrons situés à l’énergie de Fermi µ (0).
6. A température non nulle mais faible, i.e. si βµ ≫ 1, utiliser la formule d’expansion de Sommerfeld
(4.8.1) et l’expression de N obtenue en (4) pour montrer que le potentiel chimique µ dépend de T selon
!
T 2 π 2 k2
µ ( T ) = µ (0) 1 − + O T3 (4.8.3)
12 (µ (0))2
dE NA k 2 π 2
Ce := = γT + O T 2 , γ=
dT 2µ (0)
Pour une étoile de masse comparable à celle du soleil, contenant essentiellement de l’hydrogène qui est
un combustible pour des réactions de fusion nucléaire, l’équilibre thermodynamique implique un rayon de
l’ordre de R ∼ 106 km, pendant des milliards d’années. Plus précisément, la fusion de l’hydrogène donne
de l’Hélium. Après épuisement du combustible Hydrogène, une partie de la matière de l’étoile est éjectée,
donnant une nébuleuse planétaire qui servira de berceau à de nouvelles étoiles (notre Soleil serait déjà de la
3ème génération, fille de l’étoile Coatlicue). En son cœur, le plasma qui ne produit plus de radiation s’effondre
sous l’attraction gravitationnelle jusqu’à un rayon limite de l’ordre de R ∼ 5000km, comparable à celui de la
Terre. Ce qui détermine ce rayon est que les électrons sont des Fermions et ne peuvent donc occuper tous le
même état. Dans ce TD, le but est d’étudier le gaz d’électrons contenus dans cette étoile résiduelle appelée
naine blanche pour déduire le rayon d’équilibre R. Ensuite, après plusieurs milliards d’années, l’étoile naine
blanche cessera de rayonner et deviendra une “étoile naine noire” invisible et errant dans la galaxie (de telles
étoiles n’existent pas encore).
Le schéma suivant montre les scénarios d’évolution d’une étoile selon sa masse initiale. Si la masse de
l’étoile est plus importante que celle du Soleil, l’énergie gravitationnelle sera telle que les électrons peuvent
disparaître dans la réaction endothermique e− + p+ → n + νe , donnant une étoile à neutrons. Les neutrons
obtenus sont aussi des Fermions mais de masse plus élevée que celle des électrons et ainsi le rayon d’une étoile
à neutron est plus faible R ∼10km. Pour des masses encore plus importantes, l’étoile à neutron n’est pas stable
sous l’effet de l’attraction gravitationnelle dominante et l’espace temps se “déchire”, donnant un trou noir de
rayon R ∼ 1km.
m He = 4g/mole ,
NA = 6, 02.1023 ,
G = 6, 67.10−11 m3 .kg−1 .s−2 ,
me c2 = 8, 2.10−14 J,
hc = 2.10−25 J.m
k = 1, 38.10−23 J.K −1
123 4.9. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES ÉTOILES NAINES BLANCHES
1/4
H ′ (α)
F IGURE 4.9.1 – (a) Photographie prise le 15 octobre 2003 par le télescope spatial Hubble de l’étoile Sirius B qui
est une naine blanche. (b) Graphe de la fonction H ′ (α). On a limα→∞ H ′ (α) = 14 .
1. On considère un électron libre dans un volume V dont l’état est caractérisé par sa position ⃗q son impul-
sion ⃗p et son spin. Utiliser la formule de Weyl (voir TD2) pour montrer que le nombre d’états quantiques
possibles dont l’impulsion est de module inférieure à p ≥ 0 donné est n ( p) = ap3 avec a à préciser en
fonction de V, h̄.
2. On suppose maintenant que N électrons libres et indépendants sont dans le volume V (i.e. on né-
glige les interactions entre les électrons). Quels sont les états occupés à T = 0 K ? On appelle impul-
sion de Fermi p F l’impulsion maximale des états occupés. Donner l’expression de V en fonction de
p
N, h̄, me , c, α F = meFc et relier α F avec la densité d’électrons N
V.
3. En relativité, l’énergie totale ϵ d’un électron de masse me est donnée par l’équation
ϵ2 − p2 c2 = m2e c4 (4.9.1)
−
→ p
où p = p est le module de l’impulsion. On pose α = me c . Exprimer ϵ en fonction de α, me , c. Exprimer
2 −1/2
le facteur de Lorentz γ = 1 − vc ≥ 1 à partir de α.
RN
4. Soit U = 0 ϵdn l’énergie totale du gaz des N électrons relativistes à T = 0 K. Déduire une expression
p
de U qui fait intervenir m, c, N, α F = meFc ainsi que la fonction que l’on ne cherchera pas à expliciter :
x 1/2
H ( x ) = x13 0 y2 1 + y2
R
dy, dont la dérivée est représentée en Figure 4.9.1(b).
1. Une naine blanche est une étoile vieille, constituée essentiellement d’hélium 4 He, de masse M voisine
de la masse du Soleil M ≃ MS = 2, 0.1030 kg. La température interne de l’étoile est de l’ordre de T ∼
107 K. L’hélium est complètement ionisé et on peut considérer que l’étoile est formée de N électrons
libres et N/2 noyaux d’hélium (de masse : m He = 4g/mole ≫ me ) qui neutralisent la charge des
électrons (et maintiennent la cohésion de l’étoile par interaction gravitationnelle). Exprimer la masse
de l’étoile M en fonction de N et calculer N si M = MS ?
2. On justifiera à la fin du problème la nécessité de décrire les électrons par la relativité, et d’autre part
que l’approximation T ≈ 0K est valable. On le suppose pour le moment. Utilisant le problème (1-2),
exprimer le volume V puis le rayon R de l’étoile en fonction de N, α F puis de M, α F ?
3. L’énergie totale E = Eg + U de l’étoile est la somme de l’énergie gravitationnelle d’une sphère homo-
gène
3 M2
Eg = − G
5 R
et de l’énergie cinétique U des électrons étudiée en (1-4) (l’énergie cinétique des noyaux et l’énergie
électrostatique étant négligeables). Mettre E sous la forme :
E = −C1 α F + C2 H (α F )
où C1 et C2 sont des constantes que l’on calculera. Ainsi l’énergie de l’étoile E est exprimée à partir du
paramètre sans dimension α F qui lui même est relié à R. Le graphe de H ′ (α) est représenté sur la Figure
4.9.1 (b).
CHAPITRE 4. STATISTIQUES QUANTIQUES 124
C1
4. L’étoile est dans la configuration qui minimise E. Mettre cette condition sous la forme H ′ (α F ) = C2 et
C1
montrer que C2 ∼ 0.17.
5. Déduire graphiquement la valeur de α F puis du rayon R de l’étoile à l’aide de (2).
6. Etait-ce nécessaire d’utiliser la description relativiste ? Calculer l’énergie de Fermi µ0 à l’aide de (3) et
comparer à kT. Conclusion sur la validité de l’approximation T ≈ 0K ?
7. Tracer l’allure de E (α) selon C1 /C2 et discuter. Montrer que les naines blanches ne peuvent avoir une
masse supérieure à une masse limite MC (masse de Chandrasekhar) que l’on exprimera en fonction de
MS . Discuter.
Troisième partie
Systèmes en interactions
125
Chapitre 5
5.1 Introduction
5.1.1 Phases de la matière
Dans la nature, la matière est constituée de particules, d’atomes et molécules qui s’organisent selon diffé-
rentes “phases”, dépendant des conditions du milieu :
— Gaz : si les molécules sont “libres”. Cela signifie que chaque molécule a une énergie suffisante pour
pouvoir s’échapper (se libérer) de l’attraction exercée par les autres.
— Liquide si les molécules subissent des interactions attractives entre elles, et ont une énergie pas suf-
fisante pour se libérer, mais suffisante pour se déplacer par rapport aux autres. Gaz et liquide sont
appelés “fluides”.
— Solide si les molécules subissent des interactions attractives entre elles mais n’ont pas assez d’énergie
pour se déplacer et sont donc figées près d’une certaine position moyenne. Dans la plupart des cas la
configuration des molécules est périodique, appelée cristal.
— Plasma : si les atomes sont ionisés (i.e. noyaux atomiques seuls), les électrons sont libres et il y a aussi
un gaz de photons. L’ensemble du plasma est neutre électriquement. Le soleil et autres étoiles du même
type sont un plasma.
— Condensat de Bose : des atomes de spin entier (bosons) dans un état de superposition quantique.
— Supraconductivité : dans un matériau, les électrons s’assemblent en “paires de Cooper” qui circulent
sans dissipation. Chaque paire est un boson, et ces bosons sont dans un état de condensat.
— En cosmologie, on imagine que les champs élémentaires du modèle standard de la physique des parti-
cules sont en fait des phases de champs plus fondamentaux, apparus après le big bang, lors du refroi-
dissement de l’univers. Voir Phase Transitions in the Early Universe .
— En économie ou sociologie, attention ce ne sont pas des sciences exactes, il y a des tentatives d’appli-
quer des analyses de physique statistique. Ex : livre de Oded Galor qui évoque que la société humaine
qui a évolué depuis des milliers d’années est actuellement dans une “transition de phase”, mesurée par
la richesse par individus. Article de BRUCE M. BOGHOSIAN, POUR LA SCIENCE N° 507 / Janvier
2020 / p.61, qui évoque que les différentes classes sociales sont comme des phases qui coexistent, aussi
mesurée par la richesse par individus.
Dans la formation de l’état solide, les atomes peuvent se trier. Par exemple dans le manteau terrestre, à haute
températures, il y a du magma qui contient des liquides et gaz dissous. Avec le temps les atomes se trient et
s’assemblent pour former par exemple :
— De la silice SiO2 formant 60% de la croûte terrestre. La température de fusion de la silice est Tfusion =
1713C°, la température d’ébullition est Tfusion = 2700C° (il fait 3500°C à la limite supérieure du noyau),
et à température ambiante, la silice se cristallise sous forme quartz ou se présente sous la forme du
verre qui est un solide amorphe (structure désordonnée).
— Le calcaire ou carbonate de calcium CaCO3 . A température ambiante, le calcaire se cristallise sous
forme Calcite qui est un cristal stable, ou Aragonite, cristal instable (τ = 108 ans), bio-synthétisé (nacre
des coquillages), ou Vaterite, etc..
— Les argiles, sous forme de feuillets complexes, (début de la vie) ?
127
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 128
La lave volcanique en refroidissant peut produire des “orgues volcaniques” dont les directions sont ortho-
gonales aux courbes de niveau de la température.
E ( f ) := ∑ ∑ (− f X . f Y ) + ∑ B f X (5.2.1)
X Y tq X ∼Y X
Remarque 5.2.2. Pour deux sites voisins, X ∼ Y, si f X = f Y alors leur énergie mutuelles est (− f X . f Y ) = −1
et sinon (− f X . f Y ) = +1. Ainsi si le champ extérieur B = 0 est nul, alors les deux configurations où tous
les spins sont égaux sont les deux configurations d’énergie minimale du système, appelé état fondamental,
correspondent respectivement à
1. f X = +1, ∀ X ∈ Λ, donnant E ( f ) = ∑ X ∑Y tq X ∼Y (−1) = −4N 2 et M f = +1,
2. f X = −1, ∀ X ∈ Λ, donnant E ( f ) = −4N 2 et M f = −1.
On suppose que le système est en contact avec un réservoir à la température T fixée (i.e. il échange de
l’énergie avec ce réservoir d’énergie). On notera
1
β= .
kT
D’après la loi de Boltzmann Gibbs, la probabilité d’une configuration f est
1 − βE( f )
p(f) = e . (5.2.3)
Z
Ainsi l’aimantation moyenne est
⟨ M⟩ p = ∑ M(f) p(f). (5.2.4)
f ∈{−1,+1}Λ
Remarque 5.2.3. L’objectif est de calculer cette aimantation moyenne ⟨ M ⟩ p en fonction de la température β et
éventuellement du champ extérieur B. En fait ce calcul exact est impossible en dimension plus grande que 2
et très difficile en dimension 2 (mais facile en dimension 1). La difficulté vient des termes de “couplage” f X . f Y
dans l’énergie (5.3.1). Cette énergie apparaît dans l’exponentielle de la probabilité (5.2.3).
Dans la suite on va présenter :
1. une méthode numérique de l’aimantation, appelée méthode de Monte-Carlo
2. une méthode approximative qui consiste à calculer l’aimantation pour une expression de p ( f ) simpli-
fiée qui ne présente pas de terme de couplage, appelée méthode du champ moyen,
√
3. un calcul exact de la température critique βexact
c = 14 ln 1 + 2 ≈ 0.22 donnée par la méthode de
Kramers-Wannier (1941) qui est un argument de dualité. Il faut savoir que L. Onsager a obtenu en 1944
l’expression exacte de l’énergie libre pour le modèle d’Ising sur Z2 , Friedli & Velenik (2017, p.132), Yvan
Velenik. Le modèle d’Ising. DEA. 2009. cel-00392289.
La figure 5.3.1 présente un résultat numérique pour B = 0 (en fait B > 0 très petit, proche de 0 dans le calcul) :
A température assez basse (ou β ≫ 1), on observe un état collectif où les moment magnétiques ont une
aimantation totale moyenne non nulle (ici positive), donc une aimantation du matériau. Au dessus d’une cer-
taine température appelée “transition” ou température critique, ici β < β c ≈ 0.2, l’aimantation totale moyenne
est nulle. On va aussi étudier l’effet d’un champ magnétique extérieur B sur l’aimantation du matériau.
1. On rappelle que Z/ ( NZ) est l’ensemble des entiers Z modulo N. Ainsi Z/ ( NZ) = {0, 1, . . . N − 1} et avec la règle que ( N − 1) +
1 = 0.
2. Rappel : en mathématiques, si A, B sont deux ensembles, on note B A l’ensemble des applications f : A → B.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 130
F IGURE 5.2.1 – Résultat numérique de la méthode de Monte-Carlo pour le modèle d’Ising. Configurations
prises au hasard pour les paramètres β = 0.1 (désordre, aimantation nulle), β = 0.21 (transition de phase) et
β = 0.3 (ordre magnétique, aimantation non nulle). Aimantation M = N12 ∑ X f X en fonction de β.
1 ′
2
1 − e− β(E( f )−E( f )) .
N
1 1
∑′ M f ′ , f = ∑ N2
= ∑ N2
=1
f ′
f cas 2 X ∈Λ
131 5.2. MODÈLE D’ISING DU FERROMAGNÉTISME
On démontre en TD que cette matrice est mélangeante et que l’état d’équilibre est la mesure de probabilité de
Boltzmann-Gibbs (en fait on a choisit la dynamique pour cela) :
1 − βE( f )
p(f) = e .
Z
Ainsi d’après le théorème de Perron Frobenius, le système évolue vers cet état d’équilibre avec un écart
qui décroît exponentiellement vite, i.e. comme e−t/τ avec un temps caractéristique τ ( β) qui dépend de la
température.
E ( f ) := ∑ ∑ (−V ( X − Y ) f X . f Y ) + ∑ B f X (5.2.5)
X Y, Y ̸= X X
p x ( f ) = Π X ∈Λ p̃ x ( f X ) (5.2.7)
1
qui signifie l’indépendance statistique des sites entre eux. Pour x, T fixés (rappel β = kT ), on calcule l’énergie
moyenne ⟨ E⟩ px , l’entropie S ( p x ) et on déduit l’énergie libre (voir exercice de TD)
FT ( x ) := ⟨ E⟩ px − TS ( p x )
= ... = N −v tanh2 ( x ) + B tanh x + kT ( x tanh x − ln 2 − ln cosh x )
avec
v= ∑ V (X)
X,X ̸=0
qui est une équation transcendante. La résolution graphique montre qu’il y a une température critique
2v
Tc := ,
k
et
— si T > Tc alors x0 ( T ) = 0
— si T < Tc alors il y a deux solutions, qui sont pour T proche de Tc ,
1/2
3k
x0 ( T ) = ± ( Tc − T ) (5.2.8)
2v
1
⟨ M⟩ px = ∑ M ( f ) p x0 (T ) ( f ) = ... = kTx0 ( T )
0 (T )
f
2v
√ T 1/2
= ± 3 1−
(5.2.8) Tc
où la dernière ligne est pour T proche de Tc . On obtient l’allure de la figure 5.3.1. Dans le modèle (5.3.1), on a
1
v = 4 donc β c = kT1 c = 2v = 18 = 0.125.
qui s’interprète comme l’interaction d’un site X avec les autres sites Y agit comme un champ magnétique
effectif BX obtenu par la contribution des moyennes ⟨ f Y ⟩ des autres sites voisins. Pour cette raison, cette
approximation s’appelle aussi approximation du champ moyen.
1 √
βexact
c = ln 1 + 2 ≈ 0.22..
4
Ensuite en 1944, Onsager a effectué le calcul exact de l’énergie libre de ce même modèle, ce qui permet de
déduire toutes les grandeurs thermodynamiques.
Pour le modèle d’Ising dont l’énergie d’une configuration est f
E(f) = − ∑ f X fY
X ∼Y
1 − βE( f )
p(f) = e
Z
1
avec β = kT et la constante de normalisation
Z ( β) = ∑ e−βE( f ) .
f
— La température critique recherchée β c est une valeur de β donnant des grandeurs thermodynamique
singulières (non dérivabilité, divergente, etc) donc pour laquelle la fonction β → Z ( β) est non analy-
tique (i.e. n’admet pas une expression en série entière convergente). Plus précisément, par définition
une transition de phase est dite :
— transition de phase du premier ordre si Z ( β) n’est pas continue (pas C0 ) en β c .
— transition de phase du deuxième ordre si Z ( β) est continue mais pas différentiable (pas C1 ) en β c .
etc
— On considère le réseau carré fini Λ = (Z/ ( NZ))2 . A partir de l’observation qu’une configuration f (ici
points noirs/blancs) est uniquement associée à un ensemble d’arêtes sur le réseau dual noté E ∈ E (Λ∗ ),
formant des courbes fermées (ici en bleu) et représentant les parois de domaines d’aimantation :
= +1
= −1
Λ
Λ∗
on déduit deux expressions différentes pour la fonction β → Z ( β), en utilisant le fait que le réseau
carré est self-dual.
1. Une série appelée « High Temperature » car convergente dans la limite thermodynamique N → +∞,
pour β assez petit, notée
On suppose que ces séries divergent à une certaine valeur β c que l’on suppose unique. Cela implique
tanh β c = e−2β c ,
donnant
1 √
βc = ln 1 + 2 ≈ 0.44
2
— Dans le problème 3 on se sert du principe variationnel pour calculer de façon approchée l’aimantation
moyenne ⟨ M⟩ non pas pour la mesure de Boltzmann p B car le calcul est impossible, mais pour une
mesure p x0 approchée qui est choisie en minimisant F ( p x ) parmi un ensemble restreint de mesures
( p x ) x choisies de sorte à ce que la moyenne ⟨ M⟩ px est calculable. Ici ce choix est appelé “approximation
du champ moyen” ou méthode de Weiss. Cette méthode variationnelle est fondamentale en physique
statistique mais aussi en physique quantique.
Voir ce document, cette expérience.
1
p(f) = exp (− βE ( f )) .
Z
Montrer que L réversible implique l’invariance de la mesure p : Lp = p.
(c) Montrer que la matrice L est mélangeante, c’est à dire que ∃n ≥ 1, ∀ f , f ′ , ( Ln ) f ′ , f > 0. D’après
le théorème de Perron-Frobenius, les trois propriétés précédentes impliquent que la dynamique
va converger exponentiellement vite vers l’état d’équilibre p (avec un temps caractéristique τβ qui
dépend de β).
3. On rappelle que Z/ ( NZ) est l’ensemble des entiers Z modulo N. Ainsi Z/ ( NZ) = {0, 1, . . . N − 1} et avec la règle que ( N − 1) +
1 = 0.
5.3. EXERCICES ET PROBLÈMES CORRIGÉS SUR LES TRANSITIONS DE PHASE EN
135 FERROMAGNÉTISME
F IGURE 5.3.1 – Résultat numérique de la méthode de Monte-Carlo pour le modèle d’Ising. Configurations
prises au hasard pour les paramètres β = 0.1 (désordre), 0.21 (transition de phase) et 0.3 (ordre magnétique).
Aimantation M = N12 ∑ X f X en fonction de β.
F ( p) := ⟨ E⟩ p − S ( p)
1 − ϵi
appelée énergie libre. Montrer 4 que F est minimale pour la mesure de Boltzmann pi = Ze , ∀i avec
Z = ∑i e−ϵi constante de normalisation, et que la valeur minimale est
F = − ln Z
FT ( p) = ⟨ E⟩ p − TS ( p) : énergie libre
E ( f ) := ∑ ∑ (−V ( X − Y ) f X . f Y ) + ∑ B f X (5.3.2)
X Y, Y ̸= X X
E ( f ) := ∑ (− f X . f Y ) (5.3.3)
X ∼Y
où X ∼ Y signifie que X, Y sont des sites voisins. Ce réseau Λ peut être considéré comme un graphe dont les
sommets sont les sites et les arêtes sont les paires e = {e1 , e2 } de deux sites voisins e1 = X ∼ e2 = Y. On notera
E (Λ) l’ensemble de ces arêtes. Ainsi on peut écrire l’énergie d’une configuration
E(f) = ∑ (− f e1 . f e2 ) .
e ∈E( Λ )
1
La loi de Boltzmann donne la probabilité d’une configuration f à la température β = T :
1
p(f) = e− βE( f ) ,
ZΛ ( β)
e β f X fY = cosh β (1 + f X f Y tanh β)
où |E (Λ)| est le cardinal (nombre d’éléments) de E (Λ) et E ⊂ E (Λ) désigne un sous ensemble quel-
conque d’arêtes. Exemple :
E ∈ E( Λ )
3. On note
E ∈ E (Λ)
Montrer que
ZΛ ( β) = (cosh β)|E(Λ)| 2|Λ| ∑ (tanh β)|E| . (5.3.4)
E∈E (Λ)
Aide : on montrera au préalable que pour un ensemble d’arêtes E ⊂ E (Λ) fixé, si le sommet a ∈ Λ
apparaît un nombre impair de fois alors ∑ f ∈{−1,1}Λ ∏e∈E ( f e1 f e2 ) = 0.
4. On note Λ∗ le graphe dual de Λ : les sommets de Λ∗ sont le centre des faces de Λ et les arêtes de Λ∗
croisent une arête de Λ :
Λ
Λ∗
On note
Φ : f ∈ {−1, +1}Λ → E ∈ E (Λ∗ )
l’application qui sélectionne les arrêtes de Λ∗ séparant deux valeurs +1, −1 différentes de f , par exemple 6 :
= +1
= −1
Λ
Λ∗
6. Remarquer la ressemblance avec les territoires et les frontières en fin de partie dans le jeu de GO. See [Link]
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 138
5. On a obtenu deux expressions de Z ( β). La première (5.3.4) appelée « High Temperature » car conver-
gente dans la limite thermodynamique N → +∞, pour β assez petit, notée
HT
ZΛ ∗ ( β) = lim (cosh β)|E(Λ)| 2|Λ| ∑ (tanh β)|E| ,
N →+∞
E∈E (Λ∗ )
et la deuxième (5.3.5) appelée « Low Temperature » car convergente pour β assez grand est notée
| E|
LT
ZΛ ( β) = lim e β|E(Λ)| ∑ e−2β .
N →+∞
E∈E (Λ∗ )
Si il y a une transition de phase, ces expressions vont diverger à une certaine valeur β c (car sinon Z ( β)
serait analytique et les grandeurs thermodynamiques aussi) et que l’on suppose unique. De plus, le
graphe carré considéré est self-dual Λ = Λ∗ . D’après les expressions ci-dessus, cela implique 7
tanh β c = e−2β c .
Déduire que
1 √
βc = ln 1 + 2 ≈ 0.44
2
E0 E0 ED
Elément T° critique(K) Tc gap (K) k rapport kTc Debye (K) Θ D = k
Al 1.196 4.06 3.4 394
Zn 0.875 2.8 3.2 234
Sn 3.72 13.02 3.5 170
Pb 7.19 30.917 4.3 88
TABLE 5.1 – Exemples de matériaux supraconducteur, température critique Tc en Kelvin (K), énergie du gap
E0 qui sépare l’état fondamental des états excités en K, énergie de Debye des vibrations du réseau en K.
Remarque 5.4.1. Habituellement, un gap spectral est une propriété d’un opérateur Hamiltonien qui ne dépend
pas de la température T. Alors, qu’elle est la signification ici d’un gap qui dépend de la température ? On verra
que c’est un “gap effectif” pour un modèle effectif sans interaction mais qui dépend de T et prédit les même
observables que le modèle initial avec interactions qui ne dépend pas de T.
7. Plus généralement on a une relation de dualité tanh β∗ = e−2β entre les températures sur les réseau Λ et Λ∗ .
139 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ
E0
Dans cette section, on verra que le modèle BCS prédit le rapport universel = 2π
kTc eγ ≈ 3.53 bien observé ici
(avec la constante de Euler γ := limn→∞ ∑nk=1 n1 − ln n ≈ 0.57. L’existence de ce gap se manifeste dans le fait
que la capacité calorifique s’annulle très vite pour T → 0 (idem modèle d’Einstein) et se manifeste aussi dans
des expériences d’absorption d’ondes électromagnétiques.
F IGURE 5.4.1 – (a) Lévitation d’un aimant à basse température, il n’y a pas de dissipation grâce à l’état
supraconducteur. (b) Gap en énergie dans différent supraconducteurs, comparé à la prédiction BCS ∆ ( T ),
eq.(5.5.12).
Histoire : (voir Combescot & Shiau (2015), chap.6). L’effet supraconducteur a été découvert expérimentale-
ment en 1911 par Heike Kamerlingh Onnes. Ensuite Meissner et Ochsenfeld 1933 ont observé que le champ
magnétique est expulsé du matériau supraconducteur. London 1935, puis Ginzburg et Landau 1950, ont pro-
posé un modèle phénoménologique. En 1950, Fröhlich a suggéré que les électrons peuvent s’apparier en
paires, à cause d’une force attractive effective entre eux, via le réseau des atomes.
Le premier modèle microscopique démontrant l’existence d’un gap spectral au dessus de l’état fondamen-
tal a été proposé en 1957 par Bardeen,Cooper,Schrieffer appelé modèle BCS. Les calculs ont été améliorés par
Bogoliubov 1958, Gorkov 1958.
Dans cette section on présente ce modèle. L’effet Josephson a été prédit en 1962 à partir de la théorie BCS.
Remarque 5.4.2. Ce modèle BCS est basé sur l’appariement des électrons en paires d’électrons ayant des im-
pulsions opposées ( p, − p) et formant un état stable collectif appelé condensat de Bose. Ce phénomène d’ap-
pariement se retrouve dans d’autres domaines de la physique, par exemple pour expliquer la superfluidité
de l’He3, ou la stabilité de certaines noyaux nucléaires (appariement de paires de nucleons), les condensats
d’atomes froids, etc, voir Martin & Rothen (1990).
Ce qui suit est basé sur le livre Couture & Zitoun (1992), chap 15.3. Voir aussi Combescot & Shiau (2015),
chap.6, chap.9.
| p |2
Ecin ( p) = ≤µ (5.4.1)
2m
l’intérieur de la « sphère de Fermi », avec µ le potentiel chimique et m la masse d’un électron. En appliquant la
loi de Weyl, on a déduit que le niveau de Fermi µ est donné par (4.8.3) :
2/3
h̄2
2N
µ= 3π
2m V
Ainsi l’état fondamental du gaz d’électrons libres est la configuration où tous les états à un électron dans la
sphère de Fermi sont occupés par un électron et les états hors de la sphère sont inoccupés.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 140
p2 p3
p
x2 p′ p
p′ p2
p1
p1 Fermi’s sphere
x1
F IGURE 5.4.2 – Représentation de deux ondes planes ou modes de Fourier ψ p ( x ) = eipx/h̄ dans l’espace réel
où les fonctions sont délocalisées et dans l’espace de Fourier (ou espace réciproque) où ce sont des points.
Autrement dit N (.) est une fonction N (.) : p → N ( p) aussi appelé champs classique en physique.
Remarque 5.4.3. Dans la suite, pour être rigoureux, il faudrait remplacer la mesure d3 p par la mesure de Liou-
ville
V
dµ ( p) = d3 p
(2πh̄)3
R d3 pd3 x
qui est la mesure induite par la loi de Weyl dµ = V 3.
(2πh̄)
Exemple graphique : On considère 3 ondes plane p, p′ , p′′ , et p, p′′ sont occupées par un électron, p′ n’est
pas occupé. L’état est donc noté N (.) = |1, 0, 1⟩ :
p2
p′′ p′ p′
x2 p′′
p
p
p1
x1
On appelle ψ un champs quantique. Les vecteurs de base | N (.)⟩ sont des champs quantiques particuliers.
Parmi ces vecteurs de base il y a le champs N ( p) = 0, ∀ p, où tous les états sont vides. On l’appelle état du
vide, noté |0⟩. Ne pas confondre le vecteur nul 0 avec l’état du vide |0⟩ = |0, . . . , 0⟩ qui est un vecteur de base
de F de norme 1.
Dans le modèle des électrons libres et indépendants, l’énergie est formée seulement par l’énergie cinétique
et chaque configuration | N (.)⟩ a une énergie qui est la somme des énergie cinétiques individuelles Ecin ( p) =
| p |2
2m : Z
E N (.) = N ( p) Ecin ( p) d3 p.
R3
141 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ
On peut décrire cela par un opérateur énergie cinétique Ĥcin. dans cet espace F définit par le fait que les
vecteurs de base | N (.)⟩ sont des vecteurs propres, de valeur propre EN (.) :
| p |2
ϵ′ ( p) := Ecin ( p) − µ =
−µ (5.4.2)
2m
On rappelle que N ( p) ∈ {0, 1}. L’état fondamental de ĤGC , i.e. le vecteur propre | N (.)⟩ de valeur propre
minimale, est celui pour lequel
Autrement dit, cet opérateur a†p fait apparaître un électron dans l’état p si il n’y en avait pas et
donne le vecteur nul sinon.
— De même on définit l’opérateur d’annihilation a p : F → F par
(
N ( p′ ) pour p′ ̸= p
si N ( p) = 1, a p | N (.)⟩ = | N ′ (.)⟩ avec N ′ p′ =
0 pour p′ = p
si N ( p) = 0, a p | N (.)⟩ = 0.
Autrement dit, cet opérateur a p fait disparaître un électron dans l’état p si il y en avait un et
donne le vecteur nul sinon.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 142
Exemple 5.4.6. quelques exemples d’action des opérateurs de création sur les vecteurs de base | N (.)⟩ =
| N1 , N2 ⟩ avec N1 , N2 ∈ {0, 1}. C’est un espace de dimension 2 × 2 = 4 et 0 désigne le vecteur nul.
On a les expressions Z
Ĥcin. = Ecin ( p) a†p a p d3 p (5.4.3)
R3
Z
N̂ = a†p a p d3 p
R3
Z
ĤGC = ϵ′ ( p) a†p a p d3 p
R3
Démonstration. Il suffit de vérifier ces relations sur les vecteurs de base | N (.)⟩. Par exemple on observe que
Remarque 5.4.8. Le formalisme qui consiste à utiliser des opérateurs de création/annihilation dans l’espace
de Fock F s’appelle “quantum many-body problem”, “second quantization”, “quantum field theory” et est à
la base de la physique (quantique) depuis les années 1930. Il y a de nombreux ouvrages conseillés, Martin &
Rothen (1990), Peskin & Schroeder (1995)Blaizot & Ripka (1986), Negele & Orland (1998), etc.
Paires de Cooper : On souhaite que l’impulsion totale soit nulle. D’après la conservation de l’impulsion
totale on a
0 = p1 + p2 = p1′ + p2′ .
Pour simplifier on notera p = p1 et p′ = p1′ . Ainsi avant collision on a une paire d’électrons d’impulsions
( p, − p) devenant ( p′ , − p′ ) après collision, avec p, p′ ∈ R3 arbitraires. Ces paires d’électron qui interagissent
(ou collisionnent) sont appelées paire de Cooper.
Voici deux représentations schématiques possibles dans l’espace réel :
143 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ
p
p′
x2
p′ −p
−p
− p′
p x1 − p′
Couche d’interaction de DeBye : L’interaction entre les électrons ne provient pas de la répulsion électrosta-
tique qui est écrantée par les atomes, mais provient d’un couplage avec les déformations du réseau cristallin
(ondes de vibrations, phonons). Seuls les électrons près de la surface de Fermi contribuent et sont pertur-
bés par les vibrations du réseau d’atome dont l’énergie est de l’ordre de ED (énergie de Debye), on note
ϵ′ ( p) := Ecin ( p) − µ l’écart à l’énergie de Fermi comme en (5.4.2), et on va considérer dans la suite les élec-
trons dans cette couche (Shell) notée :
n o
S : = p ∈ R3 , ϵ ′ ( p ) < ED .
ED
Par exemple pour l’étain Θ D = k = 200K.
p2
p1
Fermi surface µ
Shell S
Ce couplage des électrons avec le réseau cristallin induit une force effective attractive entre les électrons
(Fröhlich 1954), modélisée dans la suite par l’énergie potentielle
−V0 < 0.
Expression de l’interaction avec des opérateurs : de la même façon que l’énergie cinétique a été exprimée
par a†p a p dans (5.5.1), il nous sera utile, pour décrire ces processus de transition en terme d’opérateurs, d’utili-
ser les opérateurs de création et annihilation de paires de Cooper, pour p ∈ R3 donné, définis par :
Définition 5.4.9. Le modèle BCS est le Hamiltonien suivant dans l’espace de Fock F :
Objectif : A basse température, l’état du gaz d’électrons en interaction correspond à l’état fondamental de
l’opérateur ĤBCS . A plus haute température il est dans la superposition statistique des états d’énergie plus
élevés (les états excités) E selon la mesure de probabilité de Boltzmann Gibbs p = Z1 e− βE . Il faudrait donc
trouver ces états propres d’énergie pour ensuite déduire des propriétés thermodynamiques du gaz d’électron
comme la capacité calorifique en calculant des valeurs moyenne d’observables. La difficulté est que le terme
d’interaction Ĥinter. rend ce calcul très difficile. Dans la section suivante on va plutôt faire un calcul appro-
ché du spectre en utilisant la “méthode variationnelle de Hartree-Fock-Bogoliubov” ou “approximation du
champ moyen”. (similaire au calcul effectué pour le modèle de spins avec la méthode de Curie-Weiss).
Le calcul exact du spectre de ĤBCS a été réalisé par Richardson et Gaudin dans les années 60’,70’ ref :
Combescot & Shiau (2015, chap.10).
(approx)
L’avantage de cette approximation est que le spectre de l’opérateur ĤBCS dans l’espace de Fock F sera cal-
culable explicitement, car il n’y a plus d’opérateurs de transition b†p′ b p , mais seulement des opérateurs b†p ou b p
qui créent/annihile une paire de Cooper. On va pouvoir considérer chaque paire de Cooper individuellement.
Introduisons donc l’espace de Fock F( p,− p) d’une paire de Cooper.
Proposition 5.4.11. Pour une impulsion p ∈ R3 donnée, on considère la paire de Cooper ( p, − p). Son espace de
Fock est noté F( p,− p) , de dimension 4 dont les vecteurs de base sont | N ( p) , N (− p)⟩, avec N ( p) , N (− p) ∈
{0, 1}. Cela donne 4 vecteurs de base notés
L’espace de Fock total F est le produit tensoriel antisymétrique de tous ces espaces
F = F( p,− p) ∧ F( p′ ,− p′ ) ∧ . . .
^
= F( p,− p) . (5.4.11)
p∈ D
où D = R3 / ∼ est le demi espace avec l’identification de parité p ∼ (− p), afin de ne considérer que les paires.
(approx)
où l’opérateur ĤBCS ( p) est représenté dans la base (5.4.10) par la matrice
ϵ′p 0 0 0
(approx) 0 ϵ′p 0 0
ĤBCS ( p) ≡ (5.4.14)
0 0 0 ∆
0 0 ∆ 2ϵ′p
avec
| p |2
ϵ′p = Ecin ( p) − µ = − µ, (5.4.15)
2m
1
Z
∆ = −V0 β p dp, C= | ∆ |2 , (5.4.16)
p∈S V0
les 4 valeurs propres de (5.5.9) sont
ϵ′p , ϵ′p ,
E± ( p) = ϵ′p ± δp , (5.4.17)
1/2
avec δp = ϵ′p 2 + |∆|2 . (5.4.18)
(approx)
Voici un schéma des valeurs propres E± , (5.4.17), et vecteurs propres de ĤBCS ( p) en fonction de ϵ′p :
∆ 2ϵ′
Cooper pair Cooper pair
|0, 0⟩ + a|1, 1⟩ E− |1, 1⟩ + b|0, 0⟩ E−
Si Ecin ( p) > µ Si Ecin ( p) < µ
Interprétation :
— Remarquer que ∆ = 0 correspond au modèle sans interaction.
— Si ϵ′p = Ecin ( p) − µ > 0 ⇔ Ecin ( p) > µ, cela signifie que p est hors de la sphère de Fermi.
— Dans le cas ∆ = 0, l’état fondamental est |0, 0⟩ sans électron, comme attendu.
— Dans le cas ∆ ̸= 0, l’état fondamental est un mélange |0, 0⟩ + a|1, 1⟩ avec a ̸= 0. (paire est partielle-
ment vide/occupée).
— Si ϵ′p = Ecin ( p) − µ < 0 ⇔ Ecin ( p) < µ, cela signifie que p est dans la sphère de Fermi.
— Dans le cas ∆ = 0, l’état fondamental est |1, 1⟩ occupé par des électrons, comme attendu.
— Dans le cas ∆ ̸= 0, l’état fondamental est un mélange |1, 1⟩ + b|0, 0⟩ avec b ̸= 0. (paire est partielle-
ment occupée/vide).
— La règle de conservation du nombre d’électrons interdit les transitions de l’état fondamental E− ayant
nombre pair de particules, vers les états intermédiaires |1, 0⟩, |0, 1⟩, ayant un nombre impair de parti-
cules. Mais les transition de E− vers E+ sont permises. Pour cette raison, on observe expérimentalement
un gap spectral qui est l’écart
Démonstration. On a
(approx) (approx)
ĤBCS = Ĥcin. − µ N̂ + Ĥinter.
Z Z D E D E
= ϵ′p a†p a p d3 p − V0 b†p′ b p + b†p′ b p − b†p′ b p d3 p′ d3 p
p ∈ R3 p,p′ ∈S
Z
(approx)
= ĤBCS ( p) d3 p + C Id (5.4.19)
p∈S
et la constante Z
C= ∆ b p d3 p.
p∈S
On calcule,
a†p a p |1, 0⟩ = |1, 0⟩, b†p |1, 0⟩ = a†p a†− p |1, 0⟩ = 0, b p |1, 0⟩ = a p a− p |1, 0⟩ = 0
donc
(approx)
ĤBCS ( p) |1, 0⟩ = ϵ′p |1, 0⟩
De même
(approx)
ĤBCS ( p) |0, 1⟩ = ϵ′p |0, 1⟩, b†p |0, 0⟩ = a†p a†− p |0, 0⟩ = |1, 1⟩
[Link] Optimisation
D E
Dans le calcul précédent, les paramètres complexes b p , b†p′ ∈ C sont arbitraires. Pour justifier l’ap-
proximation (5.5.6), on impose qu’ils coïncident avec les valeurs moyennes de b p , b†p′ pour l’état de Boltzmann
(approx)
Gibbs de l’Hamiltonien approché ĤBCS . Avant cela rappelons les propriétés générales suivantes
Proposition 5.4.14. En mécanique quantique, si une grandeur physique A est représentée par l’opérateur au-
toadjoint  (appelée observable) qui a des valeurs propres a j et vecteurs propres ψj alors pour tout état quantique
φ, la probabilité d’observer la valeur a j est
1 2
p φ ( j) = 2
⟨ψj | φ⟩ (5.4.21)
ψj ∥ φ ∥2
⟨ A⟩ φ = ∑ a j p φ ( j) (5.4.22)
j
donc
1 1 1 1 1
∑ ∑ aj
2
2
⟨ φ| Âφ⟩ = 2 2
⟨ φ| a j ψj ⟩⟨ψj | φ⟩ = 2 2
⟨ φ|ψj ⟩
∥ φ∥ (5.4.23) ∥ φ∥ j ψj ∥ φ∥ j ψj
=
(5.4.21) j
∑ p φ ( j) a j (5.4.22
= ⟨ A⟩ φ
)
Proposition 5.4.15. Si Ĥ est le Hamiltonien du système avec Ĥ φ j = Ej φ j qui sont les vecteurs propres et
1
valeurs propres d’énergie de Ĥ, si β = kT est la température de environnement, la valeur moyenne de la
grandeur physique A pour la mesure de probabilité de Boltzmann Gibbs p BG est définie par
⟨ A⟩ pBG := ∑ ⟨ A⟩ φ j p BG ( j) (5.4.24)
j
1
où ⟨ A⟩ φ j = 2 ⟨ φ j | Âφ j ⟩ est la valeur moyenne quantique dans l’état φ j , et
∥ φj ∥
1 − βEj
p BG ( j) := e . (5.4.25)
Z
On peut écrire
1 − β Ĥ
⟨ A⟩ pBG = Tr Âe (5.4.26)
Z
avec la constante de normalisation
Z = Tr e− β Ĥ .
Remarque 5.4.16. Noter que la valeur moyenne (5.4.24) fait intervenir une moyenne quantique (qui repose sur
du hasard quantique dont l’origine est encore inconnue) et aussi une moyenne statistique liée à la température
décrite par la loi de Boltzmann et qui provient des échanges d’énergie avec l’environnement chaotique.
Démonstration.
Comme l’opération Trace ne dépend pas de la base utilisée, on utilise la base des vecteurs
propres φ j j . On calcule 8
1
Tr e− β Ĥ = ∑ 2
⟨ φ j |e− β Ĥ φ j ⟩ = ∑ e− βEj = Z
j φj j
et
1 − β Ĥ 1 1 1 1
Z
Tr Âe =
Z ∑ 2
⟨ φ j | Âe− β Ĥ φ j ⟩ =
Z ∑ 2
⟨ φ j | Âφ j ⟩e− βEj
j φj j φj
=
(5.4.25) j
∑ ⟨ A⟩ φj p ( j) (5.4.24
= ⟨ A⟩ pBG .
)
est une base quelconque d’un espace de Hilbert, la base duale φ∗k k est une base de l’espace dual définie par φ∗k φ j = δj=k .
8. Si φ j j
La trace d’un opérateur  est donnée par Tr ( A) = ∑ j φ∗j Âφ j . Par exemple si φ j j est une base orthogonale d’un espace de Hilbert
D E
Proposition 5.4.17. Soit T une température fixée et β = 1
kT . Si on impose que les paramètres b p , b†p′ ∈ C
(approx)
sont donnés par les valeurs moyennes pour le Hamiltonien ĤBCS
D E D E
bp = bp p BG
, b†p = b†p , (5.4.27)
p BG
− 1
Pour une température assez basse T < Tc , β > β c avec la température critique (valable si e V0 g ≪ 1) donnée
par
2eγ − V1 g
kTc ≈ ED e 0
π
avec la constante de Euler γ := limn→+∞ ∑nk=1 1k − ln n = 0.577.. , alors ∆ = ∆ ( T ) > 0 est solution de
l’équation du gap √
Z ED tanh β ϵ′ 2 + ∆2
2 1
√ dϵ′ = (5.4.28)
0 ϵ +∆
′ 2 2 V0 g
avec g la densité d’états au niveau de Fermi. A basse température T → 0, la solution est
− V1 g
∆ (0) = 2ED e 0
T 1/2
∆ ( T ) ≈ 3.06 kTC 1 − (5.4.29)
TC
Voir figure 5.5.1(b) qui représente la solution T → ∆ ( T ). Pour représenter cette courbe, il faut résoudre
numériquement l’équation (5.5.12).
Remarque 5.4.18. “Gap effectif”. Le fait que le gap spectral dépend de la température est un artefact de la
méthode utilisée. En effet pour le problème exact, il y a un gap fixé ∆ (0) dans le spectre, et des probabilité de
transition vers les états excités qui vont dépendre de la température.
Remarque 5.4.19. “Universalité”. Une conséquence remarquable relie le gap spectral E0 = 2∆ (0) à la tempé-
rature critique :
E0 2∆ (0) 2π
= = γ ≈ 3.53..
kTc kTc e
est une constante universelle. Les expérience sont en bon accord avec cette prédiction. Voir tableau 5.1, Couture
& Zitoun (1992, p479),Kittel (1987, p.336).
Remarque 5.4.20. “Effet isotopique”. Une prédiction de ce modèle, bien vérifié expérimentalement est que si
on change de matériau par des atomes isotopes, c’est à dire de même charge donc même propriétés chimique,
mais masse M des noyaux différentes, alors l’énergie de Debye ED lié aux fréquences de vibration, varie
comme ED ∝ M−1/2 donc Tc ∝ M−1/2
Démonstration. On part de
1 (approx)
bp =
p BG (5.4.26)
Tr b p e− β ĤBCS
Z
On calcule
Z
(approx) (approx)
Z = Tr e− β ĤBCS = Tr exp − β ĤBCS ( p) d3 p + C Id
p∈ D
(approx)
= Tr e− βC Id ∏ Tr e− β ĤBCS ( p)
p∈ D
On a de même
(approx) (approx)
( p′ )
Tr b p e − β ĤBCS
= Tr e − βC
Id ∏ Tr b p e − β ĤBCS
p′ ∈ D
149 5.4. MODÈLE BCS : TRANSITION DE PHASE EN SUPRACONDUCTIVITÉ
On va calculer chacun de ces termes. Comme la trace ne dépend pas de la base, on utilise les valeurs propres
(approx)
de ĤBCS ( p) pour calculer
(approx) ′
Tr e − β ĤBCS ( p)
= 2e− βϵ p + e− βE+ ( p) + e− βE− ( p)
′ ′ ′
= 2e− βϵ p + e− βϵ p e− βδp + e− βϵ p e βδp
′
′
β β 2
= e− βϵ p 2 + e− βδp + e βδp = e− βϵ p e 2 δp + e− 2 δp (5.4.31)
− βϵ′p 2 β
= 4e cosh δp (5.4.32)
2
Pour le numérateur de (5.4.30), on observe que
(approx)
− β ĤBCS ( p) 1 ∂ − β Ĥ (approx) ( p)
bp e = e BCS
(5.4.20) −β ∂∆
Donc
(approx) 1 ∂ (approx)
Tr b p e− β ĤBCS ( p) = Tr e− β ĤBCS ( p)
− β ∂∆
1 ∂ ′ β
= 4e− βϵ p cosh2 δp
(5.4.31) − β ∂∆ 2
∂ cosh2 2 δp
β
1 − βϵ′p ∂δp
= 4e
−β ∂δp ∂∆
∆
1 − βϵ′p β β β
= 4e 2 cosh δp sinh δp
(5.4.18) − β 2 2 2 2δp
∆
′ β β
= −2e− βϵ p cosh δp sinh δp
2 2 δp
et
′
2e− βϵ p cosh
β β
sinh 2 δp ∆
2 δp ∆
β
bp =
p BG (5.4.30)
− ′
=− tanh δp . (5.4.33)
4e− βϵ p cosh2 2 δp
β δp 2δp 2
Ensuite
Z D E Z D E
∆ = −V0 b p′ dp′ = −V0 b p′ dp′
(5.4.16) p′ (5.4.27) p′ p BG
∆
Z
β
= − −V0 tanh δp′ dp′
(5.4.33) p′ 2δp′ 2
Ainsi ∆ vérifie l’équation du gap
∆
Z
β
∆= V0 tanh δ ′ d3 p ′ .
′
p t.q. |ϵ p |< ED
′ 2δ p′ 2 p
Il y a la solution ∆ = 0. Si ∆ ̸= 0 alors en notant g la densité d’état au niveau de Fermi ϵ = µ, (on néglige ses
variation sur l’intervalle d’énergie |ϵ′ | < ED )
V0 ED 1
V0
Z Z
β β
1= tanh δ p ′ d3 p ′ = g tanh δp′ dϵ′ (5.4.34)
p′ t.q. |ϵ′p |< ED 2δ p′ 2 2 − ED δ p ′ 2
Z ED
1 β
= gV0 tanh δ ′ dϵ′ (5.4.35)
0 δ p′ 2 p
√
avec δp′ = ϵ′ 2 + ∆2 . On a obtenu (5.5.12).
(5.4.18)
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 150
Basse température : Pour β → ∞, c’est à dire T → 0, on a tanh
β
2 δ p′ → 1, et utilisant que pour y > 0 et
y ≫ 1,
s !
Z y −1/2 q
2 1
1+x dx = − ln y2 +1−y = − ln y 1+ 2 −y (5.4.36)
0 (xcas) y
1
−2
= − ln y 1 + 2 + o y −y (5.4.37)
2y
1
= − ln 1 + o y −2 = ln (2y) + o y−2 (5.4.38)
2y
ϵ′
et posant x = ∆, on obtient pour ∆ ≪ ED
Z ED Z ED
1 gV0 1
1 = gV0 √ dϵ′ = dϵ′
+ ∆2 ∆
r
0 ϵ′ 2 0 ′ 2 ϵ
∆ +1
ED 2 !!
∆
1 E
Z
∆
= gV0 √ dx = gV0 ln 2 D +o
0 x2 + 1 (5.4.36) ∆ ED
donc
− gV1
∆ (0) = 2ED e 0 . (5.4.39)
Température critique : La valeur critique β c est donnée par le fait que ∆ ( β c ) = 0, donc δp′ = ϵ′ . On
(5.4.18)
utilisera que pour y > 0, u′ = 1x , v = tanh ( x ), u = ln x, v′ = 1
, ln ( x ) tanh ( x ) → 0,
cosh2 ( x ) x →0
Z y Z y
1 ln ( x )
tanh ( x ) dx = ln (y) tanh (y) − dx (5.4.40)
0 x ( p.p.) 0 cosh2 ( x )
(5.4.41)
Et pour y ≫ 1, tanh (y) → 1 et
Z y
ln ( x ) π
dx → ln
0 cosh2 ( x ) 4eγ
avec γ := limn→+∞ ∑nk=1 1
k − ln n = 0.577.. la constante de Euler. Donc pour y ≫ 1, l’équation
Z y
1
tanh ( x ) dx = C
0 x
a la solution π π
ln (y) = C + ln ⇔ y ≈ γ eC
4eγ 4e
βc ′
On pose x = 2 ϵ. Alors
Z ED β c ED
1 1
Z
βc ′ 2
1 = gV0 tanh ϵ dϵ′ = gV0 tanh ( x ) dx
(5.4.34) 0 ϵ′ 2 0 x
β c ED
Donc dans le cas 2 ≫ 1, la solution est
β c ED π 1 π 1
≈ γ e gV0 ⇔ β c ≈ γ e gV0
2 4e 2e ED
2eγ − gV1
⇔kTc = ED e 0
π
Conséquence
∆ (0) − gV1 π 1 π
= 2ED e 0 e gV0 = ≈ 1.76..
kTc (5.4.39) 2eγ E D eγ
est une constante universelle. Voir Kittel (1987, p.336). Notre hypothèse a été
β c ED − 1
≫ 1 ⇔ e gV0 ≪ 1.
2
5.5. EXERCICES ET PROBLÈMES CORRIGÉS LES TRANSITIONS DE PHASE EN SUPRACONDUCTIVITÉ.
151 MODÈLE BCS
Exposant critique : Pour montrer (5.4.29), on affine le calcul précédent, en supposant ∆ ≪ 1 et on cherche
β (∆) par développement limité
5.5.1 Introduction
Le phénomène de super conductivité est un phénomène physique très surprenant : en dessous d’une cer-
taine température Tc appelée température critique et généralement très basse, certains métaux n’ont plus au-
cune résistance aux courants électriques. Ces propriétés font que les matériaux supraconducteurs sont très
utilisés en technologie, pour créer de forts champs magnétique, pour l’effet Josephson, etc.
Il apparaît que ces propriétés découlent de la présence d’un gap en énergie Ek0 au dessus de l’état fon-
damental du système constitué par le gaz d’électrons, pour des température assez basse T < Tc . Il y a une
transition de phase à la température critique T = Tc et l’état supraconducteur disparaît pour T > Tc .
E0 E0 ED
Tc (K) k (K) kTc ΘD = k (K)
Al 1.196 4.06 3.4 394
Zn 0.875 2.8 3.2 234
Sn 3.72 13.02 3.5 170
Pb 7.19 30.917 4.3 88
E0 2π
Dans ce TD, on verra que le modèle BCS prédit le rapport universel kTc = eγ ≈ 3.53 bien observé ici.
F IGURE 5.5.1 – (a) Lévitation d’un aimant à basse température, il n’y a pas de dissipation grâce à l’état su-
praconducteur. (b) Gap en énergie dans différent supraconducteurs, comparé à la prédiction BCS : 2∆ ( T ),
eq.(5.5.12).
Histoire : L’effet supraconducteur a été découvert expérimentalement en 1911 par Heike Kamerlingh Onnes.
Le premier modèle microscopique démontrant l’existence d’un gap spectral au dessus de l’état fondamen-
tal a été proposé en 1957 par Bardeen, Cooper, Schrieffer appelé modèle BCS. Dans ce TD on étudie ce modèle
BCS. L’effet Josephson a été prédit en 1962 à partir de la théorie BCS.
Remarque 5.5.1. Ce modèle BCS est basé sur l’appariement des électrons en paires paires d’électrons ayant
des impulsions opposées ( p, − p) et formant un état stable collectif appelé condensat de Bose. Ce phénomène
d’appariement se retrouve dans d’autres domaines de la physique, par exemple pour expliquer la superfluidité
de l’He3, ou la stabilité de certaines noyaux nucléaires (appariement de paires de nucleons), les condensats
d’atomes froids, etc, voir Martin & Rothen (1990).
Ce qui suit est basé sur le livre Couture & Zitoun (1992), chap 15.3. Voir aussi Combescot & Shiau (2015).
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 152
Exemple graphique : On considère 3 ondes plane p, p′ , p′′ , et p, p′′ sont occupées par un électron, p′ n’est
pas occupé. L’état est donc noté N (.) = (1, 0, 1) :
p2
p′′ p′ p′
x2 p′′
p
p
p1
x1
D’après le principe de superposition en mécanique quantique toutes ces différentes configurations pos-
sibles N (.) forment une base orthonormée de l’espace vectoriel quantique F des états possibles, appelé es-
pace de Fock Fermionique et formé donc par les combinaisons linéaires complexes de ces états de base appelés
champs quantiques :
En particulier, un champ classique N (.) correspond à un champs quantique | N (.)⟩ qui sert de vecteur
de base. Dans le modèle des électrons libres et indépendants, l’énergie est formée seulement par l’énergie
cinétique et chaque configuration | N (.)⟩ a une énergie qui est la somme des énergie cinétiques individuelles.
On peut décrire cela par un opérateur énergie cinétique Ĥcin. dans cet espace F définit par le fait que les
vecteurs de base | N (.)⟩ sont des vecteurs propres, de valeur propre EN (.) :
De même le nombre total d’électron dans l’état | N (.)⟩ est NN (.) = R3 N ( p) d3 p et on peut définir l’opérateur
R
a†p | N (.)⟩ = 0 si N ( p) = 1
— De même on définit l’opérateur d’annihilation a p : F → F par
1. Compléter le tableau suivant qui considère deux états électroniques notés 1, 2. Les vecteurs de base
normalisés | N (.)⟩ = | N1 , N2 ⟩ avec N1 , N2 ∈ {0, 1} le nombre d’électrons respectivement dans chaque
état. C’est un espace de dimension 2 × 2 = 4 et 0 désigne le vecteur nul.
a1† a1 + a2† a2 | N (.)⟩
| N (.)⟩ a† | N (.)⟩ a1 | N (.)⟩ a2 a† | N (.)⟩
1 1
|0, 1⟩ |1, 1⟩ 0
|1, 0⟩
|0, 0⟩
|1, 1⟩
Et conclure que en général a†p a p | N (.)⟩ = N ( p) | N (.)⟩.
2. Montrer que l’opérateur a†p est l’adjoint de a p c’est à dire que
3. Montrer que Z
Ĥcin. = Ecin ( p) a†p a p d3 p (5.5.1)
R3
Z
N̂ = a†p a p d3 p
R3
Z
ĤGC = ϵ′ ( p) a†p a p d3 p avec ϵ′ ( p) = Ecin ( p) − µ.
R3
Remarque 5.5.3. Le formalisme qui consiste à utiliser des opérateurs de création/annihilation dans l’espace
de Fock s’appelle “quantum many-body problem”, “second quantization”, “quantum field theory” et est à
la base de la physique (quantique) depuis les années 1930. Il y a de nombreux ouvrages, Martin & Rothen
(1990),Blaizot & Ripka (1986), Negele & Orland (1998), etc.
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 154
Paires de Cooper :
1. On souhaite que l’impulsion totale soit nulle (car on s’intéresse ici à une état supraconducteur immo-
bile). Utilisant la conservation de l’impulsion totale, montrer que
Ainsi les deux électrons sont d’impulsion opposée p, − p, pour une valeur de p ∈ R3 donnée, formant ce
que l’on appelle une paire de Cooper. On s’intéresse donc à des collisions ou processus de transitions
entre paires de Cooper ( p, − p) → ( p′ , − p′ ).
Voici deux représentations schématiques possibles dans l’espace réel :
p
p′
x2
p′ −p
−p
− p′
p x1 − p′
Couche d’interaction de DeBye : L’interaction entre les électrons ne provient pas de la répulsion électrosta-
tique qui est écrantée par les atomes, mais provient d’un couplage avec les déformations du réseau cristallin
(ondes de vibrations, phonons). Seuls les électrons près de la surface de Fermi contribuent et sont pertur-
bés par les vibrations du réseau d’atome dont l’énergie est de l’ordre de ED (énergie de Debye), on note
ϵ′ ( p) := Ecin ( p) − µ l’écart à l’énergie de Fermi, et on va considérer dans la suite les électrons dans cette
couche (Shell) notée : n o
S := p ∈ R3 , ϵ ′ ( p ) < ED , p1 > 0 ,
(la condition p1 > 0 est pour considérer le demi espace et ne pas compter deux fois la même paire). Par
exemple pour l’étain Θ D = EkD = 200K.
p2
p1
Fermi surface µ
Shell S
Ce couplage induit une force effective attractive entre les électrons (Fröhlich 1954), modélisée dans la suite
par l’énergie potentielle
−V0 < 0.
Expression de l’interaction avec des opérateurs : De la même façon que l’énergie cinétique a été exprimée
par a†p a p dans (5.5.1), il nous sera utile, pour décrire ces processus de transition en terme d’opérateurs, d’utili-
ser les opérateurs de création et annihilation de paires de Cooper, pour p ∈ R3 donné, définis par :
Définition 5.5.4. Le modèle BCS est le Hamiltonien suivant dans l’espace de Fock F :
Objectif : A basse température, l’état du gaz d’électrons en interaction correspond à l’état fondamental de
l’opérateur ĤBCS . A plus haute température il est dans la superposition statistique des états d’énergie plus
élevés (les états excités) E selon la mesure de probabilité de Boltzmann Gibbs p = Z1 e− βE . Il faudrait donc
trouver ces états propres d’énergie pour ensuite déduire des propriétés thermodynamiques du gaz d’électron
en calculant des valeurs moyenne d’observables. La difficulté est que le terme d’interaction Ĥinter. rend ce
calcul très difficile. Dans la section suivante on va plutôt faire un calcul approché du spectre en utilisant la
“méthode variationnelle de Hartree-Fock-Bogoliubov” ou “approximation du champ moyen”.
Le calcul exact du spectre de ĤBCS a été réalisé par Richardson et Gaudin dans les années 60’,70’ ref :
Combescot & Shiau (2015, chap.10).
(approx) D E
b†p′ b p := b†p′ b p − b†p′ − β p′ b†p′
bp − β p (5.5.6)
= b†p′ β p + β p′ b p − β p′ β p (5.5.7)
où β p ∈ C, ∀ p, sont des nombres (paramètres) que l’on choisira plus tard en imposant qu’ils
approchent
†
au mieux les valeurs moyennes de b p dans l’état fondamental. Le terme correctif b p′ − β p′ b p − β p s’in-
terprète comme des “fluctuations quantiques” que l’on soustrait du problème original. Pour une impulsion
p ∈ R3 donnée, si on note | N ( p) , N (− p)⟩ , les 4 états d’occupation possible pour une paire de Cooper ( p, − p),
avec N ( p) , N (− p) ∈ {0, 1}. Cela donne 4 vecteurs de base notés
(approx)
où l’opérateur ĤBCS ( p) est représenté dans la base (5.5.8) par la matrice
′
ϵp 0 0 0
(approx) 0 ϵ′p 0 0
ĤBCS ( p) ≡
0 0 0 ∆
(5.5.9)
0 0 ∆ 2ϵ′p
avec
| p |2
ϵ′p = Ecin ( p) − µ = − µ, (5.5.10)
2m
1
Z
∆ = −V0 β p dp, C= | ∆ |2 ,
p∈S V0
CHAPITRE 5. PHASES ET TRANSITIONS DE PHASES 156
et les représenter en fonction de ∆. Discuter quel est l’état fondamental du système selon le signe de ϵ′p
et interpréter 2∆ comme un gap spectral global.
3. Pour la suite, on établit au préalable une formule générale très utile en physique statistique quantique.
Si  est une observable (i.e. opérateur auto-adjoint), montrer que la valeur moyenne (ou espérance)
des résultats de mesure par rapport
à lamesure de probabilité de Boltzmann-Gibbs àla température
T
est donnée par 9 ⟨ A⟩ pBG = 1
Z Tr Âe− β Ĥ avec la constante de normalisation Z = Tr e− β Ĥ et β = 1
kT
(pour simplifier on suppose ici que Ĥ est une matrice).
4. On impose que les paramètres β p ∈ C pour chaque p ∈ S, sont donnés par les valeurs moyennes par
(approx)
rapport à la mesure d’équilibre de Boltzmann-Gibbs à température T pour le Hamiltonien ĤBCS :
β p = b p p . Montrer que ∆ = ∆ ( T ) > 0 doit être solution de l’équation du gap
BG
√
ϵ ′ 2 + ∆2
Z ED tanh β
2 1
√ dϵ′ = (5.5.12)
0 ϵ′ 2 + ∆2 V0 g
2eγ − V1 g
kTc ≈ ED e 0
π
avec la constante de Euler γ := limn→+∞ ∑nk=1 1
k − ln n = 0.577.. . Aide 11
7. Déduire le rapport universel concernant le gap spectral E0 = 2∆ (0) et la température critique
2∆ (0) 2π
= γ ≈ 3.53
kTc e
T 1/2
∆ ( T ) ≈ 3.06 kTC 1 −
TC
est une base quelconque d’un espace de Hilbert, la base duale φ∗k k est une base de l’espace dual définie par φ∗k φ j = δj=k .
9. Si φ j j
La trace d’un opérateur  est donnée par Tr ( A) = ∑ j φ∗j Âφ j . Par exemple si φ j j est une base orthogonale d’un espace de Hilbert
(pas forcément normée) alors φ∗k = 1 2 ⟨ φk |.⟩ est la base duale, et donc Tr ( A) = ∑ j 1 2 ⟨ φ j | Âφ j ⟩.
∥ φk ∥ ∥ φj ∥
Ry −1/2
10. Aide : si y ≫ 1, 0 1R + x2 dx = ln (2y) + o y−2 .
y
11. Si y ≫ 1, l’équation 0 1x tanh ( x ) dx = C a la solution y ≈ 4eπγ eC .
Annexe A
Formulaire
est convergente.
donc si r ̸= 1,
r n +1 − r 0
Sn = .
r−1
157
ANNEXE A. FORMULAIRE 158
Bibliographie
Balian, Roger. 2007. From microphysics to macrophysics : methods and applications of statistical physics. Vol. 1,2.
Springer Science & Business Media.
B.H. Bransden, & C.J. Joachain. 1989. Introduction to quantum mechanics. Longman.
Blaizot, J.P., & Ripka, G. 1986. Quantum theory of finite systems.
Brin, M., & Stuck, G. 2002. Introduction to Dynamical Systems. Cambridge University Press.
Combescot, Monique, & Shiau, Shiue-Yuan. 2015. Excitons and Cooper pairs : two composite bosons in many-body
physics. Oxford University Press.
Couture, L., & Zitoun, R. 1992. Physique statistique.
Cover, Thomas M. 1999. Elements of information theory. John Wiley & Sons.
Davies, E.B., & Davies, E.B. 1996. Spectral theory and differential operators. Vol. 42. Cambridge Univ Pr.
Den Hollander, Frank. 2008. Large deviations. Vol. 14. American Mathematical Soc.
Diu, B., Guthmann, C., Lederer, D., & Roulet, B. 1989. Physique statistique.
Peskin, M.E., & Schroeder, D.V. 1995. An introduction to quantum field theory. Vol. 94. Westview press.
Pottier, Noelle. 2000. Physique statistique hors d’équilibre.
Sternberg, S. 1994. Group theory and physics. Cambridge University Press.
159