Physique Statistique
Pierre Devillard et Xavier Leoncini
Table des matières
Chapitre 1. Introduction 4
Chapitre 2. Introduction à la physique statistique 5
2.1. L’espace des phases 5
2.2. L’équation de Liouville 7
2.3. Notion d’équilibre 8
2.4. Limite thermodynamique 9
2.5. L’Ensemble micro-canonique 13
Chapitre 3. Ensembles Statistiques 18
3.1. L’Ensemble canonique 18
3.2. L’Ensemble grand-canonique 20
3.3. Équivalence des ensembles 22
3
Chapitre 1
Introduction
Le but de ce cours est d’aborder les connaissances de base de la physique
statistique classique, quelques éléments de théorie cinétique ainsi que les bases de
la physique statistique quantique. Cela fait partie du bagage de tout physicien. Les
liens vers la physique des milieux continus, tels que les solides ou la mécanique des
fluides, ne seront pas abordés en détail (ce sujet est abordé dans d’autres cours de
ce cursus), et nous ne reviendrons pas sur les notions faisant typiquement partie de
la thermodynamique, étant donné que celles-ci sont abordées lors deux premières
années d’un parcours de physique dans toutes les universités. Nous supposerons que
ceux-ci sont déjà connus du lecteur.
Les fondements de la mécanique statistique remontent aux travaux de Boltz-
mann et de Maxwell à la fin du XIXe siècle, le but était de combler le fossé entre le
monde réversible microscopique et l’irréversibilité qui régissait toute transformation
thermodynamique. L’idée principale derrière cette approche est que les systèmes
macroscopiques sont composés avec une grande quantité de composants microsco-
piques (particules) et comme nous avons ce grand nombre de constituants, nous
pourrions utiliser des statistiques et des probabilités pour décrire leur état. Pour
réaliser le cours, nous l’avons organisé comme suit : dans la première partie nous
commençons à discuter de la théorie et des idées qui ont donné lieu à la physique
statistique, et ensuite passer à discuter de l’ensemble microcanonique. Ensuite nous
passerons en revue les ensembles statistiques. C’est essentiellement à partir de ce
stade que nous commençons vraiment à mettre la théorie en pratique, quelques
problèmes et exercices guidés utiles doivent être entièrement compris, et maîtrisés.
Enfin nous aborderons les aspects quantiques de la physique statistique et sur-
volerons rapidement certaines caractéristiques «hors d’équilibre», le problème du
transport thermique et / ou certains éléments de la théorie cinétique classique des
gaz sont discutés du point de vue de la physique statistique.
4
Chapitre 2
Introduction à la physique statistique
Le but principal de ce chapitre est de donner quelques intuitions et concepts
qui sont importants pour les fondements de la physique statistique. Comme nous
l’avons mentionné dans l’introduction, la physique statistique est apparue comme
un moyen d’expliquer une divergence majeure qui avait surgi au XIXe siècle, entre
la mécanique et la thermodynamique. D’une part, la loi de Newton qui émergea de
l’observation du ciel et qui a été validée par la mécanique céleste, a donné lieu aux
développement de points de vue lagrangien et hamiltonien, ce qui est essentiellement
correspond à des lois microscopiques conservatrices, qui conservent l’énergie, et qui
sont réversibles dans le temps. C’est cette réversibilité temporelle qui a causé un
problème avec la thermodynamique. En effet, le principe d’équivalence entre chaleur
et énergie a permis de continuer à avoir une vision conservatrice des lois régissant
les phénomènes physiques. Cependant le principe de Clausius et l’énoncé de Carnot
concernant le deuxième principe de la thermodynamique qui explique que l’entropie
est nécessairement une fonction constante ou croissante avec le temps, impliquent
des phénomènes irréversibles. En effet, si nous avions une transformation physique
qui crée une certaine entropie, il serait alors impossible de revenir à l’état original
parce que l’entropie ne peut que croître ou rester constante. Et cela rompt la vision
mécanique de Lagrange ou Newton.
Une fois que nous remarquons que la thermodynamique est concernée par des
transformations au niveau macroscopique, c’est-à-dire des transformations de sys-
tème qui sont composées d’un grand nombre de petits constituants (par exemple
des particules comme des atomes ou plus petites), nous pouvons peut-être effectuer
un traitement statistique de notre système mécanique, et utiliser la loi des grands
nombres pour cela. C’est plus ou moins ce qui a été fait par Boltzmann. Dans ce
qui suit, nous soulignons un peu plus comment, à partir d’un système mécanique
réversible parfait, nous pouvons concevoir les lois qui régissent la physique statis-
tique classique. Nous commencerons par la notion d’espace de phase, qui sera le
premier ingrédient utile de notre théorie.
2.1. L’espace des phases
Afin d’introduire la notion d’espace des phase, il est plus facile de considé-
rer un système mécanique. Considérons un système mécanique classique composé
d’un grand nombre N de constituants élémentaires identiques comme par exemple
des particules. On notera q = (q1 , q2 , · · · , qN ) et p = (p1 , p2 , · · · , pN ) les vec-
teurs positions et quantités de mouvement de l’ensemble des particules avec qi =
(q1,i , · · · , qD,i ) et pi = (p1,i , · · · , pD,i ) où D est la dimension de l’espace dans lequel
évoluent ces dernières. Par exemple pour D = 3, on peut choisir qi = (xi , yi , zi ),
pi = m(vxi , vyi , vzi ).
5
2.1. L’ESPACE DES PHASES 6
En considérant le système comme isolé, les constituants du système inter-
agissent entre eux au travers d’un potentiel V (q). Dans ce cas, la dynamique du
système est typiquement gouvernée par le hamiltonien suivant :
N
X p2i p2
(2.1.1) H(p, q) = + V (q1 , q2 , · · · , qN ) = + V (q)
i=1
2m 2m
à partir duquel les équations différentielles régissant le mouvement sont obtenues :
∂H
(2.1.2) q̇k,i =
∂pk,i
∂H
(2.1.3) ṗk,i =− ,
∂qk,i
où ẋ correspond à la dérivée temporelle de x, et k ∈ {1, · · · , D}. Les coordonnées
q = (q1 , q2 , · · · , qN ) et p = (p1 , p2 , · · · , pN ) sont les variables canoniques du
hamiltonien (2.1.1) et la paire (qk,i , pk,i ) est dite canoniquement conjuguée.
On s’aperçoit donc que bien que les particules évoluent dans un espace de
dimension D, la dynamique évolue dans un espace de dimension 2N D correspondant
au couple (p, q). Cet espace est l’espace des phases et on appelle le produit N D
le nombre de degré de liberté du système. On représente souvent l’espace des phase
et son volume par le symbole Γ, et on note l’élément de volume
N,D
Y
(2.1.4) dΓ = dpk,i dqk,i
i=1,k=1
Nous verrons par la suite que la notion d’espace des phases est très pratique
pour définir de façon simple les ensembles microcanonique et canonique. Cette no-
tion est aussi essentielle à l’étude des systèmes dynamique comme par exemple les
systèmes chaotiques.
2.1.1. exercices de familiarisation :
(1) Comme premier contact avec la notion d’espace des phases, il est utile de
dessiner des trajectoires de systèmes mécaniques simples (dessin d’une tra-
jectoire dans le plan (p, q)). Dans ce but vous pouvez essayer de dessiner
le portrait de phase (différentes trajectoires dans ce plan) d’un oscillateur
harmoniques (un ressort) H = p2 /2 + q 2 /2 ou celui du pendule simple:
H = p2 /2 + (1 − cos(q)); Rappelez vous que l’énergie est conservée dans ces
systèmes. Une fois que c’est fait vous pouvez essayer d’imaginer qu’un tra-
jectoire d’un grand système est en fait une ligne dans cet espace des phases
de grandes dimensions. NB. Les trajectoires ne se coupent pas, du moins
pas en un temps fini.
(2) Ce second exercice est plutôt technique, mais sera utile plus tard, il s’agit
de calculer le volume d’une
P 2hypersphère. Calculer le volume inscrit dans la
surface définie par T = pi /2, avec i ∈ {1, · · · , N } (le volume sera consid-
eré dans RN , le raisonnement et résultats sont bien décrits sur wikipedia (
Wikipedia link).
2.2. L’ÉQUATION DE LIOUVILLE 7
2.2. L’équation de Liouville
Supposons que le nombre de particules dans le système décrit par le hamiltonien
(2.1.1) soit très grand, et que plutôt que de s’intéresser en détail à l’évolution de
chaque particule, l’on s’intéresse plutôt à l’évolution de la densité de probabilité
dans l’espace des phases ρ(p, q, t) que N ρdΓ particules se trouvent à l’instant t au
point (p, q).
L’équation de Liouville décrit en fait la conservation de ρ au cours de l’évolution
du système c’est à dire la conservation du nombre de constituants :
dρ ∂ρ
(2.2.1) = + ∇ · (ρV ) = 0 ,
dt ∂t
où V est le vecteur vitesse dans l’espace des phases, c.a.d le couple (ṗ, q̇) et l’opé-
rateur ∇· est la divergence. Le dernier terme de l’équation (2.2.1) s’écrit :
(2.2.2) ∇ · (ρV ) = ρ∇ · V + V · ∇ρ ,
où l’opérateur ∇ est le gradient. Évaluons la divergence de V . On a
X pk,i˙ X qk,i˙
(2.2.3) ∇·V = + ,
∂pk,i ∂qk,i
i,k i,k
or en utilisant les équation du mouvement (2.1.2) et (2.1.3) on peut récrire l’équation
(2.2.3) :
2 X ∂2H
X ∂ H
(2.2.4) ∇·V = − + =0.
∂qk,i ∂pk,i ∂pk,i ∂qk,i
i,k i,k
On notera que l’équation (2.2.4) traduit en fait la conservation par la dynamique
du volume de l’espace des phases. Cette dernière propriété nous permet de déduire
l’équation dite équation de Liouville
dρ ∂ρ
(2.2.5) = + V · ∇ρ = 0
dt ∂t
et en utilisant les équation du mouvement cette équation se récrit sous forme clas-
sique
∂ρ
(2.2.6) = {H, ρ}
∂t
où l’on a introduit la notion de crochets de Poisson notés {, }. Les crochets de
poisson s’appliquent à des fonctions définies sur des espaces de dimension paire,
comme l’espace des phase par exemple, à deux dimensions on écrit :
∂f ∂g ∂f ∂g
{f, g} = − ,
∂x ∂y ∂y ∂x
et ce formalisme se généralise aisément à des dimensions paires élevées en considé-
rant x et y comme des variables conjuguées et en sommant les produits.
2.3. NOTION D’ÉQUILIBRE 8
2.2.1. exercices de familiarisation :
(1) Propriétés des crochet de Poisson. Calculer en fonction de {f, g} les expres-
sions suivantes : {g, f }, {λf, µg}, {f (λx, µy), g(λx, µy)} où λ et µ sont des
constantes.
(2) Calculer {f, f }, {f, g(f )}
(3) Redémontrer l’équation (2.2.6) à partir de l’équation (2.2.5), en déduire que
l’énergie est conservée.
(4) Estimer la somme suivante {a, {b, c}} + {b, {c, a}} + {c, {a, b}}
(5) Calculer d{g, f }/dt
2.2.2. Remarques sur l’équation de Liouville. On insistera sur plusieurs
propriétés importantes de l’équation de Liouville (2.2.6).
(1) L’équation est linéaire en ρ.
(2) Lorsque que l’on s’intéresse à une variable macroscopique hKi décrivant
l’état du système, comme par exemple l’énergie, cette variable correspondra
nécessairement à une moyenne sur les états microscopique d’une fonction
K, on pourra donc écrire à un facteur de normalisation près
Z
(2.2.7) hK(t)i = ρ(p, q, t) K(p, q)dΓ .
Γ
On peut ainsi écrire formellement l’équation d’évolution de hKi
∂hKi
(2.2.8) = {H, hKi} ,
∂t
On remarquera ainsi une très forte analogie entre la physique statistique et
la mécanique quantique dans le formalisme d’Heisenberg. Dans les deux cas
le Hamiltonien fait office d’opérateur de translation dans le temps. Lorsque
l’analogie est faite on parle de la notion de temps imaginaire au travers de
la transformation t → it.
(3) Une remarque immédiate est que l’énergie du système étant définie par E =
hHi, on obtient immédiatement en utilisant l’expression (2.2.8) E = Cte et
indépendant du temps.
2.3. Notion d’équilibre
Lorsque l’on considère un système macroscopique la notion d’équilibre diffère
quelque peu de la notion d’équilibre connue en mécanique classique (galiléen). En
effet dans ce dernier cas un système à l’équilibre et un système ou soit rien ne bouge
où alors tout est en translation avec une vitesse uniforme. Or pour un système ma-
croscopique, l’approche cinétique de la température d’un gaz parfait, nous révèle
immédiatement qu’à température constante les constituants microscopiques du sys-
tème ne sont pas à l’équilibre. Un système macroscopique sera donc à l’équilibre,
dans le même esprit qu’un état thermodynamique à l’équilibre, c’est à dire que les
variables macroscopique décrivant le système (température, énergie, volume, ma-
gnétisation etc...) sont en moyenne constantes avec par exemple pour une variable
intensive typique que l’on note A,
!
1 ¯ =0,
(2.3.1) A = A0 + a(t) , a(t) = O p , a(t)
(N
2.4. LIMITE THERMODYNAMIQUE 9
où N représente le nombre de composants du système et ā correspond à une
moyenne temporelle de a.
2.3.1. Remarques.
(1) On retrouve ici la propriété qu’à l’équilibre thermodynamique (lim N → ∞),
les variables macroscopiques intensives du système sont constantes.
(2) Lorsque le système est à l’équilibre la densité de probabilité ρ est indépen-
dante du temps : ∂ρ/∂t = 0. N.B ceci est une condition nécessaire mais pas
suffisante.
2.4. Limite thermodynamique
Nous venons d’évoquer dans la section précédente la notion de limite thermo-
dynamique. Avant d’aller plus en avant et d’aborder les systèmes à l’équilibre, nous
souhaitons revenir quelque peu sur cette notion.
2.4.1. L’hypothèse ergodique. Considérons un système mécanique isolé dé-
fini par un hamiltonien H(p, q) et composé de N constituants. Nous nous intéressons
maintenant peu aux détails des dynamiques microscopiques mais plutôt au variables
macroscopique du systèmes, en supposant que ce dernier est à l’équilibre. En s’inspi-
rant de l’équation (2.3.1), on peut naïvement se dire qu’il suffit de faire une moyenne
temporelle du système pour obtenir les valeurs des variables macroscopiques. Ce-
pendant le calcul des trajectoires microscopiques à partir d’une condition initiale
donnée est généralement inextricable. De plus la probable présence de phénomènes
chaotiques au niveau microscopique nécessite à priori une connaissance exacte de
la condition initiale. Ce dernier point soulève un problème lié à l’infiniment petit
où les effets quantiques sont présents, et donc au principe d’incertitude.
D’un autre point de vue le chaos moléculaire peut être une chance. En effet
même dans un système à faible degrés de liberté, le chaos existe comme illustré sur
le portrait de phase Fig. 2.4.1. Pour ce système qui décrit l’évolution les ligne de
champ de vitesse d’un écoulement tri-dimensionnel, on observe un système mixe
où, selon la condition initiale, le mouvement peut être chaotique (zone grisée de
point) ou régulier (lignes fermées). Dans le cas où la condition initiale est dans
la zone chaotique la trajectoire va parcourir plus ou moins uniformément la “mer
chaotique”, et donc en supposant que l’on connaisse suffisamment bien sont étendue
et ses frontières on pourra remplacer la moyenne sur le temps (ou sur la trajectoire)
par une moyenne sur l’espace et cela à priori quelle que soit la condition initiale.
Ainsi, soit A0 la variable macroscopique d’intérêt la moyenne temporelle
1 t
Z
(2.4.1) A0 = A(t) = lim A (q(t′ ), p(t′ ), q(0), p(0)) dt′ ,
t→∞ t 0
pourra se remplacer par la moyenne sur l’espace
Z
(2.4.2) A0 = A(t) = hAi = ρ(p, q)A(p, q)dpdq .
mer
Dans cette dernière équation on notera la présence d’une densité ρ, qui en quelque
sorte pondère l’espace en fonction du temps passé par la trajectoire dans une région
de l’espace des phases. Par exemple si l’on considère la mer chaotique décrite dans
la figure 2.4.1, on peut remarquer que la zone 0 < Y < π est légèrement plus
foncée que la zone supérieure. Cela traduit le fait que la trajectoire passe plus de
2.4. LIMITE THERMODYNAMIQUE 10
4
Y
0
0 1 2 3 4 5 6
X
Figure 2.4.1. Portrait de phase d’un écoulement de type ABC
temps dans cette zone, et donc lorsque l’on remplace la moyenne temporelle par
une moyenne spatiale on tient compte de cet effet au travers de la fonction ρ que
l’on appelle aussi mesure ergodique pour la région de l’espace des phases concernée.
L’idée fondatrice de la physique statistique repose sur cette hypothèse de chaos
moléculaire et donc cette possibilité d’échange de moyennes. On peut aussi remar-
quer que ρ ne dépend pas du temps, et que pour un système conservatif, ρ sera donc
nécessairement un solution stationnaire de l’équation de Liouville (A vérifier ! !).
La possibilité de remplacer les moyennes temporelle par des moyennes spatiales
sur un mesure ergodique ρ, n’est pas suffisante, il peut est effet exister plusieurs
2.4. LIMITE THERMODYNAMIQUE 11
mesures satisfaisant ces conditions. Par exemple considérons une trajectoire régu-
lière et fermée de la figure 2.4.1, et choisissons une mesure ρ qui a une valeur plus
ou moins constante sur cette ligne est qui est nulle partout ailleurs. Cette mesure
est ergodique dans le sens ou la moyenne temporelle d’une trajectoire initialement
dans la zone de mesure non nulle, sera équivalente à une moyenne spatiale. Ce-
pendant on peut remarquer que cette situation risque de créer des problèmes vis
à vis du deuxième principe de la thermodynamique, la trajectoire étant régulière
on ne crée pas de désordre au cours du temps. Il nous faut donc une à priori une
condition supplémentaire sur la dynamique pour que la physique statistique soit
fondée. Une condition suffisante (mais pas forcément nécessaire) et que la mesure
est mélangeante. Cette notion de mélange s’écrit mathématiquement de la façon
suivante :
(2.4.3) lim f (p, q, t)g(p, q, t + τ ) = hf ihgi ,
τ →∞
et en quelque sorte implique une condition sur la décroissance des corrélations
temporelles. On peut s’attendre à ce que cette condition soit remplie dans la zone
chaotique de la figure 2.4.1.
A la base de la physique statistique il existe donc une hypothèse de chaos
moléculaire qui nous permet de nous affranchir du calcul des trajectoires micro-
scopique et de remplacer des moyennes temporelles par des moyennes spatiales. Cet
échange de moyennes a pour conséquence que la physique statistique ne se préoc-
cupe donc plus de la dynamique microscopique sous-jacente. A priori on peut donc
imaginer que pour un système donné, on peut donc imposer de façon ad hoc une
dynamique microscopique, du moment que cette dernière est compatible avec l’hy-
pothèse de chaos moléculaire, ce qui se trouve en fait fort utile lors de simulations
numériques.
Remarques : Un gaz parfait est constitué de particules ponctuelles qui n’in-
teragissent pas. A priori, si on considère ce système comme isolé, l’intégration des
équations du mouvement est triviale et il n’y a pas de chaos. Cependant les proprié-
tés de mélange et d’ergodicité ont été rigoureusement démontrées pour un système
simple appelé billard de Sinaï (le billard est carré avec un cercle au centre, et une
particule rebondit élastiquement sur le cercle est les parois). On peut donc s’at-
tendre raisonnablement qu’il en soit de même pour un gaz réel : particules non
ponctuelles et ± sphériques interagissant faiblement dans une enceinte donnée.
2.4.2. L’ordre des limites. Avant de passer à la physique statistique en tant
que telle, il est important de revenir sur un dernier détail. En effet pour remplacer les
moyennes temporelles par des moyennes spatiales, il faut qu’à partir d’une condition
initiale donnée la trajectoire ait le temps de couvrir de façon dense l’espace des
phases accessible. On voit ainsi dans l’équation (2.4.1) qu’il faut faire une limite
t → ∞ pour échanger les moyennes. Il faut donc faire cette limite pour pouvoir
faire de la physique statistique.
D’autre part, l’étude de la physique statistique a pour but de décrire les pro-
priétés thermodynamiques d’un système donné. Cette limite thermodynamique sous
entend une limite N → ∞ du nombre de constituants.
Ainsi étant donné un système mécanique classique la limite thermodynamique
sous entend la succession de deux limites :
(1) D’abord il faut faire la limite t → ∞, qui nous permet de faire la physique
statistique
2.4. LIMITE THERMODYNAMIQUE 12
δp
δq q
Figure 2.4.2. Une trajectoire réelle dans l’espace des phases avec
une résolution finie h = δp δq
(2) Puis la limite N → ∞, pour faire disparaître les fluctuations et avoir des
variables d’état intensives constantes.
N.B : L’ordre dans lequel ces limites sont faites est important car il n’est pas sur
que ces limites commutent. En fait pour certains systèmes on peut montrer que les
résultats obtenus sont différents suivant l’ordre choisi.
Remarque : Ces résultats sont mathématiques, dans tous les cas physiques, les
limites t → ∞ et N → ∞ sont des idéalisations : on ne va pas attendre “la fin des
temps”, de plus la cosmologie d’aujourd’hui affirme que notre Univers est en
expansion et est donc fini, la deuxième limite N → ∞ n’est donc pas plus réaliste.
Le physicien dans ce contexte doit de tenir compte de ces “imperfections” au sens
mathématique et se doit d’évaluer selon les systèmes considérés ce qui peut être
physiquement considéré comme infini.
2.4.3. Notion d’agrainissement (coarse graining). Pour conclure sur les
fondements de la physique statistique, nous allons revenir sur la notion d’agrai-
nissement ou “coarse graining en anglais. C’est en effet cette notion qui permet
d’expliquer le passage d’un système réversible dans le temps à un système irréver-
sible pour lequel on observe un croissance de l’entropie.
Avec l’avènement de la mécanique quantique et du principe d’incertitude de
Heisenberg et plus tard de la théorie de la mesure, on s’est aperçu que l’on ne
2.5. L’ENSEMBLE MICRO-CANONIQUE 13
pouvait connaître exactement la position dans l’espace des phase d’un système
mécanique donné. De toutes façons les limites induites par le principe d’incertitude
sont très souvent irréalisables d’un point de vue expérimental ou même numérique.
Ainsi lors d’un calcul numérique on sera limité par la précision de la machine, et
expérimentalement les mesures sont fiables à une précision donnée. De même le
système décimal de représentation des nombre, implique souvent que l’on mesure
quelque chose avec un nombre fini de chiffres après la virgule. On ne connaîtra donc
la position (p, q) d’un état microscopique qu’à (δp, δq) près. Autrement dit, nous
avons une incertitude δΓ = δpδq sur une mesure dans l’espace des phases. Cet
état de fait nous amène donc à partitionner l’espace des phases en cellules comme
schématiquement représenté sur la figure 2.4.2. Sur cette même figure nous avons
représenté également une trajectoire possible dans cet espace.
Maintenant considérons à nouveau l’équation de Liouville (2.2.6) qui traduit
la conservation du volume de l’espace des phases par la dynamique. Ainsi si nous
considérons un ensemble de conditions initiale dans une boule de rayon donné, le
volume de la boule sera conservé par la dynamique. Supposons maintenant que
cette boule a un rayon par exemple inférieur à notre résolution, elle occupera donc
un “carreau” de l’espace des phase. Faisons maintenant évoluer la dynamique, si
l’on fait l’hypothèse de chaos moléculaire, cette boule va se déformer, s’étirer et
se plier etc.. et bien que le volume inscrit soit conservé, des morceaux de la boule
déformée vont maintenant se retrouver sur d’autres “carreaux”. Si l’on veut à présent
localiser la boule déformée dans l’espace des phases, vu l’imprécision de la mesure,
on sera amené à dire que celle-ci se répartit sur une nombre n(t) de carreaux. Avec
l’hypothèse du chaos moléculaire, ce nombre va forcément croître jusqu’à ce que plus
ou moins tout l’espace des phase accessible soit occupé. On part ainsi d’un volume
initial δΓ d’un carreau jusqu’à un volume final ΓE , bien qu’à priori le volume réel
de la boule soit constant.
Ce phénomène de lissage lié à la résolution finie de nos mesures est appelé
procédure d’agrainissement, et l’augmentation du volume lié à ce phénomène qui
correspond en fait à la croissance du désordre due à l’accumulation de nos erreurs,
peut se traduire simplement par une croissance irréversible vers un état stationnaire
et à l’équilibre qui maximise l’entropie du système.
Dans la suite nous considérerons uniquement des états à l’équilibre et pour les-
quels les hypothèses de bases sont vérifiées. On pourra donc échanger les moyennes.
2.5. L’Ensemble micro-canonique
Pour commencer, nous allons continuer sur notre lancée et considérer un sys-
tème mécanique isolé, décrit par un hamiltonien H donné. Nous nous préoccupons
plus de la dynamique microscopique, cependant il faut déterminer sur quel volume
faire les moyennes.
Le système étant isolé, l’énergie E du système sera nécessairement conservée par
la dynamique. Il faut donc faire des moyennes d’espace sur l’hypersurface d’énergie
constante. Il est aussi possible que suivant les symétries présentes dans le systèmes
il faille conserver d’autres quantités, comme le moment cinétiques total ou la quan-
tité de mouvement totale. Dans le cas simple où seule la conservation de l’énergie
importe faire une moyenne sur l’hypersurface d’énergie constante revient à prendre
une densité de probabilité à l’équilibre sur l’espace des phase du type :
2.5. L’ENSEMBLE MICRO-CANONIQUE 14
(2.5.1) ρ (p, q) = δ (H (p, q) − E) .
Les variables macroscopiques étant calculées au moyen de l’équation (2.2.7).
Lorsque l’on considère un système isolé avec ce type de densité de probabilité,
on se réfère en fait à l’ensemble micro-canonique.
2.5.1. L’entropie. Lors de l’introduction de la notion d’agrainissement, nous
avons entrevu la notion de désordre croissant. Cette notion de désordre est intime-
ment liée à la notion d’entropie que vous avez déjà vu précédemment. Lorsque l’état
stationnaire (d’équilibre) est atteint, à priori tout l’espace des phase accessible est
occupé, une mesure du désordre pourrait donc être le volume de cet espace des
phases accessible :
Z
(2.5.2) Ω(E) = δ (H (p, q) − E) dΓ .
Γ
Cependant, l’espace des phases étant à 2N D dimensions, on peut s’attendre à
ce que le volume de l’hypersurface soit du type Ω(E) ∼ γ N −1 où γ serait un
volume élémentaire par constituant. Autrement dit, la dépendance de Ω(E) en N
est exponentielle. Ce type de raisonnement nous amène de façon simple à créer une
variable extensive mesurant le désordre en prenant le logarithme de Ω(E). C’est là
qu’intervient en quelque sorte le génie de Boltzmann qui l’écrit :
1
(2.5.3) S = −k log = k log Ω(E) ,
Ω(E)
en termes de probabilité et d’équiprobabilités des états occupant le volume Ω(E), et
qui remarque qu’à une constante près (inutile en thermodynamique traditionnelle),
cette quantité correspond à l’entropie.
La fonction d’état qui s’écrit
δQ
Z
S= ,
T
où T est la température en Kelvin et Q la quantité de chaleur, pour peu que k
(constante de Boltzmann) soit telle que R = k NA où R est la constante des gaz
parfaits et NA le nombre d’Avogadro.
Remarque 1. Pour en revenir aux limites N → ∞ on s’aperçoit que quelques
môles suffisent ou autrement dit NA ∼ ∞ (du moins pour les cas les plus simples).
Remarque 2. Dans l’ensemble microcanonique (parfois aussi noté
µ-canonique), la quantité à déterminer sera donc Ω(E), qui permet de calculer
l’entropie étant donné une énergie E. Une fois l’entropie obtenue les autres
variables seront typiquement directement déduite de l’entropie, comme par
exemple la température
1 ∂S
(2.5.4) = ...
T ∂E
2.5. L’ENSEMBLE MICRO-CANONIQUE 15
Remarque 3. Parfois l’énergie totale n’est pas suffisante pour déterminer un
état, dans l’équation ci-dessus il faut noter que l’on considère un nombre fixe de
consentements N (ce sera toujours le cas dans l’ensemble microcanonique de phy-
sique statistique avant la limite thermodynamique). On peut aussi parfois considérer
des situations où pour un N donné, le volume total V est fixe, la dérivée partielle
de l’Eq. (2.5.4) doit alors être comprise à volume constant (il est aussi entendu qu’il
est toujours pris à N constant). En gros dans cet ensemble les variables extensives
sont considérées constantes (système isolé).
Remarque 4. En toute logique il faudrait que le nombre dans le logarithme
soit sans dimension, il arrive donc que l’on définisse Ω(E) par Ω(E)/hN d , où h a
la dimension d’une action (p × q) et d est la dimension de l’espace dans lequel les
particules évoluent. Cela n’a en fait aucune conséquence vu que c’est une constante
et que log(a × b) = log(a) + log(b).
2.5.2. Application problème 1 1 : Le gaz parfait. On considère un gaz
parfait composé de N particules évoluant dans un volume V .
(1) Listez toutes les approximations/assomptions qui caractérisent un gaz par-
fait en déduire que le hamiltonien du système s’écrit
N
X p2i
(2.5.5) H(p, q) =
i=1
2m
(2) On considère une énergie totale E, calculer le « volume » d’espace des phase
accessible Ω(E, N, V ) et en déduire l’entropie. (Vous pouvez vous baser sur
le calcul du volume de l’hypersphère)
(3) Calculer la température du système. Se rappeler la définition de l’énergie
libre F en thermodynamique et la calculer. En utilisant soit l’entropie S
soit l’énergie libre F calculer la pression P du gaz. Retrouver alors la loi
des gaz parfaits.
2.5.3. Application problème 2 : Un système discret. On considère un
système de N particules avec 3 niveaux d’énergie (Chaque particules peut être dans
trois états différents) dont le Hamiltonien s’écrit
X
H = −h Si Si = −1, 0, 1 ,
i
où h est une constante positive (cela peut représenter les niveaux d’énergie de
particules de spins 1 dans un champ magnétique, mais le problème est résolu de
façon classique)
(1) Dans quels états peuvent être un spin, deux spins ... En déduire le nombre
total de configurations possibles. En déduire ce qu’est l’espace des phases
de notre système.
(2) On cherche a calculer la fraction n−1 /n1 de spins dans l’état S = −1 par
rapport à ceux dans l’état t S = 1 dans l’ensemble microcanonique en fonc-
tion de la température quand N → ∞. Rappeler la définition de l’entropie et
de la température dans cet ensemble. En supposant que ces derniers soient
connus, quelle est alors l’énergie libre F ?
2.5. L’ENSEMBLE MICRO-CANONIQUE 16
(3) On considère une énergie totale E fixée, écrire E comme une fonction des
nS (n−1 est le nombre de spins dans l’état S = −1, etc..).
(4) On considère un nombre total de spins N . Considérons un nombre fixe de
spins n0 dans l’état S = 0. Quelle est la valeur n0max de n0 pour une énergie
donnée E ? La valeur minimale n0min ? Combien y a t-il de possibilité de
réaliser un système avec n0 spins dans l’état S = 0 ?
(5) On fixe E, N et n0 spins à S = 0, montrer qu’alors n1 et n−1 sont fixés.
Combien y a-t-il de possibilités de choisir n1 spins restants dans l’état S = 1,
une fois que les S = 0 ont été choisis ? Reste-il encore des choix possible pour
les spins dans l’état S = −1 ? Déduire de cela une expression du nombre
d’états accessible au système Ω(N, E) comme une somme sur n0 de la forme
(ω(n0 , N, E) sera explicitée)
nX
0max
Ω(N, E) = ω(n0 , N, E) .
n0min
(6) Cette somme n’est pas aisée a calculer exactement. On va essayer d’en faire
une estimation. On définit x = n0 /N , y = n1 /N , z = n2 /N . Montrer
en utilisant une formule de Stirling approximative n! ∼ nn e−n que nous
obtenons N
1
ω(n0 , N, E) ≈ = f (x)N .
xx y y z z
Et qu’en conséquence
Z 1−ε
Ω(N, E) ≈ N f (x)N dx ,
0
où ε sera explicité.
(7) On suppose maintenant que f a √ un maximum à une valeur x̃ dans l’intervalle
]0, 1 − ε[. Dénotons x = x̃ + ξ/ N et faisons une expansion de f atour de
x̃. De façon préliminaire, montrer qu’on a
a
lim (1 + )n → ea .
n→∞ n
En déduire que
2
f (x)N ≈ f (x̃)N e−σξ ,
où σ est une constante qui sera explicitée.
En déduire que √
Ω(N, E) ≈ N f (x̃)N A ,
où A est une intégrale constante. Obtenir enfin une expression simple de
l’entropie S(E, N ) du système comme fonction de f (x̃).
(8) Pour finir, il ne nous rest plus qu’à calculer x̃. Il est plus facile de calculer
le maximum de log f . Écrire
1
f (x) = x
x y(x)y(x) z(x)z(x)
et trouver une équation pour x̃, montrer que cela implique que
1 yz
log 2 = 0 ,
2 x
2.5. L’ENSEMBLE MICRO-CANONIQUE 17
En déduire que
1 p
x̃ = 4 − 3ε2 − 1 ,
3
où ε = E/(N h).
(9) Montrer alors que la température satisfait à la relation
1 z(x̃)
β=− log( ).
2h y(x̃)
En déduire que
n−1
r2 = = e−βh .
n1
(10) Calculer x̃, y(x̃), z(x̃) comme une fonction de r. Calculer alors l’entropie,
l’énergie et la température en fonction de r et peut être de N .