0% ont trouvé ce document utile (0 vote)
564 vues196 pages

Physique Statistique et Gaz Parfaits

Ce document présente les concepts de base de la physique statistique et des gaz parfaits. Il aborde les principes de la thermodynamique statistique, les ensembles statistiques, les statistiques quantiques pour les photons, phonons et particules, et décrit les propriétés des gaz parfaits classiques et quantiques.

Transféré par

ilhem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
564 vues196 pages

Physique Statistique et Gaz Parfaits

Ce document présente les concepts de base de la physique statistique et des gaz parfaits. Il aborde les principes de la thermodynamique statistique, les ensembles statistiques, les statistiques quantiques pour les photons, phonons et particules, et décrit les propriétés des gaz parfaits classiques et quantiques.

Transféré par

ilhem
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Physique Statistique et Gaz Parfaits

Patrice Bacher

To cite this version:


Patrice Bacher. Physique Statistique et Gaz Parfaits. Engineering school. 2006. �cel-00092973�

HAL Id: cel-00092973


https://cel.archives-ouvertes.fr/cel-00092973
Submitted on 12 Sep 2006

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Physique Statistique et Gaz Parfaits

Patrice BACHER

LEMTA ESSTIN (dernière mise à jour : 12 décembre 2005)


Table des matières

1 La thermodynamique statistique 1
1.1 Thermodynamique des équilibres . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Postulats, principes et équations de base . . . . . . . . . . . . 1
1.1.2 Les potentiels thermodynamiques . . . . . . . . . . . . . . . . 5
1.1.3 Relations entre variables d’état . . . . . . . . . . . . . . . . . 10
1.2 Probabilités et statistiques . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Probabilités, moyennes, distributions . . . . . . . . . . . . . . 12
1.2.2 La distribution binomiale . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 La distribution multinomiale . . . . . . . . . . . . . . . . . . . 20
1.3 Théorie statistique de Gibbs . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.1 Du macroscopique au microscopique . . . . . . . . . . . . . . 21
1.3.2 Ensemble statistique, énoncé des postulats . . . . . . . . . . . 23
1.3.3 Probabilités et valeurs moyennes . . . . . . . . . . . . . . . . 24
1.3.4 Confrontation avec la thermodynamique . . . . . . . . . . . . 27
1.4 Les ensembles statistiques . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.1 Introduction et conventions d’écriture . . . . . . . . . . . . . . 31
1.4.2 L’ensemble grand canonique . . . . . . . . . . . . . . . . . . . 32
1.4.3 L’ensemble T-p . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.4.4 L’ensemble canonique . . . . . . . . . . . . . . . . . . . . . . . 35
1.4.5 L’ensemble microcanonique . . . . . . . . . . . . . . . . . . . 36
1.4.6 Les autres ensembles en variance 3 . . . . . . . . . . . . . . . 39
1.4.7 Synthèse des résultats . . . . . . . . . . . . . . . . . . . . . . 40
1.4.8 Ensembles en variance supérieure à 3 . . . . . . . . . . . . . . 41
1.5 Le deuxième principe et le troisième principe . . . . . . . . . . . . . . 43
1.5.1 Équivalence entre ensembles statistiques . . . . . . . . . . . . 43
1.5.2 Le deuxième principe . . . . . . . . . . . . . . . . . . . . . . . 45
1.5.3 Équivalence entre S maxi et E, F, G, H mini . . . . . . . . . . 46
1.5.4 Notion de fluctuations aléatoires . . . . . . . . . . . . . . . . . 47
1.5.5 Le problème ergodique . . . . . . . . . . . . . . . . . . . . . . 49
1.5.6 Le troisième principe . . . . . . . . . . . . . . . . . . . . . . . 52

2 Statistiques quantiques 53
2.1 Les statistiques de réseaux . . . . . . . . . . . . . . . . . . . . . . . . 53
2.1.1 Réseaux de sites tous identiques . . . . . . . . . . . . . . . . . 53
2.1.2 Réseaux à différents types de sites . . . . . . . . . . . . . . . . 55
2.1.3 Recherche de la fonction adaptée au problème . . . . . . . . . 56

i
ii TABLE DES MATIÈRES

2.1.4 Emploi d’autres fonctions de partition . . . . . . . . . . . . . 57


2.2 Particules identiques et indépendantes . . . . . . . . . . . . . . . . . 59
2.2.1 Si les particules quantiques étaient discernables . . . . . . . . . 59
2.2.2 . . . mais les particules quantiques sont indiscernables . . . . . 62
2.3 Systèmes de particules indiscernables . . . . . . . . . . . . . . . . . . 66
2.3.1 Limite des hautes températures . . . . . . . . . . . . . . . . . 66
2.3.2 Fonction de distribution à température quelconque . . . . . . 67
2.3.3 Distributions de Fermi-Dirac et de Bose-Einstein . . . . . . . 69
2.4 Le corps noir et le gaz de photons . . . . . . . . . . . . . . . . . . . . 70
2.4.1 Théorie électromagnétique . . . . . . . . . . . . . . . . . . . . 70
2.4.2 Les photons . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.4.3 Distribution de Planck, loi de Planck . . . . . . . . . . . . . . 72
2.4.4 Thermodynamique du rayonnement thermique . . . . . . . . . 75
2.5 L’oscillateur harmonique et le gaz de phonons . . . . . . . . . . . . . 77
2.5.1 L’oscillateur harmonique linéaire quantique . . . . . . . . . . . 77
2.5.2 Vibrations de réseau : modèle d’Einstein . . . . . . . . . . . . 79
2.5.3 Vibrations de réseau : modèle de Debye . . . . . . . . . . . . . 81

3 Gaz parfait de masses ponctuelles 91


3.1 Quelques ordres de grandeur . . . . . . . . . . . . . . . . . . . . . . . 91
3.1.1 Les grandeurs énergétiques . . . . . . . . . . . . . . . . . . . . 91
3.1.2 Densités et pressions . . . . . . . . . . . . . . . . . . . . . . . 92
3.2 Particule libre dans une boîte cubique . . . . . . . . . . . . . . . . . . 93
3.2.1 Résultats de la mécanique quantique . . . . . . . . . . . . . . 93
3.2.2 L’approximation du continuum et la densité d’états . . . . . . 93
3.2.3 Fonctions thermodynamiques . . . . . . . . . . . . . . . . . . 95
3.3 Gaz parfait classique de masses ponctuelles . . . . . . . . . . . . . . . 95
3.3.1 Limite hautes températures de la théorie quantique . . . . . . 95
3.3.2 Fonction de partition canonique, paradoxe de Gibbs . . . . . . 97
3.4 Éléments de théorie cinétique des gaz parfaits . . . . . . . . . . . . . 99
3.4.1 Distribution de Maxwell-Boltzmann (des énergies) . . . . . . . 99
3.4.2 Distribution de Maxwell (des vitesses) . . . . . . . . . . . . . 100
3.4.3 Calcul de la pression cinétique . . . . . . . . . . . . . . . . . . 102
3.5 Le mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.5.1 Historique et hypothèses . . . . . . . . . . . . . . . . . . . . . 103
3.5.2 Diffusion sur un réseau unidimensionnel . . . . . . . . . . . . 105
3.5.3 Diffusion sur un réseau tridimensionnel . . . . . . . . . . . . . 108
3.5.4 Mouvement de particules dans un fluide . . . . . . . . . . . . 113
3.6 Éléments de mécanique statistique classique . . . . . . . . . . . . . . 116
3.6.1 Systèmes à une particule . . . . . . . . . . . . . . . . . . . . . 116
3.6.2 Systèmes à N particules . . . . . . . . . . . . . . . . . . . . . 119
3.6.3 Distributions de Maxwell et de Maxwell-Boltzmann . . . . . . 121

4 Gaz parfait d’atomes ou molécules 123


4.1 Les gaz parfaits classiques d’atomes . . . . . . . . . . . . . . . . . . . 123
4.1.1 Degrés de liberté électroniques et nucléaires . . . . . . . . . . 123
4.1.2 Conséquences sur les propriétés thermodynamiques . . . . . . 124
TABLE DES MATIÈRES iii

4.1.3 Gaz adsorbé sur une surface . . . . . . . . . . . . . . . . . . . 125


4.2 Les degrés de liberté d’une molécule . . . . . . . . . . . . . . . . . . . 129
4.2.1 Indépendance des degrés de liberté de translation . . . . . . . 129
4.2.2 Séparation des variables par approximations . . . . . . . . . . 130
4.3 Les gaz parfaits de molécules diatomiques . . . . . . . . . . . . . . . 132
4.3.1 Réduction du problème à deux corps . . . . . . . . . . . . . . 132
4.3.2 Mouvements de vibration . . . . . . . . . . . . . . . . . . . . 133
4.3.3 Mouvements de rotation . . . . . . . . . . . . . . . . . . . . . 135
4.3.4 Propriétés thermodynamiques . . . . . . . . . . . . . . . . . . 136
4.3.5 Molécules homonucléaires : effets quantiques . . . . . . . . . . 137
4.4 Les gaz parfaits de molécules polyatomiques . . . . . . . . . . . . . . 140
4.4.1 Identification des degrés de liberté . . . . . . . . . . . . . . . . 140
4.4.2 Degrés de liberté de rotation . . . . . . . . . . . . . . . . . . . 141
4.4.3 Degrés de liberté de vibration . . . . . . . . . . . . . . . . . . 141
4.4.4 Propriétés thermodynamiques . . . . . . . . . . . . . . . . . . 142
4.5 Équilibres chimiques entre gaz parfaits . . . . . . . . . . . . . . . . . 143
4.5.1 Thermodynamique des équilibres chimiques . . . . . . . . . . 143
4.5.2 Statistique des équilibres chimiques entre gaz parfaits . . . . . 145
4.5.3 Exemples d’équilibres chimiques . . . . . . . . . . . . . . . . . 146
4.6 Réaction chimique dans un gaz parfait . . . . . . . . . . . . . . . . . 149
4.6.1 Taux d’avancement d’une réaction chimique . . . . . . . . . . 149
4.6.2 Surfaces équipotentielles . . . . . . . . . . . . . . . . . . . . . 151
4.6.3 Théorie d’Eyring . . . . . . . . . . . . . . . . . . . . . . . . . 152
4.6.4 Application à la diffusion de surface . . . . . . . . . . . . . . . 156
4.7 Gaz parfait diélectrique sous champ électrique . . . . . . . . . . . . . 157
4.7.1 Conditions d’équilibre sous champ de force extérieur . . . . . 157
4.7.2 Thermodynamique des milieux diélectriques . . . . . . . . . . 159
4.7.3 Molécules dipolaires dans un champ électrique . . . . . . . . . 161

5 Les gaz parfaits quantiques 165


5.1 Les différents cas pratiques . . . . . . . . . . . . . . . . . . . . . . . . 165
5.2 L’hélium à haute température . . . . . . . . . . . . . . . . . . . . . . 166
5.2.1 Calcul du potentiel chimique . . . . . . . . . . . . . . . . . . . 166
5.2.2 Les autres grandeurs thermodynamiques . . . . . . . . . . . . 167
5.3 L’hélium 3 à basse température et l’électron . . . . . . . . . . . . . . 169
5.3.1 L’état fondamental . . . . . . . . . . . . . . . . . . . . . . . . 169
5.3.2 Le calcul de Sommerfeld . . . . . . . . . . . . . . . . . . . . . 169
5.3.3 Conditions de validité . . . . . . . . . . . . . . . . . . . . . . 172
5.3.4 L’effet Pomerantchuk . . . . . . . . . . . . . . . . . . . . . . . 173
5.3.5 Le réfrigérateur à dilution d’hélium 3 dans l’hélium 4 . . . . . 176
5.4 L’hélium 4 à basse température . . . . . . . . . . . . . . . . . . . . . 177
5.4.1 Température de Bose, volume atomique de Bose . . . . . . . . 177
5.4.2 Températures légèrement supérieures à TB . . . . . . . . . . . 178
5.4.3 Températures inférieures à TB . . . . . . . . . . . . . . . . . . 179
5.4.4 La courbe CV (T ) et les diagrammes p -v et p -T . . . . . . . . 182
5.4.5 L’hélium 4 et la superfluidité . . . . . . . . . . . . . . . . . . 184
iv TABLE DES MATIÈRES
Chapitre 1

La thermodynamique statistique

1.1 Thermodynamique des équilibres


1.1.1 Postulats, principes et équations de base
La thermodynamique est la science des bilans énergétiques (premier principe)
et de la prévision des évolutions des systèmes lors de la modification de leurs para-
mètres externes ou internes (deuxième principe). Elle présente un caractère universel
et s’applique à tous les domaines de la physico-chimie.
Ce résumé concerne les états d’équilibre. Les flux envisagés sont des flux virtuels,
infinitésimaux autour de l’état d’équilibre. On les envisage par la pensée dans le seul
but d’étudier la stabilité de cet équilibre. Aucun transport n’est envisagé.
Le système étudié est vu à l’échelle macroscopique. Le deuxième principe ne rend
pas compte des fluctuations locales ou temporelles à l’échelle des particules. On ne
peut pas l’appliquer à un système où le nombre de particules est trop faible pour lui
appliquer un traitement statistique.
Un système thermodynamique est une partie purement arbitraire de l’uni-
vers, isolée par la pensée du milieu extérieur. Son contour peut être physique (pa-
rois d’un récipient), ou tout à fait immatériel (élément de volume isolé par la pensée
du reste du récipient), ou même impossible à matérialiser (ensemble de molécules
de même nature disséminées dans un mélange).
Postulat des états d’équilibre. On admet qu’il existe un état d’équilibre ma-
croscopique, indépendant de la préparation du système, et défini par la connaissance
d’un nombre v, appelé variance, de données macroscopiques. Ce sont les variables
d’état du système. On peut toujours trouver v variables d’état extensives, c’est-à-
dire additives et à valeurs positives. Une grandeur est additive si sa valeur dans le
système Σ ∪ Σ est égale à la somme de ses valeurs dans les systèmes Σ et Σ , à
condition que Σ et Σ soient disjoints et initialement en équilibre mutuel.
Échanges avec le milieu extérieur. Les variables extensives peuvent traverser
le contour du système dans un sens ou dans l’autre. C’est ce qu’on appelle un
échange. Tout flux est compté positivement du milieu extérieur vers le système, et
négativement dans l’autre sens. Pour l’étude d’un équilibre, on n’envisage que des
échanges virtuels, compatibles avec la nature du contour. C’est uniquement par la
pensée, dans le seul but d’étudier la stabilité de l’équilibre.
2 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

Échanges internes, contraintes internes. On peut envisager la circulation


des grandeurs extensives entre deux parties Σ et Σ d’un système Σ. Si une ”cloison”
s’oppose à cette circulation, on dit qu’il y a contrainte interne. L’équilibre observé
est alors un équilibre sous contraintes internes. Ce n’est pas réellement l’équilibre
puisque la suppression de la cloison, ou inhibition de la contrainte, déplacera l’équi-
libre. L’équilibre proprement dit correspond à l’inhibition de toutes les contraintes
internes. Lorsqu’on étudie un équilibre sous contraintes, les flux envisagés sont vir-
tuels et compatibles avec les cloisons ou le contour.
Un équilibre (sous contraintes internes ou non) est un état où toutes les va-
riables extensives sont constantes et où tous les flux internes ou externes sont nuls.
L’énergie. On ne peut avoir qu’une compréhension intuitive de la variable Éner-
gie : son existence est un axiome. C’est une grandeur extensive, c’est-à-dire additive
et toujours positive. Elle n’est connue qu’à une constante près, d’où la nécessité de
choisir à notre convenance une énergie de point zéro.
Le premier principe postule que l’énergie se conserve globalement passant
d’une forme à une autre sans jamais se créer ni disparaître. Si le système gagne de
l’énergie, le milieu extérieur en perd : il y a flux d’énergie à travers le contour.
L’énergie interne est par définition l’énergie totale du système. On la note en
général E ou U. Dans ce document nous utiliserons la lettre E comme en mécanique.
L’entropie. Comme pour l’énergie, l’existence de la variable Entropie S est un
axiome. C’est une grandeur extensive définie exclusivement sur les états d’équilibre,
indéterminée lors de l’évolution du système.
Le deuxième principe postule que :
– S est additive, fonction positive et sans singularités des variables extensives ;
– S est une fonction croissante de E ;
– S est maximale vis-à-vis des échanges internes, virtuels, infinité-
simaux, compatibles avec les cloisons, de toutes les variables ex-
tensives y compris E ; autrement dit, dans un système isolé, la suppression
d’une contrainte interne entraîne un déplacement spontané de l’équilibre, obli-
gatoirement accompagné d’un accroissement d’entropie.
Le troisième principe, appelé aussi principe de Nernst, fixe l’origine de l’échelle
entropique et permet d’établir le lien avec la thermodynamique statistique :
∂E
S −→ 0 quand ∂S
−→ 0

Les grandeurs extensives de base pour exprimer l’entropie sont :


– l’énergie interne E ;
– le volume V ;
– le nombre ni de moles ou Ni de molécules de chacun des p constituants ;
– éventuellement d’autres grandeurs additives Xj (j = 1 à q), à condition que
leur contribution à l’énergie interne soit déterminée sans ambiguïté par la
donnée de l’ensemble des variables.
Terminologie. Un système est dit :
– isolé lorsque son contour est imperméable à toutes les variables extensives ;
– fermé (ouvert) si son contour est étanche (perméable) à la matière ;
– adiabatique (diathermique) si son contour est étanche (perméable) à la chaleur ;
– isochore (expansible) si l’on interdit (permet) les variations de volume.
1.1 Thermodynamique des équilibres 3

Équation fondamentale. L’état thermodynamique du système est défini par v


variables extensives indépendantes. Avec l’entropie, on en a maintenant v + 1. Elles
sont donc liées par une relation appelée équation fondamentale du système[1] :

S = S(E, V, X, N1 , N2 ) ou E = E(S, V, X, N1 , N2 )

L’équation fondamentale contient toutes les informations nécessaires à la des-


cription thermodynamique du système. Toutes les grandeurs qui y figurent sont ad-
ditives. Elles varient toutes proportionnellement à la ”quantité” de système. C’est
ce qui caractérise une forme homogène de degré 1 [2] :

S(λE, λV, λX, λN1 , λN2 ) = λ S(E, V, X, N1 , N2 )


E(λS, λV, λX, λN1 , λN2 ) = λ E(S, V, X, N1 , N2 )

Variables intensives : S et E étant des formes homogènes de degré 1, leurs


dérivées partielles sont des formes homogènes de degré 0, c’est-à-dire indépendantes
de la ”quantité” de système et, à l’équilibre, homogènes dans tout le système. On les
appelle variables intensives du système :

∂S ∂S ∂S ∂S ∂S
dS = dE + dV + dX + dN1 + dN2
∂E ∂V ∂X ∂N1 ∂N2

∂E ∂E ∂E ∂E ∂E
dE = dS + dV + dX + dN1 + dN2
∂S ∂V ∂X ∂N1 ∂N2

∂S ∂S
avec par exemple : (λE, λV, λX, λN1 , λN2 ) = (E, V, X, N1 , N2 )
∂E ∂E
Les dérivées de S sont les variables intensives entropiques, celles de E sont les
variables intensives énergétiques. Ces dernières portent un nom :
– la température T est la variable intensive énergétique associée à S ;
– la pression p est au signe près la variable intensive énergétique associée à V ;
– le potentiel chimique μi du constituant i est la variable intensive énergétique
associée à Ni [3] ;
– la variable intensive énergétique associée à X sera notée P .
 
∂E ∂E
Autrement dit : T = p=−
∂S V,X,N1 ,N2 ∂V S,X,N1,N2
  
∂E ∂E ∂E
P = μ1 = μ2 =
∂X S,V,N1 ,N2 ∂N1 S,V,X,N2 ∂N2 S,V,X,N1

L’équation de Gibbs est l’écriture de dE utilisant ces définitions :

dE = T dS − p dV + P dX + μ1 dN1 + μ2 dN2 (1.1)


1
pour alléger les écritures, on travaillera avec p = 2 (systèmes biconstituants) et q = 1 (une
seule variable extensive supplémentaire X). Si q = 0, on ignorera les termes contenant P et X.
2
une forme homogène de degré n est telle que f (λx, λy, λz, . . .) = λn f (x, y, z, . . .)
3
en thermodynamique statistique, il est préférable de travailler avec les nombres de molécules.
4 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

La variation d’énergie interne peut être un apport de chaleur (T dS) ou de travail


(−p dV + P dX), ou une modification de l’équilibre chimique (μ1 dN1 + μ2 dN2 ).
Forces motrices et flux. La variable intensive énergétique Pi associée à une
variable extensive Xi est une force motrice pour le flux virtuel δXi . Ainsi, un écart de
température de part et d’autre d’une paroi adiabatique provoque un flux d’entropie
(ou de chaleur), un écart de pression de part et d’autre d’une paroi mobile provoque
le déplacement de celle-ci, un écart de potentiel chimique de part et d’autre d’une
paroi perméable provoque un flux de matière, etc.
À l’équilibre, on peut montrer que le flux virtuel de Xi (à travers une paroi ou
le contour), s’il est seul à être envisagé, se fait dans le sens où sa variable associée
Pi décroît. En particulier, le flux de chaleur se fait dans le sens des températures
décroissantes, le flux de volume dans le sens des pressions croissantes, et le flux de
matière dans le sens des potentiels chimiques décroissants.
Théorème de l’énergie interne minimale. L’équation de Gibbs s’écrit aussi :
1 p P μ1 μ2
dS = dE + dV − dX − dN1 − dN2 (1.2)
T T T T T
Les variables intensives entropiques associées à E, V , X, N1 et N2 sont donc
1/T , p/T , −P/T , −μ1 /T et −μ2 /T . Le fait que la variable intensive entropique
1/T associée à E soit l’inverse de la variable intensive énergétique T associée à S
permet de remplacer le postulat de l’entropie maximale par le théorème de l’éner-
gie interne minimale : à l’équilibre, l’énergie interne est minimale vis-à-
vis des échanges internes, virtuels, infinitésimaux, compatibles avec les
contraintes internes, de toutes les variables extensives, y compris S :
   
Deuxième principe : dS = 0 et d2 S < 0 ou dE = 0 et d2 E > 0
Autrement dit, dans un système isolé, la suppression d’une contrainte interne en-
traîne un déplacement spontané de l’équilibre, avec diminution obligatoire de l’éner-
gie interne.
Théorème de Gibbs-Duhem. Comme E(S, V, X, N1 , N2 ) est une forme ho-
mogène de degré 1, on peut lui appliquer l’équation d’Euler :
∂E ∂E ∂E ∂E ∂E
E≡S +V +X + N1 + N2 ≡ T S − pV + P X + μ1 N1 + μ2 N2
∂S ∂V ∂X ∂N1 ∂N2
Cette équation se différencie comme suit :
dE = T dS − pdV + P dX + μ1 dN1 + μ2 dN2 + SdT − V dp + XdP + N1 dμ1 + N2 dμ2
On en déduit, en utilisant l’équation de Gibbs, le théorème de Gibbs-Duhem :
−S dT + V dp − X dP − N1 dμ1 − N2 dμ2 = 0 (1.3)
Équations d’état. On a maintenant 2v + 1 variables, dont v sont indépen-
dantes. On peut choisir ces dernières arbitrairement et exprimer les v + 1 autres
par v + 1 équations appelées équations d’état. La connaissance de v + 1 équations
d’état indépendantes décrit entièrement le système. Elle remplace sans équivoque la
donnée de l’équation fondamentale. La plus connue est l’équation des gaz parfaits
monoconstituants pV = nRT ou pV = NkT .
1.1 Thermodynamique des équilibres 5

1.1.2 Les potentiels thermodynamiques


Soit f : x → f (x) une fonction continue et dérivable en tout point. Son graphe
peut être considéré comme l’enveloppe de ses tangentes :
df
f (x) = p(x) x + y0 (x) avec p(x) =
dx
La pente p est fonction de x. Si cette fonction p = p(x) est inversible, c’est-à-dire
si on peut l’écrire sous la forme x = x(p), c’est-à-dire encore si la courbe y = f (x) est
concave ou convexe (pas de point d’inflexion), on peut exprimer y0 (c’est l’ordonnée
à l’origine de la tangente en x) en fonction de p.

La transformée de Legendre de f est la fonction g qui à p associe −y0 (p) :


df
g : p → g(p) = p x − f (x) avec p = (x et f (x) exprimés en fonction de p)
dx
Deux propriétés importantes :
– La transformée de Legendre d’une fonction convexe est une fonction convexe ;
– La transformée de Legendre est involutive : si on transforme g, on retrouve f :
dg
f : x → f (x) = x p − g(p) avec x = (p et g(p) exprimés en fonction de x)
dp
Attention : la transformée de Legendre n’est pas une transformation linéaire :

TdL(f1 + f2 ) = TdL(f1 ) + TdL(f2 ) TdL(λf ) = λ TdL(f )

Si f n’est ni concave ni convexe (s’il y a des points d’inflexion), on définit une


transformée de Legendre de f sur chacun des intervalles où f est concave ou convexe.
Moyennant quoi, les seules fonctions ne possédant pas de transformée de Legendre
sont les fonctions linéaires x → ax + b.

Pour une fonction à plusieurs variables, la transformée de Legendre peut


s’appliquer à un nombre quelconque de variables. Par exemple la transformée de
Legendre de f (x1 , x2 , x3 , x4 ) pour x1 et x2 est :
∂f ∂f
g12 (p1 , p2 , x3 , x4 ) = p1 x1 + p2 x2 − f (x1 , x2 , x3 , x4 ) avec p1 = et p2 =
∂x1 ∂x2
∂g ∂f ∂g ∂f
Pour les variables non transformées, on a : =− et =− .
∂x3 ∂x3 ∂x4 ∂x4
Attention aux changements de signes lors de la composition de deux transformées
de Legendre. Soit par exemple une fonction f (x1 , x2 ), et soient T1 , T2 et T12 les
transformations donnant respectivement g1 (p1 , x2 ), g2 (x1 , p2 ) et g12 (p1 , p2 ). On a :
   
T12 (f ) = T1 − T2 (f ) = T2 − T1 (f ) (1.4)
6 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

Les potentiels thermodynamiques sont au signe près les transformées de Le-


gendre de E : avec la fonction de départ, il y en a 2v . La transformation de Legendre
étant involutive, n’importe quel potentiel thermodynamique contient autant d’in-
formations que l’équation fondamentale E = E(S, V, N). Les écritures qui suivent
concernent les systèmes monoconstituants et ne faisant pas intervenir de variable
X. F est l’énergie libre, H l’enthalpie, Ψ le grand potentiel, G l’enthalpie libre, et Θ
le potentiel nul.

Équations initiales :

E(S, V, N) ≡ T S − pV + μN dE = T dS − p dV + μ dN
   (1.5)
∂E ∂E ∂E
T = p=− μ=
∂S V,N ∂V S,N ∂N S,V

(−F ) est la transformée de Legendre de E pour la variable S :

F (T, V, N) = E − T S dF = −S dT − p dV + μ dN
   (1.6)
∂F ∂F ∂F
S=− p=− μ=
∂T V,N ∂V T,N ∂N T,V

(−H) est la transformée de Legendre de E pour la variable V :

H(S, p, N) = E + pV dH = T dS + V dp + μ dN
   (1.7)
∂H ∂H ∂H
T = V = μ=
∂S p,N ∂p S,N ∂N S,p

On appellera (−Φ) la transformée de Legendre de E pour la variable N :

Φ(S, V, μ) = E − μN dΦ = T dS − p dV − N dμ
   (1.8)
∂Φ ∂Φ ∂Φ
T = p=− N =−
∂S V,μ ∂V S,μ ∂μ S,V

(−Ψ) est la transformée de Legendre de E pour les variables S et N :

Ψ(T, V, μ) = E − T S − μN dΨ = −S dT − p dV − N dμ
   (1.9)
∂Ψ ∂Ψ ∂Ψ
S=− p=− N =−
∂T V,μ ∂V T,μ ∂μ T,V

(−G) est la transformée de Legendre de E pour les variables S et V :

G(T, p, N) = E − T S + pV dG = −S dT + V dp + μ dN
   (1.10)
∂G ∂G ∂G
S=− V = μ=
∂T p,N ∂p T,N ∂N T,p
1.1 Thermodynamique des équilibres 7

On appellera (−Φ ) la transformée de Legendre de E pour les variables V et N :

Φ (S, p, μ) = E + pV − μN dΦ = T dS + V dp − N dμ
   (1.11)
∂Φ ∂Φ ∂Φ
T = V = N =−
∂S p,μ ∂p S,μ ∂μ S,p

(−Θ) est la transformée de Legendre de E pour toutes les variables :[4]

Θ(M, T, p, μ) = E − T S + pV − μN dΘ = −S dT + V dp − N dμ
   (1.12)
∂Θ ∂Θ ∂Θ
S=− V = N =−
∂T p,μ ∂p T,μ ∂μ T,p

Attention au potentiel nul Θ : il est nul à l’équilibre (équation d’Euler), sa


différentielle également (théorème de Gibbs-Duhem), mais c’est une fonction de
(T, p, μ) non identiquement nulle au voisinage de l’équilibre.
Les transformées de Legendre de l’entropie sont très importantes en phy-
sique statistique. Comme précédemment, les écritures qui suivent concernent les sys-
tèmes monoconstituants et ne faisant pas intervenir de variable X. On exprimera les
transformées de Legendre de S/k (k = constante de Boltzmann  1, 38 10−23 J/K),
en utilisant les notations suivantes :
1 p μ
β= ξ= γ=−
kT kT kT
Avec ces notations, l’équation d’Euler s’écrit :

S/k(E, V, N) = βE + ξV + γN dS/k = β dE + ξ dV + γ dN
   (1.13)
∂S/k ∂S/k ∂S/k
β= ξ= γ=
∂E V,N ∂V E,N ∂N E,V

(+βF ) est la Transformée de Legendre de S/k pour la variable E :

βF (β, V, N) = βE − S/k dβF = E dβ − ξ dV − γ dN


   (1.14)
∂βF ∂βF ∂βF
E= ξ=− γ=−
∂β V,N ∂V β,N ∂N β,V

(−βΦ) est la Transformée de Legendre de S/k pour la variable V :

βΦ(E, ξ, N) = S/k − ξV dβΦ = β dE − V dξ + γ dN


   (1.15)
∂βΦ ∂βΦ ∂βΦ
β= V =− γ=
∂E ξ,N ∂ξ E,N ∂N E,ξ

4
La seule connaissance des variables intensives ne donne aucune information sur la taille du
système ; le potentiel nul doit donc pour être utilisable dépendre d’un certain facteur d’échelle M
(exemple : statistiques de réseaux, paragraphe 2.1) ; nous en reparlerons au paragraphe 1.3.4.
8 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

(−βH) est la Transformée de Legendre de S/k pour la variable N :

βH(E, V, γ) = S/k − γN dβH = β dE + ξ dV − N dγ


   (1.16)
∂βH ∂βH ∂βH
β= ξ= N =−
∂E V,γ ∂V E,γ ∂γ E,V

(+βΨ) est la Transformée de Legendre de S/k pour les variables E et N :

βΨ(β, V, γ) = βE + γN − S/k dβΨ = E dβ − ξ dV + N dγ


   (1.17)
∂βΨ ∂βΨ ∂βΨ
E= ξ=− N=
∂β V,γ ∂V β,γ ∂γ β,V

(+βG) est la Transformée de Legendre de S/k pour les variables E et V :

βG(β, ξ, N) = βE + ξV − S/k dβG = E dβ + V dξ − γ dN


   (1.18)
∂βG ∂βG ∂βG
E= V = γ=−
∂β ξ,N ∂ξ β,N ∂N β,ξ

(−βE) est la Transformée de Legendre de S/k pour les variables V et N :

βE(E, ξ, γ) = S/k − ξV − γN dβE = β dE − V dξ − N dγ


   (1.19)
∂βE ∂βE ∂βE
β= V =− N =−
∂E ξ,γ ∂ξ E,γ ∂γ E,ξ

(+βΘ) est la Transformée de Legendre de S/k pour toutes les variables :[5]

βΘ(M, β, ξ, γ) = βE + ξV + γN − S/k dβΘ = E dβ + V dξ + N dγ


   (1.20)
∂βΘ ∂βΘ ∂βΘ
E= V = N=
∂β ξ,γ ∂ξ β,γ ∂γ β,ξ

On notera la présence d’un signe (−) lorsque la variable E n’est pas transformée
(−βΦ, −βH, −βE), et un signe (+) lorsque la variable E est transformée (+βF ,
+βΨ, +βG, +βΘ).

F = E − T S n’est pas une simple opération arithmétique. Elle sous-entend


un changement de variable S → T . On passe d’une différentielle totale exacte dE
à une autre différentielle totale exacte dF . Si on écrit F uniquement en fonction
de ses variables naturelles (T, V, N), les autres variables (S, p, μ) sont accessibles
par simple calcul de dérivées partielles. Ce sont ces équations d’état S(T, V, N),
p(T, V, N), μ(T, V, N) qui sont exploitables expérimentalement. En clair, tout po-
tentiel thermodynamique, exprimé en fonction de ses variables naturelles contient
5
Voir note page 7
1.1 Thermodynamique des équilibres 9

autant d’information que l’équation fondamentale E = E(S, V, N). Toute trans-


formée de Legendre de l’entropie, exprimée en fonction de ses variables naturelles
contient autant d’information que l’équation fondamentale S = S(E, V, N). Mathé-
matiquement, la raison en est que la transformation de Legendre est involutive : la
transformée de Legendre inverse redonne sans ambiguïté la fonction de départ.

L’intérêt des potentiels thermodynamiques est de pouvoir exprimer de fa-


çon simple le deuxième principe dans des conditions particulières. On a vu qu’on
pouvait, pour tout système isolé, remplacer le principe de l’entropie maximale par
le théorème de l’énergie interne minimale. Lorsqu’il y a échange avec l’extérieur,
l’utilisation de ce théorème est délicate car il ne peut s’appliquer qu’à l’univers en-
tier. C’est donc l’énergie totale qu’il faut connaître, c’est-à-dire l’énergie interne du
système, mais aussi celle du reste de l’univers. Les théorèmes qui suivent utilisent
des grandeurs calculables sur le système. Ils concernent les systèmes sans contraintes
internes où les seules variables extensives sont S, E, V , N. Ils se démontrent très
facilement à partir du deuxième principe et des définitions des potentiels thermody-
namiques.
Théorèmes du potentiel thermodynamique minimal :
– Un système adiabatique, isochore, fermé est à l’équilibre lorsque son énergie
interne E est minimale.
– Un système isotherme, isochore, fermé est à l’équilibre lorsque son énergie
libre F est minimale.
– Un système adiabatique, isobare, fermé est à l’équilibre lorsque son enthalpie
H est minimale.
– Un système adiabatique, isochore, ouvert [6] est à l’équilibre lorsque son po-
tentiel Φ est minimal.
– Un système isotherme, isochore, ouvert est à l’équilibre lorsque son grand
potentiel Ψ est minimal.
– Un système isotherme, isobare, fermé est à l’équilibre lorsque son enthalpie
libre G est minimale.
– Un système adiabatique, isobare, ouvert est à l’équilibre lorsque son poten-
tiel Φ est minimal.
– Un système isotherme, isobare, ouvert est à l’équilibre lorsque son potentiel
nul Θ est nul.
À noter que l’utilisation d’un potentiel thermodynamique n’est pas restreinte aux
conditions particulières pour lesquelles le second principe s’écrit de façon simple.
Tous les potentiels sont équivalents thermodynamiquement. On peut utili-
ser n’importe quel potentiel thermodynamique indépendamment de l’environnement
du système. Le choix des variables indépendantes est arbitraire, non imposé par l’en-
vironnement du système. La raison en est qu’un système, même non isolé, possède
à l’équilibre une énergie interne constante, qu’un système, même ouvert, possède à
l’équilibre une composition constante, etc.

6
par ”ouvert” on entend ”en contact avec un réservoir de particules qui fixe le potentiel chimi-
que” ; malheureusement, il n’existe pas de terme signifiant ”iso-potentiel chimique”.
10 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

1.1.3 Relations entre variables d’état


Soit le changement de variables x = x(u, v, w), y = y(u, v, w), z = z(u, v, w).
 ∂x ∂x ∂x 
 
 ∂u ∂v ∂w 
 
∂(x, y, z)  ∂y ∂y ∂y 
Son jacobien est noté : J = = 
∂(u, v, w)  ∂u ∂v ∂w 
 
 ∂z ∂z ∂z 
∂u ∂v ∂w
Propriétés :
1. Simplification (de deux variables identiques en haut et en bas, à la même
place) :
 
∂x ∂(x, v, w) ∂(x, v, z) ∂(x, z)
= = etc.
∂u v,w ∂(u, v, w) ∂(u, v, w) ∂(u, w) v

2. permutation de deux variables adjacentes (en haut ou en bas) :


∂(x, z, y) ∂(x, y, z) ∂(x, y, z) ∂(x, y, z)
=− =− etc.
∂(u, v, w) ∂(u, v, w) ∂(w, v, u) ∂(u, v, w)
3. double changement de variables :
∂(x, y, z) ∂(u, v, w) ∂(x, y, z)
× =
∂(u, v, w) ∂(r, s, t) ∂(r, s, t)
4. inversion (ci-dessus avec r, s, t = x, y, z) :
∂(x, z, y) 1
= ∂(u,v,w)
∂(u, v, w)
∂(x,y,z)

Les relations de Maxwell (-Cauchy) expriment le fait que le résultat du


calcul d’une dérivée seconde d’une fonction d’état est indépendant de l’ordre dans
lequel s’effectuent les dérivations. Par exemple :
       
∂ ∂F ∂ ∂F ∂p ∂S
= ⇒ =
∂T ∂V T,N ∂V ∂T V,N ∂T V,N ∂V T,N
V,N T,N

On peut écrire de telles relations pour chacun des potentiels thermodynamiques


et pour chaque couple de variables.
Les carrés mnémoniques de Born permettent de retrouver rapidement ces
relations. Chaque carré est construit comme suit. On place deux variables extensives
et les deux variables intensives associées sur un carré, de sorte que les variables
associées soient diagonalement opposées. Chaque flèche relie les variables associées
dans le sens extensive → intensive. Chaque carré permet d’établir quatre relations :
– à N ou μ constant :
⎧    
−p `B ⎪

∂S ∂V ∂V ∂T
BB ||>
T ⎨ + =− − =−
B|B| ∂p T ∂T  p ∂S  p ∂p S
|| BBB ⇒
|| ⎪
⎪ ∂T ∂p ∂p ∂S
S V ⎩ + =− − =−
∂V S ∂S V ∂T V ∂V T
1.1 Thermodynamique des équilibres 11

– à S ou T constant :
⎧    
μ `B −p ⎪ ∂V ∂N ∂N ∂p
BB || > ⎪
⎨ − ∂μ = + ∂p − =−
BB|| p μ ∂V  μ ∂μ V
|| BBB ⇒
|| ⎪
⎪ ∂p ∂μ ∂μ ∂V
V N ⎩ − =+ − =−
∂N V ∂V N ∂p N ∂N p

– à V ou p constant :
⎧    
⎪ ∂N ∂S ∂S ∂μ
T _@ ~? μ ⎪
⎨ − ∂T =− − =+
@@ ~ ∂μ T ∂N  T ∂T N
@~@~ ⇒ μ
~~ @
~~ @ ⎪
⎪ ∂μ ∂T ∂T ∂N
N S ⎩ + =+ + =−
∂S N ∂N S ∂μ S ∂S μ

Pour la deuxième relation (en haut à droite) du troisième carré par exemple (on
le notera [N, S, μ, T ]V ou [N, S, μ, T ]p), on effectue deux rotations : l’une autour du
triangle S − N − T , l’autre autour du triangle μ − T − N. On met un signe (−)
lorsque la diagonale de retour est parcourue dans le sens contraire de la flèche.

On peut aussi construire des carrés pour les transformées de Legendre de l’en-
tropie :
– à N ou γ constant :
⎧    
⎪ ∂E ∂V ∂V ∂β
ξ _?
?? ?
β ⎪
⎨ − ∂ξ =− − =+
??  β ∂β  ξ ∂E ξ ∂ξ E
 ??? ⇒
 ⎪
⎪ ∂β ∂ξ ∂ξ ∂E
⎩ + =+ + =−
E V ∂V E ∂E V ∂β V ∂V β

– à E ou β constant :
⎧    
γ _@ ⎪ ∂V ∂N ∂N ∂ξ
@@ ?
ξ ⎪
⎨ − ∂γ = − ∂ξ − =+
@
@ ξ γ ∂V  γ ∂γ V
 @@@ ⇒
 ⎪
⎪ ∂ξ ∂γ ∂γ ∂V
⎩ + =+ + =−
V N ∂N V ∂V N ∂ξ N ∂N ξ

– à V ou ξ constant :
⎧    
γ ⎪ ∂N ∂E ∂E ∂γ
β _?
?? ?

⎨ − ∂β =− − =+
?? γ ∂γ β ∂N β ∂β N
 ?? ⇒
 ? ⎪
⎪ ∂γ ∂β ∂β ∂N
⎩ + =+ + =−
N E ∂E N ∂N E ∂γ E ∂E γ

Exemple d’utilisation des jacobiens et des carrés de Born.

On désire calculer en fonction de grandeurs mesurables l’abaissement de tempé-


rature lors d’une désaimantation adiabatique d’un matériau paramagnétique.

∂T
Autrement dit, que vaut , sachant dE = T dS − p dV + B dM + μ dN ?
∂B S,p,N
12 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

On utilise le formalisme de Jacobi :



∂T (1) ∂(T, S, p, N) (3) ∂(T, S, p, N) ∂(B, T, p, N)
= = ×
∂B S,p,N ∂(B, S, p, N) ∂(B, T, p, N) ∂(B, S, p, N)
∂(S, T, p, N)
(2) ∂(S, T, p, N) ∂(B, T, p, N) (4) ∂(B, T, p, N)
=− × =−
∂(B, T, p, N) ∂(B, S, p, N) ∂(B, S, p, N)
 ∂(B, T, p, N)
∂(S, T, p, N) ∂S

(2) ∂(B, T, p, N) (1) ∂B T,p,N T ∂S
=− =−  =− ×
∂(S, B, p, N) ∂S Cp,B ∂B T,p,N
∂(T, B, p, N) ∂T B,p,N
Le carré de Born [M, S, B, T ]p,N permet d’écrire :
   
∂S ∂M ∂T T ∂M
= et donc =− ×
∂B T,p,N ∂T B,p,N ∂B S,p,N Cp,B ∂T B,p,N
La grandeur recherchée est maintenant exprimée en fonction de grandeurs me-
surables au cours de la même expérience : à B, p, N constants.

1.2 Probabilités et statistiques


1.2.1 Probabilités, moyennes, distributions
On lance un dé à 6 faces 6000 fois, le résultat de chaque lancer étant indépendant
des résultats précédents. Si la nature était parfaite, on observerait exactement 1000
fois ”1”, 1000 fois ”2”, 1000 fois ”3”, 1000 fois ”4”, 1000 fois ”5” et 1000 fois ”6”. Mais
en pratique, ce résultat est fort peu probable. Ce qu’on peut dire intuitivement, c’est
que plus le nombre N de lancers est grand plus le résultat tendra vers la répartition
N/ − N/ − N/ − N/ − N/ − N/ .
6 6 6 6 6 6
D’où la définition suivante de la probabilité. Soit une expérience dont le résultat
fait partie d’un ensemble fini de p événements possibles (on lance par exemple un
dé à p faces). Si cette expérience est répétée N fois, et si nm est le nombre de fois où
on observe le résultat m, la probabilité d’apparition du résultat m est donnée par :
p
nm
Pm = lim avec 0 ≤ Pm ≤ 1 et Pm = 1
N →∞ N
m=1

Les deux opérations de base :


– Soient deux événements e1 et e2 s’excluant l’un l’autre. Lors d’une même ex-
périence, la probabilité d’observer ”e1 ou e2 ” est donnée par :
la loi d’addition : P (e1 ou e2 ) = P (e1 ) + P (e2 )
– Soient deux expériences à résultats indépendants. La probabilité d’observer e1
à la première expérience et e2 à la deuxième est donnée par :
la loi de multiplication : P (e1 et e2 ) = P (e1 ) × P (e2 )
1.2 Probabilités et statistiques 13

Considérons un dé à p faces numérotées m = 1 à p, et X une grandeur calculée


sur la valeur de m. On notera Pm la probabilité d’observer la face m, et Xm la valeur
de X pour la face m.

p
La valeur moyenne de X est donnée par : X̄ = P m Xm
m=1

p
2
La valeur quadratique moyenne de X est donnée par : X 2 = P m Xm
m=1
2
La variance ou écart quadratique moyen est : ΔX = (X − X̄)2 = X 2 − X̄ 2

L’écart type est par définition : ΔX = X 2 − X̄ 2

Il est fréquent que plusieurs valeurs de m conduisent à une même valeur X(i).
La liste des valeurs possibles X(i) est alors plus courte que la liste des Xm et il
est commode de sommer sur les valeurs de i plutôt que sur les valeurs de m. La
distribution statistique de X est l’ensemble des probabilités P (i) d’observer X(i)
pour toutes les valeurs de i. Soit M(i) l’ensemble des valeurs de m donnant la même
valeur X(i). X̄ peut se calculer à l’aide d’une somme sur m ou d’une somme sur i :

Xm = X(i) ∀m ∈ M(i) ⇒ P (i) = Pm
m∈M (i)


X̄ = Xm P m = Xm P m = X(i) Pm = X(i)P (i)
m i m∈M (i) i m∈M (i) i

1.2.2 La distribution binomiale


On joue à pile ou face
C’est une expérience à deux événements possibles. Soient x1 et x2 les deux proba-
bilités correspondantes. On répète N fois l’expérience et on compte les nombres n1
et n2 de fois où l’événement ”1” et l’événement ”2” sont observés. La distribution
binomiale est par définition la distribution de probabilités P (n1 , n2 ) d’observer n1
événements ”1” et n2 événements ”2”.
Pour calculer la probabilité P (n1 , n2 ), on calcule la probabilité d’observer une
configuration (m1 , . . . mN ) (m1 = résultat de l’expérience no 1, m2 = résultat de
l’expérience no 2, etc). Si cette configuration appartient à la distribution (n1 , n2 ),
autrement dit si dans cette configuration on compte n1 événements ”1” et n2 évé-
nements ”2”, on a :
p(m1 , m2 , . . . mN ) = xn1 1 xn2 2
On multiplie ensuite par le nombre de configurations faisant apparaître n1 évé-
nements ”1” et n2 événements ”2”. C’est le nombre de façons de répartir N objets
dans deux boîtes, à raison de n1 objets dans la boîte ”1”, n2 dans la boîte ”2”. A
partir d’une configuration donnée, c’est le nombre de permutations possibles entre
deux objets, l’un situé dans la boîte ”1”, l’autre situé dans la boîte ”2”.

(n1 + n2 )!
C’est-à-dire :
n1 ! n2 !
14 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

(n1 + n2 )! n1 n2
On en déduit la loi binomiale : P (n1 , n2 ) = x x
n1 ! n2 ! 1 2
Elle tire son nom du fait que P (n1 , n2 ) est l’un des termes du développement du
binôme (x1 + x2 ) à la puissance N :


n1 +n 2 =N
(n1 + n2 )! n1 n2
n1 +n 2 =N
N
(x1 + x2 ) = x x = P (n1 , n2 )
n1 ,n2
n1 ! n2 ! 1 2 n1 ,n2

2 =N
n1 +n
Avec x1 + x2 = 1, on a bien : P (n1 , n2 ) = 1.
n1 ,n2

Pour calculer les valeurs moyennes, on part de :


n1 +n 2 =N
(n1 + n2 )! n1 n2
N
(x1 + x2 ) = x x
n1 ,n2
n1 ! n2 ! 1 2

On lui applique l’opérateur x1 ∂x∂ 1 :


n1 +n 2 =N
N −1
Nx1 (x1 + x2 ) = n1 P (n1 , n2 ) = n̄1
n1 ,n2

D’une part on applique à nouveau x1 ∂x∂ 1 , d’autre part on applique x2 ∂x∂ 2 :

2 =N
n1 +n
Nx1 (x1 + x2 )N −1 + N(N − 1)x21 (x1 + x2 )N −2 = n21 P (n1 , n2 ) = n21
n1 ,n2
2 =N
n1 +n
N(N − 1)x1 x2 (x1 + x2 )N −2 = n1 n2 P (n1 , n2 ) = n1 n2
n1 ,n2

On écrit maintenant la condition x1 + x2 = 1 et on obtient, avec un traitement


identique pour la variable x2 :

n̄1 = Nx1 n21 = Nx1 (1 − x1 + Nx1 ) Δn21 = N x1 (1 − x1 )

n̄2 = Nx2 n22 = Nx2 (1 − x2 + Nx2 ) Δn22 = N x2 (1 − x2 ) (1.21)

n1 n2 = N(N − 1)x1 x2

Le nombre N est en général un paramètre fixe. Un léger changement de notation


permet d’écrire les résultats en fonction d’une seule variable. En posant x1 = x,
x2 devient 1 − x. De même, en posant n1 = n, n2 devient N − n. Les écritures
deviennent :
N!
P (n) = xn (1 − x)N −n n̄ = Nx Δn2 = Nx(1 − x)
n!(N − n)!
On joue à pile ou face en jetant simultanément N pièces de monnaie. On répète
l’expérience un très grand nombre de fois (N N) et on compte, pour chaque
1.2 Probabilités et statistiques 15

valeur de n, le nombre de fois où n pièces présentent le côté ”pile”. Pour x donné


(la probabilité pour une pièce de présenter le côté ”pile”), on obtient une courbe
en cloche (figure 1.1) plus ou moins centrée sur la valeur moyenne n̄ = Nx, et de
largeur à mi-hauteur environ 2Δn. On constate que n varie aléatoirement entre 0 et
N, avec une forte probabilité que |n − n̄| soit inférieur à deux ou trois Δn.
√ proportionnellement à N, alors que l’écart-type Δn
La valeur moyenne n̄ varie
varie proportionnellement à N . Le critère de convergence est l’écart relatif moyen
à la moyenne : 
Δn 1−x 1
= ∝ √ → 0 quand N → ∞ (1.22)
n̄ Nx N

Sur la figure 1.1, on constate que, du point de vue qualitatif, plus N augmente :
– plus le graphe est dense en valeurs de n,
– plus les valeurs de n de probabilité appréciable se resserrent autour de n̄,
– plus le graphe de P (n) est symétrique par rapport à n̄.

Fig. 1.1 – Distribution binomiale

La limite des grands nombres


C’est maintenant que l’on commence à quitter la rigueur mathématique. Face
au nombre d’Avogadro, l’unité est ridiculement petite. Les fractions d’unités encore
plus. Lorsqu’on applique la formule de Stirling, on associe à un nombre entier k! un
nombre réel (sauf si dans la formule de Stirling 1.23 on pousse le développement jus-
qu’à l’infini). A cette rigueur mathématique se substitue la réalité physique : lorsque,
physiquement, aucune expérience réaliste ne permet de distinguer deux valeurs, on
dira que ces deux valeurs sont rigoureusement égales à l’échelle macroscopique.
Cette ambiguïté est également présente en thermodynamique : lorsqu’un ther-
modynamicien écrit dn, où n est un nombre de moles, il oublie qu’une quantité de
16 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

matière ne peut varier que de manière discrète. Il quitte alors la rigueur mathéma-
tique pour la réalité physique : la variation d’une molécule par rapport au nombre
d’Avogadro peut être, physiquement, considérée comme infinitésimale.
Ce problème concerne en fait toutes les variables : à l’échelle microscopique, c’est
la mécanique quantique qui définit les états possibles pour un système donné. En
mécanique quantique, tout est quantifié, tout varie de façon discrète. Mais pour
une grandeur X donnée, l’écart entre deux valeurs consécutives est toujours, pour
des systèmes macroscopiques, extrêmement petit face à la valeur moyenne de cette
grandeur : on peut toujours trouver un intervalle δX à la fois inappréciable à l’échelle
macroscopique et suffisamment grand pour contenir un très grand nombre de valeurs
à l’échelle microscopique. En un mot pour ce qui nous concerne ici : dans l’intervalle
[0, 1024 ], k devient une variable continue.
La formule de Stirling donne un infiniment grand équivalent à k! lorsque k → ∞ :

kk √  1 1 139 571 
k! ≈ 2πk 1 + + − − · · · (1.23)
ek 12k 288k 2 51840k 3 2488320k 4
Les valeurs reportées dans le tableau ci-dessous ont été calculées sans tenir
compte de la parenthèse ci-dessus. On s’aperçoit que les √ résultats sont bons dès
les premières valeurs de k, mais que la contribution de ln 2πk est non négligeable.
Dans cet gamme, il faut donc utiliser :

kk √ √ d ln(k!) 1
k! ≈ 2πk ln(k!) ≈ k ln k − k + ln 2πk et ≈ ln k + (1.24)
ek dk 2k

k ln(k!) Stirling ln 2πk
1 0, 0000 −0, 0811 0, 9189
10 15, 1044 15, 0961 2, 0702
100 363, 7394 363, 7385 3, 2215
1000 5912, 1282 5912, 1281 4, 3728
10000 82108, 9278 82108, 9278 5, 5241

Dans la gamme des très grands nombres, ln 2πk est négligeable devant k ln k−k.
On peut considérer que la formule de Stirling simplifiée est quasi rigoureuse :

kk d ln(k!)
k! ≈ k ln(k!) ≈ k ln k − k et ≈ ln k (1.25)
e dk

k k ln k − k ln 2πk
1010 2, 203 × 1011 12, 43
1020 4, 505 × 1021 23, 94
1030 6, 808 × 10 31
35, 46
21
Pour k = 1020 , k! est de l’ordre de 102×10 . C’est un nombre à 2 × 1021 chiffres.
A raison de 2 chiffres par centimètre, il mesure
√ plus de 1 000 années-lumière.
Lorsqu’on oublie le terme multiplicatif 2πk, qui vaut tout de même 25 milliards,
on commet une erreur négligeable :
21 21 +10)
1010 × 102×10 = 10(2×10 = 102 000 000 000 000 000 000 010
1.2 Probabilités et statistiques 17

En écrivant 102 000 000 000 000 000 000 010 ≈ 102 000 000 000 000 000 000 000 , on oublie une di-
zaine de chiffres par rapport aux 2 × 1021 déjà présents, et les 1 000 années-lumière
sont réduites de . . . cinq centimètres.

Revenons à la distribution P (n). Dans la limite des très grands nombres, l’écart
entre les valeurs possibles de n (une unité) devient extrêmement faible comparati-
vement à l’intervalle de définition [0, N], à tel point que l’on pourra considérer P (n)
exprimé en fonction de y = n/N comme une fonction continue W (y) :
N!
W (y) = P (n) = P (Ny) = xN y (1 − x)N −N y
(Ny)! (N − Ny)!
Une valeur moyenne se calcule maintenant à l’aide d’une intégrale :
N  1  1
X̄ = P (n)X(n) ≈ P (Ny)X(Ny) d(Ny) = N W (y)X(Ny) dy
n=0 0 0

Pour que les calculs qui suivent soient valables, il faut que toutes les valeurs de
n donnant une valeur non négligeable à P (n) soient
de grands nombres. Ces valeurs
sont situées dans un intervalle de quelques Δn = Nx(1 − x) autour de n̄ = Nx.
Seront donc supposés très grands, non seulement N, mais aussi n̄ et N − n̄. D’où :

Pour que toutes les valeurs de n donnant une probabilité P(n) non négligeable
soient de grands nombres il faut, pour x donné, choisir le nombre N pour que :
Nx(1 − x) 1
À noter que, en physique statistique, cette condition n’est pas très restrictive.
Avec N ∼ 1020 , même si x est très petit, disons 10−10 , n̄ reste encore très grand
(1010 ). Il reste encore assez de place entre 0 et n̄ pour un grand nombre de Δn qui
ne vaut que 105 . Les problèmes n’apparaissent que si x est inférieur à quelques 1/N.
À la valeur n∗ la plus probable de n correspond une valeur y ∗ telle que n∗ = Ny ∗ .
Cette valeur y ∗ rend ln W (y) maximum[7] . Elle doit annuler dy d
ln W , avec :
     
ln W (y) = ln N! − ln (Ny)! − ln (N − Ny)! + Ny ln x + (N − Ny) ln(1 − x)
La formule de Stirling simplifiée 1.25 n’est pas satisfaisante ici car elle conduit à
P (n∗ ) = 1 et donc à P (n) = 0 pour tout n = n∗ . C’est donc la formule de Stirling
complète 1.24 qu’il faut utiliser. On trouve :

d ln W x y∗ 1 − 2y ∗
=0 ⇒ = exp
dy y=y ∗ 1−x 1 − y∗ 2Ny ∗ (1 − y ∗ )
On résout en exprimant x en fonction de y ∗. Par hypothèse, on a Nx(1 − x) 1,
et par conséquent Ny ∗ (1 − y ∗ ) 1 puisque x et y ∗ sont très proches. On peut
développer l’exponentielle au premier ordre. On trouve :
 1 ∗ 1  1 1

x≈ 1− y + ⇒ y ≈ 1+ x− ⇒ n∗ ≈ n̄ + x − 1/2
N 2N N 2N
7
W (y) varie extrêmement rapidement au voisinage de x. Pour éviter les problèmes lors des
dérivations, on travaille avec ln W (y) qui présente des variations plus douces.
18 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

Comme 0 < x < 1, n∗ et n̄ diffèrent au maximum d’une demi unité (avec la


formule de Stirling simplifiée, on aurait trouvé exactement n∗ = n̄). Conclusion :

La valeur la plus probable n∗ correspond quasi exactement à la valeur moyenne n̄.

On remplace y par y ∗ = x dans ln W (y) en utilisant la formule de Stirling


complète :
1 1
ln W (y ∗) = ln W (x) = ln P (n̄) = ln  = ln √
2πNx(1 − x) 2πΔn2

Il reste à calculer la valeur de P (n) au voisinage de n̄. On assimile y ∗ à x et on


écrit le développement de Taylor de ln W (y) au voisinage de x :
 ∞ 
1 d ln W (y − x)k dk ln W
ln W (y) = ln √ + (y − x) +
2πΔn2 dy y=x k=2
k! dy k y=x


d ln W x − 1/2 x − 1/2
Les calculs donnent : = =N
dy y=x x(1 − x) Δn2
Et pour k > 1 :
  ϕ (x)
1 dk ln W ϕk (x) ψk (x) k ψk (x)  N k
= + N = +
k! dy k y=x xk (1 − x)k xk−1 (1 − x)k−1 Δnk Δnk−2 Δnk

Les fonctions ϕk et ψk prennent des valeurs de l’ordre de l’unité :

ϕ2 (x) = x2 − x + 1/2 ψ2 (x) = −1/2

(x − 1/2)(x2 − x + 1) 1/
2 −x
ϕ3 (x) = ψ3 (x) =
3 3
n − n̄ N(y − x) 1
On pose u = = et on range les termes en puissances de :
Δn Δn Δn
u2 (x − 1/2)(u − u /3)
3
1
ln W (y) = ln √ − + + ...
2πΔn2 2 Δn

Par hypothèse, Δn est très grand (Δn ∼ 1010 ), et on sait que les valeurs signi-
ficatives de n sont telles que u vaut quelques unités. Dans la limite des très grands
nombres, la convergence est extrêmement rapide. Les deux premiers termes suffisent :
  
1 n − n̄ 2
2
e−u /2 1
W (y) = √ ⇒ P (n) = √ exp −
2πΔn2 2πΔn2 2 Δn

C’est l’équation d’une gaussienne (figure 1.2) caractérisée par :


– sa position n̄ ;
– sa demi-largeur Δn ;
1
– son amplitude A = √
2πΔn2
1.2 Probabilités et statistiques 19

Fig. 1.2 – Distribution gaussienne


N 
N
On peut vérifier qu’on a bien S = P (n) = 1 et σ 2 = (n − n̄)2 P (n) = Δn2 :
n=0 n=0
 1  2  +∞
N −1/2 N (y−x)/Δn 1 2 /2
S≈√ e dy ≈ √ e−u du = 1
2πΔn2 0 2π −∞

 1  2  +∞
N3 2 −1/2 N (y−x)/Δn Δn2 2 /2
2
σ ≈√ (y − x) e dy ≈ √ u2 e−u du = Δn2
2πΔn2 0 2π −∞

Pour calculer S et σ 2 , on a effectué le changement de variable u = N(y − x)/Δn


et assimilé les bornes −Nx/Δn à −∞ et N(1 − x)/Δn à +∞.
Récurrence utile pour ces deux calculs :
 +∞
1 2
Jp = √ up e−u /2 du = (p − 1)Jp−2 avec J0 = 1 et J1 = 0
2π −∞

Physiquement, on retiendra que, pour N ≈ 1020 , la distribution binomiale et


la distribution gaussienne sont quasi identiques dans un domaine de plusieurs Δn
autour de n̄. Au delà, l’écart relatif est important, mais les valeurs de P (n) sont
tout à fait négligeables.

Considérons maintenant une grandeur X calculable pour chaque valeur de n.


Soient X(n) ces valeurs. La valeur moyenne de X vaut :


N  1
X(n) = X(n)P (n) ≈ X(Ny)W (y)N dy
n=0 0

W (y) prend des valeurs appréciables dans un intervalle extrêmement petit centré
autour de x. On peut donc sans crainte développer X(Ny), que l’on notera f (y), au
premier ordre :

df
f (y) ≈ f (x) + (y − x) = f (x) + (y − x)f  (x)
dy y=x
 +∞  +∞

⇒ X(n) ≈ f (x) W (y) N dy + f (x) (y − x)W (y) N dy
−∞ −∞
20 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

La première intégrale vaut 1 et la deuxième est nulle, d’où :



N
X(n) = X(n)P (n) ≈ X(n̄)
n=0

La valeur moyenne de X est égale à la valeur qu’elle prend pour la valeur de n la


plus probable. C’est l’approximation du terme maximum qui, dans la limite
des très grands nombres peut être considérée comme rigoureuse.

À retenir donc : X(n) ≈ X(n̄)

1.2.3 La distribution multinomiale


On lance un dé à p faces
On étend le raisonnement utilisé pour la loi binomiale à une expérience à p
événements possibles (m = 1 à p) que l’on répète N fois. On compte le nombre nm
de fois où chaque événement m est observé.
Pour calculer la probabilité P (n1 . . . np ) correspondante, on calcule d’abord la
probabilité d’observer une configuration (m1 , m2 , . . . , mN ) faisant apparaître n1 évé-
nements ”1”, n2 événements ”2”, etc (on dira que la configuration (m1 , m2 , . . . , mN )
appartient à la distribution (n1 . . . np )) :

p(m1 , m2 , . . . mN ) = xn1 1 . . . xnp p


On multiplie ensuite par le nombre de configurations faisant partie de la distri-
bution (n1 . . . np ) :
p
N!  xni i
n1 np
P (n1 . . . np ) = x1 . . . xp = N!
n1 ! . . . np ! n!
i=1 i

Les calculs sont identiques à ceux du paragraphe précédent.

 p =N
n1 +...+n
Partant de P (n1 . . . np ) = (x1 + . . . + xp )N , on trouve :
n1 ...np

n̄i = N xi n2i = N xi (1 − xi + N xi ) Δn2i = N xi (1 − xi )

Limite des grands nombres


Dans la limite des grands nombres, on travaille avec :
p
   
ln P = ln N! + ni ln(xi ) − ln(ni !)
i=1

n1 np
que l’on réécrit en fonction de y1 = , . . . , yp = :
N N
  p 
p
 
ln W (y1 . . . yp ) = ln P (n1 . . . np ) = ln N yi ! + Nyi ln(xi ) − ln (Nyi )!
i=1 i=1
1.3 Théorie statistique de Gibbs 21

 
Soit [y]∗ = y1∗ . . . yp∗ le multiplet le plus probable.

p
Ce multiplet doit rendre ln W maximum, sous la contrainte yi = S.
i=1

On introduit un multiplicateur de Lagrange α. Les yj∗ sont solutions des équa-


tions :
∂  
p

ln W (y1 , . . . , yp ) − α yi = 0 ∀j = 1 à p
∂yj i=1

Tous les ni étant supposés très grands, on applique la formule de Stirling à chaque
ln N(yi ). On trouve :

N ln N + N ln(xj ) − N ln(Nyj∗ ) − α = 0 ∀j ⇒ yj∗ = xj e−α/N

Pour déterminer α, on remplace les yj∗ dans la contrainte :


p p

yi∗ = S et xi = S ⇒ e−α/N = 1 ⇒ yj∗ = xj ⇒ n∗j = Nxj = n̄j
i=1 i=1

Le développement de Taylor au voisinage de [n]∗ conduit à un produit de p


gaussiennes :
  
1 nj − n∗j 2
p
 1
P (n1 , n2 , . . . np ) =  exp −
j=1 2πΔn2j 2 Δnj

Et l’approximation du terme maximum conduit à :

X(n1 , n2 , . . . np ) ≈ X(n̄1 , n̄2 , . . . n̄p )

1.3 Théorie statistique de Gibbs


1.3.1 Du macroscopique au microscopique
La thermodynamique macroscopique permet de trouver des relations entre les
différentes propriétés d’un système en équilibre. Elle ne donne aucune information
sur l’origine ou sur l’interprétation physique de ces propriétés.
La physique statistique permet de relier les propriétés d’un système macrosco-
pique aux propriétés des particules qui le constituent. Elle a débuté à la fin du XIXe
siècle grâce à Boltzmann, en même temps que la renaissance de l’hypothèse ato-
mique. Cette hypothèse devint rapidement une théorie grâce au développement de
la mécanique quantique et à la découverte des rayons X, qui ont permis de confirmer
l’existence des atomes et d’en décrire leur structure, puis d’identifier les particules
élémentaires de la matière.
Le problème mécanique est impossible à résoudre puisqu’il met en jeu un nombre
N de particules de l’ordre de 1022 . Sa résolution exacte serait d’ailleurs sans intérêt :
il faudrait une dizaine de milliers de milliards de giga-octets pour stocker une confi-
guration instantanée (3N coordonnées de position et 3N composantes de vitesse),
22 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

et une centaine de millions d’années pour l’écrire sur le disque dur de votre PC.
Pour imprimer cette configuration instantanée, il faudrait environ 1020 feuilles A4
en recto-verso : la pile sur le coin de votre bureau aurait une hauteur d’environ une
année-lumière.
On doit donc se tourner vers des méthodes probabilistes : les mesures ne sont
pas sensibles à notre échelle au comportement individuel des particules, mais seule-
ment à des moyennes. Les méthodes probabilistes conduisent habituellement à un
résultat plus ou moins approximatif. Ici, du fait de l’énormité des nombres utilisés,
les prédictions sont certaines, ce qui conduit à une description exacte des propriétés
macroscopiques du système étudié.
Le passage entre le macroscopique et le microscopique n’est pas toujours trivial.
Entre ces deux mondes, le facteur d’échelle est énorme, à tel point qu’il a fallu don-
ner un nom au domaine intermédiaire : le domaine mésoscopique, où se situent, pour
une grandeur extensive donnée, les valeurs à la fois suffisamment petites pour être
inappréciables à l’échelle macroscopique et suffisamment grandes à l’échelle micro-
scopique pour lui appliquer un traitement statistique. Il faut pour s’en convaincre
se rendre compte de l’énormité du nombre d’Avogadro : un millionième de millio-
nième de mole, inappréciable à l’échelle macroscopique, contient environ un million
de millions de molécules, suffisamment pour lui appliquer avec une précision plus
que raisonnable les résultats de la théorie statistique.
À l’échelle microscopique, c’est la mécanique quantique qui régit le comporte-
ment des particules : les états possibles pour un système donné forment un ensemble
discret, dénombrable. Les calculs statistiques se feront au moyen de signes sommes.
Chaque état possible est appelé microétat. Il faut, pour le définir, connaître l’état
individuel de chaque particule (sa position, sa vitesse et son état quantique ”inter-
ne”), c’est-à-dire au moins 6N nombres. Pour faire l’analogie avec le lancer de dés,
considérons les deux expériences suivantes.
– Expérience 1 : on jette 10 000 dés à 6 faces sur une table. Pour décrire le microé-
tat observé, il faut aligner les 10 000 dés dans un ordre prédéterminé (chaque
dé porte une étiquette), et relever la série ordonnée des 10 000 nombres : la
face présentée par le dé 1, la face présentée par le dé 2, etc.
– Expérience 2 : on jette 10 000 fois un seul dé à 6 faces. Pour fabriquer le
microétat de l’expérience 1, on doit ici photographier le dé après chaque lancé
et au final juxtaposer toutes les photos dans l’ordre où elles sont apparues.
L’hypothèse ergodique que nous verrons plus loin consiste à dire ici que les deux
expériences sont équivalentes en termes de nombres d’apparitions de chacune des
faces.
Pour mesurer la probabilité d’apparition de chacune des faces, il n’est nul be-
soin de savoir dans quel ordre les différents résultats sont apparus. Les nombres
d’apparition suffisent. La donnée de ces six nombres définit le macroétat du sys-
tème constitué des 10 000 dés. La connaissance de ce macroétat suffit pour calculer
la valeur moyenne d’une grandeur sur ce système. La précision obtenue dépendra
uniquement du nombre de dés ou de lancers.
L’état macroscopique d’un système physique est défini en thermodynamique par
la donnée de quelques grandeurs extensives (E, V , N, etc). Du point de vue statis-
tique, un système physique est analogue à un dé possédant un très grand nombre de
1.3 Théorie statistique de Gibbs 23

faces, chaque face représentant un microétat possible. Au lieu de lancer 10 000 fois
le dé (expérience 2), on observe le système de façon aléatoire un très grand nombre
de fois au cours d’un certain intervalle de temps Δt. Le macroétat du système est
défini par la donnée du nombre de fois où chacun des microétats est observé.
Cet intervalle de temps Δt nécessaire à la mesure d’une certaine grandeur X,
peut être très court à notre échelle, mais sera toujours extrêmement grand à l’échelle
microscopique. Pour fixer les idées, considérons un système constitué de 1018 par-
ticules. On estime qu’une particule donnée change d’état en moyenne 1012 fois par
seconde. Le système change donc de microétat en moyenne 1030 fois par seconde.
Même en utilisant un capteur ultra perfectionné capable d’effectuer la mesure en une
picoseconde, le système aura changé 1018 fois de microétat pendant la mesure.[8] La
valeur mesurée de X correspond à une valeur moyenne, moyenne faite sur les diffé-
rents microétats observés pendant cette picoseconde.
Mais que sont ces 1018 états par rapport à tous ceux disponibles ? RIEN.
Imaginez que chaque particule est une pièce de monnaie, c’est-à-dire ne disposant
que de deux états individuels.
18
Cela donne pour le système 210 ≈ 10301 029 995 663 981 000 microétats possibles. Le
système est un dé à 10301 029 995 663 981 000 faces ! Le nombre d’états observés pendant
la picoseconde (1018 ) est ridiculement petit par rapport à ce nombre.
Cela voudrait-il dire que le résultat de la mesure est complètement aléatoire ?
Non ! Parce que parmi tous ces états possibles, seuls quelques uns ont une proba-
bilité non négligeable d’apparaître, ceux compatibles quasi exactement avec l’état
thermodynamique du système. C’est du moins ce qui est sous-entendu dans l’énoncé
du principe ergodique.

1.3.2 Ensemble statistique, énoncé des postulats


Le macroétat d’un système macroscopique, défini par la donnée de quelques va-
riables thermodynamiques (E, V , N, etc.), correspond à un ”état moyen”, moyenne
faite sur l’ensemble des microétats accessibles, et pondérée par leurs probabilités
d’apparition. Cette moyenne devra être faite sur une durée suffisamment longue
pour que le résultat ne soit pas affecté par la durée ou les instants de début et de
fin du comptage. N étant très grand, cette moyenne temporelle est impossible à
calculer sans l’appui d’un certain nombre de postulats : c’est la base de la méthode
des ensembles de Gibbs.
Soit un système en équilibre thermodynamique avec le milieu extérieur. Cet
équilibre n’est pas figé. Les particules sont en perpétuel mouvement, et le macroétat
observé correspond à un état stationnaire, à une moyenne temporelle sur des mi-
croétats fluctuant autour d’un certain état moyen. Si on photographie le système à
un instant donné, on le trouvera dans tel ou tel microétat qui ne correspondra pas
forcément à l’état d’équilibre. Un ensemble statistique est un rassemblement d’un
très grand nombre N de ces photos prises au hasard dans un certain intervalle de
temps Δt. Cet ensemble statistique constitue un super-système que l’on place dans
8
C’est pourquoi les puristes font la distinction entre ”mesure” et ”enregistrement” : un en-
registrement est un ensemble de mesures prises simultanément ; une mesure est en toute rigueur
impossible à réaliser.
24 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

le même environnement que le système d’origine. Si Δt est suffisamment long, on


verra passer le système par tous les microétats compatibles avec le macroétat d’équi-
libre. Le temps de passage dans chaque microétat sera proportionnel à la probabilité
d’apparition de ce microétat. De la même façon, si N est suffisamment grand, tous
les microétats seront présents dans l’ensemble statistique, en nombre proportionnel
à leur probabilité d’apparition.

[9]
De cette analogie découle le principe ergodique (premier postulat) :

La moyenne dans le temps sur une durée Δt d’une variable mécanique d’un système
thermodynamique est égale à la moyenne de cette même variable sur un ensemble
statistique construit à partir du système, dans la limite où Δt et le nombre N de
systèmes constituant l’ensemble statistique sont suffisamment grands.

Le deuxième postulat s’appelle le principe d’équiprobabilité et s’énonce :

Pour un système isolé à l’équilibre, tous les microétats accessibles sont équiprobables.
Si Ω est le nombre de micro-états accessibles, la probabilité pour que le système soit
dans un microétat donné vaut Ω1 , quel que soit le microétat considéré.

Autrement dit, à énergie constante, il n’y a aucune raison de favoriser un mi-


croétat par rapport aux autres. Ω est appelé nombre de complexions du système.

1.3.3 Probabilités et valeurs moyennes


Soit un système macroscopique ayant accès à un très grand nombre de microé-
tats. Ceux-ci, rangés dans un ordre quelconque, sont numérotés (indice j). Pour un
microétat j donné, on notera Ej l’énergie du système, Vj son volume, et Nj le nombre
de particules qu’il contient. Si parmi les variables extensives décrivant le macroétat
du système, il en existe une autre X, on notera Xj sa valeur lorsque le système est
dans le microétat j. De même, si le système contient des particules de différentes
natures, les nombres de particules seront notées N1j , N2j , etc. Les démonstrations
qui suivent concernent les systèmes décrits par les seules variables extensives E,
V , N. Elles sont très facilement généralisables aux systèmes poly-constituants ou
nécessitant l’emploi d’autres variables extensives. On supposera le problème méca-
nique résolu : tous les microétats accessibles au système sont répertoriés, et toutes
les valeurs Ej , Vj , Nj sont connues.
L’objectif est de calculer les valeurs moyennes Ē, V̄ et N̄ . Dans une première
étape, après calcul des Pj (Pj est la probabilité qu’un système pris au hasard dans
l’ensemble soit dans le microétat j), ces valeurs moyennes sont exprimées en fonc-
tion de paramètres indéterminés provenant de la méthode des multiplicateurs de
Lagrange. La deuxième étape confronte les résultats aux équations thermodyna-
miques, ce qui permet de relier les paramètres indéterminés aux variables intensives
et de calculer l’entropie statistique en fonction des Pj .
9
L’énoncé du principe ergodique semble couler de source. En fait, le problème ergodique est un
sujet qui est loin d’être clos à l’heure actuelle. Nous en reparlerons au paragraphe 1.5.5.
1.3 Théorie statistique de Gibbs 25

Le système étudié est le plus général qui soit : toutes les variables extensives
sont libres de fluctuer. Il se trouve dans un bain très grand (capable d’accueillir
N systèmes) fixant la température T , la pression p, et le potentiel chimique μ. Le
contour du système est parfaitement conducteur de chaleur et de matière et permet
les variations de volume.
L’ensemble est constitué de N systèmes séparés par des parois mobiles parfai-
tement perméables à la chaleur et à la matière. Tous les systèmes sont macroscopi-
quement identiques au système de départ : ils ont tous accès aux mêmes microétats.
On place l’ensemble dans le bain, et une fois l’équilibre atteint, on l’isole et on le
retire du bain. On obtient ainsi un super-système isolé, caractérisé par une énergie
totale Et , un volume total Vt et un nombre total de particules Nt .
On photographie à un instant donné le super-système. Celui-ci est dans un
”super-microétat” (j1 , . . . , jN ) donné (système 1 dans le microétat j1 , . . ., système
N dans le microétat jN ). On cherche la probabilité Pj qu’un système choisi au
hasard sur une photo prise au hasard soit dans un microétat j donné.
On calcule dans un premier temps la probabilité d’avoir pris une photo donnée
parmi toutes celles qu’il était possible de prendre, c’est-à-dire toutes celles compa-
tibles avec (Et , Vt , Nt ). Soit Ωt le nombre total de super-microétats (ou de photos)
compatibles avec (Et , Vt , Nt ).
Le super-système étant isolé, on peut lui appliquer le principe d’équiprobabilité :
tous les super-microétats compatibles avec (Et , Vt , Nt ) ont la même probabilité d’être
observés. Si on numérote les photos possibles ω = 1 à Ωt , on a :
1
P (ω) = ∀ ω = 1 à Ωt
Ωt
Dans un deuxième temps, on tire sur une photo ω un système au hasard. Puisque
N est très grand, la probabilité que ce système soit dans un microétat j donné vaut :
nj (ω)
pj (ω) = ∀ ω = 1 à Ωt
N
(nj (ω) est le nombre de systèmes dans l’état j sur la photo ω)


Ωt 1  Ωt
On en déduit : Pj = P (ω) × pj (ω) = nj (ω).
ω=1 N Ωt ω=1
On peut réécrire cette somme en utilisant la notion de distribution. On classe
les Ωt photos et on les range dans différentes ”boîtes”. Chaque boîte contient toutes
les photos se déduisant l’une de l’autre par permutation sur les systèmes. En clair,
toutes les photos d’une boîte donnée possèdent la même liste de nj . Cette liste
(n1 , . . . , nj , . . .), appelée distribution, sera notée [n]. À chaque boîte correspond une
distribution, et à chaque distribution correspond une boîte. On suppose qu’il y a
suffisamment de photos dans chaque boîte pour y faire des moyennes statistiques.
Toutes les distributions [n] = ((n1 , . . . , nj , . . .)) possibles doivent être compatibles
avec (Et , Vt , Nt ) :
 
(1) nj = N (2) Ej nj = Et = N Ē
j j

 
(3) Vj nj = Vt = N V̄ (4) Nj nj = Nt = N N̄
j j
26 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

N!
Le nombre de façons d’obtenir la distribution [n] vaut Ω[n] =  .
nj !
j

1,2,3,4
Le nombre total de photos est la somme de tous les Ω[n] : Ωt = Ω[n]
[n]

Ωt 
1,2,3,4
Le nombre total de systèmes dans le microétat j vaut : nj (ω) = Ω[n] nj
ω=1 [n]

1,2,3,4
Notation : = somme sur les distributions vérifiant (1), (2), (3), (4).
[n]

1,2,3,4
Ω[n] nj
1 [n] N!
Ce qui donne finalement : Pj = avec Ω[n] = 
N 
1,2,3,4 nj !
Ω[n] j
[n]
On utilise maintenant la méthode du terme maximum : parmi toutes les distribu-
tions [n] possibles, seules quelques unes participent significativement aux sommes en
numérateur et dénominateur. Ces distributions sont réparties autour de la distribu-
tion la plus probable, notée [n∗ ]. La méthode du terme maximum permet d’écrire :


1,2,3,4
Ω[n] nj
1 [n] 1 Ω[n∗ ] n∗j n∗j
Pj = ≈ =
N 
1,2,3,4 N Ω[n∗ ] N
Ω[n]
[n]

Cette distribution est celle qui rend ln Ω[n] maximum. C’est un maximum sous
contraintes : la distribution [n∗ ] recherchée doit vérifier les conditions (1), (2), (3),
(4). On introduit donc quatre multiplicateurs de Lagrange α, β, ξ, γ. Les n∗j consti-
tutifs de la distribution [n∗ ] doivent vérifier :

∂  
ln Ω[n] − α ni − β Ei ni − ξ Vi ni − γ Ni ni = 0
∂nj i i i i

Attention : avant de dériver, il faut écrire Ω[n] uniquement en fonction des ni :


 
ni !
N! i
Ω[n] =  = 
ni ! ni !
i i

Cette précaution étant prise, le calcul conduit à : n∗j = N e−α e−βEj e−ξVj e−γNj .

Pour déterminer α, β, ξ et γ, on introduit le résultat obtenu dans les contraintes.



L’équation (1) conduit à : eα = e−βEj e−ξVj e−γNj
j

C’est ce qu’on appelle une fonction de partition. On la note I(β, ξ, γ) et on


l’appelle fonction de partition totale car il en existe d’autres dont les sommations
1.3 Théorie statistique de Gibbs 27

portent sur des ensembles d’indices plus restreints :


e−βEj e−ξVj e−γNj
eα = I(β, ξ, γ) = e−βEj e−ξVj e−γNj et n∗j = N
j
I(β, ξ, γ)

Les équations (2), (3) et (4) conduisent à :

  e−βEj e−ξVj e−γNj


Ē = Ej e−α e−βEj e−ξVj e−γNj = Ej
j j I(β, ξ, γ)

  e−βEj e−ξVj e−γNj


V̄ = Vj e−α e−βEj e−ξVj e−γNj = Vj
j j I(β, ξ, γ)

  e−βEj e−ξVj e−γNj


N̄ = Nj e−α e−βEj e−ξVj e−γNj = Nj
j j I(β, ξ, γ)

Ces trois expressions ainsi que celle de n∗j conduisent toutes à :

e−βEj e−ξVj e−γNj


Pj (β, ξ, γ) = e−α e−βEj e−ξVj e−γNj =
I(β, ξ, γ)

1.3.4 Confrontation avec la thermodynamique


Cette confrontation est nécessaire car l’introduction du résultat dans les con-
traintes n’a pas permis de déterminer α, β, ξ, γ en fonction de Ē, V̄ , N̄ : on a juste
exprimé Ē, V̄ , N̄ en fonction de α, β, ξ, γ.
Point de départ de la confrontation : dans le but de relier les résultats de l’étude
statistique à l’équation de Gibbs, on identifie les valeurs moyennes Ē, V̄ , N̄ aux
variables E, V , N de la thermodynamique.

De l’expression de Pj on tire : − ln Pj = βEj + ξVj + γNj + α

On multiplie les deux membres par Pj et on somme sur j. On obtient :



−α − Pj ln Pj = β Ē + ξ V̄ + γ N̄
j

S 1 p μ
En thermodynamique on a : = E+ V − N. On est tenté d’écrire :
k kT kT kT
S 1 p μ
= −α − Pj ln Pj β= ξ= γ=−
k j
kT kT kT

L’entropie trouvée est appelée entropie statistique. Les constantes α et k sont


purement arbitraires. Leurs valeurs peuvent être choisies à notre convenance. Ce
sont des constantes universelles, indépendantes du système étudié. Dans le cadre
de la thermodynamique, on choisit les valeurs de k et α de sorte que l’entropie
statistique coïncide avec l’entropie thermodynamique.
28 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

– α est choisie de façon à ce que l’entropie statistique soit additive.


Soit un système Σ d’entropie S résultant de la réunion de deux sous systèmes
Σ et Σ , d’entropies S  et S  . Un micro-état du système Σ est caractérisé
par 2 indices j  et j  . Le premier caractérise le micro-état du système Σ , et
le deuxième celui du système Σ . La probabilité de trouver le système dans
le micro-état j  j  est égale à la probabilité de trouver le système Σ dans le
micro-état j  et le système Σ dans le micro-état j  : Pj  j  = Pj  × Pj  . Le
calcul de S en fonction de S  et S  conduit à :
S  
= −α − Pj  j  ln Pj j  = −α − Pj  Pj  (ln Pj  + ln Pj  )
k j  j  j  j 
   
= −α − Pj  ln Pj  Pj  − Pj  Pj  ln Pj 
j j  j j 
      S  S 
= −α− Pj  ln Pj  + − α − Pj  ln Pj  + α = + +α
j j  k k

Pour avoir S = S  + S  , on doit choisir α = 0.


– La valeur de k, toujours dans le cadre de la thermodynamique, est calculée
à partir de résultats expérimentaux. Sa valeur est indépendante du système
étudié et de la technique expérimentale utilisée (c’est une constante univer-
selle). L’expérience la plus simple consiste en des mesures de pressions d’un
gaz parfait. Elle donne :

k = kB = (1, 380 658 ± 0, 000 012) 10−23 J/K Constante de Boltzmann.[10]

Les résultats importants obtenus de cette confrontation :


1 p μ
β= ξ= γ=− S(β, ξ, γ) = −k Pj ln Pj
kT kT kT j

e−βEj e−ξVj e−γNj


Pj (β, ξ, γ) = I(β, ξ, γ) = e−βEj e−ξVj e−γNj
I(β, ξ, γ) j

Attention : α = 0 est une valeur d’équilibre. Au voisinage de l’équilibre, c’est


une fonction de β, ξ, γ. Si on veut étudier le comportement du système au voisinage
de l’équilibre, il est nécessaire de conserver l’écriture α = ln I(β, ξ, γ).

On identifie maintenant les valeurs moyennes et les variables thermodynamiques.

Le calcul a donné : S/k = β Ē + ξ V̄ + γ N̄ + α = β Ē + ξ V̄ + γ N̄ + ln I(β, ξ, γ).


En thermodynamique on a (voir paragraphe 1.1.2) : S/k = βE + ξV + γN − βΘ

10
La constante de Boltzmann est la valeur de k utilisée en thermodynamique statistique. Son
unité, le J/K, est celle de l’entropie thermodynamique. En théorie de l’information (voir paragraphe
1.4.5), l’entropie statistique est une grandeur sans dimension mais possédant une unité (le bit), et
la valeur k = 1/ ln 2 choisie est telle que, dans le jeu ”pile ou face”, l’entropie statistique prend
la valeur maximale S = 1 bit lorsque les deux événements ”pile” et ”face” sont équiprobables
(S(1/2, 1/2) = −(1/2 ln 1/2 + 1/2 ln 1/2)/ ln 2 = 1), et la valeur S = 0 lorsque l’un des événements est
certain et l’autre impossible (en posant 0 ln 0 = 0, S(0, 1) = −(0 ln 0 + 1 ln 1)/ ln 2 = 0).
1.3 Théorie statistique de Gibbs 29

On en déduit : E = Ē V = V̄ N = N̄ ⇒ −βΘ(β, ξ, γ) = ln I(β, ξ, γ)

Cette relation fait le lien entre l’étude statistique et la thermodynamique. Elle


relie la fonction de partition au potentiel thermodynamique. Ce potentiel thermo-
dynamique, ici le potentiel nul, est la fonction caractéristique de l’ensemble étudié.
Pour le distinguer des suivants, l’ensemble étudié ici sera nommé ensemble T -p -μ.

Le choix k = kB a permis d’identifier entropie thermodynamique et entropie


statistique. Ce qui précède permet également d’identifier les grandeurs thermody-
namiques E, V , N aux moyennes statistiques :
 
∂βΘ ∂ ln I 
E(β, ξ, γ) = = Ē(β, ξ, γ) = − = Pj Ej
∂β ξ,γ ∂β ξ,γ j
∂βΘ ∂ ln I 
V (β, ξ, γ) = = V̄ (β, ξ, γ) = − = Pj Vj
∂ξ γ,β ∂ξ γ,β j
∂βΘ ∂ ln I 
N(β, ξ, γ) = = N̄ (β, ξ, γ) = − = Pj Nj
∂γ β,ξ ∂γ β,ξ j

Remarque sur les sommes sur j : Dans le calcul de I(β, ξ, γ), on peut regrouper
entre eux tous les micro-états j donnant les mêmes valeurs E, V , N à Ej , Vj , Nj .
Si on note ΩEV N le nombre de micro-états j tels que Ej = E, Vj = V , Nj = N, on
obtient la transformée de Laplace de ΩEV N :

I(β, ξ, γ) = e−βEj e−ξVj e−γNj = ΩEV N e−βE e−ξV e−γN (1.26)
EV N j∈JEV N EV N

Notation : JEV N = ensemble des indices j donnant la même valeur E à l’énergie


interne, la même valeur V au volume, et la même valeur N au nombre de particules.
Il nous reste à écrire les différentes probabilités :
– probabilité d’observer le micro-état j :
1
Pj (β, ξ, γ) = e−βEj e−ξVj e−γNj
I(β, ξ, γ)

– probabilité de mesurer E, V et N simultanément :


ΩEV N
PEV N (β, ξ, γ) = e−βE e−ξV e−γN
I(β, ξ, γ)

– probabilité de mesurer E et V , indépendamment de N :

QEV (γ) −βE −ξV


PEV (β, ξ, γ) = e e avec QEV (γ) = ΩEV N e−γN
I(β, ξ, γ) N

– probabilité de mesurer E et N, indépendamment de V :

QEN (ξ) −βE −γN


PEN (β, ξ, γ) = e e avec QEN (ξ) = ΩEV N e−ξV
I(β, ξ, γ) V
30 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

– probabilité de mesurer V et N, indépendamment de E :

QV N (β) −ξV −γN


PV N (β, ξ, γ) = e e avec QV N (β) = ΩEV N e−βE
I(β, ξ, γ) E

– probabilité de mesurer E indépendamment de N et V :

ZE (ξ, γ) −βE
PE (β, ξ, γ) = e avec ZE (ξ, γ) = ΩEV N e−ξV e−γN
I(β, ξ, γ) VN

– probabilité de mesurer V indépendamment de E et N :

ZV (β, γ) −ξV
PV (β, ξ, γ) = e avec ZV (β, γ) = ΩEV N e−βE e−γN
I(β, ξ, γ) EN

– probabilité de mesurer N indépendamment de E et V :

ZN (β, ξ) −γN
PN (β, ξ, γ) = e avec ZN (β, ξ) = ΩEV N e−βE e−ξV
I(β, ξ, γ) EV

Remarque : se fixer β, ξ, γ revient à se fixer T , p, μ. Il est donc possible de


travailler avec le potentiel thermodynamique Θ(T, p, μ) et la fonction de partition
I(T, p, μ) exprimée en fonction des variables intensives énergétiques habituelles. On
a donc le choix de travailler :
– avec les fonctions βΘ(β, ξ, γ) et I(β, ξ, γ) :

I(β, ξ, γ) = e−βEj e−ξVj e−γNj = ΩEV N e−βE e−ξV e−γN
j EV N

−βΘ(β, ξ, γ) = ln I(β, ξ, γ) d(βΘ) = E dβ + V dξ + N dγ


  
∂βΘ ∂βΘ ∂βΘ S
E= V = N= = βE + ξV + γN − βΘ
∂β ξ,γ ∂ξ γ,β ∂γ β,ξ k
– avec les fonctions Θ(T, p, μ) et I(T, p, μ) :


I(T, p, μ) = e−Ej /kT e−pVj /kT eμNj /kT = ΩEV N e−E/kT e−pV /kT eμN/kT
j EV N

Θ(T, p, μ) = −kT ln I(T, p, μ) dΘ = −S dT + V dp − N dμ


  
∂Θ ∂Θ ∂Θ
S=− V =+ N =− E = Θ + T S − pV + μN
∂T p,μ ∂p μ,T ∂μ T,p
NB : pour que ces équations soient utilisables, il est nécessaire que la fonction
Iβ, ξ, γ) contienne un certain facteur d’échelle M (voir note de bas de page 7 relative
aux équations 1.12 et 1.20).
1.4 Les ensembles statistiques 31

1.4 Les ensembles statistiques


1.4.1 Introduction et conventions d’écriture
Le système étudié jusqu’à présent était caractérisé uniquement par les valeurs des
variables intensives. Sa ”taille” n’était donc pas fixée puisque toutes ses variables
extensives étaient libres de fluctuer. On ne pourra utiliser ces résultats que si les
données du problème imposent un certain facteur d’échelle M (voir équations 1.12
et 1.20).
C’est le cas en statistiques de réseaux (voir paragraphe 2.1) où le nombre M de
sites disponibles fixe la taille du système et par conséquent les valeurs d’équilibre
des variables extensives. Dans les autres cas pratiques, l’une au moins des variables
extensives est fixée par les conditions expérimentales.
Dans un premier temps, nous envisageons les systèmes caractérisés par une va-
riable extensive fixe, les deux autres étant libres de fluctuer. On imagine facilement
un système constitué d’une partie de l’espace de volume V fixé où les particules sont
libres d’entrer et sortir à leur guise (paragraphe 1.4.2). Ou un système constitué
d’un nombre N fixé de particules pouvant occuper le volume qu’elles souhaitent
(paragraphe 1.4.3).
Suivront ensuite les systèmes caractérisés par les deux variables N et V fixes
(paragraphe 1.4.4), puis par les trois variables E, V , N fixes (paragraphe 1.4.5).
On peut aussi envisager des systèmes à énergie constante alors que N et/ou V
sont libres de fluctuer (c’est possible avec des particules immatérielles comme les
photons par exemple). Ces cas peu usités sont décrits au paragraphe 1.4.6.
Convention d’écriture : Les variables fluctuantes (à ensemble discret de va-
leurs) sont en indice, alors que les variables thermodynamiques sont mises entre
parenthèses. On fera par exemple la distinction entre ZV (β, γ) où V est une va-
riable discrète, et Z(β, V, γ) où V est une variable thermodynamique, continue et
macroscopique. On pourra dériver Z(β, V, γ) par rapport à V , mais pas ZV (β, γ).
Une mise en garde au sujet de cette convention : à V constant, ZV (β, γ) devient
Z(β, V, γ) ; à N constant, ZN (β, ξ) devient Z(β, ξ, N). Les deux fonctions obtenues
portent le même symbole Z. Il est donc très important de faire figurer les variables
dans les écritures : ce sont des fonctions différentes, qui portent d’ailleurs des noms
différents. 
Autre notation : soit une fonction f (E, V, N) et la triple somme f (E, V, N).
EV N
Dans cette triple somme, on suppose implicitement que dans chaque terme de la
somme, les trois valeurs E, V , N sont compatibles entre elles, autrement dit qu’elles
peuvent être observées simultanément sur le système. Si on veut détailler dans quel
ordre on effectue les trois sommations, on écrira par exemple :
 
f (E, V, N) = f E(V, N), V (N), N
EV N N V (N ) E(V,N )

La première sommation porte sur toutes les valeurs possibles de N, la deuxième


sommation porte sur l’ensemble des volumes V possibles lorsque le nombre de parti-
cules vaut N, et la troisième sommation porte sur l’ensemble des énergies E possibles
lorsque le nombre de particules vaut N et lorsque le volume vaut V .
32 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

1.4.2 L’ensemble grand canonique


C’est le cas ou V est fixe : Vj = V pour tout j. Le système est en contact avec un
réservoir de chaleur et de particules fixant la température et le potentiel chimique,
mais pas la pression.
On réécrit la fonction de partition totale 1.26 en posant Vj = V et en supprimant
la sommation sur V , sachant que les valeurs accessibles à E et N dépendent de la
valeur de V choisie :

I(β, ξ, γ) = e−ξV ΩEN (V ) e−βE(V ) e−γN (V ) = e−ξV Z(β, V, γ)
E(V ),N (V )

On remarquera l’écriture ΩEN (V ) au lieu de ΩE(V ),V,N (V ) , signifiant que V est


maintenant une variable thermodynamique.

On en déduit : βΘ(β, ξ, γ) = − ln I(β, ξ, γ) = ξV − ln Z(β, V, γ).

Cela signifie que βΘ(β, ξ, γ) est la transformée de Legendre de ln Z(β, V, γ) pour


la variable V . En thermodynamique, βΘ(β, ξ, γ) est la transformée de Legendre de
−βΨ(β, V, γ) pour la variable V .

On a donc : βΨ(β, V, γ) = − ln Z(β, V, γ).

La fonction (βΨ) est la fonction caractéristique de l’ensemble grand canonique.


Z(β, V, γ) est appelée grande fonction de partition :

Z(β, V, γ) = ΩEN (V ) e−βE(V ) e−γN (V )
E(V ),N (V )

On pourra bien sûr utiliser le grand potentiel Ψ(T, V, μ) :


Ψ(T, V, μ) = −kT ln Z(T, V, μ)

avec Z(T, V, μ) = ΩEN (V ) e−E(V )/kT eμN (V )/kT
E(V ),N (V )

On peut maintenant écrire les différentes probabilités :


– d’observer le micro-état j :
e−βEj (V ) e−γNj (V )
Pj (β, V, γ) =
Z(β, V, γ)
– de mesurer E et N simultanément :
ΩE N (V )e−βE(V ) e−γN (V )
PEN (β, V, γ) =
Z(β, V, γ)
– de mesurer E indépendamment de N :
QE (V, γ)e−βE(V )
PE (β, V, γ) = avec QE (V, γ) = ΩEN (V ) e−γN (V )
Z(β, V, γ)
N (V )
1.4 Les ensembles statistiques 33

– de mesurer N indépendamment de E :

QN (β, V )e−γN (V )
PN (β, V, γ) = avec QN (β, V ) = ΩEN (V ) e−βE(V )
Z(β, V, γ)
E(V )

Les principaux résultats :

– en utilisant βΨ(β, V, γ) = − ln Z(β, V, γ) :


  
∂ ln Z ∂ ln Z ∂ ln Z
E=− ξ=+ N =−
∂β V,γ ∂V β,γ ∂γ V,β

 
S ∂ ln Z ∂ ln Z
= βE + γN + ln Z = −β −γ + ln Z
k ∂β V,γ ∂γ V,β

– en utilisant Ψ(T, V, μ) = −kT ln Z(T, V, μ) :


 
∂kT ln Z ∂ ln Z
S(T, V, μ) = = k ln Z + kT
∂T V,μ ∂T V,μ
 
∂ ln Z ∂ ln Z
p(T, V, μ) = kT N(T, V, μ) = kT
∂V T,μ ∂μ T,V

   
∂ ln Z ∂ ln Z
E(T, V, μ) = T S + μN − kT ln Z = kT μ +T
∂μ T,V ∂T V,μ

On se débrouille ensuite pour écrire E(T, V, N), V (T, p, N) et H(T, p, N). On a


ainsi accès aux capacités thermiques CV et Cp , au coefficient de dilatation thermique
isobare α et au module de compressibilité isotherme χ par les relations :
   
∂E ∂H 1 ∂V 1 ∂V
CV = Cp = α= χ=− (1.27)
∂T V,N ∂T p,N V ∂T p,N V ∂p T,N

∂ ∂ ∂
Une relation utile : kT =− = λ , avec λ = e−γ = eμ/kT (fugacité).
∂μ ∂γ ∂λ

1.4.3 L’ensemble T-p


Le système est maintenant en contact avec un réservoir de chaleur muni d’un
piston mobile fixant la température et la pression. C’est N qui est fixe : Nj = N
pour tout j. Le principe est rigoureusement le même que précédemment. Il y a juste
permutation des rôles respectifs des variables V et N. On réécrit la fonction de
partition totale 1.26 en remplaçant Nj par N (et en supprimant la sommation sur
N), sachant que les valeurs accessibles à E et V dépendent de la valeur de N choisie :

I(β, ξ, γ) = e−γN ΩEV (N) e−βE(N ) e−ξV (N ) = e−γN Z(β, ξ, N)
E(N ),V (N )
34 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

On en déduit : βΘ(β, ξ, γ) = − ln I(β, ξ, γ) = γN − ln Z(β, ξ, N).

Cela signifie que βΘ(β, ξ, γ) est la transformée de Legendre de ln Z(β, ξ, N) pour


la variable N. En thermodynamique, βΘ(β, ξ, γ) est la transformée de Legendre de
−βG(β, ξ, N) pour la variable N.

On a donc : βG(β, ξ, N) = − ln Z(β, ξ, N).

La fonction (βG) est la fonction caractéristique de l’ensemble T -p. Z(β, ξ, N)


est appelée fonction de partition T -p :

Z(β, ξ, N) = ΩEV (N) e−βE(N ) e−ξV (N )
E(N ),V (N )

Ce qui donne, en utilisant l’enthalpie libre G(T, p, N) :


G(T, p, N) = −kT ln Z(T, p, N)

avec Z(T, p, N) = ΩEV (N) e−E(N )/kT e−p V (N )/kT
E(N ),V (N )

Les différentes probabilités :


– d’observer le micro-état j :
e−βEj (N ) e−ξVj (N )
Pj (β, ξ, N) =
Z(β, ξ, N)
– de mesurer E et V simultanément :
ΩEV (N)e−βE(N ) e−ξV (N )
PEV (β, ξ, N) =
Z(β, ξ, N)
– de mesurer E indépendamment de V :
QE (ξ, N)e−βE(N )
PE (β, ξ, N) = avec QE (ξ, N) = ΩEV (N) e−ξV (N )
Z(β, ξ, N)
V (N )

– de mesurer V indépendamment de E :
QV (β, N)e−ξV (N )
PV (β, ξ, N) = avec QV (β, N) = ΩEV (N) e−βE(N )
Z(β, ξ, N)
E(N )

Les principaux résultats :

– en utilisant βG(β, ξ, N) = − ln Z(β, ξ, N) :


  
∂ ln Z ∂ ln Z ∂ ln Z
E=− V =− γ=+
∂β ξ,N ∂ξ N,β ∂N β,ξ

 
S ∂ ln Z ∂ ln Z
= βE + ξV + ln Z = −β −ξ + ln Z
k ∂β ξ,N ∂ξ N,β
1.4 Les ensembles statistiques 35

– en utilisant G(T, p, N) = −kT ln Z(T, p, N) :


 
∂kT ln Z ∂ ln Z
S(T, p, N) = = k ln Z + kT
∂T p,N ∂T p,N
 
∂ ln Z ∂ ln Z
V (T, p, N) = −kT μ(T, V, μ) = −kT
∂p T,N ∂N T,p

   
∂ ln Z ∂ ln Z
E(T, p, N) = T S − pV − kT ln Z = kT p +T
∂p T,N ∂T p,N

Pour les utilisations de ces résultats, voir les équations 1.27.


kT ∂ 1 ∂ ∂
Une relation utile : en posant η = e−ξV = e−pV /kT on a : = = −η .
V ∂p V ∂ξ ∂η

1.4.4 L’ensemble canonique


L’ensemble canonique est fabriqué à partir d’un système isotherme, isochore,
fermé (T, V, N constants). On peut le fabriquer par exemple en partant de l’ensemble
grand canonique. On réécrit Z(β, V, γ) en ne considérant qu’une seule valeur de N.
Les niveaux E accessibles deviennent fonction de V et N :

Z(β, V, γ) = e−γN (V ) ΩE (V, N)e−βE(V,N ) = e−γN (V ) Q(β, V, N)
E(V,N )

On en déduit : βΨ(β, V, γ) = − ln Z(β, V, γ) = γN − ln Q(β, V, N).

βΨ(β, V, γ) est donc la transformée de Legendre de ln Q(β, V, N) pour la va-


riable N. En thermodynamique, βΨ(β, V, γ) est la transformée de Legendre de
−βF (β, V, N) pour la variable N. On a donc au choix :

βF (β, V, N) = − ln Q(β, V, N) avec Q(β, V, N) = ΩE (V, N)e−βE(V,N )
E(V,N )


F (T, V, N) = −kT ln Q(T, V, N) avec Q(T, V, N) = ΩE (V, N)e−E(V,N )/kT
E(V,N )

La fonction (βF ) est la fonction caractéristique de l’ensemble canonique.


Q(β, V, N) est appelée fonction de partition canonique.
Les différentes probabilités :
– d’observer le micro-état j :
1
Pj (β, V, N) = e−βEj (V,N ) (1.28)
Q(β, V, N)

– de mesurer E :
ΩE (V, N) −βE(V,N )
PE (β, V, N) = e (1.29)
Q(β, V, N)
36 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

Les principaux résultats :

– en utilisant βF (β, V, N) = − ln Q(β, V, N) :


  
∂ ln Q ∂ ln Q ∂ ln Q
E(β, V, N) = − ξ(β, V, N) = γ(β, V, N) =
∂β V,N ∂V β,N ∂N β,V

S(β, V, N) ∂ ln Q
= βE + ln Q = −β + ln Q
k ∂β V,N

– en utilisant F (T, V, N) = −kT ln Q(T, V, N) :


 
∂kT ln Q ∂ ln Q
S(T, V, N) = = k ln Q + kT
∂T V,N ∂T V,N
 
∂ ln Q ∂ ln Q
p(T, V, N) = kT μ(T, V, μ) = −kT
∂V T,N ∂N T,V


∂ ln Q
2
E(T, V, N) = T S − kT ln Q = kT
∂T V,N

Pour les utilisations de ces résultats, voir les équations 1.27.

1.4.5 L’ensemble microcanonique


L’ensemble microcanonique est construit à partir d’un système isolé : aucune
variable extensive n’est autorisée à fluctuer (E, V, N fixes). On peut par exemple
le construire à partir de l’ensemble canonique. On réécrit la fonction Q(β, V, N) en
ne considérant qu’un seul niveau E. ΩE (V, N) devient Ω(E, V, N), c’est-à-dire le
nombre de façons d’observer E, V, N simultanément :

Q(β, V, N) = e−βE Ω(E, V, N)

⇒ βF (β, V, N) = − ln Q(β, V, N) = βE − ln Ω(E, V, N)

βF (β, V, N) est donc la transformée de Legendre de ln Ω(E, V, N) pour la va-


riable E. Puisque en thermodynamique βF est la transformée de Legendre de S/k
pour la variable E, on en déduit :

S(E, V, N) = k ln Ω(E, V, N) Équation de Boltzmann



En partant de S = −k Pj ln Pj , on trouve la même chose.
j
1
Tous les états sont équiprobables, et il y en a Ω ; on a donc Pj = Ω
pour tout j :


Ω Ω
1 1 1 1
S = −k Pj ln Pj = −k ln = −k Ω × ln = k ln Ω
j=1 j=1
Ω Ω Ω Ω
1.4 Les ensembles statistiques 37

On exprime maintenant les variables intensives en fonction des variables exten-


sives :
  
∂ ln Ω ∂ ln Ω ∂ ln Ω
β(E, V, N) = ξ(E, V, N) = γ(E, V, N) =
∂E V,N ∂V E,N ∂N E,V

Maintenant que nous connaissons l’expression de l’entropie en fonction des autres


variables extensives, on peut reformuler de façon plus condensée la probabilité, dans
chaque ensemble statistique, d’observer simultanément un jeu de valeurs données
pour les variables fluctuantes.
Partons par exemple de la probabilité dans l’ensemble T -p-μ de mesurer E, V ,
N simultanément. On avait trouvé au paragraphe 1.3.4 :

ΩEV N e−βE e−ξV e−γN


PEV N (β, ξ, γ) =
I(β, ξ, γ)

Soit SEV N = k ln ΩEV N . C’est l’entropie que posséderait le système si on limitait


les microétats accessibles à ceux compatibles avec (E, V, N). En remplaçant dans le
résultat ci-dessus ΩEV N par eSEV N /k et I(β, ξ, γ) par e−βΘ(β,ξ,γ) , on trouve :

eSEV N /k−βE−ξV −γN e−βΘEV N (β,ξ,γ)


PEV N (β, ξ, γ) = = = e−βΔΘEV N
e−βΘ(β,ξ,γ) e−βΘ(β,ξ,γ)

avec βΔΘEV N = βΘEV N (β, ξ, γ) − βΘ(β, ξ, γ)

Θ(β, ξ, γ) est le potentiel nul calculé à partir de la fonction de partition totale


prenant en compte tous les états (E, V, N) accessibles au système. ΘEV N (β, ξ, γ) est
la valeur du potentiel nul lorsque seuls sont accessibles les microétats compatibles
avec un jeu de valeurs (E, V, N) donné. Ce jeu de valeurs peut correspondre aux
valeurs moyennes (Ē, V̄ , N̄), c’est-à-dire l’état d’équilibre. Si ce n’est pas le cas, on
dira que le jeu (E, V, N) correspond à un état excité du système.
En opérant de même dans les autres ensembles, on trouve respectivement dans
l’ensemble grand canonique, dans l’ensemble T -p et dans l’ensemble canonique :

PEN (β, V, γ) = e−βΔΨEN avec βΔΨEN = βΨEN (β, V, γ) − βΨ(β, V, γ)

PEV (β, ξ, N) = e−βΔGEV avec βΔGEV = βGEV (β, ξ, N) − βG(β, ξ, N)

PE (β, V, N) = e−βΔFE avec βΔFE = βFE (β, V, N) − βF (β, V, N)

Dans chaque cas, et on montre facilement que c’est valable quel que soit l’en-
semble, la probabilité d’occupation d’un état excité est liée à la variation engendrée
par l’excitation du potentiel thermodynamique caractéristique de l’ensemble statis-
tique utilisé (celui prenant en compte toutes les excitations possibles du système).
Ce formalisme est à la base de nombreux modèles de la physique statistique hors
équilibre dédiés à l’étude de l’évolution des systèmes vers un nouvel état d’équilibre
lorsqu’on modifie les conditions expérimentales.
38 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

La théorie de l’information s’intéresse à l’information contenue dans un sys-


tème probabiliste. Nous en donnons ici les grandes lignes dans le but de retrouver
intuitivement l’équation de Boltzmann et de donner une définition plus générale de
l’entropie.
Imaginons par exemple que j’ai une boule dans la main et que je la place dans
l’une des N boîtes posées sur la table. Je ferme les boîtes et je pose la question :
« Où est la boule ? ».

Hypothèses de départ :
– la boule est forcément dans une des N boîtes et dans une seule ;
– mon interlocuteur n’a pas vu dans quelle boîte j’ai mis la boule ;
– je ne suis ni menteur ni atteint de la maladie d’Alzheimer.

Étudions les différents cas possibles :


1. Toutes les boîtes sont identiques (rouges) sauf une (bleue), et je dis : « la boule
est dans la boîte bleue ». La probabilité de trouver la boule vaut 1 ;
2. Parmi les N boîtes, p sont bleues et N − p sont rouges, et je dis : « la boule
est dans une boîte bleue ». La probabilité de trouver la boule vaut p/N.
3. Toutes les boîtes sont identiques : la probabilité de trouver la boule est 1/N.

Il est clair qu’on a plus d’information dans le cas 1 que dans le cas 2, et plus
d’information dans le cas 2 que dans le cas 3.
Dans cet exemple, on constate que la probabilité de trouver la boule augmente
avec la quantité d’information que l’on possède. Pour quantifier l’information, on
introduit une variable I représentant l’information manquante. On en donne ici les
propriétés essentielles. Les N boîtes sont maintenant toutes identiques :
– L’information manquante augmente avec N : N  > N ⇒ I(N  ) > I(N) (a)
– S’il n’y a qu’une boîte, l’information manquante est nulle : I(1) = 0 (b)
Chacune des N boîtes est maintenant divisée en M compartiments. La question
est : « dans quel compartiment est la boule ? ». Deux manières de la trouver :
– on a en tout M×N compartiments, d’où une information manquante I(M×N) ;
– on cherche d’abord la boîte (information manquante I(N)), puis le comparti-
ment (information manquante I(M)), soit au total I(N) + I(M).
D’où la dernière propriété importante : I(M × N) = I(M) + I(N) (c)
Les trois propriétés (a), (b), (c) ci-dessus sont caractéristiques des fonctions
logarithmiques, ce qui permet d’écrire :

I(N) = K ln N

K est une constante arbitraire positive. Si on remplace la boule par un système


thermodynamique isolé, et les N boîtes par les Ω micro-états accessibles à ce système,
on obtient l’équation de Boltzmann S(Ω) = k ln Ω. C’est pourquoi l’information
manquante est appelée entropie d’information. Si on identifie S et I, on dira que
lorsque l’équilibre est atteint, l’entropie (l’information manquante) est maximale et
que l’information (connue) est minimale. L’entropie statistique est une mesure de
l’information manquante, autrement dit du désordre présent dans le système.
1.4 Les ensembles statistiques 39

1.4.6 Les autres ensembles en variance 3


L’ensemble ξ-γ
Cet ensemble présente un intérêt pratique très limité (son nom n’a d’ailleurs rien
d’officiel : les deux lettres grecques représentent les variables intensives entropiques
fixes). Il permettra simplement d’introduire l’ensemble γ (un nom pas plus officiel
que le premier) utilisable dans l’étude du corps noir.
Le système est en contact avec un réservoir de particules qui fixe ξ et γ. Les
grandeurs V et N sont libres de fluctuer alors que E est fixe : Ej = E pour tout j.
En partant de l’ensemble T -p-μ, on trouve :

Z(E, ξ, γ) = ΩV N (E)e−ξV (E) e−γN (E) βE(E, ξ, γ) = ln Z(E, ξ, γ)
V (E),N (E)
  
∂ ln Z ∂ ln Z ∂ ln Z
avec β= V =− N =−
∂E ξ,γ ∂ξ E,γ ∂γ E,ξ
Attention : ξ et γ fixés ne signifie pas p et μ fixés. On ne peut donc pas travailler
ici avec les variables p et μ.

L’ensemble γ
Le système étudié est maintenant tel que E et V sont constants, alors que le
nombre de particules N est libre de fluctuer. C’est possible avec des particules im-
matérielles (comme les photons) qui ont la faculté d’apparaître ou disparaître à
volonté. La seule variable fluctuante étant N, on notera ΩN (E, V ) le nombre de
façons, pour E et V donnés, de placer N particules dans le système. Partant de
l’ensemble ξ-γ, on trouve :

Q(E, V, γ) = ΩN (E, V )e−γN (E,V ) βH(E, V, γ) = ln Q(E, V, γ)
N (E,V )
  
∂ ln Q ∂ ln Q ∂ ln Q
avec β = ξ= N =−
∂E V,γ ∂V E,γ ∂γ E,V
Avec la même remarque que précédemment : en fixant γ, on ne fixe pas le po-
tentiel chimique μ, mais uniquement μ/kT . On ne peut donc pas travailler avec la
variable μ.

L’ensemble ξ
Pour que la liste soit complète, il faut ajouter un dernier ensemble (d’aucune
utilité pratique) fabriqué à partir d’un système caractérisé par les variables E, ξ et
N. La seule variable fluctuante étant V , on notera ΩV (E, N) le nombre de façons,
pour E et N donnés, d’observer le volume V . Partant de l’ensemble ξ-γ, on trouve :

Q(E, ξ, N) = ΩV (E, N)e−ξV (E,N ) βΦ(E, ξ, N) = ln Q(E, ξ, N)
V (E,N )
  
∂ ln Q ∂ ln Q ∂ ln Q
avec β = V =− γ=
∂E ξ,N ∂ξ E,N ∂N E,ξ
40 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

1.4.7 Synthèse des résultats


On peut reprendre les résultats, en partant cette fois de l’ensemble microcano-
nique. Celui-ci est fabriqué à partir d’un système où toutes les variables extensives
sont fixes.
À partir de l’ensemble microcanonique, on fabrique les ensembles à une variable
extensive fluctuante (ensemble canonique, ensemble γ, ensemble ξ). La variable in-
tensive entropique associée à la variable fluctuante est fixe. La fonction caractéris-
tique (FC) de l’ensemble obtenu est une transformée de Legendre de S/k. La fonc-
tion de partition (FP) est une transformée de Laplace du nombre de complexions
Ω. La variable transformée est dans les deux transformations la variable extensive
fluctuante.
   
À retenir : FC = TdLegendre de S/k = − ln FP = TdLaplace de Ω (1.30)
Les ensembles à deux variables extensives fluctuantes (ensemble grand-canonique,
ensemble T -p, ensemble ξ-γ) se fabriquent par double ou simple transformée suivant
l’ensemble de départ (attention aux changements de signe, voir relation 1.4).
Et enfin la dernière étape : la fabrication de l’ensemble T -p -μ, par triple, double
ou simple transformée suivant l’ensemble de départ.
Dans les formules qui suivent, les transformées de Legendre (à gauche) et de
Laplace (à droite) associées sont reliées par le symbole ←→.

Ensemble microcanonique
S(E, V, N)/k = ln Ω(E, V, N) dS/k = d ln Ω = β dE + ξ dV + γ dN
Ensemble canonique

+βF (β, V, N) = βE − S/k ←→ Q(β, V, N) = Ω(E, V, N) e−βE
E
+βF (β, V, N) = − ln Q(β, V, N) d(+βF ) = d(− ln Q) = +E dβ − ξ dV − γ dN
Ensemble γ

−βH(E, V, γ) = γN − S/k ←→ Q(E, V, γ) = Ω(E, V, N) e−γN
N
−βH(E, V, γ) = − ln Q(E, V, γ) d(−βH) = d(− ln Q) = −β dE − ξ dV + N dγ
Ensemble ξ

−βΦ(E, ξ, N) = ξV − S/k ←→ Q(E, ξ, N) = Ω(E, V, N) e−ξV
V
−βΦ(E, ξ, N) = − ln Q(E, ξ, N) d(−βΦ) = d(− ln Q) = −β dE + V dξ − γ dN
Ensemble grand-canonique

+βΨ(β, V, γ) = βE + γN − S/k ←→ Z(β, V, γ) = Ω(E, V, N) e−βE e−γN
EN


+βΨ(β, V, γ) = γN − (−βF ) ←→ Z(β, V, γ) = Q(β, V, N) e−γN

N
+βΨ(β, V, γ) = βE − (+βH) ←→ Z(β, V, γ) = Q(E, V, γ) e−βE
E

+βΨ(β, V, γ) = − ln Z(β, V, γ) d(+βΨ) = d(− ln Z) = +E dβ − ξ dV + N dγ


1.4 Les ensembles statistiques 41

Ensemble T-p

+βG(β, ξ, N) = βE + ξV − S/k ←→ Z(β, ξ, N) = Ω(E, V, N) e−βE e−ξV
EV


+βG(β, ξ, N) = ξV − (−βF ) ←→ Z(β, ξ, N) = Q(β, V, N) e−ξV

V
+βG(β, ξ, N) = βE − (+βΦ) ←→ Z(β, ξ, N) = Q(E, ξ, N) e−βE
E

+βG(β, ξ, N) = − ln Z(β, ξ, N) d(+βG) = d(− ln Z) = +E dβ + V dξ − γ dN

Ensemble ξ-γ

−βE(E, ξ, γ) = ξV + γN − S/k ←→ Z(E, ξ, γ) = Ω(E, V, N) e−ξV e−γN
VN


−βE(E, ξ, γ) = ξV − (+βH) ←→ Z(E, ξ, γ) = Q(E, V, γ) e−ξV

V
−βE(E, ξ, γ) = γN − (+βΦ) ←→ Z(E, ξ, γ) = Q(E, ξ, N) e−γN
N

−βE(E, ξ, γ) = − ln Z(E, ξ, γ) d(−βE) = d(− ln Z) = −β dE + V dξ + N dγ

Ensemble T-p-μ

+βΘ(β, ξ, γ) = βE + ξV + γN − S/k ↔ I(β, ξ, γ) = Ω(E, V, N) e−βE e−ξV e−γN
EV N


+βΘ(β, ξ, γ) = ξV + γN − (−βF ) ←→ I(β, ξ, γ) = Q(β, V, N) e−ξV e−γN
V
N
+βΘ(β, ξ, γ) = βE + ξV − (+βH) ←→ I(β, ξ, γ) = Q(E, V, γ) e−βE e−ξV

EV
+βΘ(β, ξ, γ) = βE + γN − (+βΦ) ←→ I(β, ξ, γ) = Q(E, ξ, N) e−βE e−γN
EN


+βΘ(β, ξ, γ) = ξV − (−βΨ) ←→ I(β, ξ, γ) = Z(β, V, γ) e−ξV

V
+βΘ(β, ξ, γ) = γN − (−βG) ←→ I(β, ξ, γ) = Z(β, ξ, N) e−γN

N
+βΘ(β, ξ, γ) = βE − (+βE) ←→ I(β, ξ, γ) = Z(E, ξ, γ) e−βE
E

+βΘ(β, ξ, γ) = − ln Z(β, ξ, γ) d(+βΘ) = d(− ln I) = +E dβ + V dξ + N dγ

1.4.8 Ensembles en variance supérieure à 3


Systèmes polyconstituants
Dans un système polyconstituant, les particules sont réparties en p espèces. On
introduit p nombres de particules N1 . . . Np , p potentiels chimiques μ1 . . . μp et p
paramètres γi = −μi /kT (i = 1 à p).
Aux huit ensembles précédents (où on remplace les sommes sur N par p sommes
sur N1 . . . Np ), il faut ajouter les ensembles construits à partir de systèmes ouverts
42 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

pour certains constituants et fermés pour les autres. On donne ci-dessous les prin-
cipaux ensembles relatifs à un système biconstituant.

L’ensemble canonique a pour fonction caractéristique +βF (β, V, N1, N2 ) et pour


fonction de partition Q(β, V, N1 , N2 ), avec les relations :

+βF (β, V, N1, N2 ) = βE − S/k = − ln Q(β, V, N1 , N2 )


d(+βF ) = d(− ln Q) = +E dβ − ξ dV − γ1 dN1 − γ2 dN2

Q(β, V, N1 , N2 ) = Ω(E, V, N1 , N2 ) e−βE
E

L’ensemble grand-canonique a pour fonction caractéristique +βΨ(β, V, γ1, γ2 )


et pour fonction de partition Z(β, V, γ1, γ2 ), avec les relations :

+βΨ(β, V, γ1, γ2 ) = βE + γ1 N1 + γ2 N2 − S/k = − ln Z(β, V, γ1, γ2 )


d(+βΨ) = d(− ln Z) = +E dβ − ξ dV + N1 dγ1 + N2 dγ2

Z(β, V, γ1, γ2 ) = Ω(E, V, N1 , N2 ) e−βE e−γ1 N1 e−γ2 N2
EN1 N2

L’ensemble T -μ1 est construit à partir d’un système isotherme, ouvert pour le
constituant 1, fermé pour le constituant 2. Soit +βΦ1 (β, V, γ1, N2 ) sa fonction ca-
ractéristique, et Δ1 (β, V, γ1, N2 ) sa fonction de partition :

+βΦ1 (β, V, γ1, N2 ) = βE + γ1 N1 − S/k = − ln Δ1 (β, V, γ1, N2 )


d(+βΦ1 ) = d(− ln Δ1 ) = +E dβ − ξ dV + N1 dγ1 − γ2 dN2

Δ1 (β, V, γ1, N2 ) = Ω(E, V, N1 , N2 ) e−βE e−γ1 N1
EN1

L’ensemble T -μ2 est construit à partir d’un système isotherme, fermé pour le
constituant 1, ouvert pour le constituant 2. Soit +βΦ2 (β, V, N1, γ2 ) sa fonction ca-
ractéristique, et Δ2 (β, V, N1 , γ2) sa fonction de partition :

+βΦ2 (β, V, N1 , γ2) = βE + γ2 N2 − S/k = − ln Δ2 (β, V, N1 , γ2)


d(+βΦ2 ) = d(− ln Δ2 ) = +E dβ − ξ dV − γ1 dN1 + N2 dγ2

Δ2 (β, V, N1, γ2 ) = Ω(E, V, N1 , N2 ) e−βE e−γ2 N2
EN2

Autre contribution au travail que pV


Même principe s’il y a une autre contribution au travail que pV . Soit (X, P ) le
couple de variables supplémentaires, avec φ = −P/kT .

Aux huit ensembles précédents (où on remplace la somme sur V par une double
somme sur V et X), il faut ajouter les ensembles construits à partir de systèmes à
V et φ constants et de systèmes à X et ξ constants.
Ci-dessous les ensembles les plus utilisés.
1.5 Le deuxième principe et le troisième principe 43

L’ensemble canonique a pour fonction caractéristique +βF (β, V, X, N) et pour


fonction de partition Q(β, V, X, N), avec les relations :
+βF (β, V, X, N) = βE − S/k = − ln Q(β, V, X, N)
d(+βF ) = d(− ln Q) = +E dβ − ξ dV − φ dX − γ dN

Q(β, V, X, N) = Ω(E, V, X, N) e−βE
E

L’ensemble T -p -P a pour fonction caractéristique +βG(β, ξ, φ, N) et pour fonction


de partition Z(β, ξ, φ, N), avec les relations :
+βG(β, ξ, φ, N) = βE + ξV + φX − S/k = − ln Z(β, ξ, φ, N)
d(+βG) = d(− ln Z) = +E dβ + V dξ + X dφ − γ dN

Z(β, V, ξ, φ, N) = Ω(E, V, X, N) e−βE e−ξV e−φX
EV X

L’ensemble T -p est construit à partir d’un système isotherme, isobare, avec X fixé.
Soit +βΦV (β, ξ, X, N) sa fonction caractéristique, et ΔV (β, ξ, X, N) sa fonction de
partition :
+βΦV (β, ξ, X, N) = βE + ξV − S/k = − ln ΔV (β, ξ, X, N)
d(+βΦV ) = d(− ln ΔV ) = +E dβ + V dξ − φ dX − γ dN

ΔV (β, ξ, X, N) = Ω(E, V, X, N) e−βE e−ξV
EV

L’ensemble T -P est construit à partir d’un système isotherme, isochore, en contact


avec un réservoir qui fixe P . Soit +βΦX (β, V, φ, N) sa fonction caractéristique, et
ΔX (β, V, φ, N) sa fonction de partition :
+βΦX (β, V, φ, N) = βE + φX − S/k = − ln ΔX (β, V, φ, N)
d(+βΦX ) = d(− ln ΔX ) = +E dβ − ξ dV + X dφ − γ dN

ΔX (β, V, φ, N) = Ω(E, V, X, N) e−βE e−φX
EX

1.5 Le deuxième principe et le troisième principe


1.5.1 Équivalence entre ensembles statistiques
Fluctuations de V autour de V̄ dans l’ensemble T -p
Soit le volume moyen d’un système isotherme, isobare, fermé :
1
V̄ (β, ξ, N) = V PV (β, ξ, N) = V QV (β, N) e−ξV
V
Z(β, ξ, N) V

Avec Z(β, ξ, N) = QV (β, N) e−ξV , on obtient :
V

V̄ (β, ξ, N) QV (β, N) e−ξV = V QV (β, N) e−ξV
V V
44 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

On dérive par rapport à ξ et on trouve (χ est la compressibilité) :


  
2 2 ∂ V̄ ∂ V̄ ΔV kT χ
ΔV = V 2 − V̄ = − = −kT = kT χ V̄ ⇒ =
∂ξ β,N ∂p T,N V̄ V̄

Fluctuations de N autour de N̄ dans l’ensemble grand-canonique


Soit le nombre moyen de particules dans un système isotherme, isochore, ouvert :
1
N̄(β, V, γ) = N PN (β, V, γ) = N QN (β, V ) e−γN
N
Z(β, V, γ) N

Avec Z(β, V, γ) = QN (β, V ) e−γN , on obtient :
N

N̄ (β, V, γ) QN (β, V ) e−γN = N QN (β, V ) e−γN
N N

On dérive par rapport à γ et on trouve :


    
∂ N̄ ∂ N̄ ΔN kT ∂ N̄ kT χ
ΔN 2 = − = kT ⇒ = =
∂γ β,V ∂μ T,V N̄ N̄ 2 ∂μ T,V V

La dernière égalité a été obtenue en utilisant les déterminants de Jacobi et une


relation de Maxwell.
Fluctuations de E autour de Ē dans l’ensemble canonique
Même principe que précédemment. On part de :
1
Ē(β, V, N) = E PE (β, V, N = E ΩE (V, N) e−βE
E
Q(β, V, N) E

Avec Q(β, V, N) = ΩE (V, N) e−βE , on obtient :
E

Ē(β, V, N) ΩE (V, N) e−βE = E ΩE (V, N) e−βE
E E

On dérive par rapport à β et on trouve :


  
2 ∂ Ē 2 ∂ Ē ΔE kT CV
ΔE = − = kT = kT 2 CV ⇒ =
∂β V,N ∂T V,N Ē Ē k

Équivalence entre ensembles


Le gaz parfait étant l’un des systèmes les plus compressibles qui soient, on peut
l’utiliser pour évaluer une borne supérieure aux fluctuations. En utilisant les résultats
du paragraphe 3.3.1, on trouve pour les trois exemples ci-dessus :

ΔV 1 ΔN 1 ΔE 2
=√ =√ =
V̄ N N̄ N̄ Ē 3N
1.5 Le deuxième principe et le troisième principe 45

Les fluctuations autour des valeurs moyennes


sont extrêmement faibles, pour ainsi dire nulles

On peut montrer que, quel que soit l’ensemble statistique,√et quelle que soit la
variable X fluctuante, la quantité ΔX/X̄ varie toujours en 1/ N . Les fluctuations
sont si faibles qu’on peut les ignorer. C’est un résultat de la thermodynamique
également : à l’équilibre tous les flux étant nuls, toutes les variables extensives sont
constantes à l’équilibre, même si elles sont autorisées à varier. Un système possède à
l’équilibre une énergie constante même s’il n’est pas isolé, une composition constante
même s’il est ouvert, un volume constant même s’il est expansible, etc. Comme en
thermodynamique où tous les potentiels sont équivalents :

Tous les ensembles statistiques sont


équivalents thermodynamiquement

Le choix de l’ensemble statistique est arbitraire, non imposé par l’environnement



du système. On peut indifféremment écrire : S = k ln Ω ou S = −k Pj ln Pj .
j
Dans la dernière expression, quel que soit l’ensemble choisi pour dénombrer les
états, on trouve le même résultat : les termes significatifs dans la somme sur j
correspondent dans tous les cas à des états d’énergie, de volume et de nombre de
particules très proches de Ē, V̄ et N̄. C’est tout simplement une conséquence de
l’approximation du terme maximum. Partant par exemple de l’ensemble T -p -μ :
   
S(β, ξ, γ) = −k Pj ln Pj = −k Pj ln Pj ≈ −k Pj ln Pj
j EV N j∈JEV N j∈JĒ V̄ N̄

 1 1
= −k ln = k ln ΩĒ V̄ N̄ = S(Ē, V̄ , N̄)
j∈JĒV̄ N̄ ΩĒ V̄ N̄ ΩĒ V̄ N̄

Seule distinction suivant l’ensemble utilisé : l’entropie S sera fonction de E ou


Ē, V ou V̄ , N ou N̄ suivant que telle ou telle variable est fixe ou fluctuante.

1.5.2 Le deuxième principe


Considérons une enceinte isolée. Une paroi la divise en deux compartiments, l’un
vide, l’autre rempli d’un gaz sous une certaine pression. Le système ainsi constitué
est supposé en équilibre. La pression n’étant pas homogène, ce n’est pas l’équilibre,
mais un équilibre sous contrainte. Les états liés à la présence de gaz dans l’enceinte
vide sont dits inaccessibles. On ne peut pas les qualifier d’impossibles puisque la
suppression de la paroi les rendra accessibles.
Autre exemple : soit une enceinte isolée remplie d’un mélange de molécules d’hy-
drogène et d’azote. Si on suppose l’équilibre atteint, est-ce vraiment l’équilibre ?
Non, puisque rigoureusement, il faut envisager par exemple la formation de molé-
cules d’ammoniac NH3 . Bien que la cinétique de réaction soit infiniment lente, les
états liés à la présence d’ammoniac ne sont pas impossibles puisque l’ajout d’un
catalyseur peut provoquer la réaction. Ce sont des états inaccessibles, que l’on peut
46 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

rendre accessibles par l’ajout du catalyseur. Dans cet exemple, la cinétique infi-
niment lente tient lieu de ”paroi”, et l’ajout du catalyseur de ”suppression de la
paroi”.
La frontière entre états accessibles et états inaccessibles est assez floue. Si dans
notre premier exemple la paroi laisse passer une molécule par jour, les états liées
à la présence de gaz dans le compartiment vide peuvent être considérés comme
accessibles ou inaccessibles suivant la durée de l’expérience.
En thermodynamique, le deuxième principe s’écrit : « dans un système isolé et en
équilibre sous contraintes, la suppression d’une contrainte entraîne un déplacement
spontané de l’équilibre, accompagné obligatoirement d’un accroissement d’entropie ».
Dans l’équation de Boltzmann S = k ln Ω, Ω est le nombre de micro-états acces-
sibles au système. Lorsqu’on supprime une contrainte interne, Ω (donc S) ne peut
qu’augmenter : les micro-états jusque là accessibles restent accessibles, et un certain
nombre de micro-états jusque là inaccessibles deviennent accessibles. L’équation de
Boltzmann est donc bien en accord avec le deuxième principe.
Autre manière de voir les choses : calculons la probabilité d’un processus spontané
à ΔS < 0. Un gaz parfait de N atomes occupe une enceinte de volume V . Quelle
est la probabilité que, spontanément, tous les atomes se trouvent dans la même
moitié de l’enceinte ? Réponse : (1/2)N . Rien qu’avec N = 100, si vous voulez avoir
une chance de l’observer pendant une picoseconde, il vous faudra attendre . . . 40
milliards d’années. Avec N = 1020 , vous pouvez toujours attendre, ça n’arrivera
JAMAIS.

1.5.3 Équivalence entre S maxi et E, F, G, H mini


Cette fois le système n’est plus isolé : les processus envisagés ne sont plus spon-
tanés. On considère par exemple un système fermé, isotherme, isochore et soumis à
une contrainte interne. Les grandeurs N et V sont fixées, alors que l’énergie interne
fluctue autour d’une certaine valeur d’équilibre.
Le système possède un certain nombre de niveaux accessibles, et sur chaque
niveau un certain nombre de micro-états. Lorsqu’on retire la contrainte, on peut
avoir, comme pour le système isolé, augmentation niveau par niveau du nombre de
micro-états accessibles, mais aussi apparition de nouveaux niveaux accessibles. Pour
les niveaux initialement accessibles, on note Ω(E) et Ω (E) les nombres de micro-
états du niveau E avant et après suppression de la contrainte. Pour les niveaux
initialement inaccessibles, même notation, avec Ω(E) = 0.
Dans les deux cas, on peut écrire : Ω (E) > Ω(E) pour tout E. Ce qui donne
pour les fonctions de partition :

Q (T ) = Ω (E)e−E/kT > Q(T ) = Ω(E)e−E/kT
E E

Et pour l’énergie libre : F  (T ) = −kT ln Q (T ) < F (T ) = −kT ln Q(T ).

La suppression d’une contrainte dans un système isotherme ne peut que faire


diminuer son énergie libre. L’équilibre est atteint lorsque toutes les contraintes sont
1.5 Le deuxième principe et le troisième principe 47

supprimées. C’est donc, pour les systèmes fermés isothermes isochores, l’état d’éner-
gie libre minimal. Ceci est bien en accord avec la thermodynamique macroscopique.

Pour tout processus isotherme, on a donc : ΔF = ΔE − T ΔS < 0. Deux cas


sont à envisager :
– si ΔE > 0, le processus n’est possible que si ΔS > 0 (et même ΔS > ΔE/T ) ;
– si ΔE < 0, on peut avoir ΔS < 0 (à condition qu’il soit supérieur à ΔE/T ).
Autrement dit, on ne peut avoir augmentation de l’énergie interne sans avoir si-
multanément augmentation de l’entropie. Inversement, on ne peut avoir diminution
de l’entropie sans avoir en même temps diminution de l’énergie interne.

Aux très basses températures, le terme T ΔS a un poids très faible dans ΔF .


C’est ΔE qui domine. Au zéro absolu, le système est dans son état fondamental qui
par définition est l’état de plus basse énergie interne.

Aux très hautes températures, c’est T ΔS qui est prédominant. A tempéra-


ture infinie, le système choisit son état d’entropie maximale, indépendamment de la
valeur de l’énergie interne. Cet état d’entropie maximale, correspondant à une disso-
ciation complète des constituants de la matière, est caractérisé par l’équiprobabilité
d’observation de tous les états accessibles au système.

Aux températures intermédiaires, les deux termes sont à prendre en compte.


L’état d’équilibre, fonction de T , résulte d’une compétition entre l’énergie interne
qui tend à être la plus faible possible et l’entropie qui tend à être la plus forte possible.

Exemple. L’état d’énergie minimale pour l’hydrogène est l’état solide : tous les
atomes étant liés entre eux, l’entropie est minimale, ce qui fait qu’on le trouve dans
cet état aux très basses températures. Au fur et à mesure que la température aug-
mente, il passe à l’état liquide, puis à l’état gazeux (molécules H2 ). Si on augmente
encore la température, on assiste à une dissociation des molécules (H2 → H + H),
puis à une ionisation (H → proton+ électron). A chaque étape, il y a augmentation
à la fois de l’énergie et de l’entropie. L’équilibre à chaque température est fixé par
l’équation F = E − T S minimale.

1.5.4 Notion de fluctuations aléatoires


A l’échelle macroscopique, les fluctuations autour des valeurs moyennes sont né-
gligeables. Aucun appareil de mesures, aussi précis soit-il, n’est capable de les détec-
ter. On en déduit, ce qui est conforme par ailleurs aux principes thermodynamiques,
qu’à l’équilibre, toutes les grandeurs sont macroscopiquement constantes quel que
soit l’environnement du système. Mais qu’en est-il à l’échelle microscopique ?
Prenons l’exemple d’une particule libre de masse m confinée dans un volume L3 .

La théorie quantique donne l’écart entre deux niveaux d’énergie :

h2
δε = avec h ≈ 6, 626 10−34 J s
2mL2
48 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

C’est extrêmement faible, même à l’échelle microscopique : pour une mole de néon
(masse atomique : m = 3, 32 10−26 kg) dans les conditions habituelles (L3 = 22, 4
litres), on trouve : δε ≈ 10−40 J. Si on tente de réaliser un système parfaitement isolé,
on est amené à le protéger contre un certain nombre de perturbations dues à des
fluctuations de paramètres extérieurs au système. Même en imaginant des conditions
expérimentales très sophistiquées permettant de protéger le système contre toutes
les agressions (parois parfaitement adiabatiques, parfaitement rigides, protections
contre les ondes électromagnétiques, . . .), on ne pourra jamais éliminer les forces
gravitationnelles. Une masse M située à une distance D d’une molécule du gaz
place celle-ci dans un champ de potentiel :
GM m
W =− avec G = 6, 673 10−11 m2 s−2 kg−1
D
Si M est immobile, cette énergie varie en fonction de la position instantanée de
la molécule. D’une paroi à l’autre du récipient, la variation d’énergie vaut :
GM m
ΔW = L
D2
Pour M = 3 kg et D = 1 m, on trouve ΔW ≈ 2 10−36 J, c’est-à-dire environ 20 000
niveaux d’énergie ! ! Cela signifie qu’un chat passant à côté du récipient perturbe de
façon considérable le système, à tel point que celui-ci n’est plus homogène : le champ
de force créé par la présence du chat, même immobile, n’est pas uniforme, et deux
particules situées chacune à une extrémité du récipient n’auront pas accès aux mêmes
états quantiques, ou du moins pas avec les mêmes probabilités.
Un système n’est donc jamais parfaitement isolé à l’échelle microscopique. Il
est soumis à de multiples perturbations incontrôlables, qui ont des effets à la fois
parfaitement négligeables à l’échelle macroscopique et très importants à l’échelle
microscopique. À cause de ces fluctuations aléatoires, un système macroscopique
n’est jamais dans un état quantique pur (exception : condensation de Bose). Son
état macroscopique, même sur un intervalle de temps très court, correspond à un état
moyen, moyenne sur un grand nombre de micro-états. L’ensemble microcanonique
dans lequel on n’envisage qu’un seul niveau d’énergie, n’est pas réaliste. Il n’a sa
raison d’être que dans le cadre de l’approximation du terme maximum.

Fig. 1.3 – Amplification de déviation lors d’une collision

L’effet de la gravitation est plus spectaculaire encore en mécanique classique.


La masse M est cette fois celle d’un neutron (M ≈ 1, 66 10−27 kg) situé aux confins
de l’univers (D ≈ 2 1026 m). La figure 1.3 montre qu’une déviation infime δθ0 de
la trajectoire initiale d’une particule est très amplifiée après collision (δθ1 ). Si la
1.5 Le deuxième principe et le troisième principe 49

déviation initiale est causée par la présence du neutron, un calcul grossier donne,
avec les valeurs courantes d ∼ 0, 15 μm et v ∼ 500 m/s (d est la distance parcourue
par la molécule depuis sa dernière collision, et v sa vitesse) :
G M d2
δθ0 ∼ ∼ 10−135 radians
D3v2
C’est à dire trois fois rien. Après collision, la déviation est de l’ordre de :
d
δθ1 ∼ δθ0 ∼ 103 δθ0 (r = rayon de la molécule ∼ 0, 15 nm)
r
Au bout de n collisions, on peut estimer la déviation globale à δθn ∼ 103n δθ0 .
Elle devient de l’ordre de 1 radian au bout de 45 collisions, c’est-à-dire au bout de
13,5 nanosecondes ! ! !
Conclusion : une perturbation, aussi infime soit-elle, provoque un changement
radical de la trajectoire initialement prévue de la molécule, et ce en un temps ex-
trêmement court. Cela prouve la grande instabilité des équations dynamiques. Il est
hors de question de prendre en compte tout ce qui est susceptible de perturber le
système.

1.5.5 Le problème ergodique


Un système est dit ergodique si on peut lui appliquer le principe ergodique,
c’est-à-dire si, pour toute variable mécanique, moyenne temporelle et moyenne sur
l’ensemble sont identiques. Les systèmes que l’on sait ergodiques sont rares. Il
est facile par exemple de montrer qu’un oscillateur harmonique à une dimension
est un système ergodique. La démonstration est moins simple pour un ”gaz de
sphères dures” qui n’interagissent que lorsqu’elles sont en contact l’une avec l’autre.
Il existe même des systèmes que l’on sait non ergodiques, mais ces systèmes
sont peu réalistes physiquement : gaz rigoureusement parfait, système d’oscillateurs
rigoureusement harmoniques et rigoureusement indépendants, etc. Pour un système
quelconque, l’équivalence entre les deux moyennes n’est pas encore parfaitement dé-
montrée à ce jour. Rien ne prouve que les microétats représentés dans l’ensemble
statistique le soient avec des probabilités reflétant leurs fréquences moyennes d’ap-
parition dans le système au cours du temps. Le principe ergodique reste toujours un
postulat, encore jamais démenti par l’expérience.
À titre d’exemple, on peut traiter le cas relativement simple des oscillateurs
harmoniques dans le cadre de la mécanique classique.
Soit un système constitué d’un seul oscillateur unidimensionnel classique, et sup-
posons le parfaitement isolé du milieu extérieur. Son mouvement est décrit par
l’équation x(t) = a cos(ωt + ϕ). Les deux constantes (la phase ϕ et l’amplitude a)
définissent un état possible de l’oscillateur. L’énergie totale de celui-ci ne dépend
que de l’amplitude (E = mω 2 a2 /2). La valeur de a est donc fixée (le système est
isolé). La valeur de ϕ quant à elle est fixée par les conditions initiales.
Soit f une fonction de x. La valeur moyenne de f peut être calculée, soit en inté-
grant sur t (moyenne temporelle f¯tps ), soit par la méthode des ensembles (moyenne
d’ensemble f¯ens ). Pour f¯ens on utilise le principe d’équiprobabilité : tous les états com-
patibles avec E sont équiprobables : f¯ens se calcule en intégrant sur ϕ. La notation
50 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

θ = ωt conduit à une expression de x où θ et ϕ jouent le même rôle : x = a cos(θ+ϕ),


avec θ et ϕ variant tous deux de 0 à 2π sur une période T = 2π/ω. D’où :
  
1 T   1 2π   1 2π  
f¯tps = f x(t) dt = f x(a, θ, ϕ) dθ = f x(a, θ, ϕ) dϕ = f¯ens
T 0 2π 0 2π 0

Le système est ergodique puisque f¯tps = f¯ens . Cette valeur commune est fonction
de a. On la notera F (a).
Considérons maintenant un système constitué de deux oscillateurs harmoniques
linéaires identiques et indépendants. Si on note a et b leurs amplitudes et ϕ et ψ leurs
phases, la moyenne temporelle de f sur le système est simplement f¯tps = F (a)+F (b).
C’est également ce qu’on obtient en intégrant sur ϕ et ψ. Mais attention, cette
dernière intégration ne donne pas la moyenne d’ensemble. Tous les états compatibles
avec E doivent être équiprobables. Comme E = mω 2 (a2 + b2 )/2, il faut envisager
toutes les valeurs de a et b telles que a2 + b2 = u2 avec u2 = 2E/(mω 2 ). Toutes les
valeurs de a et b telles que a = u cos α et b = u sin α (α ∈ [0, π/2]) conviennent. D’où :

2 π/2  
f¯ens = F (u cos α) + F (u sin α) dα = f¯tps
π 0

Sauf cas particuliers, les deux moyennes sont différentes et le système n’est pas
ergodique. Pour le rendre ergodique, il faut autoriser les échanges d’énergie entre les
deux oscillateurs, c’est-à-dire les rendre anharmoniques et non indépendants.
Le deuxième principe de la thermodynamique et le principe d’équiprobabilité
affirment chacun dans ses termes que, au bout d’un temps très court, tous les mi-
croétats compatibles avec l’énergie imposée au système sont équiprobables dans le
temps. Dans un système rigoureusement isolé constitué d’un très grand nombre
d’oscillateurs rigoureusement indépendants, rigoureusement harmoniques, si les os-
cillateurs sont lâchés au même instant en phase et avec la même amplitude, rien en
théorie ne permet aux différents microétats d’apparaître de façon équiprobable. Les
oscillateurs conservent éternellement leur phase et leur amplitude initiales. C’est en
totale contradiction avec le deuxième principe. Ce n’est pas pour autant un échec
du deuxième principe. Aucun système n’est à tel point parfait. Un tel système ne
peut pas exister.
Les calculs montrent que la non ergodicité de ce système n’est pas due à l’harmo-
nicité et l’indépendance des oscillateurs. En rendant les oscillateurs anharmoniques,
les calculs montrent qu’il existe des conditions initiales telles que les phases et les am-
plitudes restent cantonnées au voisinage de leurs valeurs initiales. L’équiprobabilité
n’est donc pas atteinte et le système n’est pas ergodique.
Les perturbations extérieures aléatoires sont donc nécessaires à l’établissement
de l’équilibre. Ce sont elles qui en un temps extrêmement court rendent possible
l’évolution vers l’état d’équilibre. Le système est dit mélangeant. C’est un terme
plus fort qu’ergodique : tout système ergodique est mélangeant. Sans entrer dans
les détails, un système est dit mélangeant s’il évolue spontanément vers son état
d’équilibre quel que soit son état initial et quel que soit le traitement qu’on lui
fait subir pour y parvenir. Le terme vient de l’exemple typique du mélange de deux
liquides. On verse une goutte d’encre à la surface d’un verre d’eau. Au début, l’encre
1.5 Le deuxième principe et le troisième principe 51

est concentrée à l’endroit où on l’a déposée. Même en prenant toutes les précautions
d’isolation possibles, le liquide devient au bout d’un certain temps uniformément
coloré. Le processus est purement physique : la molécule d’encre ne montre aucune
préférence à s’entourer de molécules d’eau. Autrement dit, le processus a lieu même
si les énergies initiale et finale sont rigoureusement identiques.
L’étude du mouvement brownien (marche au hasard) montre que le chemin par-
couru par une molécule subissant des chocs au cours desquels elle change de direction
de façon aléatoire, forme une ”pelote” dont la taille augmente indéfiniment au cours
du temps (dans un volume infini, bien sûr). Le caractère mélangeant de ce système
est naturel : il n’est pas nécessaire d’introduire d’éventuelles perturbations exté-
rieures pour que le phénomène ait lieu. Pour le gaz de sphères dures ou pour le
système d’oscillateurs harmoniques indépendants, le caractère mélangeant est dû à
l’extrême sensibilité du système aux perturbations extérieures. Sans elles, les dif-
férents micro-états compatibles avec l’énergie totale n’apparaîtraient pas de façon
équiprobable dans le temps et le principe ergodique (donc la méthode des ensembles)
ne serait plus valable. En clair, ces deux systèmes ne sont pas ergodiques en théorie,
mais le sont dans la pratique par le biais de leurs réactions ”explosives” aux moindres
perturbations extérieures. Le problème qui se pose est de savoir s’il n’existerait pas
de systèmes non ergodiques dans la pratique. Pour l’instant on n’en connaît aucun,
et on postule qu’il n’en existe pas.
Dernier point : il existe, aussi bien en mécanique classique qu’en mécanique
quantique, des théorèmes en contradiction apparente avec le deuxième principe.
En mécanique classique, c’est le théorème de Poincaré : tout système finit
toujours, si l’on attend suffisamment longtemps, par revenir à un état aussi voisin
que l’on veut de son état initial. Si celui-ci est hors équilibre, ce théorème exclut toute
évolution vers l’équilibre. C’est vrai en théorie, beaucoup moins dans la pratique :
d’après une estimation de Boltzmann, un litre de gaz ordinaire revient à son état
initial au bout de 1010 000 000 000 années. De plus, dans un ensemble statistique, c’est
un grand nombre de systèmes qui sont étudiés. Chacun peut revenir à son état
initial, mais ils n’y reviendront pas tous en même temps. Si à un instant donné,
l’un des systèmes est dans son état initial, cela n’aura aucune influence sur le calcul
des probabilités. Cette éventualité est d’ailleurs permise par la théorie puisque l’état
initial est lui aussi un micro-état accessible au système.
En mécanique quantique, l’évolution d’un système fini est quasi périodique
ou récurrente. Si {. . . Ei . . .} sont les niveaux d’énergie accessibles au système, la
valeur moyenne de toute grandeur physique s’écrit comme une somme discrète de
termes périodiques de fréquences |Ei − Ej |/h (fréquences de Bohr). Le système finit
toujours par revenir à son état initial. Mais pour un système macroscopique, les
niveaux sont si serrés (d’autant plus que le système est toujours soumis à d’innom-
brables perturbations aléatoires) que la somme est quasi infinie. Le temps nécessaire
au retour à l’état initial dépasse largement l’âge de l’univers. Notons qu’ici le pro-
blème est plus complexe car l’évolution récurrente concerne non seulement les états
purs comme en mécanique classique, mais aussi les mélanges statistiques, autrement
dit, non seulement un système particulier de l’ensemble, mais aussi l’ensemble sta-
tistique tout entier. Celui-ci reviendra tôt ou tard à son état initial. Plutôt tard que
tôt . . .
52 CHAPITRE 1. LA THERMODYNAMIQUE STATISTIQUE

1.5.6 Le troisième principe


En thermodynamique, il s’énonce : ”Pour tout processus isotherme faisant
intervenir des phases pures en équilibre interne, la variation d’entropie tend vers 0
quand T tend vers 0.” L’équilibre peut être sous contraintes internes, à condition
que ces contraintes ne s’inhibent pas lorsque l’on passe de T à 0 K. On autorise par
exemple la possibilité d’une réaction chimique infiniment lente, la présence d’isotopes
instables mais à durée de vie très longue, etc. Lors d’un processus isotherme, où
l’entropie passe de S(T ) à S  (T ), le troisième principe simplifie les écritures en
posant :

ΔS(T = 0) = S  (0) − S(0) = 0 et même S  (0) = S(0) = 0

C’est ce qu’on appelle une entropie opérationnelle : on la calcule en ne tenant


compte que des degrés de liberté excitables dans le processus étudié. Si on cherchait
à définir une entropie absolue Sabs (T ), il faudrait tenir compte de tous les degrés
de liberté (liés aux noyaux, à la présence d’isotopes, etc) et on ne pourrait plus poser
S  (0) = S(0) = 0, mais uniquement S  (0) = S(0), et de toute façon ΔS(T = 0) = 0.

La thermodynamique statistique donne une définition à l’entropie absolue


conventionnelle :
Ω(T )
S(T ) = Sabs (T ) − Sabs (0) = k ln Ω(T ) − k ln Ω(0) = k ln
Ω(0)

Pour l’entropie opérationnelle, on pose arbitrairement Ω(0) = 1. On ignore sim-


plement les degrés de liberté n’intervenant pas dans le processus étudié. Lors d’un
processus isotherme où l’entropie passe de S(T ) à S  (T ), on écrira :

Ω (T ) Ω(T ) Ω (T )
ΔS(T ) = S  (T ) − S(T ) = k ln − k ln = k ln
Ω (0) Ω(0) Ω(T )

(bien que non égaux à 1, Ω (0) et Ω(0) sont néanmoins égaux)

On peut donc indifféremment travailler avec l’entropie absolue conventionnelle


ou l’entropie opérationnelle. L’utilisation de cette dernière est plus simple mais il
faut être sûr de prendre en compte tous les degrés de liberté nécessaires à l’étude.
Chapitre 2

Statistiques quantiques

2.1 Les statistiques de réseaux


Un réseau en physique statistique est un rassemblement de sites, chaque site
étant une ”boîte” pouvant accueillir un petit sous-système constitué de quelques
particules.
On supposera que les sites sont indépendants : aucune interaction n’est envi-
sagée entre particules occupant deux sites différents. Dans ce cas, la géométrie du
réseau n’a aucune importance, si ce n’est dans l’expression du travail : on l’écrira
−pV , −ϕA[1] ou −τ L[2] suivant que le réseau est tri-, bi- ou unidimensionnel.

2.1.1 Réseaux de sites tous identiques


Pour la mise en équations, on suppose que le système est entièrement décrit par
les variables extensives E, V , N (on généralisera en fin de démonstration). Chaque
état possible j d’un site sera caractérisé par une énergie εj , un volume vj , un nombre
nj de particules. Si on note mj le nombre de sites dans l’état j et M le nombre total
de sites, on a :
 
(1) mj = M mj εj = E (2)
j j
(2.1)
(3) mj vj = V mj nj = N (4)
j j

M!
Pour la distribution {. . . mj . . .}, il y a  configurations possibles.
mj !
j
Pour calculer le nombre de complexions Ω(M, E, V, N), on somme sur toutes les
distributions vérifiant les conditions (1), (2), (3), (4) :

(1,2,3,4)
M!
Ω(M, E, V, N) = 
mj !
{...mj...} j

1
A est l’aire de la surface et ϕ la tension de surface
2
L est la longueur de la chaîne et τ la tension de ligne
54 CHAPITRE 2. STATISTIQUES QUANTIQUES

Cette somme serait calculable s’il n’y avait que la condition (1). On se débarrasse
des conditions gênantes en effectuant des sommations sur E, V , N. La sommation
sur E revient à étendre la sommation sur les distributions (c’est l’approximation
du terme maximum à l’envers). Elle a pour effet de supprimer la condition (2). En
raisonnant de même pour N et V , toute sommation sur E, V , N s’écrit :

(1,2,3,4)
(1,3,4)
(1,4)
(1)

= = = (2.2)
N V E {...mj...} N V {...mj...} N {...mj...} {...mj...}

On est ainsi conduit à calculer la fonction de partition totale :



I(M, β, ξ, γ) = Ω(M, E, V, N) e−βE e−ξV e−γN
N V E
  
On utilise 2.1 pour remplacer E par mj εj , V par mj vj , N par mj nj ,
j j j
  
et donc e−βE par (e−βεj )mj , e−ξV par (e−ξvj )mj , e−γN par (e−γnj )mj
j j j

Maintenant qu’il n’y a plus que la condition (1), la sommation sur les distribu-
tions est calculable :
(1)
 (e−βεj e−ξvj e−γnj )mj  M
I(M, β, ξ, γ) = M! = i(β, ξ, γ)
j
mj !
{...mj...}

avec i(β, ξ, γ) = e−βεj e−ξvj e−γnj
j

La fonction i(β, ξ, γ) est la fonction de partition totale relative à un site. On est


ainsi ramené à l’étude d’un seul site :
βΘ(M, β, ξ, γ) = − ln I(M, β, ξ, γ) = −M ln i(β, ξ, γ)
  
∂ ln i ∂ ln i ∂ ln i
E = M ε̄ = −M V = M v̄ = −M N = M n̄ = −M
∂β ξ,γ ∂ξ β,γ ∂γ β,ξ

S  
= M β ε̄ + ξv̄ + γ n̄ + ln i
k
Le nombre M de sites fait ici office de facteur d’échelle (voir équations 1.12 et 1.20).

Il est en général plus aisé de calculer i(β, ξ, γ), non pas en sommant sur les états
mais en sommant sur les valeurs possibles de ε, v, n[3] . En notant ωεvn le nombre
d’états d’énergie ε(v, n), on peut écrire i(β, ξ, γ) de façon similaire à 1.26 :

i(β, ξ, γ) = ωεvn e−βε e−ξv e−γn
εvn

3
Par convention, les lettres majuscules sont réservées aux caractéristiques du réseau, et les
lettres minuscules aux caractéristiques d’un site.
2.1 Les statistiques de réseaux 55

Bien entendu, s’il y a plusieurs espèces en présence, la somme sur n est à rem-
placer par une somme multiple sur n1 , n2 , . . . De même, s’il est nécessaire d’intro-
duire un couple (X, P ) pour décrire l’état thermodynamique du système, on a, avec
φ = −P/kT :

i(β, ξ, φ, γ1, γ2, . . .) = ωεvxn1 n2 ... e−βε e−ξv e−φx e−γ1 n1 e−γ2 n2 . . .
ε v x n1 n2 ,...

2.1.2 Réseaux à différents types de sites


Soit un réseau R constitué de deux sous-réseaux R et R , le premier contenant
M sites identiques, et le deuxième contenant M  sites identiques. La généralisation


à un nombre quelconque de sous-réseaux s’obtient facilement par récurrence.

La méthode la plus simple consiste à étudier les deux sous-systèmes séparément.


L’équilibre mutuel se traduit simplement par le fait qu’ils possèdent les mêmes gran-
deurs intensives β, ξ, γ. Cette méthode permet de calculer séparément (E  , V  , N  )
et (E  , V  , N  ).
Chaque site de R est caractérisé par des valeurs possibles (ε, v  , n ) pour l’éner-
gie, le volume et le nombre de particules, chaque triplet apparaissant ωεv n fois dans
la liste. La fonction de partition de ce sous-réseau s’écrit donc :
 M 
I  (M  , β, ξ, γ) = i (β, ξ, γ)
  
avec i (β, ξ, γ) = ωε v n e−βε e−ξv e−γn
ε  v  n

  
  ∂ ln i  ∂ ln i   ∂ ln i 
E = −M V = −M N = −M
∂β ξ,γ ∂ξ β,γ ∂γ β,ξ

S
= βE  + ξV  + γN  + M  ln i
k
De même pour le deuxième sous-réseau R :
 M 
I  (M  , β, ξ, γ) = i (β, ξ, γ)
  
avec i (β, ξ, γ) = ωε v n e−βε e−ξv e−γn
ε v n

  
  ∂ ln i  ∂ ln i  ∂ ln i
 
E = −M V = −M N = −M
∂β ξ,γ ∂ξ β,γ ∂γ β,ξ

S
= βE  + ξV  + γN  + M  ln i
k
On utilise ensuite la propriété d’additivité des grandeurs extensives :

E = E  + E  V = V  + V  N = N  + N  S = S  + S 

βΘ = βΘ + βΘ ⇒ I(M  , M  , β, ξ, γ) = I  (M  , β, ξ, γ) × I  (M  , β, ξ, γ)


56 CHAPITRE 2. STATISTIQUES QUANTIQUES

2.1.3 Recherche de la fonction adaptée au problème


On revient au cas où tous les sites sont identiques. Il n’est pas toujours nécessaire
de calculer la fonction de partition totale pour résoudre un problème de statistiques
de réseaux : souvent, le nombre de variables extensives intervenant dans l’étude est
restreint.
Voici les cas les plus courants. On part de la fonction de partition totale relative
à un site d’un réseau monoconstituant :

i(β, ξ, γ) = ωεvn e−βε e−ξv e−γn
εvn

On peut réécrire cette fonction de partition de différentes manières :



i(β, ξ, γ) = z(β, v, γ) e−ξv avec z(β, v, γ) = ωεn (v) e−βε e−γn (2.3)
v εn


i(β, ξ, γ) = z(β, ξ, n) e−γn avec z(β, ξ, n) = ωεv (n) e−βε e−ξv (2.4)
n εv

i(β, ξ, γ) = q(β, v, n) e−ξv e−γn avec q(β, v, n) = ωε (v, n) e−βε (2.5)
vn ε

1. Partant de 2.3, on fixe v.


Il n’y a donc plus de sommation sur v : i(β, ξ, γ) = z(β, v, γ) e−ξv . On peut
alors utiliser l’ensemble grand canonique (V = M v est fixe) :
 M
Z(M, β, V, γ) = z(β, v, γ) βΨ(M, β, V, γ) = −M ln z(β, v, γ)
  
∂ ln z ∂ ln z ∂ ln z
E = −M ξ= N = −M
∂β v,γ ∂v β,γ ∂γ β,v

2. Partant de 2.4, on fixe n.


Il n’y a donc plus de sommation sur n : i(β, ξ, γ) = z(β, ξ, n) e−γn . On peut
alors utiliser l’ensemble T -p (N = M n est fixe) :
 M
Z(M, β, ξ, N) = z(β, ξ, n) βG(M, β, ξ, N) = −M ln z(β, ξ, n)
  
∂ ln z ∂ ln z ∂ ln z
E = −M V = −M γ=
∂β ξ,n ∂ξ β,n ∂n β,ξ

3. Partant de 2.5, on fixe v et n.


Il n’y a plus de sommation ni sur v ni sur n : i(β, ξ, γ) = q(β, v, n) e−ξv e−γn .
On peut alors utiliser l’ensemble canonique (V = M v et N = M n sont fixes) :
 M
Q(M, β, V, N) = q(β, v, n) βF (M, β, V, N) = −M ln q(β, v, n)
  
∂ ln z ∂ ln q ∂ ln q
E = −M ξ= γ=
∂β ξ,n ∂v β,n ∂n β,v
2.1 Les statistiques de réseaux 57

On généralise : pour savoir quelle fonction de partition utiliser, on répertorie


pour un site donné, toutes les variables fixes et toutes les variables fluctuantes.

La fonction de partition d’un site sera, par transformée de Laplace de ω pour les
variables fluctuantes, fonction des variables fixes et des variables intensives entro-
piques associées aux variables fluctuantes.

La fonction de partition du réseau (composé de M sites) est la puissance M ième


de la fonction de partition d’un site ; on lui associe la transformée de Legendre de
S/k pour les mêmes variables. Si on note βΦ cette transformée de Legendre et Δ la
transformée de Laplace, on a βΦ = − ln Δ.
Si le réseau est constitué d’un nombre quelconque de sous-réseaux différents
et indépendants, on retrouve, par des arguments analogues à ceux du paragraphe
2.1.2, le même résultat : la fonction de partition du système est égale au produit des
fonctions de partition relatives aux sous-réseaux.

2.1.4 Emploi d’autres fonctions de partition


Exemple 1 : l’ensemble canonique au lieu du grand canonique
Considérons un réseau de M sites, chacun pouvant soit être vide soit être occupé
par un atome. On suppose qu’un site vide est à l’énergie ε0 = 0 (choix d’origine
des énergies), et on suppose également ω0 = 1 (choix d’origine des entropies). La
fonction de partition d’un site vide s’écrit donc : q0 = q(β, v, 0) = ω0 e−βε0 = 1.
La fonction de partition q(β, v) = q(β, v, 1) d’un site occupé sera supposée connue.
Le volume de chaque site est indépendant de son occupation (V = M v avec v
constant). On peut par conséquent travailler avec la grande fonction de partition
(ensemble grand canonique) :

 M
1
Z(M, β, V, γ) = z(β, v, γ) avec z(β, v, γ) = q(β, v, n) e−γn = 1 + q(β, v) e−γ
n=0

La fonction z(β, v, γ) ne contient que deux termes ; on peut réexprimer Z(β, V, γ)


en utilisant la formule du développement du binôme à la puissance M :

 
M
M!
−γ M
Z(M, β, V, γ) = 1 + q(β, v) e = q(β, v)N e−γN
N =0
N! (M − N)!


M
Et comme Z(M, β, V, γ) s’écrit Q(M, β, V, N) e−γN , on en déduit :
N =0

M!
Q(M, β, V, N) = q(β, v)N
N! (M − N)!

On peut dans cet exemple utiliser au choix la grande fonction de partition ou la


fonction de partition canonique, pour obtenir, bien sûr les mêmes résultats.
58 CHAPITRE 2. STATISTIQUES QUANTIQUES

Exemple 2 : l’ensemble microcanonique au lieu du grand canonique


Considérons un réseau de M sites, chacun pouvant accueillir 0, 1 ou 2 particules.
On suppose que les particules ou groupes de particules n’ont accès qu’à leurs ni-
veaux d’énergie fondamentaux, non dégénérés. L’énergie d’un site vide étant nulle,
on notera ε1 l’énergie d’un site occupé par une particule, et ε2 = 2ε1 l’énergie d’un
site occupé par deux particules. Le volume n’intervient pas dans l’étude. On note
m0 , m1 et m2 les nombres de sites contenant 0, 1 et 2 particules. Pour M, E et N
donnés, ces trois nombres doivent vérifier :

(1) M = m0 + m1 + m2
(2) E = ε1 m1 + ε2 m2
(3) N = m1 + 2m2

Il y a autant de mi que de variables macroscopiques. Le système ci-dessus (de


déterminant non nul) est inversible. On trouve :

N(ε2 − ε1 ) − E Nε2 − 2 E E − Nε1


m0 = M − m1 = m2 =
ε2 − 2ε1 ε2 − 2ε1 ε2 − 2ε1
Il est donc possible d’exprimer Ω(m0 , m1 , m2 ) en fonction des grandeurs macro-
scopiques (M, E, N). Ce qui permet d’utiliser l’ensemble microcanonique :

(m0 + m1 + m2 )! M!
Ω(M, E, N) = =   −2 E   E−N ε 
m0 ! m1 ! m2 ! M− N (ε2 −ε1 )−E
! Nεε22−2ε ! ε2 −2ε11 !
ε2 −2ε1 1

Un peu lourd, mais utilisable. On peut calculer :


 
∂ ln Ω ∂ ln Ω
β= et γ =
∂E M,V ∂N M,E
m1 m2 m1 m2
On trouve : β(ε2 −2ε1 ) = 2 ln −ln et γ(ε2 −2ε1 ) = −ε2 ln +ε1 ln
m0 m0 m0 m0
On vérifiera à l’aide de l’équation (1) que ces résultats sont équivalents à ceux
trouvés par la méthode ci-dessous.

Une méthode moins lourde consiste à utiliser les équations (1), (2), (3) pour
effectuer un changement de variables dans l’équation de Gibbs. Dans cette optique,
il est nécessaire d’associer à M une grandeur intensive entropique φ :
dS
= φ dM + β dE + γdN = φ dm0 + (φ + βε1 + γ) dm1 + (φ + βε2 + 2 γ) dm2
k
S (m0 + m1 + m2 )!
avec : (m0 , m1 , m2 ) = ln Ω(m0 , m1 , m2 ) = ln
k  m0 ! m1 ! m2 ! 
∂ ln Ω M ∂ ln Ω M
On en déduit : φ = = ln φ + βε1 + γ = = ln
∂m0 m1 ,m2 m0 ∂m1 m0 ,m2 m1

∂ ln Ω M
et φ + βε2 + 2 γ = = ln
∂m2 m0 ,m1 m2
2.2 Particules identiques et indépendantes 59

De ces trois équations, on tire φ, β, γ en fonction de m0 , m1 , m2 . On se débarrasse


de φ en utilisant l’équation (1), ce qui permet d’exprimer m0 , m1 , m2 puis E et N
(à l’aide des équations 2 et 3) en fonction de M, β et γ. On trouve :

1 e−βε1 −γ e−βε2 −2 γ
m0 = M m1 = M m2 = M
z(β, v, γ) z(β, v, γ) z(β, v, γ)

ε1 e−βε1 −γ + ε2 e−βε2 −2 γ e−βε1 −γ + 2 e−βε2 −2 γ


E=M N =M
z(β, v, γ) z(β, v, γ)
avec z(β, v, γ) = 1 + e−βε1 −γ + e−βε2 −2 γ
Le volume intervient dans ε1 et ε2 . C’est ce qu’on aurait trouvé en utilisant
l’ensemble grand canonique. On remarquera d’ailleurs que le dénominateur commun
aux résultats est la grande fonction de partition relative à un site.

2.2 Particules identiques et indépendantes


Il n’est plus question ici de réseau. On considère un système constitué de
N particules identiques et indépendantes partageant la même partie de l’espace, la
même ”boîte”. Comme elles sont indépendantes, chacune d’elles se comporte comme
si elle était seule dans la boîte. On est alors tenté de dire que tout se passe comme
si chacune occupait une boîte qui lui est propre, autrement dit un site de réseau.

C’est ce que nous ferons dans un premier temps (paragraphe 2.2.1), sachant
qu’il ne faut pas. Ce raisonnement ne tient pas compte de l’indiscernabilité
des particules, propriété fondamentale (décrite au paragraphe 2.2.2) des particules
quantiques.

2.2.1 Si les particules quantiques étaient discernables . . .


On suppose dans ce paragraphe que les particules, toutes identiques, se com-
portent comme si chacune d’elle occupait un site de réseau.
À température et volume constants, on peut utiliser la fonction de partition cano-
nique. On a vu au paragraphe 2.1.3 que, pour un réseau de M sites de même volume v
fixe et tous occupés par n particules, on pouvait écrire Q(M, β, V, N) = (q(β, v, n))M .
Ici, il faut remplacer M par N (il y a autant de boîtes que de particules), v par V
et n par 1. On écrit donc, avec la notation q(β, V ) = q(β, V, 1) :

 N
Q(β, V, N) = q(β, V ) ⇒ βF (β, V, N) = N ln q(β, V ) = N βf (β, V )

Soient {. . . εi . . .} les niveaux d’énergie accessibles à une particules et {. . . ωi . . .}


les dégénérescences correspondantes. La fonction de partition individuelle s’écrit :

q(β, V ) = ωi e−βεi
i
60 CHAPITRE 2. STATISTIQUES QUANTIQUES

Soit ij le niveau d’énergie occupé par la particule j (j = 1 à N) et calculons la


probabilité d’observer le système à l’énergie :


N
Ei1 ...iN = εi1 + . . . + εiN = εij
j=1


N
Ce niveau est Ωi1 ...iN = ωi1 × . . . × ωiN = ωij fois dégénéré.
j=1

N
Avec e−βEi1 ...iN = e−βεij , la probabilité recherchée vaut (voir éq. 1.29) :
j=1

Ωi1 ...iN e−βEi1 ...iN 1 


N
−βεij
N
ωij e−βεij
Pi1 ...iN = = N ωij e =
Q(β, V, N) q(β, V ) j=1 j=1
q(β, V )

On en déduit intuitivement (et c’est confirmé par le calcul) la probabilité qu’une


particule donnée soit à l’énergie εi et le nombre moyen de particules à l’énergie εi :

ωi e−βεi ωi e−βεi
η(εi ) = et n̄(εi ) = N η(εi ) = N
q(β, V ) q(β, V )

Pour calculer les probabilités par état, on divise simplement le résultat trouvé
par ωi . La probabilité qu’une particule donnée soit dans l’un des ωi états d’énergie
εi, et le nombre moyen correspondant s’écrivent :

e−βεi e−βεi
ηi = et n̄i = N ηi = N (2.6)
q(β, V ) q(β, V )

Ces probabilités permettent de calculer l’énergie moyenne d’une particule et


l’énergie moyenne du système :

ε̄ = εi η(εi) = εj ηj et Ē = εin̄(εi) = εj n̄j
niveaux i états j niveaux i états j

À un facteur d’échelle N près, une particule et le système entier semblent avoir le


même comportement. C’est au niveau des fluctuations autour des valeurs moyennes
que se trouve la différence. On a calculé au paragraphe 1.5.1 la variance de E pour
N particules :

ΔE 2 = kT 2 CV = NkT 2 cV (cV : capacité thermique d’une particule)

kT 2 CV
Avec N = 1, on obtient : Δε2 = kT 2 cV =
N
ΔE 1 Δε
Ce qui donne, avec E ∼ NkT , CV ∼ Nk, ε̄ ∼ kT : ∼√ et ∼ 1.
E N ε̄
Conclusion :

Des fluctuations négligeables autour de Ē, et très étendues autour de ε̄.


2.2 Particules identiques et indépendantes 61

Quelques résultats intéressants tirés de l’expression de n̄j :

1. Lors d’une élévation de température, les niveaux d’énergie supé-


rieure à ε̄ se peuplent au détriment de ceux d’énergie inférieure.

Ce résultat s’obtient en dérivant n̄j (equation 2.6) par rapport à T .


dq
En remarquant que = −q ε̄, on trouve :

 
∂n̄j n̄j (εj − ε̄) N < 0 si εj < ε̄
= = ηj (εj − ε̄) CQFD (2.7)
∂T V,N kT 2 kT 2 > 0 si εj > ε̄

2. Un apport de chaleur modifie les populations des niveaux d’énergie,


et non les niveaux eux-mêmes : les valeurs des n̄j sont modifiées,
mais pas celles des εj .

L’apport de chaleur est obtenu par une élévation de température dT à V , N


constants. C’est CV dT . Partant de l’expression de Δε2 , on trouve :
NΔε2 N  2 2
 N  2  n̄ (ε − ε̄)ε
j j j
CV = 2
= 2
ε − ε̄ = 2
ε η
j j − ε̄ ε j j =
η 2
kT kT kT j j j
kT

 ∂n̄j
Ce qui donne, en utilisant le résultat 2.7 : CV = εj .
j ∂T V,N
Ce sont bien les populations qui sont modifiées.
Attention : lorsqu’on fournit un travail, on modifie les valeurs εj des niveaux
d’énergie, et donc en même temps les populations. Il y a donc en même temps
apport de chaleur : la proposition tentante « un apport de travail modifie les
niveaux mais pas les populations » est fausse.
3. La capacité thermique tend vers 0 quand T tend vers 0.
Au zéro absolu, le système est dans son état fondamental : toutes les particules
sont à l’énergie la plus basse ε1 . À température légèrement supérieure, on
peut considérer que le plupart sont à l’énergie ε1 , et que quelques unes sont
à l’énergie ε2 (premier niveau excité). Les autres niveaux seront considérés
inaccessibles :

 n̄i (εi − ε̄)εi N  


CV = = η1 (ε 1 − ε̄)ε 1 + η2 (ε 2 − ε̄)ε 2
i kT 2 kT 2
−βε1
e e−βε2
avec η1 = −βε1 η2 = ε̄ = η1 ε1 + η2 ε2
e + e−βε2 e−βε1 + e−βε2
ε2 − ε1
On trouve, avec la notation Y = :
2 kT
 Y 2
CV = Nk −→ 0 quand T −→ 0 CQFD
cosh Y
62 CHAPITRE 2. STATISTIQUES QUANTIQUES

2.2.2 . . . mais les particules quantiques sont indiscernables


Dans ce paragraphe, la condition ”particules indépendantes” n’est pas requise.
Les propriétés qui y sont décrites sont des propriétés générales des particules quan-
tiques.

L’indiscernabilité
Pour expliquer cette propriété, considérons un récipient constitué de deux com-
partiments séparés par une cloison. On place une particule dans chaque comparti-
ment. Les deux particules sont numérotées (1) et (2) en fonction du compartiment
qu’elles occupent. Elles sont alors discernables, c’est-à-dire qu’on sait les recon-
naître à chaque instant. Lorsqu’on supprime la cloison qui sépare les deux comparti-
ments, les deux particules mettent en commun l’ensemble du récipient. Si on replace
la cloison en faisant en sorte de les séparer à nouveau, il est impossible de savoir
laquelle avait reçu le numéro 1, laquelle le numéro 2. Sans la cloison, les particules
sont dites indiscernables.
La situation est différente en mécanique classique : si à l’instant initial les
particules sont numérotées, on peut suivre chacune d’elles le long de sa trajectoire
qui lui est propre. On sait à chaque instant reconnaître une particule en fonction de
sa position et de sa vitesse : que les particules soient identiques ou non, elles sont,
en mécanique classique, discernables.
L’indiscernabilité est une propriété fondamentale des particules quan-
tiques. Le fait qu’on les considère dans certains cas comme discernables vient du
fait que chacune évolue dans une région de l’espace qui lui est propre. Ce n’est pas
par nature mais uniquement pour des raisons géométriques (particules en réseaux
par exemple[4] ). Autrement dit :

Deux particules sont indiscernables si elles ont en commun un certain nombre


d’états possibles, autrement dit si elles sont identiques et si leurs probabilités
de présence sont simultanément non nulles dans un même domaine de l’espace.

Postulat de symétrisation
Pour les particules identiques, il existe un postulat spécifique appelé postulat
de symétrisation. Considérons un système constitué de N particules indiscernables.
Après permutation de deux particules, l’état du système reste inchangé : les deux
vecteurs d’état |ϕ0  et |ϕ1  représentant l’état du système avant et après permutation
sont donc identiques à un facteur multiplicatif près. Les fonctions d’ondes étant
normalisées, ce facteur est un complexe de norme 1 noté eiθ : |ϕ1  = eiθ |ϕ0 . Si on
permute à nouveau les deux particules, on multiplie |ϕ1  par eiθ : |ϕ2  = eiθ |ϕ1  =
e2iθ |ϕ0 . Puisqu’on a retrouvé la situation de départ, |ϕ2  = |ϕ0  et donc :

e2iθ = 1 ⇒ eiθ = ±1
4
si chaque particule est confinée sur un site, avec interdiction de le quitter ; dès qu’on introduit
un site vide permettant aux particules de migrer, celles-ci deviennent alors indiscernables : chacune
a une probabilité non nulle d’occuper chacun des sites du réseau et il devient alors impossible
d’identifier telle ou telle particule.
2.2 Particules identiques et indépendantes 63

On distingue ainsi deux grandes classes de particules quantiques :


– les bosons dont le vecteur d’état est symétrique vis-à-vis de la permutation
de deux particules (eiθ = +1) ;
– Les fermions dont le vecteur d’état est antisymétrique vis-à-vis de la per-
mutation de deux particules (eiθ = −1).

Mais ce raisonnement n’est pas rigoureux : rien n’oblige le deuxième eiθ à être
identique au premier. C’est pourquoi on l’énonce en temps que postulat, dit postu-
lat de symétrisation :

Lorsqu’un système comprend plusieurs particules identiques, son état


ne peut être décrit que par certains vecteurs d’état : suivant la nature de ces
particules (bosons ou fermions), les vecteurs d’états sont, soit symétriques, soit
antisymétriques par rapport à la permutation de deux particules identiques.

Conséquence immédiate pour les fermions : si deux fermions sont dans le même
état, leur permutation laisse inchangée l’état du système (ils sont indiscernables) et
par conséquent son vecteur d’état. Celui-ci ne peut donc pas changer de signe.

C’est le principe d’exclusion de Pauli :


Deux fermions ne peuvent être dans le même état.

Le spin
Le spin est une propriété purement quantique des constituants de la matière.
C’est un moment cinétique intrinsèque de la particule qui, suivant la particule, peut

être entier ou demi entier (en unité h ). Le microétat d’une particule est caractérisé
par un état orbital (spatial) et un état de spin : ces deux sous-états seront supposés

indépendants (pas d’interaction spin-orbite). Une particule de spin s (en unité h )
possède 2s + 1 états de spin possibles ; il faudra en tenir compte dans le calcul
des probabilités.
Deux cas sont à envisager :
– en l’absence de champ magnétique, tous les états de spin sont équiprobables :
dans les calculs statistiques, il faudra simplement multiplier les fonctions de
partition par 2s + 1 ;
– sous champ magnétique, l’énergie du système dépendra de l’état de spin des
particules qui le constituent (qui dit moment cinétique dit forcément moment
magnétique associé).

L’expérience montre que les particules de spin entier sont des bosons, et que
les particules de spin demi-entier sont des fermions. Électrons, protons et neutrons
sont des fermions (s = 1/2) ; les photons sont des bosons (s = 1). Un corps formé
de plusieurs particules est un boson ou un fermion suivant le nombre de fermions
qui le constituent. L’hélium 3 par exemple est un fermion, alors que l’hélium 4 est
un boson. Ces deux isotopes ont des comportements fondamentalement différents à
basse température.
64 CHAPITRE 2. STATISTIQUES QUANTIQUES

Conséquences sur le nombre de complexion


Pour bien montrer la différence entre bosons, fermions et particules discernables,
considérons un système constitué de N particules identiques et indépendantes, cha-
cune ayant accès à ω microétats. Répartir N particules sur ω états disponibles
revient à distribuer N objets dans ω boîtes. Pour les fermions, on a nécessairement
ω ≥ N.

Étudions les différents cas possibles.

– Si les particules étaient discernables, chacune choisirait l’un des ω états in-
dépendamment du choix des autres particules.

Il y a donc ΩD = ω N possibilités.

– Pour les fermions, les seules distributions possibles sont celles où il n’y a qu’un
seul objet par boîte : parmi les ω boîtes, N sont occupées et (ω −N) sont vides.
ω!
Ce qui donne ΩF = possibilités.
N! (ω − N)!
– Pour les bosons, c’est plus compliqué. Si on veut employer la même méthode
que pour les fermions, il faut définir le nombre ω0 de boîtes vides, le nombre
ω1 de boîtes occupées par une particule, le nombre ω2 de boîtes occupées par
2 particules, etc. Les distributions [ωn ] = {ω0 . . . ωn . . . ωN } doivent vérifier :

N
N
(1) ωn = ω (2) n ωn = N
n=0 n=0


(1,2)
ω!
ΩB = est incalculable à cause de la condition (2).
[ωn ] ω0 ! . . . ωn ! . . . ωN !
Mais il existe une autre méthode qui consiste à remplacer les ω boîtes par une
seule découpée en ω compartiments séparés par (ω − 1) cloisons. On passe
d’une configuration à une autre en permutant un des N bosons et une des
(ω − 1) cloisons.

(N + ω − 1)!
On a donc ΩB = possibilités.
N! (ω − 1)!
Résultat important au sujet des nombres d’états possibles :
1 ω! ωN  1  2  N − 1
ΩF = = 1− 1− ······ 1 −
N! (ω − N)! N! ω ω ω

1 (ω + N − 1)! ωN  1  2  N − 1
ΩB = = 1+ 1+ ······ 1 +
N! (ω − 1)! N! ω ω ω
ΩD
Avec ΩD = ω N , on constate qu’on a toujours : ΩF ≤ ≤ ΩB .
N!
2.2 Particules identiques et indépendantes 65

À très haute température, le nombre ω d’états individuels possibles devient


extrêmement grand : ω −→ ∞ quand T −→ ∞. On en déduit :
ΩD
ΩF −→ ←− ΩB quand T −→ ∞
N!
Bosons et fermions ont donc le même comportement à haute température, ce-
lui des particules classiques (i.e. décrites par la mécanique classique). Un calcul
simple montre que la fonction de partition canonique du système suit un comporte-
ment analogue aux nombres de complexions. Quand T −→ ∞, on a :
QD (β, V, N) q(β, V, N)N
QF (β, V, N) −→ Q(β, V, N) = = ←− QB (β, V, N)
N! N!
Remarque : si le système est multiconstituant, on dit simplement que les diffé-
rents sous-systèmes sont discernables. Ce qui donne à haute température :
q1 (β, V, N1 . . . Np )N1 qp (β, V, N1 . . . Np )Np
Q(β, V, N1 . . . Np ) = ×···×
N1 ! Np !
De même, si il existe un autre couple de variables (X, P ), on a avec les notations
du paragraphe 1.4.8 :
q(β, V, X, N)N
− à X constant : Q(β, V, X, N) =
N!

δX (β, V, φ, N)N
− à P constant : ΔX (β, V, φ, N) =
N!
Si les particules sont des bosons, bien qu’il soit possible d’en trouver plusieurs
simultanément dans le même état, ω est tellement grand que cette éventualité est
hautement improbable. Il est donc normal que ΩB tende vers ΩD /N! : toutes les
situations (il y en a N!) se déduisant l’une l’autre par permutation des N particules
représentent le même état.
On peut se demander pourquoi les fermions n’ont pas ce comportement clas-
sique à toute température, puisque deux fermions ne peuvent se trouver dans le
même état. Réponse : même si les fermions sont ”classiquement” indépendants, il
existe entre eux des interactions quantiques : le fait qu’un fermion soit dans un
état donné affecte le comportement des autres dans le sens que l’état qu’il occupe
n’est plus disponible aux autres. Cet effet devient négligeable à haute température,
à cause du nombre extrêmement grand d’états disponibles.

À très basse température, bosons et fermions ont un comportement radica-


lement différent. Si on range les états par ordre d’énergie croissante, les probabilités
d’occupation convergent vers zéro d’autant plus rapidement que la température est
basse. Dans la limite T = 0 K, si les particules sont des bosons, seul le niveau
fondamental est occupé par tous les bosons (ω = 1) : c’est ce qu’on appelle la
condensation de Bose. Les fermions par contre occupent les N états de plus basse
énergie, à raison de un par état (ω = N). Le niveau occupé de plus haute énergie
est appelé niveau de Fermi. Dans les deux cas, ΩF et ΩB tendent vers 1 quand T
tend vers 0.
66 CHAPITRE 2. STATISTIQUES QUANTIQUES

2.3 Systèmes de particules indiscernables


2.3.1 Limite des hautes températures
q(β, V, N)N
On se place en situation où on peut écrire : Q(β, V, N) =
N!
C’est le passage à la limite infinie pour la température.
Comme au paragraphe 2.2.1, calculons la probabilité d’observer le système à
l’énergie Ei1 ...iN . Le calcul est ici plus délicat : un microétat du système est caractérisé
par un multiplet {i1 . . . iN } ou par toute permutation de celui-ci. Il y a donc N!
fois moins de microétats (la température est suffisamment élevée pour qu’il soit
improbable que deux particules se trouvent dans le même état). Il est donc normal
que l’on trouve des probabilités N! fois plus importantes :

Ωi1 ...iN e−βEi1 ...iN N! 


N
−βεij
N
ωij e−βεij
Pi1 ...iN = = N ωij e = N!
Q(β, V, N) q(β, V, N) j=1 j=1
q(β, V, N)

Pour calculer ηi1 par exemple, on somme Pi1 ...iN sur tous les {i2 . . . iN } et on
divise par (N − 1)!. On divise encore par N, car le résultat obtenu est la probabilité
que n’importe quelle particule soit dans l’état i1 . Moyennant quoi, on trouve :

1 1   ωi1 e−βεi1 ωi2 e−βεi2 ωi e−βεiN


ηi1 = · · · N! ······ N
N (N − 1)! i2 iN q(β, V, N) q(β, V, N) q(β, V, N)

ωi1 e−βεi1   −βεi2


 
−βεiN
 ωi1 e−βεi1
= ω i2 e × · · · × ω i e =
q(β, V, N)N i2 iN
N
q(β, V, N)

(chaque somme entre parenthèses vaut q(β, V, N) et il y en a N − 1)

Même résultat que pour les particules discernables. Et donc les deux
premiers résultats tirés de l’expression de n̄j (voir paragraphe 2.2.1) sont encore
valables ici (pas le troisième puisqu’il a été obtenu à basse température).

Un autre résultat intéressant est obtenu lorsque les εj (et donc la fonction q) ne
dépendent pas de N.
 N
q(β, V )
Calculons à partir de Q(β, V, N) = la grande fonction de partition :
N!
∞  N
∞  N
q(β, V ) λq(β, V )
Z(β, V, γ) = e−γN = avec λ = e−γ
N =0
N! N =0
N!

Comme q(β, V ) est indépendante de N, Z(β, V, γ) est la série entière d’une fonc-
tion exponentielle : Z(β, V, γ) = eλq(β,V ) ⇒ −βΨ(β, V, γ) = ln Z(β, V, γ) = λq(β, V ).
On en déduit à l’aide de la relation Ψ = E − T S − μN = −pV :
 
∂ ln Z ∂ ln Z Ψ pV
N =− =λ = λq = ln Z = −βΨ = − = ⇒ pV = NkT
∂γ β,V ∂λ β,V kT kT
2.3 Systèmes de particules indiscernables 67

Le simple fait que les niveaux d’énergie ne dépendent pas de N (autrement dit
les particules se comportent comme si elles étaient seules dans le récipient) suffit à
établir l’équation d’état des gaz parfaits. À retenir donc :

εj = εj (V ) ∀ j (inépendants de N) ⇐⇒ pV = NkT (gaz parfait) (2.8)

2.3.2 Fonction de distribution à température quelconque


À température quelconque (non infinie), on doit pour calculer Q(β, V, N) sommer
sur les états symétriques (bosons), ou sur les états antisymétriques (fermions).
q(β, V, N)N
De ce fait le résultat Q(β, V, N) = , n’est plus valable.
N!
Soit [n] = {n1 . . . nj . . .} une distribution des particules sur les états j accessibles.[ 5]
Pour calculer Q(β, V, N), on fixe la valeur de N. On doit donc avoir :

(1) nj = N
j

Les nj particules dans l’état j constituent un sous système à un seul niveau (non
dégénéré) d’énergie Ej = nj εj . Sa fonction de partition canonique s’écrit donc :

Qj = e−βEj = e−βnj εj = qj nj avec qj = e−βεj

Le système à N particules est la réunion de tels sous-systèmes. Pour une dis-


tribution [n] donnée, la fonction de partition Q[n] est le produit de tous les Qj .
La fonction de partition canonique du système s’obtient en sommant sur toutes les
distributions vérifiant la condition (1) :
(1) (1)
  
nj
Q[n] = Qj = qj et Q(β, V, N) = Q[n] = qj nj
j j [n] [n] j

La condition (1) est gênante. Sans elle, la somme serait factorisable (voir calcul
de Z ci-dessous). On la fait disparaître en sommant sur N, c’est-à-dire en calculant
la grande fonction de partition :


∞ 
∞ 
(1) 
Z(β, V, γ) = Q(β, V, N) e−γN = qj nj e−γN
N =0 N =0 [n] j

    
= (λqj )nj = ··· · · · (λq1 )n1 . . . (λqj )nj . . .
[n] j n1 nj

sans

∞ 
(1) 
condition     
On a utilisé = et e−γN = exp − γ nj = (e−γ )nj = λnj .
N =0 [n] [n] j j j

5
On raisonne ici sur les états : il n’y a pas de ωj dans les expressions. Si un niveau i est ωi
fois dégénéré, il y aura dans la liste ωi états de même énergie εi . Autre détail important : on ne
restreint pas l’étude aux particules indépendantes (les εi peuvent éventuellement dépendre de N ).
Pour éviter les lourdeurs, toutes les variables ont été retirées des expressions.
68 CHAPITRE 2. STATISTIQUES QUANTIQUES

Maintenant qu’il n’y a plus la condition (1), cette multiple somme est factorisable
(dernière écriture : tous les indices muets nj ont été remplacés par l’indice n) :

Z(β, V, γ) = (λq1 )n1 × · · · × (λqj )nj × · · · = (λqj )n
n1 nj j n

Z(β, V, γ) est un produit de grandes fonctions de partition, chacune représentant


toutes les populations possibles d’un état j :
  
Z(β, V, γ) = qj n e−γn = Qj e−γn = Zj (β, V, γ)
j n j n j

Les valeurs possibles de n sont 0 et 1 pour les fermions (jamais deux fermions
dans le même état), et 0 à l’infini pour les bosons :

1 
fermions : Z(β, V, γ) = (λqj )n = (1 + λqj )
j n=0 j
 ∞  1
bosons : Z(β, V, γ) = (λqj )n = si λqj < 1 ∀j)
j n=0 j 1 − λqj
La condition λqj < 1 ∀j pour les bosons s’écrit aussi μ < εj ∀j. En rangeant
les états par ordre d’énergies croissantes, elle s’écrit : μ < ε1 .
On peut condenser les deux résultats en une seule écriture :
  
σ qj = e−βεj +1 (fermions)
Z(β, V, γ) = (1 + σλqj ) avec −γ et σ =
λ=e −1 (bosons)
j

Pour calculer le nombre moyen n̄j de particules dans l’état j, on applique l’un des
résultats du paragraphe 1.4.2 à la fonction Zj (β, V, γ) = (1 + σλqj )σ :
 
∂ ln Zj ∂ ln Zj λqj 1 1
n̄j = − =λ = = 1 = (εj −μ)/kT
∂γ β,V ∂λ β,V 1 + σλqj λqj
+σ e +σ
Ces fonctions de distribution sont à la base des statistiques quantiques :
– celle de Fermi-Dirac pour les fermions (σ = +1),
– celle de Bose-Einstein pour les bosons (σ = −1).
Elles permettent de calculer toutes les propriétés thermodynamiques du sys-
tème :

Z(β, V, γ) = (1 + σλqj )σ ⇒ ln Z(β, V, γ) = σ ln(1 + σλqj )
j j

∂ ln Z   1
N =− = n̄j =
∂γ V,β j j e(εj −μ)/kT +σ

∂ ln Z   εj
E=− = n̄j εj = (2.9)
∂β V,γ j j

e j −μ)/kT +σ
  
pV = −Ψ = kT ln Z = σkT ln 1 + σ e(μ−εj )/kT
j

Dans la pratique, le nombre N de particules est fixé. L’expression de N sert alors


à calculer μ. Celui-ci est ensuite remplacé dans les expressions de E et de pV .
2.3 Systèmes de particules indiscernables 69

2.3.3 Distributions de Fermi-Dirac et de Bose-Einstein


Pour les systèmes macroscopiques, les niveaux d’énergie sont si serrés qu’on peut
considérer le spectre d’énergies comme continu (approximation du continuum).
Nous raisonnerons donc dans ce contexte en étudiant les fonctions continues :
1 1
fF D (ε, T, μ) = fBE (ε, T, μ) =
e(ε−μ)/kT +1 e(ε−μ)/kT −1 (2.10)
distribution de Fermi-Dirac distribution de Bose-Einstein

La fonction de distribution fF D (ε, T, μ) de Fermi-Dirac

1/2

Fig. 2.1 – Distribution de Fermi-Dirac

Au zéro absolu, c’est une ”marche” (voir figure 2.1) : elle vaut 1 si ε est inférieure
à μ, et 0 pour les valeurs supérieures (le système choisit son état d’énergie minimale
où les N particules occupent les N états de plus basse énergie, à raison de une par
état). Le potentiel chimique est donc le dernier niveau occupé au zéro absolu. On le
note εF et on l’appelle niveau de Fermi :
μ(T ) − εF
μ(T ) −→ εF et même −→ 0 quand T → 0
kT
(μ tend vers εF ”plus vite” que T vers 0)
Quelle que soit T , la courbe est symétrique par rapport au point (μ, 1/2) :

fF D (μ + ε, T, μ) + fF D (μ − ε, T, μ) = 1 ∀ε et donc fF D (μ, T, μ) = 1/2

La fonction de distribution fBE (ε, T, μ) de Bose-Einstein


Elle n’est définie que pour les énergies supérieures au potentiel chimique μ. Celui-
ci est donc toujours inférieur à tout εj , donc à ε1 .
Au zéro absolu, c’est un pic de Dirac (voir figure 2.2) : elle vaut N pour ε = ε1
et 0 ailleurs (le système choisit son état d’énergie minimale où toutes les particules
sont sur le niveau fondamental).
Au voisinage du zéro absolu, on peut écrire :
  kT
fBE (ε1 , T, μ) −→ N quand T → 0 ⇒ μ(T ) ≈ ε1 − kT ln 1 + 1/N ≈ ε1 −
N
70 CHAPITRE 2. STATISTIQUES QUANTIQUES

On en déduit :
μ(T ) − ε1
μ(T ) −→ ε−
1 et même −→ 0 quand T → 0
kT
(μ tend vers ε1 ”plus vite” que T vers 0)

Fig. 2.2 – Distribution de Bose-Einstein

À très haute température


Que ce soient des bosons ou des fermions, le nombre d’états accessibles aux
particules est extrêmement grand, beaucoup plus grand que N, de sorte que le taux
moyen d’occupation par état devient extrêmement faible. Le système choisit son état
d’entropie maximale, indépendamment de la valeur de l’énergie. Il y a équiprobabilité
entre les différents états individuels, et le taux d’occupation de tous les états devient
quasi nul. On en déduit :

μ(T )
μ(T ) −→ −∞ et même −→ −∞ quand T → +∞
kT
(μ tend vers −∞ ”plus vite” que T vers +∞)

2.4 Le corps noir et le gaz de photons


2.4.1 Théorie électromagnétique
Lorsqu’on maintient une enceinte à une température T , il s’établit spontanément
à l’intérieur un système d’ondes électromagnétiques. Cette cavité fermée en équilibre
thermique avec un thermostat est appelée corps noir ou radiateur intégral. On
peut observer le rayonnement émis par un trou de taille négligeable percé dans la
paroi. Historiquement, c’est ce qui amena Planck à formuler l’hypothèse des quanta
d’énergie et les principaux postulats de la mécanique quantique.
2.4 Le corps noir et le gaz de photons 71

Point de départ : les équations de Maxwell dans le vide :

 
∇  = − ∂B
 ×E ∇
 ·B
 =0 ∇  = μ0 ε0 ∂ E
 ×B ∇
 ·E
 =0
∂t ∂t

Elles conduisent aux équations de propagation :

1 ∂2E 1 ∂2B 1
ΔE
 = et ΔB
 = avec = μ0 ε0 (2.11)
c2 ∂t2 c2 ∂t2 c2

Les ondes planes E = E 0 ei(k·r−ω t) et B  0 ei(k·r−ω t) sont solutions de ces


 = B
équations. En remplaçant dans les diverses équations, on trouve :
– que la norme k du vecteur d’onde[6] est liée à la pulsation ω par la relation :
ω
k=
c

– que les vecteurs (k, E,


 B)
 sont perpendiculaires entre eux en tout point et pour
tout t et qu’ils forment un trièdre direct.

Les équations 2.11 étant linéaires, la solution générale, qui dépend des conditions
aux limites, est une superposition linéaire de ces solutions élémentaires monochro-
matiques. Si on considère une enceinte vide, supposée cubique, on trouve, par une
démarche similaire à l’établissement de 2.24 plus loin, que les composantes du vec-
teur d’onde doivent être des nombres entiers de 2π/L, L étant l’arête du cube :

 
k = 2π nx , ny , nz avec nx , ny , nz entiers positifs ou négatifs
L

Les solutions monochromatiques possédant de tels vecteurs d’onde sont appelés


modes propres de la cavité. Pour caractériser entièrement un mode propre, il faut
également définir la direction de E, autrement dit un état de polarisation. On
peut définir deux états de polarisation indépendants en décomposant E  sur deux

axes orthogonaux contenus dans le plan perpendiculaire à k.
Un champ électromagnétique quelconque sera toujours une combinaison linéaire
des divers modes propres ainsi définis. Les dimensions de l’enceinte étant macro-
scopiques, l’ensemble des modes propres forme un ensemble quasi continu. On peut
donc définir une densité de modes propres gω (ω) : gω (ω) dω est le nombre de
modes dont la pulsation est comprise entre ω et ω + dω. Cette densité s’obtient en
calculant le nombre de modes dont le module du vecteur d’onde est compris entre
k et k + dk, puis en remplaçant k par ω/c et dk par dω/c. En tenant compte des
deux états de polarisation possibles, on trouve :

V 2 V ω2 V ω2
gω (ω) dω = 2 4π k dk = dω ⇒ gω (ω) =
8π 3 π 2 c3 π 2 c3
6
Attention : ici, k n’est pas la constante de Boltzmann.
72 CHAPITRE 2. STATISTIQUES QUANTIQUES

2.4.2 Les photons


Si on s’en tient au résultat donné par la théorie classique de l’électromagné-
tisme, l’amplitude de chacun des modes propres (E0 ou B0 ) peut prendre une valeur
quelconque. On trouverait par conséquent un spectre d’énergie continu de 0 à +∞.
En réalité, l’énergie d’un champ électromagnétique, comme celle d’un système
matériel, est quantifiée. À une onde électromagnétique de vecteur d’onde k et de
pulsation ω, on associe des particules appelées photons. Chaque photon possède
une impulsion et une énergie données par les équations de Planck-Einstein :

− − − h
p = h k et ε = h ω avec h = ≈ 1, 055 10−34 J s

On relie l’énergie d’un photon à celle de l’onde qui lui est associée en disant que

cette énergie vaut Nω h ω, où Nω est le nombre de photons de pulsation ω. L’énergie
de l’onde est ainsi quantifiée puisque Nω est un entier positif ou nul.
En utilisant k = ω/c et les équations de Planck−Einstein, on en déduit ε = p c.
Si on compare ce résultat à celui, tout à fait général, donné par la mécanique re-
lativiste (ε2 = p2 c2 + m2 c4 ), on en déduit que le photon est une particule de
masse nulle.

L’onde possède deux états de polarisation possibles. Les photons correspondants


auront donc deux états de spin possibles. Mais attention : il ne faut pas en
conclure pour autant que leur spin vaut 1/2. Une étude plus approfondie montre qu’en
fait le spin des photons vaut s = 1, mais que la valeur ms = 0 est interdite, de la
même façon que l’état de polarisation longitudinale de l’onde qui lui est associée est
interdit par les équations de Maxwell. Conclusion : les photons sont des bosons
de spin 1, mais il faudra remplacer (2s + 1) non pas par 3, mais par 2.
Pour terminer le passage onde particules, on associe un état individuel possible
pour les photons (une pulsation ω et un état de spin) à chaque mode propre classique
(un vecteur d’onde et un état de polarisation). C’est ce qui nous permet de calculer
la densité d’états individuels pour les photons. Il suffit de remplacer dans gω (ω) dω
− −
la pulsation ω par ε/h et dω par dε/h :

V ω 2 dω V ε2 V ε2
g(ε) dε = gω (ω) dω = = −3
dε ⇒ g(ε) = 3
π 2 c3 π 2 c3 h −
π 2 c3 h

2.4.3 Distribution de Planck, loi de Planck


Contrairement aux particules matérielles pour lesquelles il faut négliger les inter-
actions entre particules, les interactions entre photons sont rigoureusement nulles.
On a donc affaire à un gaz de bosons rigoureusement parfait. La fonction de dis-

tribution de Bose-Einstein (avec ε = h ω) permet de calculer le nombre moyen de
[7]
photons de pulsation ω :
1
Nω = (h− ω−μ)/kT
e −1
7
À partir de maintenant, k redevient la constante de Boltzmann.
2.4 Le corps noir et le gaz de photons 73

Les photons interagissent avec les parois. C’est ce qui rend possible l’établisse-
ment de l’équilibre thermique avec le thermostat. Pour un système isolé à l’équilibre
thermique, les nombres de photons émis ou absorbés peuvent être différents, à partir
du moment où l’énergie est conservée. C’est un système ouvert, bien que l’enceinte
soit fermée . . . Le fait que le nombre de photons ne soit pas conservé permet de dire
que le potentiel chimique des photons est nul. D’où :
1
Nω = − Distribution de Planck.
eh ω/kT −1
Attention : la situation n’a rien à voir avec celle d’un système ouvert échangeant
des particules avec un réservoir. Lorsqu’on étudie un système ouvert, le nombre
de particules du système fluctue mais le nombre total de particules (système +
réservoir) reste constant. Dans le cas d’un système de photons, le nombre total de
photons n’est pas conservé. Les parois émettent ou absorbent des photons, elles les
créent ou les annihilent.
En conséquence de ce potentiel chimique nul, toutes les grandeurs thermody-
namiques pourront être exprimées uniquement en fonction de T et V . Thermody-
namiquement, il n’y a plus que deux termes dans l’équation fondamentale, ce qui
restreint le nombre de transformées de Legendre possibles. À partir de S/k :
 
∂S/k ∂S/k
S/k(E, V, N) = βE + ξV β= ξ=
∂E V,N ∂V E,N

(+βF ) est la Transformée de Legendre de S/k pour la variable E :


 
∂βF ∂βF
βF (β, V, N) = βE − S/k E= ξ=−
∂β V,N ∂V β,N

(−βΦ) est la Transformée de Legendre de S/k pour la variable V :


 
∂βΦ ∂βΦ
βΦ(E, ξ, N) = S/k − ξV β= V =−
∂E ξ,N ∂ξ E,N

(+βG) est la Transformée de Legendre de S/k pour les variables E et V :


 
∂βG ∂βG
βG(β, ξ, N) = βE + ξV − S/k E= V =
∂β ξ,N ∂ξ β,N

β H, βΨ, β E, et β Θ sont respectivement égaux à S/k, β F , β Φ et β G.

La loi de Planck exprime la densité spectrale d’énergie électromagné-


tique u(ω, T ). Par définition, à T donnée, u(ω, T ) dω est l’énergie par unité de
volume des ondes de pulsation comprise entre ω et ω + dω. C’est, à un facteur
multiplicatif près, l’intensité mesurée en fonction de ω du rayonnement émis par un
trou dans la paroi. C’est la loi la plus importante. Historiquement mais aussi parce
qu’elle permet de déduire toutes les autres.
Pour calculer la densité spectrale u(ω, T ), on écrit de deux manières différentes
l’énergie dE que possèdent les photons de pulsation comprise entre ω et ω + dω :
74 CHAPITRE 2. STATISTIQUES QUANTIQUES

– d’une part en utilisant la définition de u(w,T) : dEω = V u(ω, T ) dω


– d’autre part, c’est le nombre de modes propres de pulsation entre ω et ω + dω

multiplié par l’énergie emmagasinée par les Nω phonons d’énergie h ω:

− V ω2 1 −
dEω = gω (ω) dω × Nω h ω= dω − h ω
π 2 c3 e h ω/kT −1
− 3
h ω
Ce qui donne la loi de Planck (figure 2.3) : u(ω, T ) = −
π 2 c3 (eh ω/kT − 1)

Fig. 2.3 – Loi de Planck


Historiquement, cette loi a une importance considérable. Elle fut obtenue par
Planck à partir de mesures expérimentales. A noter que théorie et expérience sont
en excellent accord dans tout le domaine de température accessible, et quelle que
soit la pulsation.
À basse fréquence, on obtient :

− h ω kT ω 2
eh ω/kT − 1 ≈ ⇒ u(ω, T ) ≈
kT π 2 c3
C’est la formule de Rayleigh-Jeans aussi appelée formule classique, car
c’est le résultat que donne la théorie électromagnétique classique (on peut consta-
ter d’ailleurs que la constante de Planck a disparu). Selon la théorie classique, la
densité spectrale est une fonction constamment croissante de la pulsation. Ce n’est
physiquement pas possible, puisque l’énergie totale (l’aire sous la courbe) contenue
dans l’enceinte serait infinie. Expérimentalement, ce résultat est correct à basse fré-
quence, mais on constate que, à fréquence plus élevée, la densité spectrale passe par
un maximum pour décroître rapidement vers 0 à haute fréquence : ce phénomène
logique physiquement (connu sous le nom de catastrophe ultraviolette) n’avait
aucune justification théorique à l’époque.
La position ωm du maximum varie proportionnellement à T :[8]
kT
ωm = 2, 8214 −
h
8
2,8214 est solution de l’équation x = 3(1 − e−x ).
2.4 Le corps noir et le gaz de photons 75

Ce résultat, déduit initialement des courbes expérimentales, est connu sous le


nom de loi du déplacement de Wien. La mesure de ωm conduit à la température
de la source. Cette technique est utilisée pour mesurer la température des étoiles.
La valeur um que prend ce maximum varie en T 3 :

k3 T 3
um = u(ωm , T ) = 1, 4212 −2
π2 h c3
Aux températures usuelles (lampe à incandescence : 3000 K, arc électrique :
4000 K, surface du soleil : 5500 K, . . .), ωm est dans l’infrarouge. Il atteint le domaine
visible à une température d’environ 6400 K. A noter que le passage de T = 2800 K
(lampe ordinaire) à T = 3200 K (lampe halogène) multiplie l’intensité par un facteur
variant de 2 à 5 dans le domaine visible.

2.4.4 Thermodynamique du rayonnement thermique


La loi de Planck permet d’accéder à toutes les propriétés importantes du rayon-
nement. Les résultats seront exprimés en fonction de la constante de Stephan :

π2 k4
σ= −3 2
= 5, 6705054 10−8 kg s−3 K−4
60 h c
Deux intégrales numériques sont également utiles :
 ∞ 2  ∞ 3
x dx x dx π4
≈ 2, 404 et =
0 ex − 1 0 ex − 1 15

Énergie totale et capacité thermique : il suffit d’intégrer u(ω, T ).


 ∞ −  ∞ 
Vh ω 3 dω V k 4 T 4 ∞ x3 dx
E(T, V ) = V u(ω, T ) dω = 2 3 = −3 3
0 π c 0 e−h ω/kT − 1 π2 h c 0 ex − 1

4σ 4 ∂E 16σ
E(T, V ) = V T (Loi de Stephan) CV = = V T3
c ∂T V c
Énergie libre et grand potentiel :
 ∞  ∞
−ε/kT V kT
F = Ψ = kT g(ε) ln(1 − e ) dε = −3 3
ε2 ln(1 − e−ε/kT ) dε
2
π h c 0
0

E
En intégrant par parties en trouve F = Ψ = − , et on en déduit :
3
Ψ E 4σ 4 E−F 4E CV 16σ
p=− = = T et S = = = = V T3
V 3V 3c T 3T 3 3c
La relation pV = E/3 (au lieu de pV = 2E/3, voir équation 3.1) est due au
comportement relativiste des photons.
76 CHAPITRE 2. STATISTIQUES QUANTIQUES

La pression de radiation est en général négligeable, mais pas toujours :


– À 300 K, la pression vaut 2 10−6 Pa = 2 10−11 bars. C’est en général parfai-
tement négligeable, sauf dans les expériences en ultravide, ou la pression de
radiation peut perturber les appareils de mesures (les pressions recherchées
peuvent parfois descendre jusqu’à 10−17 bars).
– Lors d’une explosion nucléaire, la température peut localement frôler les 106 K.
La pression de radiation peut alors atteindre plusieurs milliers de bars.

Remarque : dans une naine blanche, la température est de l’ordre de 107 K. On


trouve alors une pression de radiation de 2, 5 107 bars. Cela peut paraître énorme,
mais pas du tout. L’une des relations 5.9 du paragraphe 5.3.3 permet d’estimer la
contribution des électrons à la pression : on trouve environ 1017 bars. Et il faut
encore ajouter la contribution des noyaux présents dans la naine blanche. Compte
tenu de la densité en noyaux (∼ 1035 par m3 ) et de leur masse moyenne, on peut
à 107 K assimiler le système de noyaux à un gaz parfait. L’équation d’état des gaz
parfaits donne pour les noyaux une pression de l’ordre de 1014 bars.
Conclusion : dans une naine blanche, la pression de radiation, pourtant énorme,
est parfaitement négligeable.

La distribution de Planck permet également de calculer la densité de photons :


 ∞  ∞
g(ε) dε V ω 2 dω V k3 T 3
N= − = 2 3 = 2, 404 − 3
0 eh ω/kT − 1 π c 0 e−h ω/kT − 1 π 2 h c3
Ce qui donne :

E = 2, 7012 NkT pV = 0, 9004 NkT CV = 10, 8048 Nk S = 3, 6016Nk

Une mise en garde au sujet de ces dernières relations. Elles sont données dans
le seul but de comparer le gaz de photons à un gaz de particules non relativistes.
Le nombre N de photons étant fonction de la température (loi en T 3 ), il ne faut
surtout pas déduire de E = 2, 7012 NkT que E suit une loi linéaire en T . D’ailleurs,
CV n’est pas égal à 2, 7012 Nk.

Petite anecdote historique :

En 1964, deux radio-astronomes (Penzias et Wilson) découvrent tout à fait par


hasard le rayonnement cosmique, quelques mois avant que les astrophysiciens en
prédisent l’existence à partir de la fameuse théorie du big bang. Les mesures hors
atmosphère qui suivirent permirent de conclure que l’Univers est rempli à l’heure ac-
tuelle d’un rayonnement qu’émettrait un corps noir porté à une température voisine
de 3 K.
En voici l’explication. Selon la théorie du big bang, juste après la grande
explosion, la température était extrêmement élevée, de sorte que l’Univers conte-
nait essentiellement des photons, des électrons libres, et des noyaux atomiques nus.
L’interaction entre les photons et les particules chargées étant très forte, les pho-
tons étaient piégés par la matière, sans arrêt diffusés, émis et absorbés. C’est ainsi
que, malgré son expansion et la baisse continuelle de sa température, l’Univers était
2.5 L’oscillateur harmonique et le gaz de phonons 77

à chaque instant en équilibre et que l’énergie des photons était distribuée suivant
la loi de Planck du corps noir. L’abaissement de température favorise la forma-
tion d’atomes, d’où une disparition progressive des particules chargées libres et une
interaction de plus en plus faible entre la matière et les photons. Lorsque la tem-
pérature atteignit, selon les calculs, une température d’environ 3000 K, l’Univers
devint transparent aux photons (ce qu’on appelle le découplage du rayonnement et
de la matière). Le rayonnement fossile que nous recevons actuellement provient de
cet instant.
Pourquoi correspond-il à un corps noir porté à 3 K ? C’est la théorie de l’ex-
pansion de l’Univers qui apporte la réponse. Pendant un intervalle de temps
donné, toutes les distances intergalactiques s’accroissent dans les mêmes propor-
tions. Ce qu’il est important de noter, c’est que les longueurs d’onde s’accroissent
également dans les mêmes proportions. On estime que les distances se sont accrues
d’un facteur 1000 depuis l’instant où la température était de 3000 K. Les longueurs
d’onde que nous observons actuellement étaient 1000 fois plus faibles à l’origine, et
les pulsations 1000 fois plus élevées. Le spectre que nous enregistrons actuellement
correspond donc à une température 1000 fois plus faible que la température initiale,
c’est-à-dire environ 3 K.

2.5 L’oscillateur harmonique et le gaz de phonons


2.5.1 L’oscillateur harmonique linéaire quantique
En mécanique quantique, un oscillateur linéaire est typiquement une particule
de masse m dans un champ de potentiel U(x) présentant un minimum, par exemple
en x = 0 : U  (0) = 0. La valeur de U(0) n’a aucune importance : on la choisira nulle
(choix d’origine des énergies). En développant U(x) au voisinage de 0, on trouve :

 U  (0) 2 U  (0) 3 U  (0) 2 U  (0) 3


U(x) = U(0) + U (0)x + x + x + ... = x + x + ...
2 6 2 6
Dans l’approximation de l’oscillateur harmonique, on ne conserve que le premier
terme non nul : 
mω 2 2 U  (0)
U(x)  x avec ω =
2 m
En mécanique quantique, l’énergie d’un oscillateur harmonique linéaire est quan-
tifiée. On montre que les niveaux d’énergie, non dégénérés, sont donnés par :

 
εn = h ω n + 1/2 avec n entier positif ou nul


∞ ∞ 
 n
− −
Calculons la fonction de partition : q(T ) = e−εn /kT = e−h ω/2kT e−h ω/kT
n=0 n=0
− ω/2kT
−h
e 1
La somme sur n est une série géométrique : q(T ) = − = −
1−e−h ω/kT hω
2 sinh 2kT
Cette fonction de partition permet de calculer les propriétés ci-dessous.
78 CHAPITRE 2. STATISTIQUES QUANTIQUES

Probabilité d’observer un état n :


e−εn /kT − −
Pn = = (1 − e−h ω/kT ) e−nh ω/kT
q(T )
Nombre quantique moyen :





− 1
n̄ = n Pn = (1 − e−h ω/kT ) n ( e−h ω/kT )n = − (2.12)
n=0 n=0
eh ω/kT − 1


∞ x
On a utilisé n xn = .
n=0 (1 − x)2
Énergie moyenne, capacité thermique :

  h
− −
ω eh ω/kT + 1 −
h ω −
h ω ∂ ε̄  h− ω 2
− 2kT
ε̄ = h ω n̄ + 2 =
1/ − = coth c= =k −
2 e h ω/kT −1 2 2kT ∂T sinh h ω
2kT

Énergie libre, entropie :


 h−
ω ε̄ − f
f = −kT ln q(T ) = kT ln 2 sinh s=
2kT T
On peut constater que la distribution n̄ (équation 2.12) suit une loi de Bose-

Einstein, avec μ = 0 et ε = h ω. L’oscillateur dans l’état n peut donc être assimilé à

une population de n bosons de potentiel chimique nul et d’énergie h ω. Ces pseudo-
particules sont appelés phonons. Ce sont des particules de même nature que les
photons, à la différence près que les photons existent aussi bien dans la matière que
dans le vide (ils ont une identité propre), alors que les phonons ne peuvent exister
sans la matière. C’est pourquoi ils sont classés parmi les pseudo-particules.
La théorie quantique permet également √ de calculer l’extension spatiale Δxn de
l’oscillateur dans l’état n (à un facteur 2 près, c’est l’équivalent de l’amplitude
d’oscillation de la mécanique classique) :

  h

Δxn = n + 1/2

En remplaçant n par n̄, on obtient l’extension spatiale moyenne :
  
  h

ε̄(T ) −
h h−
ω
Δx(T ) = n̄(T ) + 1/2 = = coth
mω mω 2 2mω 2kT
La longueur moyenne (T ) occupée par l’oscillateur valant 2Δx(T ), il est possible
de calculer un coefficient de dilatation thermique. On trouve :

1 d 1 hkTω
α(T ) = =
 dT T sinh −h ω
kT

Considérons maintenant un oscillateur confiné sur un segment de longueur a.


Autrement dit une particule de masse m dans un champ d’énergie potentielle pré-
sentant deux branches infinies en −a/2 et +a/2 lui interdisant toute possibilité de
2.5 L’oscillateur harmonique et le gaz de phonons 79

quitter le voisinage de x = 0. Lorsque a varie, on suppose que le graphe de U(x)


varie de façon homothétique (autrement dit, U est fonction de x/a uniquement).
On en déduit que la dérivée seconde U  (0) varie en 1/a2 , et donc que la pulsation
varie en 1/a (on suppose toujours que le profil est parabolique au voisinage de 0).
Autrement dit :
dω da
=−
ω a
On peut maintenant calculer la tension de ligne en dérivant l’énergie libre f par
rapport à a :   − −
∂f dω ∂f h ω h ω
τ =− =− = coth
∂a T da ∂ω T 2a 2kT
Pour calculer le coefficient de dilatation thermique α (à τ constant) et le module
de compressibilité χ (à T constant), il faut connaître l’expression de a en fonction
de T et de τ . Il est malheureusement impossible d’extraire a(T, τ ) de l’expression
de τ ci-dessus (ω dépend de a). On est alors conduit à écrire :
 
1 ∂a 1 ∂a
α= et χ = − ⇒ da = a(αdT − χdτ )
a ∂T τ a ∂τ T
 
α 1 α ∂τ 1 ∂τ
⇒ dτ = dT − da ⇒ = et = −a
χ aχ χ ∂T a χ ∂a T
Les calculs donnent :
− −
1 hω
2kT 2a sinh2 2kT hω
α= et χ = −
T sinh −h ω − −
hω h ω sinh −h ω − −h ω
kT 2kT kT 2kT


Ci-dessous les principaux résultats (on a posé u = h ω/2kT ) :

h ω u2 ε̄ − f
ε̄ = coth u ca = k f = kT ln (2 sinh u) s=
2 sinh2 u T

1 h ω 1 u 2a sinh2 u
τ= coth u α= χ= −
a 2 T sinh(2u) − u h ω sinh(2u) − u

A haute température (kT h ω), on obtient au premier ordre des résultats
tout-à-fait corrects :
    kT  
ε̄  kT 1 + 13 u2 c  k 1 − 13 u2 τ 1 + 13 u2
a
1  a   1 
α 1 − 43 u2 χ 1 − u2  1 − 23 u2
T kT τ

2.5.2 Vibrations de réseau : modèle d’Einstein


Dans un cristal parfait, les atomes sont rangés de façon tri-périodique sur un
réseau de sites, avec impossibilité de les quitter. N’ayant aucun degré de liberté en
translation, chacun possède trois degrés de liberté de vibration.
80 CHAPITRE 2. STATISTIQUES QUANTIQUES

Physiquement, le système peut être décrit comme un ensemble de masses ponc-


tuelles (les noyaux) baignant dans un nuage d’électrons. Ce nuage d’électrons fait
office de champ d’énergie potentielle constant (dans le temps) et non homogène.
Les positions d’équilibre des noyaux rendent cette énergie potentielle minimale : ses
dérivées premières par rapport aux coordonnées de position sont nulles, et ce sont
les dérivées secondes qui, pour des vibrations de faible amplitude, vont déterminer
les fréquences de vibration.
Mécaniquement, il existe plusieurs modèles permettant de décrire le système.
Nous en étudierons deux : le modèle d’Einstein et le modèle de Debye. Le modèle
d’Einstein, peu performant à basse température, a l’avantage d’être simple. Son
intérêt pratique est limité, mais c’est historiquement le premier. Il a permis à Debye
de construire le sien, beaucoup plus performant, mais requérant des connaissances
avancées en cristallographie.
Dans le modèle d’Einstein, les atomes, bien que liés entre eux par des forces
interatomiques importantes, sont supposés indépendants. On supposera pour sim-
plifier que les N atomes sont tous identiques et qu’ils sont arrangés sur un réseau
cubique simple. Chacun occupe une ”boîte” de volume v = a3 , identique pour tous
les atomes. En conséquence, ils vibrent tous à la même fréquence indépendamment
les uns des autres. Cette fréquence sera notée ωE . La loi de variation de ωE en
fonction de v sera supposée telle que :

dωE da 1 dv
=− =−
ωE a 3 v

Chaque atome dans sa boîte constitue un oscillateur harmonique tridimensionnel


que l’on peut décomposer en trois oscillateurs harmoniques linéaires et indépendants.
Le système en contient donc 3N. Puisqu’on a affaire à un réseau, on peut écrire :

1
Q(T, V, N) = q(T, v)3N avec V = N v et q(T, v) = −
2 sinh h ω2kT
E (v)

Les résultats qui suivent ont été trouvés selon la démarche du paragraphe précé-
dent. A quelques nuances près (facteur d’échelle 3N, changement de variable a → v),

ils sont tout à fait similaires. On a posé u = h ωE /2kT :

h ωE u2 E −F
E = 3N coth u CV = 3Nk F = 3NkT ln (2 sinh u) S=
2 sinh2 u T

1 h ωE 1 3u 6v sinh2 u
p= coth u α= χ= −
v 2 T 2 sinh(2u) − u h ωE 2 sinh(2u) − u

A haute température, ces résultats deviennent :


    kT  
E  3NkT 1 + 13 u2 CV  3Nk 1 − 13 u2 p 1 + 13 u2
v
1  v   1 
α 1 − 89 u2 χ 1 − 59 u2  1 − 20 2
9
u
T kT p
2.5 L’oscillateur harmonique et le gaz de phonons 81

A basse température, la capacité thermique s’écrit :


h

ω 2
E −
CV  3Nk e−h ωE /kT
kT
(vib)
Ce résultat n’est pas satisfaisant : expérimentalement, les courbes CV (T )
suivent à basse température des lois en T 3 .

2.5.3 Vibrations de réseau : modèle de Debye


Modélisation, équations du mouvement
On supposera, pour simplifier les écritures, que les N atomes (α = 1 à N)
sont identiques (de masse M) et qu’ils occupent à l’équilibre les nœuds d’un réseau
cubique simple : dans un repère (O, e1 , e2 , e3 ) orthonormé, les positions d’équilibre
s’écrivent :
 α = a(nα1e1 + nα2e2 + nα3e3 )
R (2.13)
avec nα1 , nα2 , nα3 entiers relatifs (a est appelé paramètre de maille).

Point de départ du modèle mécanique : l’énergie potentielle est fonction de 3N


coordonnées de position. Son développement de Taylor au voisinage de la configu-
ration d’équilibre doit donc faire apparaître toutes les dérivées secondes.
En plaçant l’origine des énergies au minimum de l’énergie potentielle, et sachant
que les dérivées premières sont nulles à l’équilibre, on doit donc écrire :

1 βj
N N 3 3
βj ∂2U
U =− K xα i xβ j avec Kαi =− (2.14)
2 α=1 β=1 i=1 j=1 αi ∂xα i ∂xβ j équil

Le développement ci-dessus est écrit en termes de déplacements : (xα i , i = 1 à 3)


et (xβ j , j = 1 à 3) sont les composantes des déplacements de l’atome α et de l’atome
β par rapport à leurs positions d’équilibre.
Les équations du mouvement s’écrivent :

∂U βjN 3
M ẍαi = Fαi =− = Kαi xβj (α = 1 à N et i = 1 à 3) (2.15)
∂xαi β=1 j=1

Avant d’exploiter ces équations, montrons que le système est mécaniquement


identique à une population de N masses ponctuelles reliées entre elles par des res-
sorts.
On utilise dans un premier temps l’invariance par translation. Si on déplace
tous les atomes d’une distance unité dans la même direction, aucune distance rela-
tive entre atomes n’est modifiée. Toutes les forces sont nulles, et les équations 2.15
s’écrivent :

N
3
βj αj

3
βj
0= Kαi ⇒ Kαi =− Kαi ∀ α, i, j (2.16)
β=1 j=1 β=α j=1
82 CHAPITRE 2. STATISTIQUES QUANTIQUES

On remplace dans 2.15 :


3
βj
M ẍαi = Kαi (xβj − xαj ) (α = 1 à N et i = 1 à 3) (2.17)
β=α j=1

Dans un deuxième temps, on étudie un système constitué de N masses ponc-


tuelles reliées entre elles par des ressorts de constantes de raideur Cαβ . Lorsqu’on
déplace l’atome α d’un vecteur rα et l’atome β d’un vecteur rβ , le ressort ”αβ”
s’allonge au premier ordre de δαβ = eαβ · (rβ −rα ), eαβ étant le vecteur unitaire porté
par la ligne du ressort au repos. L’énergie potentielle de ce système s’écrit donc :

1 β 2 1 β β 2
N N
U= C δ = C e · (rβ − rα ) (2.18)
4 α=1 β=α α αβ 4 α=1 β=α α α

Le facteur 1/4 au lieu de 1/2 vient du fait que dans la somme chaque couple (α, β)
a été compté deux fois. Les équations du mouvement de ce système s’écrivent :


3
M ẍαi = Cαβ eβαi eβαj (xβj − xαj ) (α = 1 à N et i = 1 à 3) (2.19)
β=α j=1

Comparant 2.19 à 2.17, on en déduit que les deux systèmes sont équivalents si
βj
on a Kαi = Cαβ eβαi eβαj , les eβαj étant les cosinus directeurs de la ligne du ressort ”αβ”.

Solutions particulières : ondes progressives


Revenons au système 2.15. Les 3N équations sont linéaires, mais chacune d’elles
met en jeu toutes les variables.
C’est un système d’équations gigantesque que l’on ne peut pas résoudre sans
utiliser la périodicité du réseau. Celle-ci permet de ramener l’étude à celle du contenu
d’une maille (ici un seul atome).
 
On recherche des solutions particulières de la forme xαi = ui ei(k·Rα−ω t) (ondes
progressives). En remplaçant dans 2.15, on trouve en utilisant 2.16 :


3
2
ω ui − Δij (k) uj = 0 (2.20)
j=1

1 βj ik·R αβ 1 βj 
N
  

avec Δij (k) = − Kαi e = Kαi 1 − eik·Rαβ (2.21)
M M
β=1 β=α

Quelques remarques au sujet des Δij (k) :


βj
– Les Δij (k) sont indépendants de α : Kαi ne dépend que des R  αβ = Rβ − R  α,
c’est-à-dire des positions relatives des atomes β par rapport à l’atome α. Le
choix de l’atome α utilisé pour le calcul est tout à fait arbitraire (c’est ici qu’on
utilise la périodicité).
2.5 L’oscillateur harmonique et le gaz de phonons 83

– Les Δij (k) sont tripériodiques. En utilisant 2.13, on peut écrire R  αβ sous la
forme a(n1e1 + n2e2 + n3e3 ). On en déduit (n1 , n2 , n3 , m1 , m2 , m3 , sont des
entiers) :

Δij (k + K  m = 2π (m1e1 + m2e2 + m3e3 )


 m ) = Δij (k) pour tout K
a

Conclusion : les vecteurs k significatifs pointent dans un cube d’arête 2π/a


centré sur l’origine (c’est ce qu’on appelle la zone de Brillouin). Chaque
composante de chaque vecteur k est comprise entre −π/a et +π/a.
Pour calculer les Δij (k), on choisit arbitrairement un atome α, et on effectue
les sommations sur ses premiers voisins, deuxièmes voisins, etc. Le voisinage de cet
atome est choisi en fonction de la précision voulue en décidant que les interactions
sont négligeables au delà d’une certaine distance entre atomes.
Quoiqu’il en soit, le système à résoudre est maintenant constitué de trois équa-
tions :
(ω 2 − Δ11 )u1 − Δ12 u2 − Δ13 u3 = 0
Δ21 u1 − (ω 2 − Δ22 )u2 − Δ23 u3 = 0 (2.22)
2
Δ31 u1 − Δ32 u2 − (ω − Δ33 )u3 = 0
Les déplacements nuls étant sans intérêt, il est nécessaire que le déterminant de
ce système soit nul. C’est ce qu’on appelle l’équation séculaire qui permet de trouver
les trois pulsations propres ω du système ( = 1 à 3). Chacune sera fonction du
vecteur d’onde k choisi. Les fonctions ω (k) constituent ce qu’on appelle la loi de
dispersion. Cette loi de dispersion est ici constituée de trois branches  = 1 à 3. On
peut remarquer que tous les Δij sont nuls pour k = 0. On en déduit qu’on a pour
les trois branches ω (0) = 0 (les trois branches sont dites acoustiques).
Une fois les trois pulsations propres trouvées, on les remplace une à une dans
le système 2.22. On trouve pour chaque ω (k) un vecteur u (k) (que l’on choisit
 
normé) de composantes ui (k), i = 1 à 3 . Un théorème mathématique bien connu
nous assure l’orthogonalité de ces trois vecteurs. C’est pourquoi on les appelle modes
propres ou modes orthogonaux ou encore modes normaux de vibration :

u (k) · u (k) = δ pour tout k (2.23)

Pour trouver les vecteurs k possibles, on utilise les conditions aux limites. Il nous
faut N vecteurs k, de façon à ce que le nombre de pulsations propres soit égal au
nombre de degrés de liberté du système, c’est-à-dire 3N.
Les conditions aux limites dépendent de la forme de l’échantillon. Cette forme est
arbitraire : on étudie le système pour ses propriétés macroscopiques et celles-ci sont
indépendantes de la forme de l’échantillon. Usuellement, on utilise les conditions
aux limites périodiques : on choisit un échantillon cubique de côté L = n a (avec
n3 = N), et on exige que L soit un nombre (positif ou négatif) de longueurs d’onde
λ = 2π/k de façon à ce que l’onde traverse l’échantillon sans variation d’énergie (le
système est supposé isolé). Cette condition s’écrit :
 
k = 2π m1 , m2 , m3 avec m1 , m2 , m3 entiers relatifs (2.24)
na
84 CHAPITRE 2. STATISTIQUES QUANTIQUES

Pour que k pointe dans la zone de Brillouin, on a, en supposant n impair :

n−1 n−1
− ≤ m1 , m2 , m3 ≤ + (2.25)
2 2
On a bien n valeurs possibles pour chacune des composantes, et donc au total
N = n3 vecteurs k possibles. On dispose donc maintenant, non pas de 3N, mais
de 6N solutions particulières de l’équation du mouvement 2.15. En effet, remplacer
 
e−iω (k)t par e+iω (k)t ne change rien dans tous les calculs qui précèdent :
     
rα (k) = u (k) eik·Rα e−iω (k)t et r α
 
(k) = u (k) eik·Rα e+iω (k)t
( = 1 à 3 et k définis par 2.24 et 2.25)

Solutions générales
On fabrique la solution générale par combinaisons linéaires réelles des solutions
particulières. Soient Λ (k) et Λ (k) les coefficients de ces combinaisons linéaires :

(2.24)
(2.24)

rα = Λ (k) rα (k) + Λ (k) r α
 
(k)
 k∈ZdB  k∈ZdB

Les sommes sur k portent sur les vecteurs vérifiant 2.24 et pointant dans la
zone de Brillouin (équation 2.25). Parmi ces 6N termes, 3N sont redondants. Pour
trouver 3N termes indépendants donnant une somme réelle, on doit découper la
zone de Brillouin en deux demi-zones Z1 et Z2 , avec : ∀ k ∈ Z1 , −k ∈ Z2 .
La première sommation sur k s’effectue sur Z1 , et la deuxième sur Z2 :

(2.24)
  
(2.24)
  
rα = Λ (k) e−iω (k)t u (k) eik·Rα + Λ (k) e+iω (k)t u (k) eik·Rα
 k∈ Z1  k∈ Z2

⎧ √ 
⎨ q (k, t) = NM Λ (k) e−iω (k)t ∀ k ∈ Z1
Et on pose :
⎩ √ 
q (k, t) = NM Λ (k) e+iω (k)t ∀ k ∈ Z2
avec Λ (−k) = Λ∗ (k) pour que rα (t) soit réel.

En résumé, on pose :

1    
rα (t) = √ q (k, t) u (k) eik·Rα avec q (−k, t) = q∗ (k, t)
NM  k∈ZdB

et u (−k) = u (k) ω (−k) = ω (k) u (k) · u (k) = δ

A partir de maintenant, dans le soucis de condenser les écritures, la variable t


sera omise. De plus, le vecteur k passe en indice (sans flèche), et le vecteur −k sera
noté k̄. Et enfin, dans les sommations sur  et k, les bornes sont supprimées.
2.5 L’oscillateur harmonique et le gaz de phonons 85

Énergie cinétique

 
M 2 M 1
N 3 N 3
  1   
T= ẋ = √ qk uik eik·Rα √ q k ui k eik ·Rα
2 α=1 i=1 αi 2 α=1 i=1 NM NM
k  k 

On permute judicieusement les signes sommes :

1
3 N
  
T = q̇k q̇ k uik ui k ei(k+k )·Rα
2N  k   i=1 α=1
k

Compte tenu de 2.24 et 2.25, la somme sur α vaut Nδkk̄ (N si k  = −k et 0


sinon). Une fois k  remplacé par −k, la somme sur i vaut uk · u k̄ = uk · uk = δ :

1 1 1
3

T = q̇k q̇ k̄ uik ui k̄ = q̇k q̇k̄ = q̇k q̇k
2  i=1
2 2
k  k k

Énergie potentielle
On repart de l’équation initiale 2.14 :
! ẋ =   
√1 qk uik eik·Rα
1
N 3 N 3 αi
βj NM
k
U =− Kαi xαi xβj avec   
2 α=1 i=1 β=1 j=1
ẋβj = √1 q k ujk eik ·Rβ
NM
 k 

 α + k  · R
En remarquant que k · R  β = (k + k  ) · R
 α + k  · (R
β − R
 α) :

1
3 N 3 N
i(k+k )·R
α βj ik ·R
 αβ
U =− qk q k uik e ujk Kαi e
2NM  k   i=1 α=1 j=1 β=1
k

La somme sur β vaut −MΔij (k  ) = −MΔijk (équation 2.21) :

1
3 N 3
i(k+k )·R

U= qk q k uik e Δijk ujk
2N  k  k i=1 α=1 j=1

La somme sur j vaut ω2 k ui k (équation 2.20) :

1 2
3 N
  
U= ω k qk q k uik ui k ei(k+k )·Rα
2N  k   i=1 α=1
k

Compte tenu de 2.24 et 2.25, la somme sur α vaut Nδkk̄ (N si k  = −k et 0


sinon). Une fois k  remplacé par −k, la somme sur i vaut uk · u k̄ = uk · uk = δ :

1 2 1 2 1 2
3

U= ω k̄ qk q k̄ uik ui k̄ = ωk qk qk̄ = ωk qk qk
2  k  i=1
2 k
2 k
86 CHAPITRE 2. STATISTIQUES QUANTIQUES

Lagrangien, hamiltonien, nouvelles équations du mouvement


Pour le calcul des momentoïdes pk conjugués aux qk , ne pas oublier que chaque
vecteur k apparaît deux fois dans la somme :

1  ∗ 2 ∗
 1  2

L=T −U = q̇k q̇k − ωk qk qk = q̇k q̇k̄ − ωk qk qk̄
2 k 2 k

∂L ∗ ∂L
pk = = q̇k̄ = q̇k et pk̄ = = q̇k = p∗k
∂ q̇k ∂ q̇k̄
1   1  
H =T +U = pk p∗k + ωk 2 ∗
qk qk = 2
pk pk̄ + ωk qk qk̄
2 k 2 k

d ∂L ∂L 2
− =0 ⇒ q̈k + ωk qk = 0
dt ∂ q̇k̄ ∂qk̄

Étude statistique, propriétés thermodynamiques


Grâce au changement de variables xαi → qk , le système est maintenant décrit
comme une population de 3N oscillateurs harmoniques unidimensionnels indépen-
dants. On peut donc écrire comme au paragraphe 2.5.1 (la constante de Boltzmann
sera ici notée kB ) :
  1

E= h ωk n̄k + 1/2 avec n̄k = − (2.26)
k
eh ωk /kB T −1

Il est clair que chacun des 3N oscillateurs n’est plus localisé sur un atome par-
ticulier du cristal. Ce sont des oscillations collectives, délocalisées, qui concernent le
cristal entier. Le système est maintenant équivalent à un gaz parfait de phonons.
Avant d’étudier le système en fonction de la température, répertorions les pro-
priétés utiles de la loi de dispersion ωk = ω (k) :
– Elle est constituée de trois branches dites acoustiques (ω (0) = 0). Pour un
système plus quelconque que celui que nous avons étudié (maille non cubique,
na atomes par maille), la loi de dispersion comporte 3na branches, dont 3
branches acoustiques et 3na − 3 branches dites optiques (ω (0) = 0).
– Au voisinage de l’origine (grandes longueurs d’onde), les trois branches acous-
tiques sont linéaires ; la pente v = dω /dk dans une direction ek = k/k donnée
est par définition la vitesse de groupe de l’onde dans cette direction (c’est la
vitesse du son). De plus, si pour chaque ω (k) on calcule le jeu de déplacements
instantanés des atomes, on constate qu’à l’une des trois branches acoustiques
sont associés des déplacements longitudinaux (parallèles à k) et qu’aux deux
autres sont associés des déplacements transverses (perpendiculaires à k).
Dans un réseau cubique (optiquement isotrope), les ω (k) ne dépendent que
du module de k : chaque vitesse v ( = 1 à 3) est indépendante de la direction
ek . Toujours pour des raisons d’isotropie, les deux branches transverses sont
identiques.
2.5 L’oscillateur harmonique et le gaz de phonons 87

– Les vecteurs k significatifs pointent dans la zone de Brillouin ; c’est une portion
de l’espace réciproque (l’espace où l’on représente les vecteurs k) qui, pour un
réseau cubique simple, a la forme d’un cube d’arête 2π/a centré sur l’origine.
Chaque extrémité de vecteurs k y occupe un élément de volume 8π 3 /V , N fois
plus petit que celui de la zone de Brillouin. Ainsi, l’ensemble des vecteurs k
possibles pourra être considéré comme continu, autrement dit on pourra le cas
échéant remplacer les signes sommes par des intégrales.

A haute température (kB T tous les ωk ), on peut dans 2.26 développer
l’exponentielle au deuxième ordre. On trouve :
1 1 1 x 1 kB T

+ = coth ≈ ⇒ E ≈ h ωk − = 3NkB T et CV ≈ 3NkB
e −1 2
x 2 2 x k
h ω k

Si le cristal est plus quelconque (na atomes par maille), ces résultats sont à mul-
tiplier par na . Dans tous les cas, la capacité thermique est bien trouvée constante à
haute température : c’est kB multiplié par le nombre de degrés de liberté du système.

A basse température, les hypothèses simplificatrices sont les suivantes :


– Linéarité et isotropie des branches acoustiques (ω (k) ≈ v k) :

3 −
h v k 3 h

ω (k)
E − E0 ≈ avec E0 =
=1 k∈ZdB

eh v k/kB T − 1 =1
2
k∈ZdB

Ceci n’est pas valable sur toute la zone de Brillouin, mais on considère qu’à
température suffisamment basse la fonction sommée prend des valeurs négli-
geables au delà du domaine où les trois branches acoustiques sont linéaires.
Mieux encore : on peut se permettre de sommer sur tous les vecteurs k de
l’espace réciproque, et ainsi d’intégrer de 0 à +∞ (voir ci-dessous).
 ∞
V
– Approximation du continuum : on remplace par 4πk 2 dk.
8π 3 0
k∈ZdB

Ce qui donne finalement, en posant u = h v k/kB T
3  
V ∞ 4πh V (kB T )4 1 ∞ u3du
− 3
v k 3 dk
E − E0 ≈ 3 = 2 −3
8π =1 0 e−h v k/kB T − 1 2π h v3
=1  0
eu − 1

L’intégrale vaut π 4 /15 :

1 1 1 1 2
3
π 2 (kB T )4 1
E − E0 ≈ V −3 avec = = +
10 h ṽ 3 ṽ 3 3 =1 v3 3 vL3 vT3

La vitesse ”moyenne” ṽ est l’inverse de la racine cubique de la valeur moyenne


des 1/v3 (vL est la vitesse de groupe de l’onde longitudinale et vT la vitesse de groupe
des deux ondes transverses).
Et enfin, la fameuse loi en T 3 de Debye :
  3
∂E 2π 2 kB T
CV (T ) = ≈ V kB −
∂T V,N 5 h ṽ
88 CHAPITRE 2. STATISTIQUES QUANTIQUES

Aux températures intermédiaires, on affine simplement le modèle précédent


en limitant l’intégrale à la zone de Brillouin. Celle-ci est assimilée à une sphère. En
partant d’un cube, c’est une approximation assez grossière. Pour que la sphère soit
de même volume que la zone de Brillouin, on définit le vecteur d’onde de Debye kD :

4 3 8π 3 (6π 2 )1/3
πkD = 3 ⇒ kD =
3 a a
Autre approximation grossière : on suppose toujours la linéarité et l’isotropie des
trois branches, bien que ce ne soit pas justifié pour les grandes valeurs de k.
 kD
V
Moyennant quoi, on écrit maintenant : ≈ 3 4πk 2 dk
8π 0
k∈ZdB
Et E − E0 devient (θD est la température de Debye pour la branche ) :
 D
V (kB T )4 1 θ /T u3 du
3
E − E0 ≈ 2 − 3 avec kB θD = h
− D −
ω = h v kD
2π h v3
=1  0
eu − 1
 y
15 1 u3 du
On peut réécrire E − E0 en utilisant la fonction f (y) = 4 3 :
π y 0 eu − 1

π2 3 3
3π 4 1
3
E − E0 ≈ V kD kB T f (θD /T ) = NkB T × f (θD /T )
30 =1
5 3 =1

On simplifie encore en ne considérant qu’une seule température de Debye. On


définit la température de Debye θD telle que :

1
3
3π 4
f (θD /T ) = f (θD /T ) ⇒ E − E0 ≈ NkB T f (θD /T )
3 =1 5

1
2

Fig. 2.4 – Vibrations de réseau : capacité thermique

En dérivant par rapport à T , on obtient (fD est la fonction de Debye) :



3 y u4 eu du
CV (T ) ≈ 3NkB fD (θD /T ) avec fD (y) = 3
y 0 (eu − 1)2
2.5 L’oscillateur harmonique et le gaz de phonons 89

Les calculs numériques conduisent à la courbe représentée figure 2.4, comparée



à celles obtenues par Einstein pour différentes valeurs de θE = h ωE /kB . Celle de
Debye est en bon accord avec les résultats expérimentaux. La loi en T 3 des basses
1
températures est valable jusqu’à environ 10 θD . On peut remarquer (au voisinage de
l’origine) la présence d’une courbe qui ”colle” parfaitement à celle de Debye pour
T > 15 θD . C’est la courbe obtenue avec le modèle d’Einstein en prenant θE = 34 θD .
On peut vérifier que cette valeur correspond à une fréquence moyenne du spectre
de Debye pondérée par une densité de modes variant en ω 2. Le modèle d’Einstein,
malgré sa simplicité, est donc tout à fait correct au delà de 15 θD .

Valeurs numériques : θD vaut en général quelques centaines de kelvins (Fe : 455 K,


Al : 385 K, Cu : 320 K, Ag : 215 K, Au : 185 K, etc.). Le diamant bat tous les records
avec θD = 2230 K.
90 CHAPITRE 2. STATISTIQUES QUANTIQUES
Chapitre 3

Gaz parfait de masses ponctuelles

3.1 Quelques ordres de grandeur


D’abord, un petit tableau rassemblant les préfixes multiplicatifs (l’absence d’ac-
cent sur ”peta” n’est pas une faute de frappe) :

préfixe kilo méga giga téra peta exa zetta yotta


symbole k M G T P E Z Y
+3 +6 +9 +12 +15
valeur 10 10 10 10 10 10+18 10+21 10+24
préfixe milli micro nano pico femto atto zepto yocto
symbole m μ n p f a z y
−3 −6 −9 −12 −15
valeur 10 10 10 10 10 10−18 10−21 10−24

3.1.1 Les grandeurs énergétiques


Dans un gaz parfait, l’énergie cinétique moyenne de translation d’une molécule
est, aux températures habituelles, proportionnelle à kT . Il en est de même de son
énergie cinétique de rotation. Il existe ainsi de nombreux exemples où la quantité
kT constitue une énergie de référence à laquelle on compare d’autres grandeurs
énergétiques.
La quantité kT est une grandeur microscopique : on l’exprime en atto-, zepto- ou
yocto- Joule. Ces préfixes ne suffisent même plus aux cryogénistes qui parfois parlent
en nano-Kelvins. C’est pourquoi l’électronvolt (1 eV ≈ 0,16 aJ), bien qu’il soit aboli
par les instances officielles, est encore largement utilisé : à 1 nK correspond environ
0,1 picoélectronvolt ; jusqu’au yoctoélectronvolt, il y a encore de la marge . . .

T (K) 1 10 100 1 000 10 000 100 000


kT (zJ) U 0, 014 T 0, 14 1, 4 14 140 T 1 400 U
B H
v (m/s) B 28 B 87 280 870 2 800 H 8 700 H
T T
ω (THz) T 0, 063 T 0, 2 0, 63 2 6, 3 T 20 T
Evib (zJ) 23 23 23 25 140 1 400

Le tableau ci-dessus indique la correspondance entre énergie et température. En


troisième et quatrième lignes sont indiquées les valeurs moyennes de la vitesse v
92 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

d’une molécule d’azote et de sa vitesse angulaire ω de rotation (1 Hz = 1 tr/s). En


cinquième ligne, on trouve l’énergie de vibration de la molécule (fréquence : 70 THz).
Dans la gamme des ultra basses températures (UBT), il est possible d’atteindre
le milli-Kelvin en réfrigération continue et le micro-kelvin et même le nano-kelvin
avec des techniques telles que la désaimantation adiabatique et le refroidissement
optique. Le domaine TBT est celui de la liquéfaction de l’hélium (4,2 K). Dans le
domaine BT se trouvent les températures de solidification et de liquéfaction de tous
les autres gaz.
Dans le domaine HT, on trouve la température de fusion et de vaporisation
de la plupart des métaux, ainsi que la température superficielle du soleil (5500 K).
Pour les ultra hautes températures (UHT), on peut citer la température au centre
d’une explosion thermonucléaire (105 à 106 K), celle régnant au cœur d’une étoile
(106 à 107 K), et la température exigée pour l’amorçage d’une réaction de fusion
thermonucléaire (108 K).

3.1.2 Densités et pressions


NB : toutes les densités sont exprimées en molécules par mètre cube ; elles ont
été arrondies à la puissance de 10 la plus proche.

Il faut ici distinguer deux domaines bien distincts : l’état gazeux d’une part, les
milieux denses (liquides ou solides) d’autre part. Dans ce document, seuls les gaz
sont abordés. Au sujet des milieux denses on dira simplement que les densités varient
entre 1027 et 1030 (distance entre deux particules : d ≈ ρ−1/3 ∼ 0,1 à 1 nm).
La densité ρ de l’air habituel (p = 0, 1 MPa, T = 293 K) est d’environ 1025 , ce
qui donne d ∼ 5 nm. En laboratoire ou dans l’industrie, il existe pour les basses
pressions une classification liée à la méthode d’obtention.
Les vides moyens ou primaires (p ∼ 0, 1 à 100 Pa, ρ ∼ 1019 à 1022 , d ∼ 50
à 500 nm) sont obtenus au moyen de pompes volumétriques (pompes à palettes
mobiles, pompes à bec, ...) qui évacuent le gaz dans l’atmosphère.
Les vides poussés ou secondaires (p ∼ 10 μPa à 0,1 Pa, ρ ∼ 1016 à 1019 , d ∼
0, 5 à 5 μm) sont obtenus au moyen de pompes cinétiques (pompes à diffusion d’huile,
pompes turbomoléculaires, ...) qui évacuent le gaz dans une enceinte elle-même
vidée par une pompe primaire. Pour atteindre les 10 μPa, on équipe une pompe
turbomoléculaire d’une pompe dite fermée : le gaz résiduel est fixé par physisorption
(adsorption réversible) sur du charbon actif ou une zéolite. Pour que l’adsorption
soit suffisante, on doit travailler en dessous de 20 K.
Pour atteindre l’ultravide (p ∼ 1 nPa à 10 μPa, ρ ∼ 1012 à 1016 , d ∼ 5 à
100 μm), la chimisorption (adsorption irréversible) sur du titane est nécessaire.
La plus performante de ces pompes (la pompe ionique de Penning) permet d’at-
teindre le vide extrême (p ∼ 1 pPa à 10 nPa, ρ ∼ 109 à 1012 , d ∼ 0, 1 à 1 mm).
Remarque. Le milieu intersidéral n’est pas vide. Il est principalement constitué
d’hydrogène et d’hélium. Il n’est pas homogène non plus. Suivant les régions, la
température varie de 10 à 100 K. La densité des régions les plus froides est d’environ
1015 (d ∼ 10 μm, p ∼ 0, 1 μPa). Celle des régions les plus chaudes bat tous les
records : ρ ∼ 108 (d ∼ 2 mm, p ∼ 0, 1 pPa).
3.2 Particule libre dans une boîte cubique 93

3.2 Particule libre dans une boîte cubique


3.2.1 Résultats de la mécanique quantique
Dans un gaz parfait, les N particules qui le constituent sont indépendantes (sans
interactions). On peut considérer que chacune est seule dans le récipient. On est
ainsi conduit à étudier un système constitué d’une seule particule. Les propriétés
macroscopiques du gaz étant indépendantes de la forme du récipient, on choisit la
forme la plus simple qui soit : un cube de volume V = L3 , un carré d’aire A = L2
ou un segment de longueur L, suivant la dimension du système étudié. On montre
en mécanique quantique qu’une particule de masse m confinée sur un segment de
longueur L a accès à des niveaux d’énergie non dégénérés définis par :[1]

h2
ε n1 = n2 avec n1 entier positif ou négatif
2mL2 1
De même, si elle est confinée sur un carré d’aire A = L2 , les niveaux d’énergie
sont définis par deux nombres entiers :

h2
ε n1 n2 = (n2 + n22 ) avec n1 et n2 entiers positifs ou négatifs
2mL2 1
Et enfin, si le récipient est cubique (V = L3 ), trois nombres entiers sont néces-
saires :
h2
ε n1 n2 n3 = (n2 + n22 + n32 ) avec n1 n2 et n3 entiers positifs ou négatifs
2mL2 1
La fonction de partition canonique est, si on ne tient pas compte du spin, celle
d’une particule à 1, 2 ou 3 degrés de liberté indépendants :

+∞
2 n2 /(2mL2 )
q(β, L) = e−β h sur un segment
n=−∞
 +∞
 2
2 n2 /(2mA)
q(β, A) = e−β h sur un carré
n=−∞
 +∞
 3
2 n2 /(2mV 2/3 )
q(β, V ) = e−β h dans un cube
n=−∞

Ces fonctions de partition sont impossibles à calculer rigoureusement, mais l’ap-


proximation suivante peut être considérée comme quasi-rigoureuse.

3.2.2 L’approximation du continuum et la densité d’états


L’approximation du continuum consiste à remplacer dans les équations statis-
tiques les sommes discrètes par des intégrales. Elle est justifiée lorsque l’écart entre
deux niveaux d’énergie est extrêmement faible par rapport à l’énergie moyenne d’une
particule. C’est le cas ici.

1
h ≈ 6, 626 10−34 J s est la constante de Planck.
94 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Soit un système quelconque dont les niveaux d’énergie {ε1 . . . εj . . . εn } sont


rangés par ordre croissant. On notera {ω1 . . . ωj . . . ωn } les dégénérescences corres-
pondantes. L’approximation du continuum consiste à rechercher une fonction g telle
que pour toute fonction f continue on ait :


n  εn
ωj f (εj ) ≈ g(ε) f (ε) dε
j=1 ε1

La fonction g est par définition la densité d’états : g(ε) dε est le nombre d’états
d’énergie comprise entre ε et ε + dε. Pour calculer g(ε), on calcule d’abord G(ε),
nombre d’états d’énergie inférieure à ε. Ensuite, on écrit :

dG dG
g(ε) dε = G(ε + dε) − G(ε) = dε ⇒ g(ε) =
dε dε

Pour les gaz parfaits tridimensionnels, G(ε) est le nombre d’états dont le
vecteur n de composantes (n1 , n2 , n3 ) pointe à l’intérieur de la sphère de rayon et
de volume : 
2m V 2/3 ε ∗ 4  2mV 2/3 ε 3/2
n= et V = π
h2 3 h2
Chaque état y occupe un volume δV ∗ = 1. En tenant compte du spin, on trouve :

V∗ 4πV  2m ε 3/2  2m 3/2 √


G(ε) = (2s + 1) = (2s + 1) ⇒ g(ε) = (2s + 1) 2πV ε
δV ∗ 3 h2 h2

Pour les gaz parfaits bidimensionnels, G(ε) est le nombre d’états dont le
vecteur n de composantes (n1 , n2 ) pointe à l’intérieur du cercle de rayon et d’aire :

2m A ε 2m A
n= et A∗ = π ε
h2 h2

Chaque état y occupe une aire δA∗ = 1. On en déduit :

A∗ 2m ε 2m
G(ε) = (2s + 1) = (2s + 1) π A ⇒ g(ε) = (2s + 1) πA
δA∗ h2 h2

Pour les gaz parfaits unidimensionnels, G(ε) est le nombre d’états dont le
vecteur n de composante (n1 ) pointe à l’intérieur du segment de longueur :
  
2m L2 ε 2m L2 ε 2m L2 ε
L∗ = 2 puisque − ≤ n1 ≤ +
h2 h2 h2

Chaque état y occupe une longueur δL∗ = 1. On en déduit :


 
L∗ 2m ε 2m 1
G(ε) = (2s + 1) ∗ = (2s + 1) 2L ⇒ g(ε) = (2s + 1) L √
δL h2 h2 ε
3.3 Gaz parfait classique de masses ponctuelles 95

3.2.3 Fonctions thermodynamiques


On réécrit d’abord les résultats 2.9 obtenus au paragraphe 2.3.2 dans l’approxi-
mation du continuum :
 ∞  ∞
g(ε) dε ε g(ε) dε
N= E=
0 e (ε−μ)/kT +σ 0 e(ε−μ)/kT +σ
 ∞
 
pV = σkT ln 1 + σ e(μ−ε)/kT g(ε) dε
0
d   1
On peut remarquer que σkT ln 1 + σ e(μ−ε)/kT = − (ε−μ)/kT .
dt e +σ
"
Ceci permet d’intégrer pV par parties. Avec g(ε) dε = G(ε) et G(0) = 0, on
trouve :  ∞
(μ−ε)/kT G(ε) dε
pV = kT lim G(ε) e +
ε→+∞ 0 e (ε−μ)/kT +σ
α
Lorsque la densité d’états est de la forme g(ε) = a ε , on a :
a εα+1 ε g(ε)
G(ε) = = et lim G(ε) e(μ−ε)/kT = 0
α+1 α+1 ε→+∞

E
Et donc pV = quelle que soit la statistique. Pour un gaz parfait :
α+1
tridimensionnel bidimensionnel unidimensionnel
2 (3.1)
α = 1/2 : pV = E α = 0 : ϕA = E α = −1/2 : τ L = 2 E
3
Pour les systèmes bi- et uni-dimensionnels, pV doit être remplacé respectivement
par ϕA et τ L, où ϕ est la pression ou tension de surface et τ la tension de ligne.

3.3 Gaz parfait classique de masses ponctuelles


3.3.1 Limite hautes températures de la théorie quantique
Le gaz parfait sera tridimensionnel et décrit dans l’approximation du conti-
nuum. Les variables choisies comme fixées sont T , V , N, en fonction desquelles on
exprimera les autres grandeurs (E, S, p, μ, CV ). On rappelle les équations de base :
 ∞  ∞
g(ε) dε 3 ε g(ε) dε
N= E = pV =
0 e (ε−μ)/kT +σ 2 0 e(ε−μ)/kT +σ
μ
On sait que kT tend vers −∞ quand T tend vers +∞. Dans les fonctions de
distribution 2.10, il est donc possible à haute température de négliger σ = ±1 :
fF D (ε, T, μ) ≈ fBE (ε, T, μ) ≈ e(μ−ε)/kT = λ e−ε/kT = fM B (ε, T, μ)
Cette fonction de distribution, dite de Maxwell-Boltzmann, décrit le com-
portement des particules à haute température. On appelle la statistique correspon-
dante statistique classique car plus aucun phénomène quantique n’intervient dans
l’étude.
96 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

 2m 3/2 √
Les équations de base deviennent, avec g(ε) = (2s + 1) 2πV h2
ε:
 2m 3/2  ∞ √
N = (2s + 1) 2π V 2
λ ε e−ε/kT dε
h 0

3  2m 3/2  ∞
E = pV = (2s + 1) 2π V λ ε3/2 e−ε/kT dε
2 h2 0

" ∞ On
√ calcule le √potentiel chimique μ à partir de l’expression de N. Sachant que
0
ue du = 2π , on trouve, en posant ρ = NV :
−u

ρ Λ3 h
λ = e−γ = eμ/kT = avec Λ(T ) = √
2s + 1 2π m kT
Λ(T ) est la longueur d’onde thermique de de Broglie. C’est une longueur
caractéristique du gaz, qui dépend de T et de la masse des particules. La fugacité
λ permet de déterminer les conditions de validité du modèle. C’est une grandeur
sans dimension qui définit entièrement le gaz (la masse et le spin d’une particule et
la densité et la température du gaz).
On remplace maintenant λ dans l’énergie interne.
"∞ √
3 π
Sachant 0
u3/2 e−u du = 4
, on trouve :

3 3
E= NkT p V = NkT CV = Nk
2 2
Loi de Boyle-Mariotte Loi de Dulong et Petit

Ce sont les résultats classiques. On les appelle ainsi car on peut les obtenir à
partir de la mécanique classique, sans utilisation de la théorie quantique. On remar-
quera d’ailleurs l’absence de la constante de Planck et du spin dans les équations.
Par contre, les résultats qui suivent ne peuvent être obtenus sans un minimum de
concepts quantiques. On y trouve d’ailleurs la constante de Planck (dans Λ3 (T )) et
le spin :
ρ Λ3 (T ) 5 ρ Λ3 (T ) 
μ = kT ln S = Nk − ln
2s + 1 2 2s + 1
Formule de Sackur-Tetrode
Outre pV = 2 E/3 et μ = kT ln λ, on a utilisé les relations générales :
 
∂E ∂F
CV = F = E − T S = −pV + Nμ S=−
∂T V,N ∂T V,N

L’équation pV = NkT permet d’exprimer le potentiel chimique uniquement en


fonction de T et p :

pΛ3 (T ) p p0 Λ3 (T )
μ(T, p) = kT ln = μ0T + kT ln avec μ0T = kT ln
(2s + 1)kT p0 (2s + 1)kT

Un résultat bien connu en thermodynamique : μ0T et le potentiel chimique stan-


dard. En thermodynamique, on le mesure en fonction de la température à la pression
3.3 Gaz parfait classique de masses ponctuelles 97

atmosphérique p0 . La physique statistique permet de l’exprimer en fonction de T et


des caractéristiques du gaz (la masse et le spin des atomes).

Condition de validité du modèle haute température.

C’est la condition ayant permis d’utiliser la distribution de Maxwell-Boltzmann :


μ
lim = −∞ ⇒ λ  1 ou ρ Λ3 (T )  1 ou  Λ(T )
T →+∞ kT

( ∼ ρ−1/3 est la distance moyenne entre deux particules)

Dans la pratique, trois paramètres sont à prendre en compte pour savoir si le


modèle décrit correctement le comportement du gaz : la température et la densité
du gaz, et la masse de la particule. Si ces particules sont des atomes, on peut
exprimer λ en fonction de ρ, T et du nombre A de nucléons de l’atome. On trouve :

ρ2/3
λ1 ⇒ ρ  1027 A3/2 T 3/2 ou T 3 × 10−18 (3.2)
A
Dans les conditions habituelles de densité (ρ ∼ 1021 à 1027 atomes/m3 ), le modèle
est parfaitement correct jusqu’à des températures de l’ordre du Kelvin. Pour les
atomes et molécules, on peut donc utiliser le modèle classique quelles que soient les
conditions.[2]

3.3.2 Fonction de partition canonique, paradoxe de Gibbs


les grandeurs sont exprimées de façon simple en fonction de T , V , N, variables
naturelles de l’énergie libre F . On peut calculer celle-ci à partir de pV et de μ, et ainsi
remonter à la fonction de partition canonique. Étant donné que N ln N −N = ln(N!),
on trouve :
NΛ3 (T )
F (T, V, N) = E − T S = −pV + μN = −NkT + NkT ln
(2s + 1)V
    
(2s + 1)V N 1 (2s + 1)V N
= kT (N ln N − N) − kT ln = −kT ln
Λ3 (T ) N! Λ3 (T )
On en déduit :
1  N (2s + 1)V
Q(T, V, N) = q(T, V ) avec q(T, V ) =
N! Λ3 (T )
 "∞
On vérifie qu’on a bien q(T, V ) = ωε e−ε/kT ≈ 0 g(ε) e−ε/kT dε :
ε

 ∞  2m 3/2 ∞√
−ε/kT (2s + 1) V
g(ε) e dε = (2s + 1) 2π V ε e−ε/kT dε = = q(T, V )
0 h2 0 Λ3 (T )

2
L’hélium à très basse température est une exception (voir chapitre 5).
98 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Vérifions maintenant les hypothèses.


– L’approximation du continuum est justifiée si l’écart entre deux niveaux d’éner-
gie est très inférieur à l’énergie moyenne :

h2 3 3
 kT ⇒ Λ(T )  L ⇒ ρΛ3 (T )  N
2m L 2 2 2π
Cette condition est largement vérifiée puisqu’elle est beaucoup moins restric-
tive que ρΛ3 (T )  1.
– Pour l’utilisation de l’équation Q = q N /N!, il faut que N soit beaucoup plus
petit que le nombre ω d’états accessibles à une particule. Rigoureusement ce
nombre est infini, en pratique il correspond aux états d’énergie inférieure à
environ 5 kT (voir figure 3.1 paragraphe 3.4.1) :
 5 kT 
20 5 V V
ω(T ) ≈ g(ε) dε = (2s + 1) 3 ≈ 8, 41 (2s + 1) 3
0 3 π Λ (T ) Λ (T )

ω(T ) N ⇒ ρΛ3 (T )  8, 41 (2s + 1)


C’est bien une condition équivalente à ρΛ3 (T )  1.
On peut étendre ces résultats aux gaz parfaits multiconstituants. Par exemple
pour deux constituants, les deux sous-systèmes étant indépendants et discernables :


⎪ Λ3 h
N1 N2 ⎨ q1 = (2s1 + 1) 1 et Λ1 = √
Q(T, V, N1 , N2 ) =
q1
×
q2
avec V 2π m1 kT
3
N1 ! N2 ! ⎪
⎪ Λ h
⎩ q2 = (2s2 + 1) 2 et Λ2 = √
V 2π m2 kT

On en déduit facilement :
3 3
E= (N1 + N2 ) kT pV = (N1 + N2 ) kT CV = (N1 + N2 ) k
2 2
5 (2s1 + 1) V (2s2 + 1) V
S= (N1 + N2 ) k − N1 k ln 3
− N2 k ln
2 N1 Λ1 N2 Λ32
(2s1 + 1) V (2s2 + 1) V
μ1 = −kT ln μ2 = −kT ln
N1 Λ31 N2 Λ32
Le paradoxe de Gibbs est à l’origine de la notion d’indiscernabilité dont dé-
coule toute la théorie quantique. Les physiciens du XIXe siècle ont développé la
mécanique statistique sur des concepts classiques, c’est-à-dire en considérant les
particules comme discernables. Dans ce contexte, ils arrivèrent au résultat (à cette
époque, le spin était inconnu) :

V
Q(T, V, N) = q(T, V )N avec q(T, V ) =
Λ3 (T )

Ils en déduisirent : 3 V 
S(T, V, N) = Nk − ln 3
2 Λ
3.4 Éléments de théorie cinétique des gaz parfaits 99

Cette entropie a le gros défaut de ne pas être additive. Un système de 2N par-


ticules dans un volume 2V n’a pas d’après cette formule une entropie 2 S(T, V, N) :
3 2V 
S(T, 2V, 2N) = 2Nk − ln 3 = 2 S(T, V, N) − 2Nk ln 2 = 2 S(T, V, N)
2 Λ
La difficulté fut contournée en divisant Q par N!, c’est-à-dire en décrétant, sans
justification théorique à l’époque, de ne pas compter comme distincts deux états du
système obtenus l’un l’autre par permutation des N particules. On obtient alors la
formule de Sackur-Tetrode (sans spin) et :
5 2V  5 V 
S(T, 2V, 2N) = 2Nk − ln = 2Nk − ln = 2 S(T, V, N)
2 2NΛ3 2 NΛ3
Et l’entropie devient miraculeusement additive. C’est ce paradoxe et cet artifice
de calcul qui mirent pour la première fois en évidence la notion d’indiscernabilité.

3.4 Éléments de théorie cinétique des gaz parfaits


La théorie cinétique des gaz est une théorie classique : elle n’est valable qu’à
haute température et/ou à basse densité. On suppose dans ce paragraphe que le gaz
est parfait et que les particules qui le constituent sont ponctuelles. La généralisation
aux gaz quelconques fera l’objet du paragraphe 3.6.3.

3.4.1 Distribution de Maxwell-Boltzmann (des énergies)


Elle donne la fraction de particules dont l’énergie est comprise entre ε et ε + dε.
C’est aussi la probabilité qu’une particule prise au hasard ait une énergie comprise
entre ε et ε + dε. Soit W (ε)dε cette probabilité (W (ε) est une densité de probabilité
exprimée en J−1 ). Avec nos arguments quantiques, on peut écrire :
ω(ε) e−ε/kT g(ε) e−ε/kT dε
W (ε) dε =  = " ∞ (3.3)
ω(ε) e−ε/kT 0
g(ε) e−ε/kT dε
ε

Ces arguments quantiques n’étaient pas


√ connus à l’époque, mais on savait de la
mécanique classique que g(ε) variait en ε, ce qui est suffisant pour écrire :
√ −ε/kT 
εe dε 2 1 ε −ε/kT
W (ε) dε = " ∞ √ −ε/kT et donc W (ε) = √ e
0
εe dε π kT kT
C’est la distribution de Maxwell-Boltzmann "∞ représentée figure 3.1.
2 2
On rappelle les valeurs des intégrales Jn = 0 xn e−x /2σ dx :
  
π 2 3 π 4 5 π
J0 = σ J1 = σ J2 = σ J3 = 2 σ J4 = 3 σ J5 = 8 σ 6
2 2 2
À l’aide desquelles on peut vérifier qu’on a bien :
 ∞  ∞
3
W (ε) dε = 1 et ε̄ = ε W (ε) dε = kT
0 0 2
100 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Voici les principales caractéristiques de cette distribution :


– elle est indépendante de la nature du gaz (la masse et le spin) ;
– elle est indépendante des grandeurs purement quantiques h et s ; des arguments
classiques suffisent pour l’obtenir ;
– elle prend des valeurs négligeables au delà de 5 kT ;
– elle atteint son maximum pour ε = kT 2
; cette valeur la plus probable ne cor-
respond pas à la valeur moyenne ;
– la dispersion autour de la valeur moyenne est très grande ; on peut d’ailleurs
calculer l’écart type :
 ∞  
15  3 2
2 2
ε2 = ε W (ε) dε = (kT ) ⇒ Δε = ε2 − ε̄ 2 = kT = ε̄
0 4 2 3

Fig. 3.1 – Distribution des énergies de Maxwell-Boltzmann

3.4.2 Distribution de Maxwell (des vitesses)


Calculons la fraction de particules dont le module du vecteur vitesse est compris
entre v et v + dv. Il suffit de remplacer ε par 1/2 m v 2 et dε par m v dv dans W (ε) dε.
On trouve :
 m 3/2 2
W (v) dv = e−mv /2kT 4π v 2 dv (3.4)
2π kT
C’est la distribution de Maxwell représentée figure 3.2.

Fig. 3.2 – Distribution des vitesses de Maxwell


Maxwell découvrit cette loi (1860) à partir d’observations expérimentales et de
notions de symétrie. Boltzmann la démontra ensuite (1872) à partir d’une étude
statistique des collisions élastiques entre molécules.
3.4 Éléments de théorie cinétique des gaz parfaits 101

À noter que cette distribution est valable pour tout fluide, que ce soit un gaz
parfait, un gaz réel ou un liquide (seules contraintes : homogénéité et isotropie du
milieu).
Pour les calculs, on écrira :
2 2

4π v 2 e−v /2σ kT
W (v) = avec σ =
(2π σ )
2 3/2 m


√ 2 kT
Le graphe de W (v) présente un maximum en v = σ 2= .
m
Cette valeur la plus probable diffère de la valeur moyenne :
 ∞  
J3 (σ) 8 8 kT
v̄ = v W (v) dv = =σ = (3.5)
0 J2 (σ) π πm

Et enfin, on peut calculer la vitesse quadratique moyenne et l’écart type :


 ∞
3 kT
v =
2 v 2 W (v) dv = 3 σ 2 = (3.6)
0 m
 
Δv = v 2 − v̄ 2 = σ 3 − 8/π ≈ 0, 4220 v̄
1
On remarquera qu’on a, non pas ε̄ = 2
m v̄ 2 , mais ε̄ = 12 m v 2 = 32 kT .

Voici quelques ordres de grandeur des vitesses moyennes en m/s :

masse molaire 10 K 30 K 100 K 300 K 1000 K 3000 K


4 g (He) 230 398 728 1260 2301 3985
20 g (Ne) 103 178 325 564 1029 1782
40 g (Ar) 73 126 230 398 728 1260
84 g (Kr) 50 87 159 275 502 870
131 g (Xe) 40 70 127 220 402 696

4 π v 2 dv est l’élément de volume contenant les extrémités de tous les vecteurs


vitesse de module compris entre v et v + dv. Le gaz étant homogène et isotrope, on
déduit de l’expression de W (v) dv la densité de probabilité (les indices 1, 2, 3 sont
relatifs à trois axes orthogonaux) :
2 2
e−v /2σ
W (v ) = W (v1 , v2 , v3 ) =
(2π σ 2 )3/2

W (v1 , v2 , v3 ) dv1 dv2 dv3 est la fraction de particules dont les trois composantes
cartésiennes de vitesse sont respectivement comprises entre v1 et v1 + dv1 , v2 et
v2 + dv2 , v3 et v3 + dv3 . Avec v 2 = v12 + v22 + v32 , on obtient :
2 2 2 2 2 2
e−v1 /2σ dv1 e−v2 /2σ dv2 e−v3 /2σ dv3
W (v1 , v2 , v3 ) dv1 dv2 dv3 = √ × √ × √
σ 2π σ 2π σ 2π
102 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Toujours pour des raisons d’isotropie, on en déduit :


2 2 
e−vi /2σ m 2
W (vi ) = √ = e−m vi /2 kT (i = 1, 2, 3)
σ 2π 2π kT

W (vi ) dvi est la probabilité que la ième composante de vitesse ait une valeur com-
prise entre vi et vi + dvi indépendamment des valeurs des deux autres composantes.

2 kT kT
On en déduit facilement : v̄i = 0 |vi | = vi2 =
πm m
Le gaz parfait bidimensionnel se rencontre très souvent dans les modèles.
On donne ci-dessous les différents résultats relatifs à de tels systèmes.

1 −ε/kT kT
W (ε) = e ε̄ = kT ε2 = 2 (kT )2 Δε = kT σ = (3.7)
kT m
2
e−v /2σ
2
 
W (v) = 2π v v∗ = σ v̄ = σ π/
2 v2 = 2 σ2 Δv = σ 2 − π/2
2π σ 2
2 2
e−vi /2σ σ
W (vi ) = √ v̄i = 0 |vi | = √ vi2 = σ 2 Δvi = σ (i = 1 et 2)
σ 2π 2π
Il existe différentes méthodes expérimentales de mesure de la distribution de
vitesses des molécules d’un gaz. On peut étudier l’effet Doppler sur les raies spec-
trales émises par les molécules (la fréquence du rayonnement émis par une molécule
est fonction de sa vitesse), ou étudier le phénomène d’effusion (on perce un trou
dans la paroi d’un récipient, et on compte en fonction du temps les molécules qui
s’échappent en fonction de leur vitesse).

Ce qui a définitivement validé la théorie cinétique des gaz, c’est le calcul qui suit
de la pression cinétique. Pour les gaz parfaits, cette pression cinétique est égale à la
pression thermodynamique du système.[ 3]

3.4.3 Calcul de la pression cinétique


On place une paroi fictive au milieu du récipient (extrêmement grand par rapport
au libre parcours moyen des molécules).[4] Soit un élément ΔS de la paroi fictive.
On choisit l’origine des coordonnées au milieu de ΔS et les axes tels que la paroi
soit dans le plan xOy (z = 0). Le vecteur unitaire porté par Oz (perpendiculaire à
la paroi) sera noté n.
On étudie la force qu’exercent sur ΔS les molécules situées dans le demi-espace
inférieur (z < 0). Soit une molécule de vitesse v (vx , vy , vz ) venant percuter ΔS. Le
choc est supposé élastique : la molécule repart avec une vitesse v  (vx , vy , −vz ).
3
Pour un gaz réel ou un liquide, il faut, pour obtenir la pression thermodynamique, ajouter à
la pression cinétique une pression dynamique, contribution due aux forces intermoléculaires.
4
Le libre parcours moyen est la distance que parcourt en moyenne une molécule sans subir de
collisions. Pour le calcul de ce libre parcours moyen, voir paragraphe 3.5.4.
3.5 Le mouvement brownien 103

Sa quantité de mouvement au moment du choc a donc varié de m (v  − v ), c’est-


à-dire qu’elle a transféré à ΔS une impulsion :

δ P = −m (v  − v ) = 2 m vz n

Toute molécule ayant la vitesse v transfère l’impulsion δ P lorsqu’elle percute


ΔS. Pour connaître la force exercée par ces molécules sur ΔS, il suffit de compter
le nombre de chocs que subit ΔS dans un intervalle de temps Δt donné. Ce nombre
multiplié par δ P donnera l’impulsion totale transférée à ΔS pendant Δt par ces
molécules. On intègre ensuite sur tous les vecteurs vitesse possibles. Le transfert
d’impulsion ΔP obtenu permet de calculer la force exercée sur ΔS par l’ensemble
des molécules, et enfin la pression :

ΔP Fz F · n
F = et p = =
Δt ΔS ΔS
On raisonne donc d’abord sur toutes les molécules possédant la vitesse v . A un
instant t donné, celles qui vont frapper ΔS entre t et t+Δt ont une distance inférieure
à v Δt à parcourir avant le choc. Elles sont donc contenues dans le cylindre oblique de
base ΔS, de longueur v Δt, et de génératrice parallèle à v . Si θ est l’angle entre v et
n, le volume de ce cylindre vaut ΔV = v Δt ΔS cos θ. Le nombre total de particules
contenues dans ΔV est ΔN = N ΔV /V . Parmi elles, ΔN × W (v ) d3 v possèdent un
vecteur vitesse dont l’extrémité est dans l’élément d3 v = v 2 dv sin θ dθ dϕ autour de
celle de v . Elles transfèrent à ΔS pendant Δt une impulsion N ΔV W (v) d3 v δ P /V ,
c’est-à-dire :

N   m 3/2 −m v2 /2kT
v Δt ΔS cos θ × e × v 2 dv sin θ dθ dϕ × 2m v cos θ n
V 2π kT
On intègre sur θ de 0 à π/2, sur ϕ de 0 à 2π, et sur v de 0 à + ∞ :

2m N Δt ΔS  m 3/2 2π  π/2  +∞
2
2
ΔP = n dϕ cos θ sin θ dθ e−m v /2kT v 4 dv
V 2π kT 0 0 0

NkT ΔP NkT


On trouve ΔP = Δt ΔS n et donc F = = ΔS n
V Δt V
F · n NkT
Et le résultat tant attendu : p = = et donc p V = NkT
ΔS V

3.5 Le mouvement brownien


3.5.1 Historique et hypothèses
En 1827, le botaniste Robert Brown (1773-1858), observant sous un microscope
du pollen en suspension dans de l’eau, remarqua que les grains microscopiques étaient
soumis à un mouvement continuel et irrégulier. Il crut découvrir ”la molécule pri-
mitive” responsable de la vie, mais s’aperçut plus tard que l’on pouvait observer
ce phénomène avec toutes sortes de particules. Un grand nombre de physiciens ont
104 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

cherché à expliquer ce phénomène en mettant en cause tantôt la lumière incidente,


tantôt des forces électriques . . .
C’est Delsaux (1877) qui suggéra pour la première fois que ce mouvement ré-
sultait de l’ensemble des chocs exercés par les molécules de solvant sur la particule
observée, propulsant celle-ci de façon aléatoire tantôt dans une direction, tantôt dans
une autre. Des développements théoriques furent alors entrepris, entre autres par
F. Exner (1900). Albert Einstein (1905) et indépendamment M. von Smoluchowski
(1906) proposèrent une théorie complète du mouvement brownien. Les résultats sont
en parfait accord avec l’expérience. Ce fut l’argument décisif présenté aux derniers
opposants à la théorie atomique.
Le mouvement brownien existe dans tous les fluides, mais il est particulièrement
observable sur des particules en suspension dans les liquides (eau, solvant organique,
. . .). Les conditions idéales d’observation sont caractéristiques des suspensions col-
loïdales, où la taille des particules (de quelques dixièmes de micromètre à quelques
micromètres) est suffisamment grande pour être observée sous un microscope, et
suffisamment petite pour que les chocs avec les molécules du solvant soient efficaces.
Partant d’une situation où toutes les particules sont concentrées au milieu du réci-
pient, on constate qu’en moyenne la ”pelote” formée par les déplacements aléatoires
reste centrée sur son√point de départ mais qu’elle grandit au cours du temps pro-
portionnellement à t. Cela signifie que pour chaque particule, la valeur moyenne
du déplacement est nulle et que la moyenne du carré du déplacement augmente
linéairement avec le temps.
Le mouvement brownien n’est pas propre aux particules en suspension. Dans un
gaz par exemple, les molécules sont sans cesse en mouvement, s’entrechoquent, et
décrivent une marche aléatoire dans l’espace. L’étude statistique de ces mouvements
est indispensable à la description de nombreuses propriétés de la matière. Citons à
titre d’exemple le cas de la conductivité électrique d’un gaz parfait de particules
chargées électriquement. Placée dans un champ électrique constant et uniforme,
chaque particule, si elle était seule dans le récipient, acquerrait un mouvement uni-
formément accéléré. Non seulement la résistance du milieu serait nulle (la notion
de résistance électrique serait alors inexpliquée), mais de plus la vitesse de chaque
particule tendrait vers l’infini (une aberration). Grâce au mouvement brownien, on
peut introduire la notion de ”libre parcours moyen”, distance moyenne (entre deux
chocs) le long de laquelle la particule est effectivement libre.
Les hypothèses sont celles de la théorie cinétique des gaz. Les molécules sont
des ”sphères dures” qui se déplacent librement sauf lors de chocs élastiques où elles
changent aléatoirement de direction. La trajectoire d’une molécule est une succession
de ”pas” linéaires de longueur variable, chaque pas étant indépendant du précédent,
tant en longueur qu’en direction (le processus est dit markovien). Question : quelle
est la position de l’objet au bout de N sauts ? Si le fluide est dans un champ de
forces, la probabilité peut être fonction de la direction choisie par la molécule après
un choc.
On procédera par étapes :
– les vecteurs déplacement possibles formeront d’abord un ensemble fini. C’est
typiquement la diffusion de particules sur un réseau cristallin. Un objet se
déplace sur un réseau de sites en effectuant, de façon aléatoire, des sauts de
3.5 Le mouvement brownien 105

longueur et de direction bien déterminées. Le réseau sera dans un premier


temps unidimensionnel afin d’aborder plus facilement le problème tridimen-
sionnel.
– les vecteurs déplacement formeront ensuite un ensemble continu. Ils décrivent
les mouvements de molécules au sein d’un fluide. En première approche, on
étudiera le cas où la longueur du pas est fixe et où la direction est quelconque.
L’extension au pas de longueur variable constitue le mouvement brownien
proprement dit.

3.5.2 Diffusion sur un réseau unidimensionnel


Étude statistique
Un objet se déplace aléatoirement le long d’une droite par sauts de longueur .
Chaque saut est indépendant du précédent (processus markovien), et est dirigé soit
dans le sens positif, soit dans le sens négatif, avec des probabilités P+ et P− . Pour
l’étude statistique, on étudie dans un premier temps une situation donnée : après
un nombre N de sauts, l’objet placé initialement à l’origine se trouve à l’abscisse
x = n . Pour arriver à cette position, l’objet a effectué N+ sauts positifs et N− sauts
négatifs. Les relations suivantes sont évidentes :
   N +n N − n
N+ + N− = N et N+ − N− = n ⇒ N+ = et N− =
2 2
avec N et n de même parité − N ≤ n ≤ +N et 0 ≤ N+ et N− ≤ N
Seuls N et n sont connus. On ne connaît pas le trajet qu’a effectué l’objet pour
y parvenir : tous les trajets comportant les mêmes nombres N+ et N− de sauts
positifs et négatifs ont été possibles. Les distributions de probabilités suivent une loi
binomiale :
(N+ + N− )! N+ N− N! N+n N−n
P (N+ , N− ) = P+ P− ⇒ P (N, n) = N +n N −n
P +
2
P −
2

N+ ! N− ! 2
! 2
!

Un calcul simple utilisant 1.21 donne la valeur moyenne de n et son écart type :

n̄ = N δP et = Δn = N (1 − δP ) avec δP = P+ − P−

Considérons maintenant un très grand nombre M d’objets partant tous en même


temps de l’origine.[5] Après un grand nombre N de sauts, on obtient une distribution
gaussienne des objets de part et d’autre de la valeur moyenne de n. En notant
m(M, n) le nombre d’objets à l’abscisse x = n , on a dans la limite des grands
nombres :
M  1 (n − n̄)2 
m(N, n) = √ exp − (3.8)
2π Δn2 2 Δn2
5
C’est concrètement réalisable ici (on construit un faisceau de M droites parallèles) mais ce ne
sera plus le cas en trois dimensions. On dira alors qu’on construit un ensemble statistique constitué
d’un très grand nombre M de systèmes (d’objets).
106 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Profil de concentration
L’objectif maintenant est de relier ces résultats statistiques aux grandeurs ma-
croscopiques mesurables (concentration, flux de matière, coefficient de diffusion).
Les objets sont des particules indépendantes, c’est-à-dire sans interactions mu-
tuelles, mais aussi libres de tout mouvement, sans gêne mutuelle. On peut imaginer
par exemple un faisceau de M droites toutes parallèles à Ox, les M origines étant
placées sur le même front (plan perpendiculaire à Ox). À l’instant t = 0, on place les
M objets sur les M origines. Chaque particule est autorisée à se déplacer uniquement
sur sa propre droite.
On introduit ensuite x et t dans les équations en remplaçant n par x/ et N par
t/τ (1/τ est pour une particule donnée la fréquence moyenne de sauts).
Chaque front occupe un volume  × ΔS, où ΔS est la section du cylindre formé
par le faisceau de droites. Dans ce volume, on observe m(N, n) objets. La concen-
tration moyenne d’un front (en particules par unité de volume) s’écrit donc :
m m M
c= = c0 avec c0 = (3.9)
 ΔS M  ΔS
(c0 est la concentration du front origine à t = 0)
En pratique,  se mesure en nanomètres et t en nanosecondes. M étant en outre
très grand, on peut à l’échelle macroscopique considérer les grandeurs x, t, c comme
continues. En remplaçant dans l’expression 3.8 de m(n, N), on obtient :
 1 (x − x̄)2   +∞
c0 
c(x, t) = √ exp − ⇒ c(x, t) dx = c0  (3.10)
2π Δx2 2 Δx2 −∞

t t
avec x̄ =  δP et Δx =  (1 − δP )
τ τ

Fig. 3.3 – Profil de concentration en fonction de x et de t


Deux résultats importants illustrés sur la figure 3.3 :
– x̄ est proportionnel à t : la vitesse de déplacement du pic de concentration est
constante ; √
– la dispersion autour de x̄ varie en t : le pic de concentration s’étale de plus
en plus autour de x̄ au fur et à mesure de sa progression (Δx est une mesure
de la taille de la ”pelote” évoquée au paragraphe 3.5.1).
On remarquera également que plus δP est important, plus la vitesse moyenne
est élevée, et plus la dispersion autour de la position moyenne est faible.
3.5 Le mouvement brownien 107

Coefficient de diffusion, loi de Fick


Dorénavant, on s’occupe du cas particulier important où P+ = P− = 1/2. On a
dans ce cas x̄ = 0 et Δx2 = 2 t/τ , et donc :
  1 x2 τ 
τ
c(x, t) = c0 exp − (3.11)
2π t 2 2 t
Aucune force extérieure n’agit sur le système. La force motrice est ici ”interne” :
le gradient de concentration, ou plus généralement le gradient de potentiel chimique,
est la cause de l’évolution du système. D’un état initial hors équilibre (particules
concentrées en x = 0), le système évolue spontanément vers un état d’équilibre où les
particules sont réparties de façon homogène dans le cylindre. Celui-ci étant supposé
de longueur infinie, on ne s’étonnera pas de trouver une concentration d’équilibre
nulle lorsque t tend vers l’infini.
Le gradient de concentration engendre un flux de particules des régions les plus
denses vers celles de moindre densité. Le coefficient de diffusion D (unité : m2/s) relie
au signe près le flux J de particules (par m2 et par seconde) au gradient de concen-
tration. Dans notre problème, nous n’envisageons que des déplacements suivant Ox.
On a donc par définition de D :
∂c
J = −D (3.12)
∂x
Dans un problème de diffusion réel, D dépend de c et éventuellement de x :
– de c parce que les particules partagent les mêmes sites de transit : plus la
concentration est élevée (à gradient identique), plus la gêne mutuelle entre
particules est élevée, et plus le flux est faible. Ce n’est pas le cas dans notre
problème puisque les particules se déplacent chacune sur sa propre droite.
– de x si le milieu n’est pas homogène. On suppose ici que tous les sites sont
identiques (c’est un cas de diffusion en milieu homogène).
Dans notre problème donc, D est indépendant de x, aussi bien de façon explicite
que par l’intermédiaire de la concentration.
Le bilan de matière qui suit a pour but de transformer l’équation 3.12 en une
équation aux dérivées partielles ne faisant apparaître que la concentration.
Considérons à l’abscisse x une tranche de cylindre de section ΔS et d’épaisseur
dx. Pendant l’intervalle de temps dt, le nombre de particules entrant à gauche vaut
J(x, t) ΔS dt, et le nombre de particules sortant à droite vaut J(x + dx, t) ΔS dt. Le
nombre de particules dans la tranche dx a donc varié de :
  ∂J
J(x, t) − J(x + dx, t) ΔS dt = − dx ΔS dt (3.13)
∂x
En raisonnant sur la concentration, on peut également dire que le nombre de
particules de cette même tranche au cours du même intervalle de temps a varié de :
  ∂c
c(x, t + dt) − c(x, t) ΔS dx = dt ΔS dx (3.14)
∂t
∂c ∂J
Comparant 3.14 à 3.13 on déduit : = − , puis en utilisant 3.12 :
∂t ∂x
∂c ∂  ∂c  2
∂ c
= D =D 2 Loi de Fick (3.15)
∂t ∂x ∂x ∂x
108 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

La deuxième expression n’est valable que si D est indépendant de c (déplacements


indépendants) et de x (milieux homogènes).
2
On vérifiera que 3.11 est solution de 3.15 si τ = .
2D
On relie ainsi le paramètre statistique τ (temps moyen entre deux sauts) à la
grandeur macroscopique et mesurable D. On retiendra donc :
 
c0  x2  √ Dt
c(x, t) = √ exp − Δx = 2 D t |x| = 2 (3.16)
4π D t 4Dt π

La distance moyenne à l’origine des particules varie en t. Ce résultat
est très bien vérifié expérimentalement.

3.5.3 Diffusion sur un réseau tridimensionnel


Étude statistique
L’objet se déplace cette fois d’un site à l’autre sur un réseau tridimensionnel.
Chaque site est entouré d’un certain nombre v, appelé coordinence, de sites premiers
voisins. On se restreint aux réseaux où tous les sites sont cristallographiquement
identiques : les déplacements possibles, et les probabilités correspondantes, sont
indépendants de la position de l’objet.
Soient Δ = {ρi , i = 1 à v} l’ensemble de ces déplacements, et Π = {Pi, i = 1 à v}
les probabilités correspondantes. Le fait que tous les sites soient identiques sous-
entend qu’il y a sur chaque site un centre de symétrie (si ρi ∈ Δ alors −ρi ∈ Δ). La
coordinence v est donc paire et on pose v = 2 q. Les écritures de Δ et Π deviennent :
Δ = {ρi , −ρi , i = 1 à q} et Π = {P+i , P−i , i = 1 à q}
On utilisera les notations : Pi = P+i + P−i et δPi = P+i − P−i . Soit N le nombre
total de sauts effectués par l’objet. On notera N+i et N−i les nombres de sauts dans
les différentes directions, et [N] la distribution {N+i , N−i , i = 1 à q}. La probabilité
d’atteindre la position r(x, y, z) en N sauts vaut :
(1,2,3,4) q
 N N
P+i+i P−i−i
P (N, r) = P[N ] avec P[N ] = N!
i=1
N+i ! N−i !
[N ]

Soit ρi (ui , vi , wi). La somme porte sur les distributions vérifiant :
q q q q

(1) Ni = N (2) ui δNi = x (3) vi δNi = y (4) wi δNi = z
i=1 i=1 i=1 i=1

On a posé Ni = N+i + N−i et δNi = N+i − N−i . Cette somme n’est pas calculable
rigoureusement. La méthode qui suit (quasi rigoureuse) consiste à ne retenir dans
la somme que les termes rendant ln P[N ] maximum sous les contraintes (1, 2, 3, 4).
On introduit donc quatre multiplicateurs de Lagrange α, λx , λy et λz et on cherche
[N]∗ telle que :
∂  
q q q q

ln P[N ] − α Ni − λx ui δNi − λy vi δNi − λz wi δNi = 0
∂N+j i=1 i=1 i=1 i=1
3.5 Le mouvement brownien 109

∂  
q q q q

ln P[N ] − α Ni − λx ui δNi − λy vi δNi − λz wi δNi = 0
∂N−j i=1 i=1 i=1 i=1

On trouve, avec la formule de Stirling et en définissant le vecteur λ(λx , λy , λz ) :

∗ 
N+j = N P+j e−α e−λx uj −λy vj −λz wj = N P+j e−α e−λ·ρj
∗ 
N−j = N P−j e−α e+λx uj +λy vj +λz wj = N P−j e−α e+λ·ρj

On remplace ensuite les solutions dans les quatre contraintes.


q 
   
L’équation (1) donne eα = P+i e−λ·ρi + P−i e+λ·ρi , et donc :
i=1

 
∗ P+j e−λ·ρj ∗ P−j e+λ·ρj
N+j =N q   et N−j =N q  
 
P+i e−λ·ρi + P−i e+λ·ρi P+i e−λ·ρi + P−i e+λ·ρi
i=1 i=1

   
P+j e−λ·ρj + P−j e+λ·ρj P+j e−λ·ρj − P−j e+λ·ρj
Nj∗ = N q   et δNj∗ = N q  
 
P+i e−λ·ρi + P−i e+λ·ρi P+i e−λ·ρi + P−i e+λ·ρi
i=1 i=1

En remplaçant dans les équations (2, 3, 4), on trouve :


q  
 
(N uj − x) P+j e−λ·ρj − (N uj + x) P−j e+λ·ρj = 0
j=1

q  
 
(N vj − y) P+j e−λ·ρj − (N vj + y) P−j e+λ·ρj = 0
j=1
q  
 
(N wj − z) P+j e−λ·ρj − (N wj + z) P−j e+λ·ρj = 0
j=1

Un système de 3 équations à 3 inconnues (λx , λy , λz ) dont la résolution est


simplifiée grâce à la constatation suivante : le vecteur λ = 0 est solution pour
(x, y, z) = (N ū, N v̄, N w̄) avec :
q q q

ū = uj δPj v̄ = vj δPj w̄ = wj δPj
j=1 j=1 j=1

Autrement dit, si on n’impose pas les contraintes (2, 3, 4) (λx = λy = λz = 0),


l’objet se trouve statistiquement au bout de N sauts à la position moyenne attendue.
Or, pour les grandes valeurs de N, les probabilités sont appréciables uniquement
pour les positions très proches de la position moyenne. Pour ces positions les produits
scalaires λ · ρj sont vraisemblablement très petits. On vérifiera cette hypothèse a
posteriori. On pose donc |λ · ρj |  1 et :
 
e−λ·ρj ≈ 1 − λx uj − λy vj − λz wj et e+λ·ρj ≈ 1 + λx uj + λy vj + λz wj (3.17)
110 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Et on remplace dans les trois équations. On trouve :

(Nu2 − ū x)λx + (Nv u − v̄ x)λy + (Nw u − w̄ x)λz = N ū − x


(Nu v − v̄ y)λx + (Nv 2 − v̄ y)λy + (Nw v − w̄ y)λz = N v̄ − y
(Nu w − w̄ z)λx + (Nv w − v̄ z)λy + (Nw 2 − w̄ z)λz = N w̄ − z

q 
q 
q
avec u2 = Pj u2j v2 = Pj vj2 w2 = Pj wj2
j=1 j=1 j=1

q q 
q
et u v = v u = Pj uj vj vw = wv = Pj vj wj w u = u w = Pj w j u j
j=1 j=1 j=1

Autres résultats :

eα = 1 ∗
N+j = N P+j (1 − λ · ρj ) ∗
N−j = N P−j (1 + λ · ρj )

Quoiqu’un peu lourde, la résolution de ce système de trois équations linéaires ne


pose aucun problème.

Sans forces extérieures (P+j = P−j = Pj /2 pour tout j), c’est un peu moins
lourd car on a ū = v̄ = w̄ = 0 ⇒ u2 = Δu2 , v 2 = Δv 2 , w 2 = Δw 2 , et donc :

Δu2 λx + v uλy + w uλz = −x/N


u vλx + Δv 2 λy + w vλz = −y/N
u wλx + v wλy + Δw 2 λz = −z/N

Dans la plupart des cas pratiques, on a u v = v w = w u = 0. Sinon, on choisit


les axes pour qu’il en soit ainsi (axes principaux). D’où :
x y z
λx = − λy = − λz = − (3.18)
N Δu2 N Δv 2 N Δw 2

∗ Pj  uj x vj y wj z 
N+j =N 1+ + +
2 N Δu2 N Δv 2 N Δw 2

∗ Pj  uj x vj y wj z 
N−j = N 1− − −
2 N Δu2 N Δv 2 N Δw 2
On écrit ensuite l’approximation du terme maximum :
(1,2,3,4) q N N ∗ ∗
q  Pi  N Pi
 P+i+i P−i−i 
2
P (N, r) = P[N ] ≈ AP[N ∗ ] avec P[N ∗ ] = N! ∗ ∗
= N! ∗ ∗
i=1
N+i ! N−i ! i=1
N+i ! N−i !
[N ]

où A est une constante de normalisation indépendante au premier ordre de x, y, z.

Avec la formule de Stirling, on trouve une densité de probabilité :


 
Pj  u j x wj z 2
q
vj y
W (N, r) = A exp − N + +
j=1
2 Δx 2 Δy 2 Δz 2

avec Δx2 = N Δu2 Δy 2 = N Δv 2 Δz 2 = N Δw 2


3.5 Le mouvement brownien 111

Et enfin, on développe la parenthèse au carré en utilisant u v = v w = w u = 0.


Après normalisation, on trouve :
  x2 
1 y2 z2
exp − 2N Δu 2 + Δv 2 + Δw 2
W (N, r) = √ (3.19)
8π 3 N 3 Δu2 Δv 2 Δw 2

On vérifie maintenant la condition |λ · ρj |  1 ayant permis d’écrire 3.17. Soit
 la longueur moyenne d’un saut (la moyenne des ||ρi ||) : Δu2 , Δv 2 et Δw 2 sont de
l’ordre de 2 . De 3.18 on tire :

λ ∼ − r |r · ρi | ||r|| ||ρi || r


⇒ |λ · ρj | ∼ < ∼
N2 N2 N2 N

On constate que l’hypothèse |λ · ρi |  1 est valide si r = ||r||  N . Aucune


difficulté pour vérifier cette condition.
√ Les√valeurs significatives de x sont dans un
intervalle de quelques Δx = Δu N ∼  √ N autour de la valeur moyenne nulle.
Même chose pour y et z. On en déduit r ∼  N , ce qui est bien très inférieur à N .

Profil de concentration
Pour passer à l’échelle macroscopique, même démarche que dans le cas unidimen-
sionnel. On considère un grand nombre M de particules partant toutes à l’instant
t = 0, du même site origine, et se déplaçant sans gêne mutuelle. Inutile de dire que
c’est plutôt difficile à réaliser expérimentalement.
On calcule c(r, t) en multipliant W (N, r) par M et remplaçant N par t/τ . De
plus, on relie M à la concentration initiale à l’origine en écrivant c0 = M/Ω, où Ω
est le volume d’un site :
 τ 3/2  
τ  x2 y2 z2 
c(r, t) = c0 β exp − + + (3.20)
2π t 2 t Δu2 Δv 2 Δw 2
Ω
où β = est un facteur géométrique dépendant du réseau.
Δu Δv Δw
À chaque instant, les surfaces de concentration constante sont des ellipsoïdes.
C’est ce que prédit également le modèle macroscopique suivant.

Coefficient de diffusion, loi de Fick


Par définition, le coefficient de diffusion Dxy relie au signe près le flux de par-
ticules suivant Ox lorsqu’il y a variation de concentration suivant Oy. Avec des
définitions similaires pour les autres coefficients, on a :
∂c ∂c ∂c
Jx = −Dxx − Dxy − Dxz
∂x ∂y ∂z
∂c ∂c ∂c
Jy = −Dyx − Dyy − Dyz en écriture tensorielle : J = −[D]∇c

∂x ∂y ∂z
∂c ∂c ∂c
Jz = −Dzx − Dzy − Dzz
∂x ∂y ∂z
(3.21)
112 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Comme dans le modèle unidimensionnel, on supposera [D] indépendant de x, y, z


aussi bien de façon explicite que par l’intermédiaire de la concentration. Le bilan de
matière se fait ici sur un petit élément dV = dx dy dz. On calcule la variation du
nombre de particules présentes dans dV en étudiant le nombre de particules entrant
et sortant par chacune des six faces de dV . On trouve de façon similaire à 3.13 :
 ∂J ∂Jy ∂Jz 
x
− + + dx dy dz = −∇J dx dy dz dt (3.22)
∂x ∂y ∂z
En raisonnant sur la concentration, on peut également dire que le nombre de
particules de cette même tranche au cours du même intervalle de temps a varié de :
  ∂c
c(r, t + dt) − c(r, t) dx dy dz = dt dx dy dz (3.23)
∂t
∂c
Comparant 3.23 à 3.22 on déduit : = −∇J, puis en utilisant 3.21 :
∂t
∂c  
= ∇ [D] ∇c = [D]Δc Loi de Fick (3.24)
∂t
La deuxième expression n’est valable que si [D] est indépendant de c (déplace-
ments indépendants) et de r (milieux homogènes).
On vérifiera que 3.20 est solution si :
Δu2 Δv 2 Δw 2
τ= = = et Dxy = Dyx = Dyz = Dzy = Dzx = Dxz = 0
2 Dxx 2 Dyy 2 Dzz
 
c Ω 1  x2 y2 z2 
⇒ c(r, t) = √  0 √ exp − + +
4π Dxx t 4π Dyy t 4π Dzz t 4 t Dxx Dyy Dzz

Dans les cristaux à symétrie cubique, les polyèdres de coordination les plus
courants sont représentés figure 3.4.

Fig. 3.4 – Polyèdres de coordination dans les cristaux cubiques

Dans les trois cas, les pas ont même longueur. Si on note  cette longueur, on trouve :
2 2
Δu2 = Δv 2 = Δw 2 = ⇒ Dxx = Dyy = Dzz = =D
3 6τ
La concentration ne dépend plus que de t et de r 2 = x2 + y 2 + z 2 :
 τ 3/2  3 r2 τ  c0 Ω  r2 
c(r, t) = c0 β exp − 2 = exp −
2π t 2 t (4π D t)3/2 4Dt
3.5 Le mouvement brownien 113


La distance moyenne à l’origine varie toujours en t :
 "∞  
t √ r c(r, t) 4π r 2
dr 8 t Dt
Δr =  = 2 D t et r̄(t) = "0 ∞ = =4
3τ 0
c(r, t) 4π r dr
2 3πτ π

3.5.4 Mouvement de particules dans un fluide


L’objet (la particule) se déplace toujours par pas successifs de longueur fixe,
mais cette fois, à partir d’une position donnée, toutes les directions sont possibles.
Si toutes les directions sont équiprobables (pas de champ de forces extérieur, pas de
gradient de concentration), le résultat trouvé au paragraphe précédent reste valable.
En effet, aucune hypothèse n’a été faite sur le nombre de directions possibles à
partir d’un site donné. Rien ne nous interdit de faire tendre celui-ci vers l’infini. Il
faut simplement vérifier que les valeurs moyennes et variances sont identiques aux
précédentes.
On place l’objet à l’origine, et on cherche à savoir à quelle distance il se trouve
de celle-ci au bout de N pas (ou au bout d’un temps t = N τ ). À partir d’un point
quelconque de la trajectoire, la probabilité pour que l’objet choisisse une direction
située dans l’angle solide sin θ dθ dϕ autour de (θ, ϕ) vaut :

sin θ dθ dϕ
dP (θ, ϕ) =

Il nous faut les valeurs moyennes des coordonnées cartésiennes et de leurs carrés.
On trouve en intégrant x dP , y dP , z dP , x2 dP , y 2 dP , z 2 dP (avec x =  sin θ cos ϕ,
y =  sin θ sin ϕ, z =  cos θ, ϕ = 0 à 2π, θ = 0 à π) :

2
x̄ = ȳ = z̄ = 0 Δx2 = x2 = Δy 2 = y 2 = Δz 2 = z 2 = (3.25)
3
On en déduit la densité de probabilité de trouver l’objet à l’instant t à une
distance r de l’origine (mêmes résultats) :

1  r2  2
W (r, t) = exp − avec D = (3.26)
(4π D t)3/2 4Dt 6τ

puis les différentes valeurs moyennes :


 
Dt Δr 3π
r̄(t) = 4 r2 = 6 D t = − 1 ≈ 0, 422 (3.27)
π r̄ 8

Conclusion : une distance moyenne à l’origine variant en t, et les fluctuations
très étendues autour de r̄.
Si maintenant on prend en compte le fait que les pas sont de longueur λ variable,
on introduit la probabilité dP (λ, θ, ϕ) pour que l’objet choisisse un pas de longueur
comprise entre λ et λ + dλ dans une direction située dans l’angle solide sin θ dθ dϕ
autour de (θ, ϕ) :
sin θ dθ dϕ
dP (λ, θ, ϕ) = w(λ) dλ

114 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Les relations 3.25, 3.26 et 3.27 "restent identiques, mis à part que maintenant 

est le libre parcours
" moyen  = 0 λ w(λ) dλ, et 2 le libre parcours quadratique

moyen 2 = 0 λ2 w(λ) dλ.

Calcul du libre parcours moyen.

On considère ici un gaz parfait de sphères dures. Les molécules qui le consti-
tuent se déplacent en ligne droite, ou plus exactement sur des lignes brisées consti-
tuées de segments rectilignes : chaque fois qu’une molécule en rencontre une autre,
il se produit une collision provoquant un changement brusque de direction. On n’en-
visage ici que les collisions les plus courantes aux températures habituelles : chaque
choc est supposé binaire (ne faisant intervenir que deux molécules) et élastique (pas
de modification des structures internes des molécules, et donc conservation de la
quantité de mouvement et de l’énergie).
Le libre parcours moyen est la distance moyenne que parcourt une molécule entre
deux collisions. Soient deux molécules A et B de masses mA et mB convergeant toutes
deux vers un point O à des vitesses vA et vB telles qu’elles vont y arriver en même
temps. Leur centre de masse G converge également vers O. Il est facile de voir sur
la figure 3.5 qu’on peut ramener le problème à deux particules convergeant vers G,
la molécule A à la vitesse vA − vG , la molécule B à la vitesse vB − vG .

Fig. 3.5 – Collision : vitesses par rapport au centre de masse

Le mouvement du centre de masse n’a aucune influence sur la collision. On est


ainsi conduit à n’étudier que les chocs frontaux : en mouvement relatif, les deux
molécules partagent maintenant la même trajectoire. En termes d’énergie cinétique,
on a tout simplement séparé le mouvement de translation du centre de masse du
mouvement des molécules par rapport au centre de masse :

T = 12 mAvA2 + 12 mBvB2 = 12 MvG2 + 12 mA (vA − vG )2 + 12 mB (vB − vG )2

avec M = mA + mB et MvG = mAvA + mBvB

Il faut maintenant prendre en compte le fait que les molécules ne sont pas ponc-
tuelles. On peut avoir collision frontale si les deux trajectoires, toujours parallèles,
sont séparées par une distance p (appelée paramètre d’impact). Si rA et rB sont les
rayons des deux molécules, il y aura collision si p < rA + rB (figure 3.6).
3.5 Le mouvement brownien 115

Fig. 3.6 – Collision frontale : paramètre d’impact

En remplaçant vG par (mAvA + mBvB )/M dans les deux derniers termes de
l’énergie cinétique, on trouve :
1 1 mA mB
T = MvG2 + mAB (vA − vB )2 avec mAB = (masse réduite)
2 2 mA + mB
C’est la réduction du problème à deux corps qui permet ici de remplacer les deux
molécules mobiles A et B par un objet ponctuel et sans masse et un objet mobile
de masse mAB , de rayon rAB = rA + rB et de vitesse vAB = vA − vB .

Pour calculer le nombre moyen de collisions subies par une molécule A de la part
des molécules B au cours de l’intervalle de temps δt, il suffit de compter le nombre
2
de molécules B présentes dans un cylindre de section π rAB et de longueur v̄AB δt.
En divisant ensuite par δt, on obtient la fréquence de collisions A-B par atome A.
On trouve, en utilisant 3.5 :

2 2 8kT
ZA = ρB π rAB v̄AB = ρB π(rA + rB )
B
π mAB
Si le gaz est multiconstituant (molécules A, B, C, etc), on obtient la fréquence
de collisions pour une molécule A en ajoutant les différentes contributions :

ZA = ZAA + ZAB + ZAC . . .

Et pour son libre parcours moyen il suffit d’écrire :



v̄A 1 8kT 1
A = = = 
ZA ZA π mA 2
√ mA
4π rA ρA 2 + π(rA + rB ) ρB 1 +
2 + ...
mB
Le libre parcours moyen est indépendant de la température. Seules
les densités, les rayons moléculaires et les rapports de masse interviennent dans
l’expression.
Pour un gaz monoconstituant, on a (molécules de masse m et de rayon r) :

2 16kT 1
Z = 4π r ρ et  = √
πm 4π r ρ 2
2

Voici quelques valeurs numériques du libre parcours moyen, comparé à la distance


moyenne d entre molécules, pour l’hélium (r = 128 pm), le néon (r = 154 pm),
l’argon (r = 188 pm), le krypton (r = 202 pm) et le xénon (r = 216 pm).[6]
6
VE : vide extrême, UV : ultravide, VS : vide secondaire, VP : vide primaire, GO : gaz ordinaire
116 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

On constate que le libre parcours moyen est dans un gaz ordinaire 1,2 à 7500
fois plus grand (15 à 40 dans les conditions standard) que la distance moyenne entre
molécules, et qu’il peut atteindre des valeurs considérables en vide extrême (oui, ce
sont bien des giga-mètres) : un atome d’hélium du milieu intersidéral peut parcourir
plus de 30 millions de kilomètres (un an et demi à 100 K) sans subir aucune collision.
Ce même atome dans dans les conditions standard subirait environ 300 millions de
collisions par seconde.

ρ 108 V 1012 U 1016 V 1019 V 1022 G 1027


d 2 mm E 100 μm V 5 μm S 500 nm P 50 nm O 1 nm
He 34, 3 Gm 3434 km 343 m 343 mm 343 μm 3, 43 nm
Ne 23, 7 Gm 2373 km 237 m 237 mm 237 μm 2, 37 nm
Ar 15, 9 Gm 1592 km 159 m 159 mm 159 μm 1, 59 nm
Kr 13, 8 Gm 1379 km 138 m 138 mm 138 μm 1, 38 nm
Xe 12, 1 Gm 1206 km 121 m 121 mm 121 μm 1, 21 nm
Lorsque le libre parcours moyen devient supérieur aux dimensions du récipient,
ce ne sont plus les collisions entre molécules qui définissent les propriétés du gaz,
mais les chocs molécule – paroi. On parle alors de ”régime moléculaire”. A contrario,
lorsque le libre parcours moyen est très inférieur aux dimensions de l’enceinte, on
parle de ""régime fluide” ou de ”régime de fluide quasi continu”.

3.6 Éléments de mécanique statistique classique


Dans ce paragraphe, il n’est plus question de gaz parfait. Les particules envisa-
gées sont ponctuelles ou non, indépendantes ou non . . . Seule hypothèse : elles sont
indiscernables. Ce n’est pas un traitement rigoureux de la mécanique statistique
classique : les différents éléments seront introduits sur des exemples simples, puis
généralisés, le but étant de retrouver la distribution de Maxwell-Boltzmann 3.3 et
la distribution de Maxwell 3.4 (paragraphe 3.4).

3.6.1 Systèmes à une particule


L’oscillateur harmonique linéaire
Ce premier exemple est le plus simple qui soit, puisqu’il n’y a qu’un seul degré
de liberté, et que la théorie quantique permet de résoudre exactement le problème à
toute température. Considérons une particule de masse m oscillant à la pulsation ω
le long d’un axe Ox autour de sa position d’équilibre x = 0. On connaît le résultat
quantique : les niveaux d’énergie, non dégénérés, accessibles au système sont donnés

par εn = h ω (n + 1/2) avec n ≥ 0, et la fonction de partition canonique est calculable
sans approximations :


1 1 kT
e−h ω (n+ /2)/kT =

q(T ) = −

∼ − quand T → ∞
n=0 2 sinh 2 kT

En mécanique classique, l’équation du mouvement conduit à :
x(t) = a cos(ω t + φ) et ẋ(t) = −aω sin(ω t + φ)
3.6 Éléments de mécanique statistique classique 117

et à une énergie fonction de la pulsation et de l’amplitude :


1 1 1
ε= m ẋ2 + m ω 2 x2 = m ω 2 a2
2 2 2
√ 1 m ω 2 2 q̇ 2 − ω 2 q 2
En posant q = x m ω, le lagrangien devient : L = m ẋ2 − x =
2 2 2ω
Ce qui conduit au hamiltonien (c’est aussi l’énergie totale du système) :

ω 2 2
√ ∂L q̇ m
H(p, q) = (q + p ) avec q = x m ω et p = = = ẋ
2 ∂ q̇ ω ω

Un couple de variables (q, p) représente un état possible du système. Dans le


raisonnement qui suit, ces deux variables sont considérées comme indépendantes.
Elles peuvent toutes deux varier continûment de −∞ à +∞. On peut représenter
les états possibles dans un espace à deux dimensions (q, p) appelé espace des phases
du système. Dans cet espace, l’ensemble des états d’énergie E (ou d’amplitude a)
est un cercle d’équation :

2E m ω 2a2
q 2 + p2 = avec E=
ω 2
Au cours du temps, le point représentatif de l’état du système se déplace le long
du cercle. Chaque point traversé représente un état possible : l’ensemble des états
possibles est continu, alors qu’en mécanique quantique c’est un ensemble discret.

Pour calculer la fonction de partition classique, il faut donc remplacer la somme


discrète par une intégrale en introduisant une densité d’états g(q, p) :

∞  +∞  +∞
−εn /kT
q(T ) = ωn e −→ qclass = g(q, p) e−H(q,p)/kT dq dp
n=0 −∞ −∞

La densité d’états g(q, p) est nécessaire car en mécanique quantique, seuls quel-

ques cercles sont permis (ceux correspondant aux énergies εn = h ω (n + 1/2). De
plus, on sait que les niveaux sont non dégénérés : en mécanique classique, chaque
point d’un cercle représente un état possible, alors qu’en mécanique quantique on
ne compte qu’un seul état par cercle. Celui-ci est délocalisé sur le cercle. Autrement
dit, à l’état quantique n, il faut faire correspondre les états classiques (q, p) situés
− −
entre les deux cercles correspondant aux énergies h ω n et h ω (n + 1). L’aire de cette

surface vaut 2π h = h.
Conclusion : à une surface d’aire h correspond un état quantique. D’où :
 
1 1 +∞ +∞ −H(q,p)/kT
g(q, p) = et donc qclass = e dq dp (3.28)
h h −∞ −∞

Vérification :
    +∞
1 +∞ +∞−ω (q2 +p2 )/2kT 1 +∞−ω q2 /2kT 2
qclass = e dq dp = e dq e−ω p /2kT dp
h −∞ −∞ h −∞ −∞
118 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

À l’aide de J0 donnée au paragraphe 3.4.1, on trouve :


   2
1 kT π 2π kT kT
qclass = 2 = = −
h ω 2 hω hω

C’est bien la limite haute température de la fonction de partition quantique.

Masse ponctuelle dans une boîte cubique


Encore un problème où la limite haute température de la fonction de partition
est bien connue. Le raisonnement classique doit en principe conduire à :
V h
qclass = avec Λ = √
Λ3 2π m kT
La particule a ici trois degrés de liberté. L’espace des phases E6 est à six dimen-
sions : E6 = E3 × E3∗ , où E3 est l’espace affine des positions r (espace direct) et E3∗
est l’espace affine des impulsions p (espace réciproque). Pour une particule confinée
dans une boîte de volume V, on a :

qclass = d3 r d3 p g(r, p) e−H(r,p)/kT

ou encore en explicitant les variables (pour une boîte cubique de volume V = L3 ) :


 L  L  L  +∞  +∞  +∞
qclass = dx dy dz dpx dpy dpz g(x, y, z, px, py , pz ) e−H(x,y,z,px,py,pz )/kT
0 0 0 −∞ −∞ −∞

Le hamiltonien H est indépendant de x, y, z. Il est de plus à variables séparables :


p2x p2y p2 2 2 2
H= + + z ⇒ e−H/kT = e−px/(2m kT ) × e−py /(2m kT ) × e−pz /(2m kT )
2m 2m 2m
Quant à la densité d’états, il faut revenir au modèle quantique de la particule
libre dans une boîte cubique. Les composantes possibles de l’impulsion sont données
par :
h h h
px = nx py = ny pz = nz avec nx , ny , nz entiers
L L L
La densité d’états quantiques g(r, p) est le nombre d’états par unité de volume
direct et par unité de volume réciproque. Dans l’espace réciproque, on compte un
état dans chaque élément de volume réciproque δV ∗ = h3 /L3 . On en déduit :
1 1 1
g(r, p) = × =
V δV ∗ h3
La fonction de partition qclass devient :
 
1 3 3 V 2
qclass = 3 d rd p e −H(
r ,
p)/kT
= 3 d3 p e−p /(2m kT ) (3.29)
h h
On obtient bien la limite haute température du modèle quantique :
 +∞  +∞  +∞
V −p2x /(2m kT ) −p2y /(2m kT ) 2 V
qclass = 3 dpx e dpy e dpz e−pz /(2m kT ) = 3 (3.30)
h −∞ −∞ −∞ Λ
3.6 Éléments de mécanique statistique classique 119

Particule unique quelconque


Une particule matérielle (non ponctuelle) possède des degrés de liberté qui ne
peuvent pas être traités par la mécanique classique. Ce sont les degrés de liberté liés
au nuage électronique et à la structure interne du noyau et, si c’est une molécule, les
degrés de liberté de vibration. On sait que seuls les degrés de liberté de translation
et de rotation peuvent être traités classiquement (et encore, pas toujours pour la
rotation).
On supposera donc le hamiltonien séparable en deux termes, l’un regroupant
tous les degrés de liberté à traiter par la mécanique quantique, l’autre regroupant
ceux pour lesquels le traitement classique est suffisant. On notera n le nombre de
degrés de liberté à traiter classiquement :
 
H = Hquant + Hclass (qi , pi)(i=1 à n)

La fonction de partition s’écrit comme le produit de deux fonctions de partition


(le terme 1/hn provient d’une généralisation des résultats 3.28 et 3.29) :
 
1
q = qquant × qclass avec qclass = n · · · dq1 . . . dqn dp1 . . . dpn e−Hclass /kT (3.31)
h
On définit l’intégrale de phase comme étant :
 
I(T, V ) = · · · dq1 . . . dqn dp1 . . . dpn e−Hclass /kT

et on énonce :

La fonction de partition ”classique” d’une particule à n degrés de


liberté ”classiques” est égale à l’intégrale de phase divisée par hn .

A noter que l’intégrale de phase peut prendre en compte la présence éventuelle


d’un champ de potentiel extérieur.

3.6.2 Systèmes à N particules


Masses ponctuelles identiques et indépendantes dans une boîte cubique
Le hamiltonien du système est la somme de hamiltoniens individuels :

N
p2i N
p2ix + p2iy + p2iz
H= =
i=1
2m i=1
2m

Il suffit donc ici d’élever le résultat 3.30 à la puissance N, et diviser par N! :


 N
1 V
Q=
N! Λ3

Le facteur N! vient du fait que les particules sont indiscernables.


120 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

Pour comprendre sa présence, il faut noter que (V /Λ3)N est l’intégrale de phase
I(T, V ) divisée par h3N . En effet, le calcul 3.29 devient ici :
   N
I(T, V ) 1 3 3 3 3 −H/kT V
= d r 1 d p 1 . . . d r N d p N e =
h3N h3N Λ3
Lorsqu’on calcule I, on effectue N intégrales sextuples identiques et indépen-
dantes, chacune sur l’élément dτ = d3 r d3 p.
Prenons par exemple les particules 1 et 2, et deux éléments de volume dτ et

dτ . Le calcul prend en compte, d’une part la présence de la particule 1 dans dτ
et de la particule 2 dans dτ  , d’autre part la présence de la particule 1 dans dτ 
et de la particule 2 dans dτ . On sait que ces deux configurations en mécanique
quantique représentent le même état : on doit diviser le produit I1 × I2 par 2. Si on
généralise aux N particules, on doit diviser I par N!, c’est-à-dire par le nombre de
permutations sur les N particules réparties dans N éléments dτ1 . . . dτN .

Particules interactives ou dans un potentiel non uniforme


On généralise maintenant aux systèmes quelconques :
– Les particules ne sont plus ponctuelles : elles possèdent des degrés de liberté
internes à traiter quantiquement (noyaux, électrons, vibrations) et des degrés
de liberté pouvant être traités classiquement (translation, rotation). De plus on
étend le raisonnement aux systèmes multiconstituants : on notera ni (i = 1 à p)
le nombre de degrés de liberté classiques de l’espèce i, et Ni le nombre de
molécules i. La somme de tous les ni Ni sera notée n : c’est le nombre total de
degrés de liberté classiques.
– Les particules ne sont plus indépendantes. Il existe entre elles des forces at-
tractives ou répulsives qui en général ne dépendent que des positions relatives
des particules entre elles. Mais le résultat 3.32 ci-dessous autorise également
la présence de forces d’interaction faisant intervenir les vitesses.
– On autorise la présence d’un potentiel d’origine extérieur. Comme les forces
d’interaction, ce potentiel extérieur peut éventuellement dépendre des vitesses.
La fonction de partition canonique s’écrit maintenant :
 
Qquant
Q= p dq1 dp1 . . . dqn dpn e−Hclass /kT (3.32)

n i Ni
(Ni ! h )
i=1

Un cas particulier fréquent est celui des systèmes constitués d’atomes tous iden-
tiques (sans structure interne à traiter classiquement) plongés dans un potentiel
(extérieur et/ou d’interaction) indépendant des vitesses. On trouve alors :


3N
p2i Qquant
H = Hquant + + U(q1 , . . . q3N ) ⇒ Q= ZN (3.33)
i=1
2m N! Λ3N

 
avec ZN = dq1 . . . dq3N e−U/kT intégrale de configuration classique
3.6 Éléments de mécanique statistique classique 121

On considère un système macroscopique isolé, de volume V , et contenant des


molécules appartenant à une ou plusieurs espèces. Soient (qi , pi ) (i = 1 à n) l’en-
semble des coordonnées et moments généralisés nécessaires à la description d’un
microétat du système : l’espace des phases est à 2n dimensions. L’état du système à
l’instant t est entièrement défini par la position de son point phase dans l’espace des
phases. Au cours du temps, le système suit une certaine ”trajectoire” dans l’espace
des phases. Bien entendu cette trajectoire est impossible à calculer. On fabrique
donc un ensemble statistique de N systèmes isolés, tous macroscopiquement iden-
tiques au système de départ. Le microétat de chacun des systèmes est représenté par
un point phase, et l’ensemble des N points phase forme un nuage de points dans
l’espace des phases. Dans la limite où N est infini, ce nuage est continu et possède
une certaine densité.
Le théorème de Liouville dit que, pour un système isolé (E constant), cette den-
sité reste constante le long de la trajectoire suivie par le système dans l’espace des
phases. C’est tout simplement l’écriture classique du deuxième postulat (équiproba-
bilité des état de même énergie). Cela signifie concrètement que dans l’espace des
phases, la densité est constante dans la région de l’espace des phases comprise entre
la surface définie par E et celle définie par E + dE. D’après l’écriture de Qclass , on
peut dire que cette densité est proportionnelle à e−Hclass /kT .
On termine par l’écriture de l’hypothèse ergodique classique : le point représen-
tatif d’un système isolé passe autant de temps (sur une longue période) dans les
différents petits volumes de l’espace des phases contenus dans la région comprise
entre les surfaces d’énergies E et E + dE.

3.6.3 Distributions de Maxwell et de Maxwell-Boltzmann


Ces distributions ont été établies dans le cas du gaz parfait. Le raisonnement
qui suit généralise ce résultat aux fluides quelconques. La seule supposition qui est
faite ici est que les degrés de liberté classiques et quantiques sont séparables. On
raisonnera pour simplifier sur un système monoconstituant.
On sait que les degrés de liberté de translation sont séparables de tous les autres.
Il y en a 3N (les coordonnées de N centres de masse). On notera n le nombre de
degrés de liberté ”internes” pouvant être traités classiquement. Les coordonnées
cartésiennes des centres de masse seront notées (q1 . . . q3N ), et leurs moments
conjugués (p1 . . . p3N ). Les degrés de liberté internes seront représentés par les
variables (ξ1 . . . ξn ) et les momentoïdes conjugués (η1 . . . ηn ) :
 
Qquant
Q= ··· dq1 . . . dq3N dp1 . . . dp3N dξ1 . . . dξn dη1 . . . dηn e−Hclass /kT
N!h3N hn

3N
p2i
avec Hclass = + Tint (ξ1 . . . ξn , η1 . . . ηn ) + U(q1 . . . q3N , ξ1 . . . ξn )
i=1
2m
Dans Hclass , le premier terme est l’énergie cinétique de translation, le deuxième
l’énergie cinétique liée aux degrés de liberté internes classiques, et le troisième une
énergie potentielle d’interaction supposée indépendante des momentoïdes.
On cherche à calculer la fraction de molécules dont le centre de masse possède
une impulsion comprise entre p et p + dp (en module).
122 CHAPITRE 3. GAZ PARFAIT DE MASSES PONCTUELLES

On procède par étapes.


– Probabilité que le point phase soit, indépendamment de l’état quantique des
molécules, dans l’élément (dq1 . . . dq3N dp1 . . . dp3N dξ1 . . . dξn dη1 . . . dηn ) :

dq1 . . . dq3N dp1 . . . dp3N dξ1 . . . dξn dη1 . . . dηn e−Hclass /kT
""" """
· · · dq1 . . . dq3N dp1 . . . dp3N dξ1 . . . dξn dη1 . . . dηn e−Hclass /kT

– Probabilité que le système possède, indépendamment des autres contributions


à l’énergie, une certaine énergie cinétique de translation Tt .
On intègre le numérateur sur les (dq1 . . . dq3N dξ1 . . . dξn dη1 . . . dηn ). Cette in-
tégrale se simplifie avec le dénominateur :

dp1 . . . dp3N e−Tt /kT dp1 . . . dp3N e−Tt /kT dp1 . . . dp3N e−Tt /kT
""" """ = 3N =
· · · dp1 . . . dp3N e−Tt /kT  " +∞ −p2 /(2m kT ) (2π m kT )3N/2
−∞
e i dp i
i=1

– Probabilité de trouver, indiscernablement, n’importe quelle molécule dans un


certain état (dpx , dpy , dpz ) autour de (px , py , pz ).
Il suffit d’intégrer l’expression ci-dessus 3N −3 fois. Les variables d’intégration
choisies sont sans importance : les trois variables restantes sont simplement
renommées (px , py , pz ). Soit W (px , py , pz ) dpx dpy dpz cette probabilité :
2 2 2 2
dpx dpy dpz e−(px +py +pz )/(2m kT ) d3 p e−p /(2m kT )
W (px , py , pz ) dpx dpy dpz = =
(2π m kT )3/2 (2π m kT )3/2

On passe maintenant en coordonnées sphériques (d3 p = p2 dp sin θ dθ dϕ) et on


intègre sur θ et ϕ. On obtient la fraction de molécules dont le centre de masse
possède une impulsion comprise entre p et p + dp :
2  2π  π 2 /(2m kT )
e−p /(2m kT ) p2 dp e−p 4π p2 dp
W (p) dp = dϕ sin θ dθ =
(2π m kT )3/2 0 0 (2π m kT )3/2

D’où les différents résultats : 2


e−p /(2m kT )
– densité d’impulsion : 4π p2
(2π m kT )3/2
 m 3/2
2
– densité de vitesse (p = m v) : 4π v 2 e−m v /(2 kT )
2π kT

p2 2 1 ε −ε/kT
– densité d’énergie cinétique (ε = ): √ e
2m π kT kT
Ce sont bien les distributions trouvées aux paragraphes 3.3 et 3.4.
Chapitre 4

Gaz parfait d’atomes ou molécules

4.1 Les gaz parfaits classiques d’atomes


4.1.1 Degrés de liberté électroniques et nucléaires
Dans l’étude des gaz, le noyau est considéré comme une seule particule dotée
d’une structure interne complexe. Dans les conditions habituelles, les états nucléaires
et les états électroniques peuvent être considérés comme indépendants. On pourra
donc écrire la fonction de partition ”interne” q (int) comme un produit d’une fonction
de partition nucléaire q (nucl) par une fonction de partition électronique q (élec) :
q (int) (T ) = q (nucl) (T ) × q (élec) (T )
Pour les ordres de grandeur (on ignore les dégénérescences), on adoptera le rai-
sonnement suivant. Soient ε0 et ε1 les énergies du niveau fondamental et du premier
niveau excité, et Δε = ε1 − ε0 . Soient η0 et η1 les fractions d’atomes respectivement
dans l’état fondamental et dans le premier état excité. Sachant que dans tous les cas
pratiques les autres états excités sont quasiment inaccessibles, on a η1 = η0 e−Δε/kT .
Lorsque T vaut 104 Δε, avec Δε exprimé en attojoules, on trouve η1 ≈ 0, 007. On
dira que η1 est non négligeable devant η0 si T est supérieure à 104 Δε.
Pour les noyaux, Δε est de l’ordre de 105 aJ. Pour peupler de façon non né-
gligeable le premier niveau excité nucléaire, il faut atteindre des températures su-
périeures à 109 K. Dans tous les cas pratiques, seul le niveau fondamental nucléaire
est accessible. Il est en général dégénéré. Si on note ωn sa dégénérescence, et si on
place l’origine des énergies sur le niveau fondamental nucléaire, on a :
q (nucl) = ωn à toute température
Pour les électrons, même chose mais il y a quelques exceptions :
– Les gaz rares (He, Ne, Ar, Kr, Xe) : l’écart Δε est de l’ordre de 1 à 3 aJ. On
devra prendre en compte le premier niveau excité lorsque T > 10 000 K.
– Les alcalins (Li, Na, K, Rb) : Δε est de l’ordre de 0, 1 à 0, 3 aJ. Il faudra
prendre en compte le premier niveau excité lorsque T > 1 000 K.
– Les halogènes (F, Cl, Br, I) : Δε vaut respectivement 0,008, 0,018, 0,074 et
0,150 aJ. Pour le fluor et le chlore, le premier niveau excité est à prendre en
compte même à l’ambiante. Pour le brome, on peut l’ignorer jusqu’à environ
500 K, et pour l’iode jusqu’à 1 500 K.
124 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Si ω0 et ω1 sont les dégénérescences du niveau fondamental et du premier niveau


excité, on a suivant que l’on doit prendre en compte ou non le premier niveau excité :

q (élec) = ω0 e−ε0 /kT ou q (élec) = ω0 e−ε0 /kT + ω1 e−ε1 /kT

4.1.2 Conséquences sur les propriétés thermodynamiques


Jusqu’à présent, parmi tous les degrés de liberté internes, seul le spin était pris
en compte : la fonction q (int) (T ) qui valait (2s + 1) doit maintenant être remplacée
par q (nucl) × q (élec) (T ).

Si seul le niveau fondamental électronique est à prendre en compte :


La fonction de partition canonique Q(T, V, N) n’est que légèrement modifiée :

1  (2s + 1)V N 1  ωn ω0 e−ε0 /kT V N


Q(T, V, N) = → Q(T, V, N) =
N! Λ3 (T ) N! Λ3 (T )

Cette fonction de partition canonique permet de calculer les principales proprié-


tés du gaz :
– Les résultats classiques (pV , E et CV ) ne sont pas affectés par la prise en
compte de la structure interne de l’atome, mise à part l’ajout d’un terme
constant à E (qui correspond à un simple changement d’origine des énergies,
celle-ci se trouvant maintenant sur le niveau fondamental nucléaire) :

3 3
p V = NkT E= NkT + Nε0 CV = Nk
2 2
– Dans S et μ, il faut remplacer (2s + 1) par ωn ω0 et ajouter ε0 à μ (changement
de l’origine des énergies) :

5 ρ Λ3 (T ) ρ Λ3 (T ) ρ Λ3 (T )
S = NkT − Nk ln μ = ε0 + kT ln avec 1
2 ωn ω0 ωn ω0 ωn ω0

Si on doit prendre en compte le premier niveau excité :


On a, en posant Δε = ε1 − ε0 et ω = ω1 /ω0 :

1  ωn ω0 e−ε0 /kT V  −Δε/kT


N
Q(T, V, N) = 1+ωe
N! Λ3 (T )

On trouve que, par rapport aux résultats précédents, il faut ajouter :

ω e−Δε/kT Δε ω e−Δε/kT
à E : NΔε à S : Nk ln(1 + ω e−Δε/kT ) + Nk
1 + ω e−Δε/kT kT 1 + ω e−Δε/kT
 Δε 2 ω e−Δε/kT
à CV : Nk à μ : −kT ln(1 + ω e−Δε/kT )
kT (1 + ω e−Δε/kT )2
4.1 Les gaz parfaits classiques d’atomes 125

4.1.3 Gaz adsorbé sur une surface


On considère la surface plane d’un solide constitué d’atomes Y en contact avec un
gaz contenant des atomes X. À l’échelle microscopique, la surface est un réseau plan
ordonné d’atomes Y. Lorsque des atomes X d’un gaz se déposent sur cette surface,
on parle d’adsorption. On dit que les atomes X sont adsorbés sur la surface.
Le système thermodynamique choisi est constitué des atomes X adsorbés. On
donne ci-dessous les caractéristiques de ce système et les hypothèses de travail.
– c’est un système bidimensionnel. Si on note A l’aire de la surface et ϕ la
tension de surface, l’équation de Gibbs s’écrit : dE = T dS − ϕ dA + μ dN.
– c’est un système ouvert. Il est en contact avec le gaz qui fait office de
thermostat et de réservoir de particules : il fixe la température et le potentiel
chimique. Ceci sous-entend que l’enceinte a des dimensions telles que les pro-
priétés du gaz sont indépendantes du nombre d’atomes adsorbés. On supposera
que le gaz est parfait, classique quelle que soit la température, et uniquement
composé d’atomes X. La condition d’équilibre entre le système et le gaz s’écrit
μsys = μgaz (= μ) :

ρ Λ3 (T ) Ngaz
μ = ε0 + kT ln avec ρ = (4.1)
ωn ω0 Vgaz

Étant donné p = ρ kT , p étant la pression du gaz, on constate que ”T et μ


fixés” signifie également ”p et ρ fixés”.
– c’est un système isochore. Le volume du solide (et donc l’aire de sa surface)
réagit à T et p par l’intermédiaire de son coefficient de dilatation thermique
isobare et de son module de compressibilité isotherme. En travaillant à tempé-
rature et pression constantes, et compte tenu des deux hypothèses qui suivent,
le volume du solide et l’aire A de la surface sont fixés.
– Les liaisons X−Y sont faibles. Ce ne sont pas des liaisons chimiques : le
phénomène d’adsorption est d’origine purement électrostatique. On parle alors
de physisorption et non de chimisorption. Deux conséquences importantes : les
propriétés du solide sont indépendantes du nombre d’atomes adsorbés et les
degrés de liberté électroniques et nucléaires des atomes X ne sont pas modifiés
après adsorption. On peut donc réécrire la relation 4.1 en plaçant l’origine
des énergies sur le niveau d’énergie électronique fondamental (ε0 = 0) et en
travaillant avec une entropie conventionnelle telle que ωn ω0 = 1. Les atomes
X deviennent tout simplement des masses ponctuelles sans spin :
  p Λ3 (T )
p = ρ kT μ = kT ln ρ Λ3 (T ) = kT ln (4.2)
kT
– Les liaisons X−X sont encore plus faibles. Aucune interaction entre
atomes X adsorbés n’est envisagée. La géométrie de la surface n’a aucune
importance.
Le solide joue ainsi le rôle de champ de potentiel U(x, y, z) pour les atomes X
adsorbés (on choisira l’axe z normal à la surface). Dans le plan xy, pour une valeur
de z donnée, le diagramme d’équipotentielles a l’allure d’une ”boîte à œufs” : les
sites d’adsorption sont des bassins reliés entre eux par des cols.
126 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Les hautes températures


A haute température, les variations d’énergie potentielle sur la surface sont ex-
trêmement faibles face à l’énergie cinétique des atomes.
C’est le modèle de l’adsorption mobile. On considère alors la surface comme
parfaitement lisse, et l’énergie potentielle comme indépendante de x et y : chaque
atome adsorbé possède deux degrés de liberté de translation. Le degré de liberté
suivant l’axe z est vibrationnel : la variation d’énergie potentielle par rapport à z
est supposée localement d’allure parabolique. On notera U0 la valeur de l’énergie
potentielle en z = 0, et ωz la pulsation propre de l’oscillateur.

La fonction de partition d’un atome de spin nul s’écrit (A est l’aire de la surface) :

q(T, A)N A e−U0 /kT −


h ωz
Q(T, A, N) = avec q(T, A) = 2 et uz =
N! Λ (T ) 2 sinh uz 2kT
Par dérivation de ln Q, on obtient le potentiel chimique :

∂ ln Q   N
μ = −kT = U0 + kT ln 2σ Λ2 (T ) sinh uz avec σ =
∂N T,A A

que l’on identifie à celui du réservoir (équation d’équilibre 4.2). On en déduit la


densité superficielle σ en fonction de T et de p :

p Λ3 (T ) p Λ(T ) e−U0 /kT


μ = kT ln ⇒ σ(T, p) =
kT 2kT sinh uz
On peut également calculer l’énergie interne et la capacité thermique CA à aire
constante :  −
2 ∂ ln Q h ωz
E = kT = NkT + NU0 + N coth uz
∂T A,N 2
  u 2
∂E z
CA = = Nk + Nk
∂T A,N sinh uz
Le premier terme est celui d’un gaz parfait bidimensionnel, et le deuxième la
contribution des vibrations perpendiculaires à la surface.

Les basses températures


A basse température, les barrières de potentiel sont supposées infranchissables.
C’est un modèle d’adsorption localisée : chaque atome X est confiné sur un site et
ne peut le quitter que par vaporisation. Nous traitons ici le modèle de Langmuir : on
suppose que tous les sites sont identiques et que chaque site ne peut accueillir qu’un
seul atome (adsorption monocouche). Dans ce modèle, les trois degrés de liberté
sont vibrationnels. L’un des trois modes normaux est tout simplement z, et les deux
autres correspondent à deux directions particulières de la surface qui dépendent de
la géométrie de celle-ci. On y place les deux axes x et y. Chaque atome adsorbé est
ainsi réduit à un jeu de trois oscillateurs harmoniques indépendants de pulsations
ωx , ωy et ωz . On notera U0 la valeur de l’énergie potentielle au fond du puits. Les
4.1 Les gaz parfaits classiques d’atomes 127

liaisons X−Y étant supposées très faibles, on fait l’hypothèse que l’aire d’un site est
indépendante de son occupation. On posera donc A = M a, M étant le nombre de
sites.
La fonction de partition d’un système de N atomes répartis sur M sites s’écrit
(voir paragraphe 2.1.4) :
M!
Q(M, T, A, N) = q(T, a)N avec
N! (M − N)!

e−U0 /kT −
h ωx −
h ωy −
h ωz
q(T, a) = et ux = uy = uz =
8 sinh ux sinh uy sinh uz 2kT 2kT 2kT
N
Le potentiel chimique est trouvé fonction de T et θ = (taux de recouvrement) :
M
θ  
μ = U0 + kT ln + kT ln 8 sinh ux sinh uy sinh uz
1−θ
La condition d’équilibre 4.2 permet de calculer θ(T, p) :

p χ(T ) Λ3 (T ) e−U0 /kT


θ(T, p) = avec χ(T ) =
1 + p χ(T ) 8 kT sinh ux sinh uy sinh uz
L’énergie interne et la capacité thermique CA ont pour expressions :
 − − −
2 ∂ ln Q h ωx h ωy h ωz
E = kT = NU0 + N coth ux + N coth uy + N coth uz
∂T A,N 2 2 2
  u 2  u 2  u 2
∂E x y z
CA = = Nk + Nk + Nk
∂T A,N sinh ux sinh uy sinh uz
Le calcul de la tension de surface nécessite la loi de variation des fréquences de
vibration en fonction de l’aire de la surface. Dans de nombreux modèles, on considère
que la fréquence d’un oscillateur linéaire confiné sur un segment de longueur  varie
proportionnellement à 1/ (voir paragraphe 2.5.1). On supposera donc ici que √ la
pulsation ωz est indépendante de a et que les pulsations ωx et ωy varient en 1/ a :
dωx ωx dωy ωy dωz
=− =− =0
da 2a da 2a da
 − −
θ ∂ ln Q h ωx h ωy
Ce qui donne avec σ = : ϕ = kT =σ coth ux + σ coth uy
a ∂A T,N 4 4

Les températures intermédiaires


Les atomes adsorbés ont maintenant la possibilité de changer de site moyennant
le passage d’une barrière de potentiel. Pour simplifier, on choisira un réseau carré,
avec des axes x et y portés par les directions de diffusion, et pour fixer les idées, on
choisit pour l’énergie potentielle un profil sinusoïdal :
mωz2 2 U ∗  2πx  U ∗  2πy 
U(r) = U(x, y, z) = U0 + z + 1 − cos + 1 − cos (4.3)
2 2  2 
128 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Les sites stables (ou puits) sont à l’énergie U0 et séparés suivant x et y d’une
distance . Les positions de col sont à mi-distance entre deux sites stables (suivant
x et y), et les barrières de potentiel à franchir valent toutes ΔU ∗ = U ∗ − U0 .
Les pulsations ωx et ωy au fond d’un puits sont identiques. On peut remarquer
qu’elles varient en 1/ comme dans le modèle précédent :
    
1 ∂2U 1 ∂2U 2π U ∗
ωx = et ωy = ⇒ ωx = ωy =
m ∂x2 r=0 m ∂y 2 r=0  m

L’énergie potentielle est à variables séparables. La fonction de partition d’un


atome est donc un produit de fonctions de partition :
e−U0 /kT −
h ωz
q = e−U0 /kT qz qx qy = qx qy avec uz = (4.4)
2 sinh uz 2kT
Vue la symétrie du problème, il est clair que les deux fonctions de partition qx
et qy sont identiques.
Calculons dans un premier temps qx comme si elle était classique. On√utilise pour
cela l’équation 3.31 avec ici n = 1. En posant A = L2 et sachant L =  M :
 L √  
1 M U∗  2πx 
qxclass = e−Ux /kT dx = e−Ux /kT dx avec Ux = 1 − cos
Λ 0 Λ 0 2 
Cette fonction de partition tend bien vers L/Λ quand T tend vers l’infini. A
basse température, on doit trouver, mais ce n’est malheureusement pas le cas :

− −
1 h wx πh U∗
qx −→ qoh = avec ux = =
2 sinh ux 2kT kT m
L’astuce consiste à multiplier qxclass par qoh et, pour que la fonction de partition
soit toujours satisfaisante à haute température, à diviser le résultat par la limite

haute température de qoh , c’est-à-dire kT /h ωx . On trouve, en posant u∗ = U ∗ /2kT
et φ = 2πx/ (I0 est la fonction de Bessel modifiée de première espèce et d’indice
0) :
 2π
L ux −u∗ ∗ ∗ 1 ∗
qx = e I0 (u ) avec I0 (u ) = eu cos φ dφ
Λ sinh ux 2π 0
Ce qui donne finalement en remplaçant qx = qy dans 4.4 :
A ∗ −2u∗ 2 ∗ e−u0
q(T, A) = 4π qquant u e I0 (u ) avec qquant =
2 8 sinh ux sinh uy sinh uz


U0 πh U∗ −
h wz U∗
u0 = ux = uy = uz = u∗ =
kT kT m 2kT 2kT
Pour calculer la fonction de partition de N atomes sur la surface, il faut tenir
compte du fait que les atomes ont accès à tous les sites présents sur la surface. Ils
sont donc indiscernables. Si la température est suffisamment élevée, on peut écrire :
 
q(T, A)N 2 ∂ ln Q ∂E
Q(T, A, N) = puis E = kT et CA =
N! ∂T A,N ∂T A,N
4.2 Les degrés de liberté d’une molécule 129

On donne figure 4.1 l’allure des courbes CA (T ) obtenues pour différentes valeurs
de la barrière ΔU ∗ . Les courbes ont été numérotées dans le sens ”ΔU ∗ croissant”.
Pourquoi à température suffisamment élevée ? Pour deux raisons qui finalement
n’en font qu’une :
– Le fait d’avoir considéré dès le départ un seul atome sous-entend que la den-
sité de la phase adsorbée est suffisamment faible pour négliger la gêne mutuelle
entre atomes au cours de leurs déplacements. En dessous d’une certaine tem-
pérature, la phase adsorbée devient trop dense et le modèle n’est plus valable.
– Pour pouvoir écrire Q = q N /N!, il faut que la température soit suffisamment
élevée et la densité suffisamment faible.

Fig. 4.1 – Translation entravée sur une surface : capacité thermique

4.2 Les degrés de liberté d’une molécule


4.2.1 Indépendance des degrés de liberté de translation
Dans un gaz parfait, chaque molécule se comporte comme si elle était seule
dans le récipient. La fonction de partition q(T, V ) relative à une molécule est donc
toujours indépendante de N. D’après 2.8 au paragraphe 2.3.1, l’équation d’état des
gaz parfait reste inchangée. On a toujours à haute température et pour un gaz parfait
supposé mécaniquement isolé du monde extérieur :
q(T, V )N
Q(T, V, N) = ⇒ p V = NkT
N!
En mécanique, le théorème de Kœnig s’énonce : ”L’énergie cinétique d’un système
est égale à l’énergie cinétique qu’aurait la masse totale M du système rapportée en
G additionnée de l’énergie cinétique du système dans son mouvement autour de G”.
Pour une molécule, système constitué de quelques noyaux et d’un grand nombre
d’électrons, cela signifie que les trois degrés de liberté de translation de son centre de
masse affecté de la masse totale M sont indépendants des degrés de liberté internes
de la molécule. La fonction de partition q(T, V ) d’une molécule s’écrit donc comme
le produit d’une fonction de partition de translation q (tr) (T, V ) et d’une fonction
de partition interne q (int) (T ). Le facteur (2s + 1) fait maintenant partie de cette
dernière :
V h
q(T, V ) = q (int) (T )q (tr) (T, V ) avec q (tr) (T, V ) = 3 et Λ(T ) = √
Λ (T ) 2π M kT
130 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

4.2.2 Séparation des variables par approximations


Soit n est le nombre de noyaux de la molécule et ν le nombre d’électrons. Dans
l’expression du hamiltonien H qui suit, les lettres majuscules et les indices i et i se
rapportent aux noyaux, les lettres minuscules et les indices k et k  aux électrons.
L’énergie potentielle, provenant uniquement des interactions entre les particules,
n’est fonction que des positions relatives des particules entre elles. C’est la somme
de trois termes, chacun regroupant respectivement les interactions noyau-noyau Unn ,
les interactions électron-électron Uee et les interactions noyau-électron Une :

n P2
i ν p2
k
   
H= + + Unn (R
 i − R
 i )i et i =1 à n + Uee (rk − rk )k et k =1 à ν
i=1 2Mi k=1 2m  
+Une (R
 i − rk )i=1 à n, k=1 à ν

Unn et Uee sont des interactions répulsives. Une est la seule interaction de nature
attractive : c’est elle qui assure la cohésion de la molécule. On remarquera que
l’énergie potentielle est indépendante de l’orientation de la molécule. On dira que,
tout comme la translation, la rotation est libre. Translation et rotation sont les deux
mouvements laissant toutes les positions relatives des particules constantes.
Mais attention : les degrés de liberté de rotation ne sont pas rigoureusement sé-
parables des autres degrés de liberté internes : l’énergie cinétique de rotation dépend
de la géométrie de la molécule, donc des positions instantanées des particules.
Les deux approximations suivantes sont justifiées par le fait que les électrons sont
beaucoup plus légers et beaucoup plus rapides que les noyaux. Elles vont permettre
d’étudier séparément le mouvement du système de noyaux et le mouvement du nuage
électronique.
Pour l’étude des électrons, l’approximation utilisée consiste à considérer les
noyaux fixes. La translation et la rotation de la molécule n’ont quasiment aucune
influence sur eux (dans l’approximation adiabatique, les électrons réagissent instan-
tanément au mouvement des noyaux). Par contre, l’influence des vibrations est plus
importante, mais on la néglige dans les calculs.
Dans l’expression de H retenue pour l’étude des électrons, les Pi deviennent nuls,
les positions R  i deviennent des paramètres : les seules variables restantes sont les
positions des électrons et leurs moments associés. On résout l’équation aux valeurs
propres de Schrödinger et on trouve, dans les cas les plus simples, un certain nombre
de niveaux d’énergie dépendant des différents Rii = ||R  i − R
 i ||. Dans les cas plus
complexes, on fabrique des potentiels empiriques à partir de données expérimentales
(géométrie d’équilibre, énergie de dissociation, fréquences propres de vibration, etc).
Dans une molécule diatomique, les niveaux d’énergie sont fonctions d’une seule
distance internucléaire (R = R12 ). Si on trace les niveaux d’énergie U0 (R), U1 (R),
U2 (R), etc, on trouve des courbes présentant un minimum en (R0 , ε0), (R1 , ε1 ),
(R2 , ε2 ), etc (figure 4.2 à gauche). En général, seul le niveau fondamental est acces-
sible aux températures habituelles. Mais il arrive parfois que l’on ait à prendre en
compte le premier niveau excité (jamais le deuxième dans la pratique).
Dans une molécule polyatomique, les niveaux d’énergie U0 (Rj=1 à p ), U1 (Rj=1 à p ),
U2 (Rj=1 à p ), etc sont fonctions de p distances internucléaires. Pour un niveau donné,
on représente les surfaces équipotentielles dans un espace à p dimensions dont les axes
4.2 Les degrés de liberté d’une molécule 131

portent les Rj . Dans tous les cas pratiques, seul le niveau fondamental U0 (Rj=1 à p ) est
à prendre en compte. Celui-ci présente un minimum ε0 correspondant à la configura-
tion d’équilibre. Le cas le plus simple est celui de la molécule triatomique linéaire :
deux distances R1 = R12 et R2 = R23 suffisent à la décrire et un graphe à deux
dimensions est possible (figure 4.2 à droite).

Fig. 4.2 – Niveaux d’énergie, surfaces équipotentielles

Pour l’étude du mouvement des noyaux, l’approximation consiste à rem-


placer dans H tous les termes faisant intervenir les positions et impulsions des élec-
trons par U0 (Rj=1 à p ) ou éventuellement par U1 (Rj=1 à p ) : les noyaux ne sont pas
sensibles aux mouvements instantanés des électrons mais seulement à leur répar-
tition moyenne dans l’espace. Le nuage d’électrons joue ainsi le rôle de champ de
potentiel pour les noyaux. Dans H ne subsistent alors que les positions et impulsions
des noyaux.
Une fois le problème résolu, on trouve en principe des niveaux d’énergie corres-
pondant aux mouvements des noyaux, c’est-à-dire aux mouvements de rotation de
la molécule et de vibration des noyaux au voisinage de leurs positions d’équilibre.
Moyennant ces approximations, et dans les cas où seul le niveau fondamental
électronique est accessible, les degrés de liberté électroniques sont séparables des
autres degrés de liberté internes (rotation et vibration du système de noyaux) :

= ω0 e−ε0 /kT
(élec) (élec)
q (int) (T ) = ωn q0 × q (rot,vib) avec q0

Ce n’est plus le cas lorsqu’il faut prendre en compte le premier niveau excité
électronique. Les niveaux d’énergie correspondant aux mouvements des noyaux vont
en principe dépendre du niveau électronique utilisé dans le calcul :

= ω1 e−ε1 /kT
(élec) (rot,vib) (élec) (rot,vib) (élec)
q (int) (T ) = ωn (q0 × q0 + q1 × q1 ) avec q1

Pour rendre les degrés de liberté électroniques séparables, on doit supposer que
les états rotovibrationnels sont les mêmes quel que soit l’état quantique du nuage
132 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

électronique (autrement dit que les puits de potentiel des courbes de la figure 4.2 à
gauche ont localement tous le même profil) :
(rot,vib) (rot,vib) (élec) (élec) (rot,vib)
q1 = q0 ⇒ q (int) (T ) = ωn (q0 + q1 ) q0

Remarque : les trois expressions de q (int) (T ) ci-dessus supposent que les degrés
de libertés rotationnels sont séparables des degrés de liberté nucléaires. On verra au
paragraphe 4.3.5 que ce n’est pas toujours le cas.

4.3 Les gaz parfaits de molécules diatomiques


4.3.1 Réduction du problème à deux corps
La molécule possède dans ce cas deux noyaux : sa géométrie est décrite par une
seule distance internucléaire, que l’on notera r. On exprimera donc les coordonnées
(x1 , y1 , z1 ) et (x2 , y2 , z2 ) des deux noyaux en fonction de r, et également en fonction
des coordonnées (x, y, z) du centre de masse puisqu’on sait que ces trois variables
sont indépendantes des autres. Pour les deux dernières variables qu’il nous manque,
il est tout naturel de prendre les deux angles θ et ϕ caractérisant l’orientation de
l’axe de la molécule. Une fois le changement de variables effectué, on trouve :
#1 $ #1 1 $
L= M (ẋ2 + ẏ 2 + ż 2 ) + m ṙ 2 + m r 2 (θ̇2 + ϕ̇2 sin2 θ) − U0 (r)
2 2 2
m1 m2
avec M = m1 + m2 (masse totale) et m = (masse réduite)
m1 + m2
Le premier terme entre accolades dans L est relatif au mouvement translatoire du
centre de masse affecté de la masse totale. Le deuxième est relatif aux mouvements
internes laissant le centre de masse fixe. Ces deux mouvements sont bien entendu
indépendants. Le changement de variables effectué est connu sous le nom de ”réduc-
tion du problème à deux corps” : le problème initial (deux particules en interaction)
est ramené à l’étude d’une particule de masse m dans un potentiel central autour
du centre de masse.
Le mouvement translatoire du centre de masse ayant déjà été étudié, on peut
maintenant travailler à centre de masse fixe, et écrire :
#1 $ #1 $
L(r, θ, ṙ, θ̇, ϕ̇) = m ṙ 2 − U0 (r) + m r 2 (θ̇2 + ϕ̇2 sin2 θ)
2 2
La première accolade est le lagrangien d’un oscillateur dans un champ central
U0 (r). La deuxième n’est pas tout-à-fait le lagrangien d’un rotateur libre : il prend
bien en compte les variations de θ et ϕ, mais il dépend aussi de la variable r. Les
mouvements de rotation et de vibration ne sont donc pas rigoureusement indépen-
dants. L’approximation du rotateur rigide consiste à considérer r constant lorsqu’on
étudie le mouvement de rotation. En posant r = r0 dans le terme correspondant à
la rotation, on obtient deux termes indépendants :

L(r, θ, ϕ, ṙ, θ̇, ϕ̇) = L(vib) (r, ṙ) + L(rot) (θ, θ̇, ϕ̇) ⇒ q (rot,vib) = q (vib) × q (rot)
4.3 Les gaz parfaits de molécules diatomiques 133

4.3.2 Mouvements de vibration


Développons U0 (r) au voisinage de la distance d’équilibre r0 :
1  1
U0 (r) = U0 (r0 ) + U0 (r0 ) (r − r0 ) + U0 (r0 ) (r − r0 )2 + U0 (r0 ) (r − r0 )3 + . . .
2 6
Le premier terme U0 (r0 ) est nul : le fond du puits de potentiel vaut ε0 et on
l’a pris en compte dans la fonction de partition électronique q (élec) . On posera donc
ici U0 (r0 ) = 0. Le deuxième terme U0 (r0 ) (r − r0 ) est nul également par définition
de r0 (position d’équilibre ⇒ U0 (r0 ) = 0). Dans l’approximation de l’oscillateur
harmonique, on ne conserve que le troisième terme :

2
1 m ω U0 (r0 )
L(vib) (r, ṙ) = m ṙ 2 − (r − r0 )2 avec ω =
2 2 m
En mécanique quantique, les niveaux d’énergie (non dégénérés) d’un oscillateur

harmonique sont donnés par εn = h ω (n+ 1/2), avec n entier positif ou nul. Sa fonction
de partition a été calculée au paragraphe 2.5.1 (θV est la température caractéristique
de vibration de la molécule) :

e−θV /2T 1 −
h ω
q (vib) (T ) = = avec θV =
1 − e−θV /T 2 sinh θ2TV k

On en déduit, pour un gaz parfait constitué de N molécules diatomiques, les


contributions des vibrations aux différentes grandeurs thermodynamiques.
 θV 
– Énergie libre : F (vib) (T, N) = −NkT ln q (vib) (T ) = NkT ln 2 sinh
2T
 
∂F (vib) θV θV θV 
– Entropie : S (vib) (T, N) = − = Nk coth − Nk ln 2 sinh
∂T N 2T 2T 2T
(vib)
  
∂F θV
– Potentiel chimique : μ(vib) (T ) = = kT ln 2 sinh
∂N T 2T
θV θV
– Énergie interne : E (vib) (T, N) = F (vib) + T S (vib) = Nk coth
2 2T
  θV  2
(vib) ∂E (vib) 2T
– Capacité thermique : CV (T, N) = = Nk θV
∂T N sinh 2T
(vib)
La courbe CV (T ) est représentée figure 4.3. On constate :
– qu’au dessus d’environ 2 θV , la capacité thermique est quasi constante. C’est
le domaine dit ”classique” où l’approximation sinh x ≈ x est possible. Les
principales grandeurs thermodynamiques deviennent :

(vib) T
E (vib) (T, N) ≈ NkT CV (T, N) ≈ Nk S (vib) (T, N) ≈ Nk + Nk ln
θV
– qu’en dessous de 0, 1 θV , la capacité thermique est très faible. C’est le domaine
où il est possible de négliger les populations des états excités. Pour les calculs,
il faut tout de même prendre en compte le premier niveau excité. On dira
qu’en dessous de 0, 1 θV , tous les oscillateurs sont dans leur état fondamental
134 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

sauf quelques uns se trouvant dans leur premier état excité. Par une série
d’approximations du premier ordre, on trouve :

θV
E (vib) (T, N) ≈ Nk + NkθV e−θV /T
2

(vib) θV2 −θV /T  θV  −θV /T


CV (T, N) ≈ Nk e S (vib) (T, N) ≈ Nk 1 + e
T2 T

Fig. 4.3 – Capacité thermique : contribution des vibrations

Dans le tableau ci-dessous, on donne quelques valeurs de θV et les fractions α de


molécules dans un état vibrationnel excité à 300 K et à 1 000 K[1] .
Pour le calcul de α(T ), on dit tout simplement que les atomes dans les états

excités ne sont pas dans l’état fondamental d’énergie h ω/2 = k θV /2 :

e−θV /2T 1 − e−θV /T −θV /2T


α(T ) = 1 − = 1 − e = e−θV /T
q (vib) (T ) e−θV /2T

Cette fraction α(T ) est tout à fait négligeable à 300 K (sauf pour les trois plus
lourds), mais l’est beaucoup moins, et même souvent pas du tout, à 1 000 K.
Vues les valeurs élevées de θV , le modèle simplifié des hautes températures (trai-
tement classique) est dans tous les cas insuffisant (sauf à la rigueur pour les plus
lourds Cl2 , Br2 , I2 à haute température).
Conclusion : Le traitement quantique est obligatoire. Dans ce traitement,
il arrivera souvent de supposer (soit parce que c’est justifié, soit parce qu’on cherche
uniquement un ordre de grandeur) que seul le niveau fondamental est peuplé.

moléc θV α300 K α1 000 K moléc θV α300 K α1 000 K


H2 6210 K 10−9 0, 002 N2 3340 K 10−5 0, 035
H D 5380 K 10−8 0, 005 CO 3070 K 10−5 0, 046
D2 4390 K 10−7 0, 012 NO 2690 K 10−4 0, 068
O2 2230 K 10−4 0, 108
H Cl 4140 K 10−6 0, 016 Cl2 810 K 0, 067 0, 445
H Br 3700 K 10−6 0, 025 Br2 470 K 0, 209 0, 625
HI 3200 K 10−5 0, 040 I2 310 K 0, 356 0, 733
1
D est le deutérium 2 H
4.3 Les gaz parfaits de molécules diatomiques 135

4.3.3 Mouvements de rotation


Le traitement quantique du rotateur rigide libre conduit à des niveaux d’énergie
εj et à des dégénérescences ωj donnés par :
h2
εj = j(j + 1) k θR et ωj = 2j + 1 avec θR =
8π 2 m r02 k
(θR est la température caractéristique de rotation)
Pour calculer la fonction de partition, on somme sur toutes les valeurs de j de 0 à
l’infini. Si la molécule est symétrique, le résultat doit être divisé par deux car les deux
noyaux constitutifs de la molécule sont alors indiscernables : deux configurations se
déduisant l’une de l’autre par permutation des deux noyaux (i.e. par une rotation
de π) représentent le même état. On introduit un facteur de symétrie σ et on écrit :

1

σ = 2 (molécule symétrique)
q (rot)
(T ) = (2j + 1) e−j(j+1) θR /T avec
σ j=1 σ = 1 (molécule asymétrique)

Σ1
On en déduit : F (rot) (T, N) = −NkT ln Σ0 E (rot) (T, N) = NkθR
Σ0
2 
θR Σ1 (rot) θR Σ2 Σ21 
S (rot) (T, N) = Nk + Nk ln Σ0 CV (T, N) = Nk −
T Σ0 T 2 Σ0 Σ20

1 n

avec Σn = j (j + 1)n (2j + 1) e−j(j+1) θR /T (n = 0, 1, 2)
σ j=0
Ces sommes n’étant pas calculables analytiquement, on a recours à des méthodes
(rot)
numériques. On donne figure 4.4 l’allure de la courbe CV (T, N) obtenue.

Fig. 4.4 – Capacité thermique : contribution de la rotation

À haute température, l’écart moyen entre deux niveaux d’énergie devient


extrêmement faible par rapport à l’énergie moyenne. On peut alors remplacer l’indice
j par une variable x continue et les sommes discrètes par des intégrales. On trouve :
T 1 T 1 T2 2 T3
q (rot)
(T ) ≈ Σ0 ≈ Σ1 ≈ 2
Σ2 ≈ 3
σ θR σ θR σ θR σ θR
(rot) T
E (rot) (T, N) ≈ NkT CV (T, N) ≈ Nk S (rot) (T, N) ≈ Nk + Nk ln
σ θR
136 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Remarque : en utilisant la définition de θR , q (rot) (T ) s’écrit :

2π m kT 4π r02 A 4π r02
q (rot) (T ) ≈ = avec A =
h2 σ Λ2 σ
C’est la fonction de partition d’une particule de masse m se déplaçant librement
sur une sphère ou demi-sphère de rayon r0 . Les résultats trouvés sont ceux d’un
gaz parfait bidimensionnel. L’analogie avec le gaz parfait bidimensionnel permet
d’estimer les vitesses moyennes de rotation. Les relations 3.7 donnent :
 
π kT v̄ kT k
v̄ = ⇒ ω̄ = = = π θR T
2m 2π r0 8π m r02 h

Dans le tableau ci-dessous, ces vitesses ont été calculées à 300 K (v̄ en m/s et ω̄
en 1012 tours par seconde). La masse m utilisée est la masse réduite de la molécule.

moléc θR v̄ ω̄ moléc θR v̄ ω̄
H2 88, 60 K 2798 6, 02 N2 2, 89 K 761 1, 09
H D 66, 45 K 2427 5, 22 CO 2, 78 K 750 1, 07
D2 44, 30 K 2009 4, 26 NO 2, 46 K 720 1, 00
O2 2, 09 K 703 0, 93
H Cl 15, 30 K 2003 2, 50 Cl2 0, 172 K 336 0, 27
H Br 12, 30 K 1993 2, 24 Br2 0, 058 K 214 0, 15
HI 9, 50 K 2531 1, 97 I2 0, 027 K 183 0, 11
(rot)
Au vu de la courbe CV (T, N), le traitement classique est correct pour les
températures supérieures à 2 θR . Étant données les valeurs de θR ci-dessus, le trai-
tement classique est suffisant dans la plupart des cas. Mais attention à l’hy-
drogène : le modèle classique est tout juste valable à l’ambiante pour H2 ; pour
les autres molécules hydrogénées, le traitement quantique n’est nécessaire qu’à très
basse température.

4.3.4 Propriétés thermodynamiques


Le tableau ci-dessous rassemble les différents résultats relatifs aux molécules
diatomiques dans les conditions les plus courantes :
– traitement classique des mouvements de translation et de rotation ;
– traitement quantique des mouvements de vibration ;
– pour les électrons, prise en compte uniquement du niveau fondamental (origine
des énergies sur l’état fondamental nucléaire : εn = 0).
Remarques :
– Comme pV = NkT , le potentiel chimique s’écrit toujours :

p  2p σθ Λ3 (T ) θV 
0 R
μ = μ0T + kT ln avec ici μ0T = ε0 + kT ln sinh
p0 ωn ω0 kT 2 2T
– Pour certaines molécules (N O et O2 par exemple), il faut prendre en compte
le premier niveau électronique excité, et la dernière colonne du tableau est
modifiée.
4.3 Les gaz parfaits de molécules diatomiques 137

Il faut alors multiplier Q par (1+ω e−Δε/kT )N et ajouter (on a posé Δε = ε1 −ε0
et ω = ω1 /ω0 ) :
  F ω e−Δε/kT E
−kT ln 1 + ω e−Δε/kT à Δε à
N 1+ωe −Δε/kT N

  Δε ω e−Δε/kT CV
−kT ln 1 + ω e−Δε/kT à μ  2 à
kT 1 + ω e−Δε/kT Nk

 −Δε/kT
 Δε ω e−Δε/kT S
ln 1 + ω e + à
kT 1 + ω e −Δε/kT Nk

vibrations électrons
θV
translation rotation (uV = 2T ) et noyaux

1  V N  T N 1  N
Q = × ×  N × ωn ω0 e−ε0 /kT
N ! Λ3 σθR 2 sinh uV

F N Λ3 σθR  
= −kT + kT ln + kT ln + kT ln 2 sinh uV + ε0 − kT ln(ωn ω0 )
N V T

E 3 θV
= kT + kT + k coth uV + ε0
N 2 2

N Λ3 σθR  
μ = kT ln + kT ln + kT ln 2 sinh uV + ε0 − kT ln(ωn ω0 )
V T

CV 3  uV 2
= + 1 + + 0
Nk 2 sinh uV

S 5 N Λ3 T uV coth
 uV 
= + ln + 1 + ln + + ln(ωn ω0 )
Nk 2 V σθR − ln 2 sinh uV

4.3.5 Molécules homonucléaires : effets quantiques


Le raisonnement est basé sur l’étude de la symétrie de la fonction d’onde de la
molécule, et nous allons montrer que, aux températures inférieures à θR , les degrés
de liberté nucléaires et rotationnels ne sont plus séparables. Pour H2 et D2 , ces effets
d’origine purement quantique sont détectables à des températures faciles à atteindre
(sous azote liquide par exemple). C’est pourquoi nous les avons choisis pour illustrer
ce paragraphe.[2]
2
Des restrictions similaires mais plus complexes apparaissent également dans les molécules
polyatomiques, particulièrement dans les composés isotopiques CH4 , CDH3 , CD2 H2 , CD3 H, CD4 .
138 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

On supposera que les conditions expérimentales (température et densité) sont


telles que le mouvement de translation peut être traité classiquement, et telles que
les molécules peuvent être considérées comme indépendantes.
Une molécule H2 ou D2 est constituée de deux noyaux identiques et de deux
électrons. Chaque noyau est constitué d’un proton pour H2 , et d’un proton et d’un
neutron pour D2 . Protons, neutrons et électrons sont des fermions. La fonction
d’onde décrivant l’état d’une molécule est donc nécessairement antisymétrique vis
à vis de la permutation des deux électrons, vis à vis de la permutation des deux
protons, et éventuellement vis à vis de la permutation des deux neutrons.
C’est la symétrie vis à vis de la permutation des deux noyaux qui nous intéresse.
C’est-à-dire, pour la molécule D2 , la permutation simultanée des deux protons et
des deux neutrons. On retiendra que :
– la fonction d’onde décrivant l’état de la molécule D2 doit être symétrique vis-
à-vis de la permutation des deux noyaux, car ils possèdent chacun un nombre
pair de nucléons (ce sont deux bosons) ;
– la fonction d’onde décrivant l’état de la molécule H2 doit être antisymétrique
vis-à-vis de la permutation des deux noyaux, car ceux-ci possèdent chacun un
nombre impair de nucléons (ce sont deux fermions).
Parmi tous les mouvements possibles de la molécule (translation, vibration, ro-
tation), seule la rotation autorise la permutation des deux noyaux. Lorsqu’on écrit
la fonction d’onde comme un produit Ψ = Ψ(transl) × Ψ(vib) × Ψ(élec) × Ψ(rot,nucl) ,
on suppose que le produit Ψ(transl) × Ψ(vib) × Ψ(élec) , puisque non affectées par la
permutation des deux noyaux, est symétrique vis-à-vis de cette permutation.
La fonction d’onde totale Ψ a donc la symétrie de Ψ(rot,nucl) ; Ψ(rot,nucl) doit donc
être symétrique pour D2 , antisymétrique pour H2 vis-à-vis de la permutation. Plus
généralement, Ψ(rot,nucl) doit être symétrique si les noyaux sont des bosons (ici D+ ),
antisymétrique si ce sont des fermions (ici H+ ).
Conclusion :
On peut toujours écrire Ψ(rot,nucl) = Ψ(nucl) × Ψ(rot) puis q (rot,nucl) = q (nucl) × q (rot) ,
mais :
– si les noyaux sont des bosons (ici D+ ), les fonctions d’onde Ψ(nucl) et Ψ(rot)
doivent être, soit toutes deux symétriques, soit toutes deux antisymétriques
vis-à-vis de la permutation des deux noyaux ; on doit donc écrire :
(rot,nucl) (nucl,sym) (rot,sym) (nucl,antisym) (rot,antisym)
qD2 = qD2 × qD2 + qD2 × qD2

– si les noyaux sont des fermions (ici H+ ), les fonctions Ψ(nucl) et Ψ(rot) doivent
être, l’une symétrique, l’autre antisymétrique vis-à-vis de la permutation des
deux noyaux, et donc :
(rot,nucl) (nucl,antisym) (rot,sym) (nucl,sym) (rot,antisym)
qH2 = qH2 × qH2 + qH2 × qH2
Pour les noyaux, seuls le niveau fondamental est pris en compte. Si on place
l’origine des énergies sur ce niveau, les fonctions de partition nucléaires sont réduites
aux nombres de complexions. On supposera que la dégénérescence ωn du premier
niveau nucléaire est uniquement due au spin du noyau considéré.
Le noyau H+ est un fermion de spin 1/2 (c’est un proton), alors que le noyau
D+ est un boson de spin 1 (système de deux fermions différents de spin 1/2). La
4.3 Les gaz parfaits de molécules diatomiques 139

dégénérescence ωn = 2sn + 1 est donc égale à 2 pour le noyau H+ , et égale à 3 pour


le noyau D+ .
Le niveau fondamental du système constitué de deux noyaux identiques est ωn2
fois dégénéré. On sait (voir ΩB et ΩF au paragraphe 2.2.2 avec N = 2) que, parmi
les ωn2 états, ωn (ωn + 1)/2 sont symétriques, et ωn (ωn − 1)/2 sont antisymétriques
(pour D2 : respectivement 6 et 3, pour H2 : respectivement 3 et 1). On a donc :
(rot,nucl) (rot,sym) (rot,antisym) (rot,nucl) (rot,sym) (rot,antisym)
qD2 = 6 qD2 + 3 qD2 qH2 = qH2 + 3 qH2

Pour la rotation, il faut aller un peu plus loin dans la théorie quantique du
rotateur rigide.
On l’a vu, les niveaux d’énergie sont de la forme εj = j(j+1) kθR avec ωj = 2j+1.
Ce qu’il faut savoir en plus ici, c’est que chaque fonction d’onde est symétrique si j
est pair, et antisymétrique si j est impair. Ce qui donne :
D2 D2
(2j + 1) e−j(j+1)θR /T
(2j + 1) e−j(j+1)θR /T
(rot,nucl)
qD2 =6 +3
j pair j impair

H2 H2
(2j + 1) e−j(j+1)θR /T
(2j + 1) e−j(j+1)θR /T
(rot,nucl)
qH2 = +3
j pair j impair

Le para-hydrogène, noté p-H2 , est une molécule H2 dans un état rotationnel pair.
L’ortho-hydrogène, noté o-H2 , est une molécule H2 dans un état rotationnel impair.
À température infinie, tous les états j sont équiprobables : il y a trois fois plus
d’ortho-hydrogène que de para-hydrogène.
À T = 0 K, l’état fondamental fait partie de la première somme, il n’y a plus en
théorie (en pratique, voir ci-dessous) que du para-hydrogène.
Entre 10 K et 300 K, le mouvement de translation peut être traité classiquement,
et les degrés de liberté vibrationnels et électroniques ne sont pas excités. Ce sont les
conditions idéales : la courbe CV (T ) fera apparaître des variations dues uniquement
au mouvement de rotation des molécules. On donne figure 4.5 les résultats des calculs
numériques comparés aux résultats expérimentaux.
– La courbe en pointillé est celle trouvée au paragraphe précédent.
– p-H2 est la courbe qu’on obtiendrait avec du para-hydrogène pur.
– o-H2 est la courbe qu’on obtiendrait avec de l’ortho-hydrogène pur.
– e-H2 est la courbe d’équilibre théorique.
– m-H2 est la courbe qu’on trouve expérimentalement.
La courbe théorique e-H2 et la courbe expérimentale m-H2 sont radicalement
différentes. Il y a donc contradiction (apparente) entre théorie et expérience.
Denisson trouva l’explication en constatant que la courbe expérimentale cor-
respond parfaitement à celle qu’on calcule en ”gelant” la composition para-ortho
haute température (25 %, 75 %), c’est-à-dire en supposant que la composition reste
constante lorsqu’on abaisse la température. Il en déduisit que la réaction o → p est
extrêmement lente, et qu’on a affaire à un mélange métastable de composition (25 %,
75 %) quelle que soit T . Bonhœffer et Harteck trouvèrent le bon catalyseur de la ré-
action o → p (charbon actif) et ont pu ainsi obtenir une courbe expérimentale en
parfait accord avec la courbe théorique e-H2 .
140 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Fig. 4.5 – Capacité thermique : effets quantiques

Cette étude est essentielle pour le stockage de l’hydrogène liquide : la réaction


o → p étant exothermique, il est impératif que les cuves ne contiennent que du para-
hydrogène.

4.4 Les gaz parfaits de molécules polyatomiques


4.4.1 Identification des degrés de liberté
La molécule est maintenant constituée de n noyaux (n ≥ 3). On a vu au para-
graphe 4.2.2 qu’on pouvait étudier le mouvement des noyaux en considérant qu’ils
étaient soumis à un champ de potentiel U0 (Rk=1 à p ) créé par le cortège électronique,
p étant le nombre nécessaire et suffisant de distances internucléaires pour décrire la
configuration de la molécule.
Question : quel est le nombre de distances internucléaires nécessaire et suffisant
pour décrire la configuration de la molécule ?
On a au total 3n degrés de liberté. Pour connaître le nombre p, on retire à
3n le nombre de variables nécessaires pour définir la position et l’orientation de la
molécule dans l’espace (on sait que U0 est indépendant de cette position et de cette
orientation).
La position de la molécule est définie par les trois coordonnées de son centre de
masse. Ce sont les trois degrés de liberté de translation.
Quant à son orientation, elle est définie en général par trois variables angulaires :
il faut deux angles pour définir l’orientation d’un axe quelconque de la molécule, et
un troisième pour définir l’orientation de la molécule autour de cet axe. On a donc
en général trois degrés de liberté de rotation. Ce nombre peut descendre à deux si
la molécule est linéaire dans sa configuration d’équilibre. Bilan : p = 3n − 6 degrés
de liberté de vibration (ou 3n − 5 si la molécule est linéaire).
4.4 Les gaz parfaits de molécules polyatomiques 141

4.4.2 Degrés de liberté de rotation


On se place dans l’approximation du rotateur rigide libre, c’est-à-dire que les
distances internucléaires sont supposées fixées à leurs valeurs d’équilibre.
Si la molécule est linéaire (C O2 , C2 H2 , N2 O, . . .), la démarche est identique
à celle utilisée pour la molécule diatomique. On remplace simplement m r02 par le
moment d’inertie I de la molécule par rapport à son centre de masse G. Les molécules
polyatomiques étant plus lourdes, le modèle classique est ici toujours suffisant :

n h2
I= mi ρ2i et θR = 2
i=1  8π Ik
T σ = 2 (molécule symétrique)
q (rot) (T ) = avec
σθR σ = 1 (molécule asymétrique)
Si la molécule n’est pas linéaire, le calcul de ses moments d’inertie prin-
cipaux, notés (IA , IB , IC ), est nécessaire pour pouvoir remplacer le mouvement de
rotation à trois degrés de liberté par trois mouvements de rotation indépendants à
un seul degré de liberté chacun. Le problème quantique est en général trop compli-
qué pour pouvoir calculer les niveaux d’énergie de rotation, d’autant plus que l’étude
des symétries est encore plus complexe que celle exposée au paragraphe 4.3.5.
Heureusement, mis à part CH4 en dessous de 80 K, le traitement classique est
toujours suffisant. Il conduit à :
√   
π T T T
q (rot)
(T ) =
σ θA θB θC

h2 h2 h2
avec θA = θB = θC =
8π 2 IA k 8π 2 IB k 8π 2 IC k
Le facteur de symétrie σ tient compte de l’indiscernabilité des noyaux identiques.
Pour calculer σ, on compte le nombre d’orientations de la molécule conduisant,
indiscernablement, à la même configuration.
Exemples : σ = 12 pour C H4 (tétraèdre régulier), σ = 12 pour C6 H6 (hexagone
régulier), σ = 4 pour C2 H4 (molécule plane ayant toutes les symétries du rectangle),
σ = 3 pour N H3 (pyramide aplatie à base triangulaire équilatérale), σ = 2 pour
H2 O (molécule plane ne possédant qu’un seul axe de symétrie).

4.4.3 Degrés de liberté de vibration


Pour résoudre le problème mécanique, le raisonnement est tout à fait similaire à
celui utilisé au paragraphe 2.5.3 pour décrire les vibrations dans un cristal.
On écrit l’énergie potentielle et les équations du mouvement en fonction des
déplacements des noyaux :

1 βj
n n 3 3
βj ∂2U
U =− Kαi xα i xβ j avec Kαi = − (4.5)
2 α=1 i=1 j=1
∂xα i ∂xβ j équil
β=1

∂U βjn 3
mα ẍαi = Fαi = − = Kαi xβj (α = 1 à n et i = 1 à 3) (4.6)
∂xαi β=1 j=1
142 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Il est également possible, en utilisant l’invariance par translation, de considérer le


système comme un ensemble de masses ponctuelles liées entre elles par des ressorts :
1 β 2 1 β β 2
n n
U= Cα δαβ = Cα eα · (rα − rβ ) (4.7)
4 α=1 β=α 4 α=1 β=α

On peut remarquer que l’énergie potentielle n’est fonction que des distances
relatives des noyaux entre eux. Il n’est donc pas nécessaire de rechercher d’éventuelles
conditions d’invariance par rotation.
Ce n’est plus le cas si la molécule est plane ou linéaire à l’équilibre : l’énergie
potentielle 4.7 ne rend pas compte des déplacements perpendiculaires au plan ou la
ligne de la molécule. Ces déplacements peuvent être de type translation ou rotation
mais il peut y avoir également des modes de distortion. Pour rendre compte de
βj
ces distortions, on doit ajouter des termes de type Kαi xα i xβ j (avec xα i et xβ j
perpendiculaires au plan ou à la ligne de la molécule) et leur appliquer les conditions
d’invariance par translation et rotation.
Les solutions particulières recherchées ici sont de la forme xαi = uαi e−iωt . On
remplace dans 4.6 et on obtient un système d’équations linéaires de la forme :

n
3
2
ω uαi − Δβj
αi uβj = 0 (4.8)
β=1 j=1

En écrivant que le déterminant de ce système doit être nul, on obtient les 3n


pulsations propres du système. Parmi ces 3n valeurs propres, six sont nulles (ou cinq
si la molécule est linéaire). Elles correspondent aux déplacements de type translation
et rotation. Les p = 3n − 6 ou 3n − 5 non nulles définissent les modes propres de
vibration.
Connaissant les p pulsations propres, on peut écrire la fonction de partition
q (vib)
(T ) comme le produit de fonctions de partition d’oscillateurs linéaires :
p
 1 θV,i −
h ωi
q (vib) (T ) = avec uV,i = et θV,i =
i=1
2 sinh uV,i 2T k
Quelques valeurs numériques :
– CO2 (p = 3n − 5 = 4) : θV,i = 954 K, 954 K, 1890 K, 3360 K ;
– N2 O (p = 3n − 5 = 4) : θV,i = 850 K, 850 K, 1840 K, 3200 K ;
– BF3 (p = 3n − 6 = 6) : θV,i = 631 K, 631 K, 995 K, 1270 K, 2070 K, 2070 K.

4.4.4 Propriétés thermodynamiques


On donne les résultats relatifs aux conditions les plus courantes :
– traitement classique pour la translation et la rotation ;
– traitement quantique des mouvements de vibration ;
– prise en compte uniquement du niveau fondamental électronique.
Par rapport au tableau relatif aux molécules diatomiques (paragraphe 4.3.4), il
faut modifier la colonne ”vibration” (avec p = 3n − 5 ou 3n − 6) :
p p
F (vib)   E (vib) θV,i
= kT ln 2 sinh uV,i =k coth uV,i
N i=1
N i=1
2
4.5 Équilibres chimiques entre gaz parfaits 143

p
  CV  uV,i 2
(vib) p
μ (vib)
= kT ln 2 sinh uV,i =
i=1
Nk i=1
sinh uV,i

S (vib)  
p

= uV,i coth uV,i − ln 2 sinh uV,i
Nk i=1

Pour les molécules non linéaires, on modifie également la colonne ”rotation” :

F (rot)  σ θ θ θ  E (rot) 3
(rot)
CV 3
A B C
= kT ln √ = kT =
N π T T T N 2 Nk 2

 σ θ θ θ  S (rot) 3  σ 
θA

θB

θC 
A B C
μ (rot)
= kT ln √ = + ln √
π T T T Nk 2 π T T T
Remarque : certaines molécules (essentiellement hydrocarbures) possèdent un
ou plusieurs degrés de liberté appelés mode de torsion. Dans le cas de l’éthane
H3 C−CH3 par exemple, les deux groupes méthyles peuvent tourner l’un par rap-
port à l’autre, sans déformation, autour de la liaison C−C. La courbe CV (T ) montre
que ce mouvement correspond à une oscillation à basse température de faible fré-
quence (θV ≈ 350 K), et à une rotation interne libre à haute température. Aux
températures intermédiaires, ce n’est ni une vibration ni une rotation libre : c’est
toujours une rotation, mais elle est entravée par une énergie potentielle fonction
d’une coordonnée angulaire décrivant l’orientation d’un groupe méthyle par rapport
à l’autre. La rotation nécessite le passage de barrières de potentiels (≈ 22 zJ) pour
passer d’une configuration stable à une autre.

4.5 Équilibres chimiques entre gaz parfaits


4.5.1 Thermodynamique des équilibres chimiques
Soit une réaction chimique : νA A + νB B + . . . −→ νX X + νY Y + . . .

Les molécules A, B, . . . sont les réactifs, et les molécules X, Y, . . . sont les


produits.
On dira que la réaction est totale si elle évolue jusqu’à disparition complète de
l’un des réactifs, si on attend suffisamment longtemps. Si la composition du système
correspond à la stœchiométrie, il y a en fin de réaction disparition complète de tous
les réactifs.
Il existe des réactions qui, même après un temps très long, ne conduisent pas à
la disparition complète des réactifs. Il s’établit un équilibre dont la composition en
réactifs et produits est entièrement déterminée par les conditions d’expérience (la
température et la pression). C’est ce qu’on appelle un équilibre chimique et on le
note :
νA A + νB B + . . . 
 νX X + νY Y + . . .

La composition d’équilibre est indépendante de la composition initiale.


144 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Conséquence : si on modifie les conditions expérimentales, le système trouve une


nouvelle composition d’équilibre ; si on revient aux anciennes conditions expérimen-
tales, le système revient à l’ancien équilibre.
Soit par exemple un système constitué de M unités formulaires νA A + νB B + . . .
Pour ce système, l’avancement de la réaction est nul. Supposons qu’à un instant
donné, m unités νA A + νB B + . . . ce sont transformées en m unités νX X + νY Y + . . .
Pour des conditions expérimentales données, l’état du système, si la stœchiomé-
trie est respectée, est défini entièrement par M et m.
À température et pression constantes par exemple, on peut écrire :

NA = νA (M − m) NB = νB (M − m) ... NX = νX m NY = νY m ...

Et donc :
dG = −S dT + V dp + μA dNA + μB dNB + . . . + μX dNX + μY dNY + . . .
= −S dT + V dp + (μA νA + μB νB + . . .) dM
+(μX νX + μY νY + . . . − μA νA − μB νB − . . .) dm

Lors d’un processus infinitésimal isotherme (δT = 0), isobare (δp = 0) dans une
enceinte fermé (δM = 0), le deuxième principe dit que, à l’équilibre, l’enthalpie libre
du système est minimale vis-à-vis des modifications infinitésimales de la composition.
On doit donc avoir :

δG = (μX νX + μY νY + . . . − μA νA − μB νB − . . .)δm = 0

On suppose que durant ce processus infinitésimal, les potentiels chimiques n’ont


pas varié. D’où la condition d’équilibre :

Δμ = 0 avec Δμ = μX νX + μY νY + . . . − μA νA − μB νB − . . .

Dans un gaz parfait, les potentiels chimiques s’écrivent sous la forme :


pA pB
μA = μ0T(A) + kT ln μB = μ0T(B) + kT ln ...
p0 p0
pX pY
μX = μ0T(X) + kT ln μY = μ0T(Y) + kT ln ...
p0 p0
où pA , pB . . . pX , pY . . . sont les pressions partielles relatives à chacun des consti-
tuants. Les potentiels chimiques standards μ0T(A) , etc sont donnés paragraphe 3.3.1.
En remplaçant dans la condition d’équilibre Δμ = 0, on trouve :
0 0 0 0
(pX /p0 )νX (pY /p0 )νY . . . νA μT(A) + νB μT(B) + . . . − νX μT(X) − νY μT(Y) − . . .
= exp
(pA /p0 )νA (pB /p0 )νB . . . kT
Le terme de droite est une fonction de T caractéristique de l’équilibre étudié.
C’est par définition la constante d’équilibre KP (T ).

(pX /p0 )νX (pY /p0 )νY . . .


Condition d’équilibre équivalente à Δμ = 0 : = KP (T )
(pA /p0 )νA (pB /p0 )νB . . .
4.5 Équilibres chimiques entre gaz parfaits 145

D’autres constantes d’équilibre peuvent dans certaines conditions être plus pra-
tiques d’emploi. Pour un gaz parfait par exemple, on peut, en utilisant les relations
pX = ρX kT , etc., travailler avec les concentrations volumiques (ici en molécules par
unité de volume). On définit alors la constante d’équilibre :
 p νX +νY +...−νA −νB −... ρνXX ρνYY . . .
0
KC (T ) = KP (T ) Equilibre : = KC (T )
kT ρνAA ρνBB . . .

Attention : KP est une grandeur sans dimension mais pas KC (c’est un volume
à la puissance νA + νB + . . . − νX − νY ).

4.5.2 Statistique des équilibres chimiques entre gaz parfaits


L’objectif est de calculer les constantes d’équilibre entre gaz parfaits en fonction
de leurs propriétés microscopiques.
Soit un gaz parfait constitué de NA molécules A, NB molécules B . . . en équilibre
avec NX molécules X, NY molécules Y . . . selon la relation d’équilibre :

νA A + νB B + . . . 
 νX X + νY Y + . . .

Le système est constitué de sous-systèmes macroscopiques, donc discernables. Sa


fonction de partition peut s’écrire comme le produit de fonctions de partition :

qA (T, V )NA qB (T, V )NB qX (T, V )NX qY (T, V )NY


Q(T, V, NA , NB . . . NX , NY . . .) = ...
NA ! NB ! NX ! NY !

De l’expression des potentiels chimiques, on exprime NA en fonction de qA :

∂ ln Q NA NA qA μA /kT
μA = −kT = kT ln ⇒ ρA = = e
∂NA qA V V

De même pour les autres constituants :

qA μA /kT qB μB /kT qX μX /kT qY μY /kT


ρA = e ρB = e ... ρX = e ρY = e ...
V V V V

Que l’on remplace dans KC (T ) :

ρνXX ρνYY . . . (qX /V )νX (qY /V )νY . . . Δμ/kT


KC (T ) = νA νB = e
ρA ρB . . . (qA /V )νA (qB /V )νB . . .

la condition d’équilibre Δμ = μX νX + μY νY + . . . − μA νA − μB νB − . . . = 0 donne :

(qX /V )νX (qY /V )νY . . .


KC (T ) =
(qA /V )νA (qB /V )νB . . .
146 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

4.5.3 Exemples d’équilibres chimiques


Exemple 1 : Ionisation de l’atome d’hydrogène
 H+ + e− .
On considère ici l’équilibre : H 

Le but est de calculer le taux d’ionisation, c’est-à-dire la proportion α de protons


H ou d’électrons e− , en fonction de la température. Si partant de N atomes, n sont
+

ionisés, le nombre total de particules vaut N +n, dont n sont des électrons, n sont des
protons, et N − n sont des atomes. Le taux d’ionisation est par définition α = n/N.
Les concentrations volumiques s’écrivent :
n N −n N
ρH+ = ρe− = = α ρ0 ρH = = (1 − α) ρ0 avec ρ0 =
V V V
ρH+ ρe− α2
On en déduit KC (T ) = = ρ0 et donc :
ρH 1−α

KC (T )  4ρ0  (qH+ /V ) (qe− /V )
α(T, ρ0 ) = 1+ −1 avec KC (T ) =
2ρ0 KC (T ) (qH /V )

Chacune des fonctions de partition apparaissant dans KC (T ) est le produit de


deux fonctions de partition : l’une tenant compte des degrés de liberté de translation
(V /Λ3), l’autre tenant compte des degrés de liberté internes. Les degrés de liberté
de translation seront traités classiquement, même pour l’électron (l’ionisation n’est
détectable qu’au dessus de 10 000 K).

qH  2π (m + m ) kT 3/2
= 2ωp e−ε0 /kT
p e
– Pour l’atome H :
V h2
q +  2π m kT 3/2
p
– Pour le proton : H = ωp 2
V h
qe−  2π m kT 3/2
e
– pour l’électron : =2 2
V h
mp est la masse du proton, me est la masse de l’électron. Les facteurs 2 sont
les contributions du spin de l’électron (s = 1/2 ⇒ ωe = 2s + 1 = 2). La fonction de
partition interne du proton est plus complexe, mais elle disparaît dans l’expression de
KC (T ). Elle se réduit à une dégénérescence ωp du niveau fondamental d’énergie nulle
(choix d’une origine des énergies) qui seul est à prendre en compte. Pour l’atome
H, seul le niveau fondamental électronique (ε0 ≈ −2, 180 aJ) est pris en compte.
Les états excités sont considérés comme des étapes intermédiaires du processus de
dissociation.
eε0 /kT h
Ce qui donne finalement : KC (T ) = 3 avec Λ(T ) = √
Λ (T ) 2π m kT
mp me
m est la masse réduite du système proton-électron : m = ≈ me .[3]
 m p + m e
1 + 4ρ0 Λ3 (T ) e−ε0 /kT − 1
Et pour α : α(T, ρ0 ) =
2ρ0 Λ3 (T ) e−ε0 /kT
3
me ≈ 0, 911 10−30 kg  mp ≈ 1, 673 10−27 kg
4.5 Équilibres chimiques entre gaz parfaits 147

Comme le gaz est supposé parfait, on a ρ0 Λ3 (T )  1 pour tout T . Mais attention,


ce n’est pas le cas de ρ0 Λ3 (T ) e−ε0 /kT : ce n’est valable qu’à très haute température.
Ci-dessous les fractions α(T ) d’atomes ionisés calculées à différentes tempéra-
tures pour une densité ρ0 = 0, 01 mol/L. On peut considérer que l’ionisation est
quasiment absente en dessous de 10 000 K, et qu’elle est quasiment complète au-
dessus de 50 000 K.
T (K) 0 5000 10000 15000 20000 25000 30000 40000 50000 ∞
α 0, 000 10−6 0, 007 0, 131 0, 472 0, 785 0, 921 0, 984 0, 995 1, 000

Exemple 2 : Dissociation de la molécule d’hydrogène


 2 H.
On considère maintenant l’équilibre : H2 

Pour observer ce phénomène, il faut également travailler à haute température,


mais mais pas trop haute de façon à négliger l’ionisation (T < 10000 K). Dans cette
gamme de température, la rotation de la molécule peut être traitée classiquement
(θR = 85, 4 K), mais la vibration doit être traitée quantiquement (θV = 6210 K). Pour
les états électroniques, nous ne prendrons en compte que les niveaux fondamentaux
de l’atome (ε1 = 0, ω1 = 2) et de la molécule (ε2 = −0, 7085 aJ, ω2 = 1).
Comme dans l’exemple précédent, on considère N molécules dont n sont disso-
ciées : le gaz est donc composé de N − n molécules et de 2n atomes, ce qui fait en
tout N + n particules.
n
Le taux de dissociation est défini par α = .
N
Les concentrations volumiques s’écrivent :
2n N −n N
ρH = = 2α ρ0 et ρH2 = = (1 − α) ρ0 avec ρ0 =
V V V
ρ2H 4 α2
Ce qui donne KC = = ρ0 et donc :
ρH2 1−α

KC (T )  16ρ0  (qH /V )2
α= 1+ −1 avec KC (T ) =
8ρ0 KC (T ) qH2 /V

Les fonctions de partition valent :

qH  2π m kT 3/2 qH2  4π m kT 3/2 T e−ε2 /kT


H H
=2 et =
V h2 V h2 2θR 2 sinh( θV )
2T

On trouve numériquement, avec ρ0 = 0, 01 mol/L :


√  
KC (T ) ≈ 952, 42 T e−51691/T − e−57901/T

Ce qui donne pour α les valeurs ci-dessous. La dissociation est quasi inexistante
en dessous de 2000 K, et quasi complète au dessus de 10000 K.
T (K) 0 1000 2000 3000 4000 5000 10000 ∞
α 0, 0000 10−9 0, 0014 0, 1034 0, 6052 0, 9297 0, 9995 1, 0000
148 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Exemple 3 : Équilibre isotopique


On considère pour terminer l’équilibre : H2 + D2 
 2HD.

Pour la plupart des éléments, les effets isotopiques sont très difficiles à mettre en
évidence. L’hydrogène est encore une fois particulier : la présence d’un neutron dans
le deutéron (le noyau du deutérium D) rend sa masse deux fois plus importante que
celle du proton, noyau de l’hydrogène habituel. On notera m la masse commune (à
0,2 % près) du proton et du neutron (m ≈ 1, 674 10−27 kg).
Pour l’hydrogène, les effets isotopiques sont détectables à l’ambiante. De façon à
ce que ni dissociation, ni ionisation ne soient à envisager, on travaillera à des tempé-
ratures inférieures à 2000 K. De même, de façon à traiter la rotation classiquement,
on travaillera à des températures supérieures à 150 K.
Pour le calcul de la constante d’équilibre, on sépare les diverses contributions :
(qHD /V )2 /V )2 (qHD )2 (qHD )2
(transl) (rot) (vib)
(q
KC (T ) = = (transl)HD × ×
(qHH /V )(qDD /V ) (transl) (rot) (rot)
(qHH /V )(qDD /V ) qHH qDD
(vib) (vib)
qHH qDD
Les degrés de liberté électroniques et nucléaires ont été omis : ils sont identiques
dans les deux membres de l’équation d’équilibre, puisque le niveau électronique
fondamental (le seul pris en compte) est le même quelle que soit la molécule (les
interactions sont électrostatiques : elles ne dépendent pas de la masse des particules
concernées).
Les contributions des degrés de liberté de translation et de rotation sont indé-
pendantes de la température :
Translation :
(transl)
qHH  4π m kT 2 (transl)
qHD  6π m kT 2 (transl)
qDD  8π m kT 2
= = =
V h2 V h2 V h2
Et donc :
/V )2
(transl)
(qHD 27
(transl)
KC = = √ ≈ 1, 193
(transl)
(qHH /V
(transl)
)(qDD /V ) 16 2
Rotation (pour les températures caractéristiques, voir paragraphe 4.3.3) :
(rot) T T (rot) T T (rot) T T
qHH = = qHD = = qDD = =
2θR
HH 177, 20 HD
θR 66, 45 2θR
DD 88, 60
Et donc :
(qHD /V )2
(rot)
(rot) 32
KC = = ≈ 3, 556
(rot) (rot)
qHH qDD 9
On notera que ces deux contributions sont supérieures à 1 : elles sont favorables à
la formation de molécules HD. À noter également que sans les facteurs de symétrie,
la contribution des degrés de liberté de rotation√serait 4 fois moins importante.
(transl) (rot)
On multiplie maintenant KC ×KC = 3 2 par la contribution des degrés de
liberté de vibration (pour les températures caractéristiques, voir paragraphe 4.3.2) :
HH DD
√ sinh θ2T
V θV
sinh 2T
KC (T ) = 3 2  HD 2
(4.9)
θV
sinh 2T
4.6 Réaction chimique dans un gaz parfait 149


Sachant que les températures caractéristiques de vibration varient en 1/ m, m
étant la masse réduite de la molécule, on a :

2 HD 2 HD
θV = √ θV
HH
θV =
DD
θ et donc KC (T ) → 4 quand T → ∞
3 3 V

Soit α(T ) le taux de molécules HD et ξ le taux de deutérium du mélange. On


vérifiera que les taux de molécules H2 et D2 valent respectivement 1 − ξ − α(T
2
)
et
α(T )
ξ − 2 . On a donc :

α2 (T )
KC (T ) =  ) 
(4.10)
1 − ξ − α(T
2
) ξ− α(T )
2
)

Ce qui permet d’exprimer α en fonction de ξ et KC (T ) :



1 + 2 α(al) Γ(T ) − 1 4 − KC (T )
α(T ) = avec Γ(T ) = et α(al) = 2 ξ (1 − ξ)
Γ(T ) KC (T )

Le facteur α(al) = 2 ξ (1 − ξ) est le taux de molécules HD que l’on observerait si


les mariages entre atomes se faisaient de façon aléatoire. On constate que c’est la
limite de α(T ) quand T tend vers l’infini.
On constate également que α(T ) est inférieur à α(al) quelle que soit la tempé-
rature. Un exemple de plus qui montre que la nature a une prédilection pour la
symétrie.

On peut traiter à titre d’exemple le cas ξ = 1/2 (α(al) = 1/2). On trouve :

T (K) 0 10 20 50 100 200 500 1000 2000 +∞


% HD 0, 00 2, 10 12, 92 32, 18 41, 14 45, 90 48, 80 49, 70 49, 96 50, 00
% H2 50, 00 48, 95 43, 54 33, 91 29, 43 27, 05 25, 60 25, 15 25, 02 25, 00
% D2 50, 00 48, 95 43, 54 33, 91 29, 43 27, 05 25, 60 25, 15 25, 02 25, 00

4.6 Réaction chimique dans un gaz parfait


4.6.1 Taux d’avancement d’une réaction chimique
Soit l’équilibre chimique νA A + νB B 
 νX X + νY Y.

On supposera pour simplifier que la stœchiométrie est respectée : à chaque


instant, il existe M et m tels que :

NA = νA (M − m) NB = νB (M − m) NX = νX m NY = νY m

On suppose M fixé, m variant de 0 à M. Chaque fois que m augmente de δm


unités, NA et NB diminuent de δNA = νA δm et δNB = νB δm, alors que NX et NY
augmentent de δNX = νX δm et δNY = νY δm.
150 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Attention : en thermodynamique, les quantités de matière (nA , nB , nX , nY , m)


sont exprimées en moles ; à l’échelle macroscopique, ce sont des variables continues
(elles varient par sauts de l’ordre de 10−24 ). En thermodynamique, on écrit sans
hésiter :

dnA dnB dnX dnY δnA δnB δnX δnY


dm = − =− = = au lieu de δm = − =− = =
νA νB νX νY νA νB νX νY

En thermodynamique statistique, (NA , NB , NX , NY , m) sont des nombres de mo-


lécules : les variations δm sont des entiers relatifs. C’est δm/M qui est extrêmement
petit. C’est pourquoi l’avancement élémentaire δξ est défini ici comme étant :

δm δNA δNB δNX δNY


δξ = =− =− = =
M M νA M νB M νX M νY

Comme δm est extrêmement petit devant M (une unité face au nombre d’Avo-
gadro), on pourra assimiler la variation δξ à la différentielle dξ.

Les définitions qui suivent font référence à un mélange initial caractérisé par
m0 = m(t = 0) et à un mélange final caractérisé par m∞ = m(t → ∞). Elles ne
sont valables que pour les mélanges à la stœchiométrie. Elles peuvent présenter des
différences (d’unités) par rapport à celles utilisées par les chimistes. Toutes les gran-
deurs citées ci-dessous sont sans dimension.

m(t) − m0
– L’avancement de la réaction : ξ(t) =
M
Il est nul à t = 0, positif lorsque, par rapport au mélange initial, l’équilibre
s’est déplacé vers la droite, et négatif dans le cas contraire.

m(t)
– Le taux absolu d’avancement : α(t) =
M
C’est un nombre toujours compris entre 0 et 1. On remarquera que la valeur
initiale n’est pas nulle (sauf si m0 = 0, et que la valeur finale n’est pas égale
à 1 (sauf si m∞ = 0). C’est une fonction croissante si les réactants de gauche
disparaissent pour donner les réactants de droite, et décroissante dans le cas
contraire.

m(t) − m0
– Le taux relatif d’avancement : αR (t) =
m∞ − m0
Il est nul à t = 0 et égal à 1 pour t → ∞. C’est une fonction croissante dans
tous les cas, quel que soit le sens de réaction.
4.6 Réaction chimique dans un gaz parfait 151

Tableau récapitulatif.

minimum absolu mélange mélange maximum absolu


(que des réactants) initial final (que des produits)

m0 m∞ − m0 M − m0
ξ(t) ξmin = − ξ0 = 0 ξ∞ = ξmax =
M M M

m0 m∞
α(t) αmin = 0 α0 = α∞ = αmax = 1
M M

m0 M − m0
αR (t) αmin
R =− α0R = 0 α∞
R =1 αmax =
m∞ − m0 R
m∞ − m0

4.6.2 Surfaces équipotentielles


On considère la réaction chimique A + BC → AB + C. On suppose qu’à tout
moment de la réaction, les trois atomes A, B, C sont alignés : l’énergie potentielle
du système constitué des trois atomes n’est fonction que de deux distances RAB et
RBC . La figure 4.6 de gauche représente un exemple de diagramme d’équipotentielles
parmi les plus simples.

Fig. 4.6 – Surfaces équipotentielles : un col, un puits, un bassin

En haut à gauche et en bas à droite, on trouve deux vallées correspondant aux


configurations stables A+BC et AB+C. Celle de droite est la plus profonde (AB+C
est plus stable que A + BC) et la plus encaissée (le ”ressort” A − B est plus dur
que le ”ressort” B − C). En haut à droite, le haut plateau correspond aux trois
atomes séparés. La position ABC∗ est une configuration de col : le passage de la
configuration A + BC à la configuration AB + C nécessite le franchissement d’une
barrière de potentiel et la configuration ABC∗ est la plus petite barrière qu’il soit
possible de trouver. La configuration ABC∗ n’est pas vraiment une molécule : on
l’appelle complexe activé. C’est la configuration intermédiaire, instable et éphé-
mère, présentant la plus haute énergie au cours de la réaction. La ligne pointillée
est celle suivie au cours de la réaction. C’est le chemin que suivraient deux gouttes
152 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

d’eau lâchées au niveau du col, l’une vers la vallée A + BC, l’autre vers la vallée
AB + C. On peut exprimer l’énergie potentielle au cours de la réaction en fonction
d’une seule variable : l’abscisse curviligne τ le long de cette courbe. Cette abscisse
est appelée coordonnée de réaction.
L’énergie d’activation est la hauteur de la barrière à traverser. Si U1 est
l’énergie du fond de vallée A+BC, et si U ∗ est l’énergie du complexe activé, l’énergie
d’activation est l’énergie à fournir pour déclencher la réaction. Elle vaut ΔU ∗ =
U ∗ − U1 . L’énergie motrice est la différence ΔUm = U2 − U1 entre les fonds de
vallée[4] . Pour la réaction inverse, l’énergie d’activation et l’énergie motrice valent
respectivement ΔU ∗ = U ∗ − U2 et ΔUm = U1 − U2 .
Dans la théorie d’Eyring qui suit, on raisonnera dans le cas ou le composé ABC
est un complexe instable. Mais il faut savoir que d’autres profils d’équipotentielles
existent. On peut citer, toujours pour les systèmes à deux degrés de liberté, deux
cas où le composé ABC est une molécule stable. Par exemple :
– un puits de potentiel (figure 4.6 au milieu). Le produit devrait en principe
être la molécule ABC : c’est la configuration de plus basse énergie. Mais, à
température non nulle, il faut tenir compte de l’entropie : sa tendance à être
maximale fera pencher la réaction, soit vers A + BC, soit vers AB + C.
– un bassin (figure 4.6 à droite). La molécule ABC est métastable (d’énergie
supérieure à celles des produits initial et final mais sa valeur correspond à un
minimum local de l’énergie potentielle). La réaction nécessite dans ce dernier
cas le passage de deux barrières de potentiel (deux complexes activés A − BC∗
et AB − C∗ ).

4.6.3 Théorie d’Eyring


Il n’est pas question ici de faire un traitement général de la théorie d’Eyring. On
choisit l’exemple (simple !) de la réaction A + BC → AB + C. Son diagramme d’équi-
potentielles est supposé avoir l’allure représentée figure 4.6 à gauche. On rappelle
les hypothèses permettant de tracer un tel diagramme :
– à chaque instant, les trois atomes A, B, C sont alignés : l’énergie potentielle
du système est fonction de deux distances RAB et RBC ;
– l’énergie d’activation est due au franchissement d’un seul col (existence d’un
complexe activé intermédiaire ABC∗ ) ;
– l’énergie motrice est négative (la vallée AB + C est plus profonde que la vallée
A + BC).
À l’état initial le mélange (stœchiométrique) est en équilibre à la température
T0 . Sa composition est entièrement définie par deux nombre M et m0 : on y compte
m0 molécules AB, m0 atomes C, M − m0 atomes A et M − m0 molécules BC.
À l’instant t = 0, on plonge le système dans un bain à la température T . Au
cours du temps, la composition évolue vers une composition finale caractérisée par
les deux nombres M et m∞ .
Le but de la théorie d’Eyring est de calculer la vitesse de la réaction m(t),
autrement dit le nombre de passages de col par unité de temps.
4
En termes familiers, l’énergie motrice est ce qui donne envie à A + BC de devenir AB + C, et
l’énergie d’activation est ce qu’elle doit dépenser pour assouvir cette envie.
4.6 Réaction chimique dans un gaz parfait 153

On relie tout d’abord m0 et m∞ aux fonctions de partition par l’intermédiaire


des constantes d’équilibre. On a, avec les notations qA0 = qA (T0 ), qA = qA (T ), etc :

q 0 qC0 m20 m0 KC (T0 )
KC (T0 ) = AB = ⇒ =
qA0 qBC
0
(M − m0 )2 M KC (T0 ) + 1
 (4.11)
qAB qC m2∞ m∞ KC (T )
KC (T ) = = ⇒ =
qA qBC (M − m∞ ) 2 M KC (T ) + 1

Supposons que la réaction se fait de gauche à droite. Durant la première phase


de la réaction A + BC → ABC∗ (montée du col), Eyring suppose que le produit de

départ et le complexe activé sont en équilibre thermodynamique A + BC   ABC .
C’est contradictoire avec le processus (une évolution ne peut pas être un équilibre)
mais il se trouve que cette approximation donne de bons résultats.
Comparons le complexe activé ABC∗ à une vulgaire molécule ABC. En considé-
rant les trois atomes comme des masses ponctuelles (on ignore les degrés de liberté
électroniques et nucléaires), la molécule ABC (linéaire) possède neuf degrés de li-
berté : trois degrés de liberté de translation, deux degrés de liberté de rotation et
quatre degrés de liberté de vibration. Les degrés de liberté de translation et de rota-
tion n’on aucune influence sur le diagramme d’équipotentielles. Les seuls degrés de
liberté qui nous intéressent ici sont les degrés de liberté de vibration. Après analyse
en coordonnées normale (méthode NCA, voir paragraphe 4.4.3), on trouve quatre
modes normaux : deux modes dits transverses qui décrivent les mouvements vibra-
tionnels perpendiculaires à l’axe de la molécule, et deux modes dits longitudinaux
qui décrivent les mouvements vibrationnels parallèles à l’axe de la molécule. Par
hypothèse, les deux modes transverses sont ignorés : ils introduisent des torsions
dans la molécule et nous avons supposé qu’elle restait linéaire à chaque instant.
Il nous reste les deux modes longitudinaux de vibration qui correspondent sur le
diagramme d’équipotentielles, d’une part à la coordonnée de réaction τ (localement
tangente à la courbe de réaction), d’autre part à la coordonnée η normale à la courbe
de réaction.
Ce qui différencie ABC∗ de ABC, c’est que suivant l’axe tangent à la courbe de
réaction, l’énergie potentielle présente un maximum. Suivant l’axe perpendiculaire
à cette courbe, le profil est par contre habituel. La fréquence propre associée à
la variable η est trouvée comme d’habitude réelle et positive. Par contre, dans le
hamiltonien du système, le terme d’énergie potentielle correspondant à la variable
τ porte un coefficient négatif, ce qui conduit par le calcul à une fréquence propre
imaginaire pure. C’est ce qui caractérise d’ailleurs la coordonnée de réaction : si le
complexe activé possède une géométrie plus quelconque, la coordonnée de réaction
sera toujours la seule parmi les 3n degrés de liberté à posséder cette propriété.
En résumé, pour un complexe activé à n noyaux, parmi ses 3n degrés de liberté,
3n − 1 peuvent être traités en considérant le complexe activé comme une molécule.
Seule la coordonnée de réaction τ requiert un traitement particulier. Si ce degré de
liberté était ”normal”, il ferait partie des degrés de liberté de vibration.
Les configurations intermédiaires entre molécule et complexe activé seront nom-
més tout simplement ”complexes”.
154 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

L’avancement de la réaction ξ(t) est défini ici comme étant le nombre, rap-
porté à M de complexes ayant traversé le col à l’instant t. Autrement dit, M ξ(t)˙ dt
est le nombre de complexes traversant le col entre t et t + dt.
˙ = dξ est par définition la vitesse d’avancement de la réaction.
ξ(t)
dt
Le nombre de complexes traversant le col pendant un intervalle de temps dt sont
ceux pour lesquels la vitesse τ̇ est positive et pour lesquels la valeur de τ est com-
prise entre −τ̇ dt et 0 (on a placé l’origine de τ au niveau du col).

˙ on procède par étapes.


Pour le calcul de ξ,
– Nombre de complexes tels que −τ̇ dt ≤ τ ≤ 0 :
 0
M g(τ ) dτ ≈ M g ∗ τ̇ dt (4.12)
−τ̇ dt

M g(τ ) dτ est le nombre de complexes pour lesquels la coordonnée de réaction


est comprise entre τ et τ + dτ . L’approximation faite ici consiste à dire que,
dt étant un infiniment petit, la densité g(τ ) est constante et égale à g ∗ dans
tout l’intervalle [−τ̇ dt, 0].
– Fraction de complexes de vitesse comprise entre τ̇ et τ̇ dτ̇ :
 −m∗ τ̇ 2 
  −m∗ τ̇ 2 
exp dτ̇ m∗
2kT = exp
" +∞  −m∗ τ̇ 2  2π kT 2kT
dτ̇ (4.13)
−∞
exp dτ̇
2kT
– Nombre de complexes traversant le col entre t et t + dt (c’est par définition
˙ : on multiplie 4.12 par 4.13 et on intègre sur τ̇ de 0 à +∞. On trouve :
M ξ)
 
∗  ∞  −m∗ τ̇ 2 
m kT
M ξ˙ = M g ∗ dt exp τ̇ dτ̇ = M g ∗ dt
2π kT 0 2kT 2π m∗

˙ ∗ kT
On en déduit ξ = g . Il reste à calculer g ∗ .
2π m∗
M g ∗ est le nombre de complexes activés par unité de longueur sur la courbe de
réaction au niveau du col. On peut relier ce nombre aux fonctions de partition par

l’intermédiaire de la constante de l’équilibre A + BC 
 ABC , à condition de définir
une longueur δτ au voisinage du col où le potentiel U(τ ) peut être considéré comme
constant. On pourra alors écrire :
N∗ q∗ 1 q ∗ NA NBC
N ∗ = M g ∗δτ et = ⇒ g∗ =
NA NBC qA qBC δτ qA qBC M
La valeur de δτ n’a aucune importance. Ce paramètre arbitraire disparaîtra en
fin de calcul. Les fonctions de partition qA et qBC sont connues. Seul le calcul de q ∗
requiert un traitement particulier.
On suppose que tous les degrés de liberté sont séparables et on écrit q ∗ = qτ̄∗ ×qτ∗ :
– qτ̄∗ est la fonction de partition du complexe activé calculée sans tenir compte
de la coordonnée de réaction τ . Elle se calcule de la manière habituelle.
4.6 Réaction chimique dans un gaz parfait 155

– qτ∗ est la fonction de partition relative à la coordonnée de réaction. On la calcule


en utilisant les résultats du paragraphe 3.6.1 (équation 3.31) :
  
1 δτ +∞
p2τ  δτ √
qτ∗ = dτ exp − dp τ = 2π m∗ kT
h 0 −∞ 2m∗ kT h

Ce qui donne finalement :

NA NBC kT qτ̄∗ kT q0∗


ξ˙ = K(T )

avec K(T ) = = 0 0
e−ΔU /kT
M h qA qBC h qA qBC

Les fonctions de partition qA0 , qBC


0
et q0∗ sont les fonctions de partitions prenant en
comptes les degrés de liberté de translation, rotation et vibration, avec pour chacune
d’elles l’origine des énergies placée sur son niveau électronique fondamental.
K(T ) est par définition la constante d’avancement de la réaction[5] . C’est le
nombre de complexes traversant le col par seconde, par atome A, par molécule BC.[6]

Il faut maintenant envisager la réaction inverse. Les calculs sont tout à fait
similaires aux précédents. Ils conduisent à :

NAB NC kT qτ̄∗ kT q0∗


ξ˙ = −K  (T )
∗
avec K  (T ) = = 0 0
e−ΔU /kT
M h qAB qC h qAB qC

Les deux réactions ayant lieu simultanément, on doit prendre en compte les deux
contributions. Avec NA = NBC = M − m et NAB = NC = m, on doit résoudre :

dm
= M ξ˙ = K(T ) (M − m)2 − K  (T ) m2
dt
La résolution de cette équation différentielle ne pose aucune difficulté. Elle con-
duit au taux absolu d’avancement α(t) = m(t)/M (α0 = m0 /M) :
 
α(t) − α∞ α0 − α∞ −ωt K(T ) KC (T )
= e avec α∞ =   =
α(t) − α1 α0 − α1 K(T ) + K  (T ) KC (T ) + 1
 
K(T ) KC (T ) 
α1 =   = et ω = 2M K(T ) K  (T )
K(T ) − K  (T ) KC (T ) − 1
On constate que α(t) tend vers α∞ quand t tend vers l’infini. C’est en excellent
accord avec la théorie des équilibres chimiques (équation 4.11).
5
Si les surfaces équipotentielles sont plus complexes, on multiplie la constante d’avancement
trouvée par un facteur de transmission κ. On peut traiter à titre d’exemple le cas du bassin :
pour passer de A + BC à AB + C, les trois atomes doivent passer une première barrière ΔU1
(complexe activé A-BC∗ ), traverser un bassin (molécule métastable ABC), et enfin traverser une
seconde barrière ΔU2 (complexe activé AB-C∗ ). Les molécules ayant traversé la première barrière
et se trouvant dans le bassin ont le choix entre passer la deuxième barrière (κ est la probabilité de
ce choix) et retraverser la première.
6
son unité ici est la s−1 ; en thermodynamique chimique, la définition est légèrement différente :
c’est la vitesse de réaction rapportée aux concentrations en mol/L.
156 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

4.6.4 Application à la diffusion de surface


Le modèle d’Eyring peut être appliqué à de nombreux problèmes physiques,
chaque fois que le processus fait intervenir le passage d’une barrière de potentiel.
On traite ici, pour des raisons de simplicité de représentation, le problème de la
diffusion de surface.
Une position stable (ou site d’adsorption ou puits de potentiel) sera caractérisée
par une énergie minimale U0 (énergie de fond de puits) et par deux pulsations :
– une pulsation ω⊥ pour les vibrations perpendiculaires à la surface ;
– une pulsation ω
pour les vibrations parallèles à la surface (suivant x et y).
La fonction de partition d’un atome adsorbé en position stable s’écrit :
1 1
q0 = e−U0 /kT q⊥ q
2 avec q⊥ = −
h ω⊥
et q
= −

2 sinh 2kT 2 sinh 2kT
Soit un atome traversant un col dans une direction τ (x ou y). L’autre direction
parallèle à la surface (y ou x) sera notée η. La variable τ joue le même rôle que
la coordonnée de réaction du paragraphe précédent : dans cette direction, l’énergie
potentielle au niveau du col présente un maximum (noté U ∗ ). Suivant les direc-
tions η et z, les mouvements sont vibrationnels, mais les pulsations sont en principe
différentes de celles mesurées au fond des puits. Elles seront notées ωη∗ et ω⊥ ∗
.
Moyennant quoi, la fonction de partition d’un atome situé dans un intervalle
δτ = τ̇ δt au voisinage d’une position de col s’écrit :
∗ ∗ ∗ τ̇ δt
√ 1 1
q ∗ (τ̇ ) = e−U /kT q⊥ qη ∗
2π m kT avec q⊥ = − ∗

et qη

= − ∗

h 2 sinh ⊥ 2 sinh η
2kT 2kT
Cette fonction de partition est celle des atomes possédant la vitesse τ̇ et traver-
sant le col dans l’intervalle de temps δt. On cherche la fonction de partition de tous
les atomes (indépendamment de leur vitesse) traversant le col dans l’intervalle de
temps δt.  2
Il faut donc multiplier q ∗ (τ̇ ) par 2πmkT e−mτ̇ /2kT et intégrer sur τ̇ de 0 à +∞ :
  ∞
∗ m 2 kT ∗ ∗ ∗
q = q ∗ (τ̇ ) e−mτ̇ /2kT dτ̇ = q⊥ qη δt e−U /kT
2π kT 0 h
Le rapport entre q et q0 est égal au rapport entre le nombre δN ∗ d’atomes en

situation de passage de cols durant δt et le nombre N0 d’atomes en position stable.


Ce dernier étant très grand par rapport au premier, on l’assimile au nombre total
d’atomes. Pour obtenir la fréquence de saut par atome, il suffit ensuite de diviser ce
rapport par δt. On obtient :
∗ ∗
kT q⊥ qη −ΔU ∗ /kT
Γ(T ) = e avec ΔU ∗ = U ∗ − U0
h q⊥ q
2

Pour obtenir un ordre de grandeur, on assimile q⊥ et qη∗ à q⊥ et q
. C’est ce
qu’on trouve d’ailleurs si on utilise l’énergie potentielle 4.3 du paragraphe 4.1.3. On
obtient :
kT hν
−ΔU ∗ /kT ∗
Γ(T ) ∼ 2 sinh e ∼ ν
e−ΔU /kT
h 2kT
Résultat physiquement correct. La fréquence ν
est une fréquence de tentatives

de saut, et le facteur de Boltzmann e−ΔU /kT est un taux de réussite.
4.7 Gaz parfait diélectrique sous champ électrique 157

4.7 Gaz parfait diélectrique sous champ électrique


4.7.1 Conditions d’équilibre sous champ de force extérieur
On considère un système Σ de particules toutes identiques (indépendantes ou
non) que l’on soumet à un champ de forces : chaque particule est soumise, non
seulement aux forces d’interactions exercées par ses congénères, mais aussi à une
force f(r) dépendant uniquement de sa position dans le système. Elle ne dépend
ni explicitement du temps, ni de la position des autres particules (autrement dit,
cette force ne modifie pas les forces d’interaction entre particules). On supposera
également que cette force dérive d’un potentiel Φ(r), autrement dit f(r) = −∇Φ(
 r ),
et que ses variations en fonction de r sont inappréciables à l’échelle microscopique :
au voisinage de la position r, on pourra toujours définir un élément de volume δV
suffisamment petit à l’échelle macroscopique pour pouvoir considérer que le poten-
tiel y est uniforme, et suffisamment grand à l’échelle microscopique pour pouvoir
appliquer un traitement statistique aux particules qu’il contient.
On choisit justement cet élément de volume δV comme système δΣ, et on notera
δN le nombre de particules qu’il contient. Soit j un microétat accessible au micro-
système δΣ et Ej0 (δV, δN) l’énergie correspondant à cet état lorsqu’il n’y a pas de
forces extérieures. Lorsqu’on applique la force extérieure, cette énergie devient :

Ej (δV, δN, r) = Ej0 (δV, δN) + Φ(r) δN

On peut exprimer la fonction de partition canonique Q(T, δV, δN, r) de δΣ en


fonction de la fonction de partition sans champ Q0 (T, δV, δN) :

Q(T, δV, δN, r) = Q0 (T, δV, δN) e−Φ(r) δN/kT

La fonction de partition grand canonique s’écrit :




∞  
μ δN/kT μ−Φ(
r ) δN/kT
Z(T, δV, μ, r) = Q(T, δV, δN, r) e = Q0 (T, δV, δN) e
δN =0 N =0

On définit le potentiel chimique local par : μ̃(r) = μ − Φ(r)

Il permet d’écrire le grand potentiel de la manière habituelle :


   
Ψ T, δV, μ̃(r) = −kT ln Z T, δV, μ̃(r)

 

avec Z T, δV, μ̃(r) = Q0 (T, δV, δN) eμ̃(r) δN/kT
δN =0

Les propriétés locales du système sous champ se calculent comme celles du système
sans champ. Il suffit de remplacer dans les expressions le potentiel chimique par le
potentiel chimique local :
  
∂Ψ ∂Ψ ∂Ψ
p(r) = − δS(r) = − δN(r) = −
∂δV T,μ̃(r) ∂T δV,μ̃(r) ∂ μ̃(r) T,δV
158 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Pour finir, on exprime l’équilibre entre les différents microsystèmes en écrivant


que le potentiel chimique est homogène dans tout le système : μ = μ̃(r)+Φ(r) = cste.
L’équilibre apparaît comme étant le résultat d’une compétition entre potentiel ex-
térieur et potentiel chimique : le potentiel extérieur tend à concentrer les particules
là où il est minimum, alors que le potentiel chimique tend à homogénéiser le système.

En exemple on peut traiter le cas d’un gaz parfait dans le champ de pesan-
teur. Sans forces extérieures, le potentiel chimique local s’écrit :

p(z)
μ(z) = μ0T + kT ln
p0
Sous l’effet de la pesanteur, chaque molécule acquiert une énergie potentielle
m g z. L’équilibre global est assuré si :

μ(z) + m g z = cste = μ(0)

On en déduit :
p(z) p(0)
μ0T + kT ln + m g z = μ0T + kT ln ⇒ p(z) = p(0) e−m g z/kT
p0 p0
Un résultat qui nécessite en mécanique la résolution d’une équation différentielle.

Autre exemple : un gaz parfait en contact avec une surface attractive. La


surface est supposée perpendiculaire à l’axe z. Le gaz, situé dans le demi-espace
z > 0, est soumis de la part de la surface à une énergie potentielle U(z) tendant vers
0 quand z tend vers +∞, présentant un minimum (négatif) à une certaine distance
de la surface (le rayon R de l’atome), et tendant vers +∞ quand z tend vers 0.
La condition d’équilibre s’écrit ici :

μ(z) + U(z) = cste = μ(R) + U(R)

ou encore :
ρ(z) = ρ(R) e(U (R)−U (z))/kT
Soit H la hauteur de l’enceinte, A l’aire de la surface et ρ0 la densité moyenne du
gaz, autrement dit la densité homogène qu’aurait le gaz en l’absence de la surface
attractive. Connaissant le profil U(z), on calcule ρ(R) eU (R)/kT en écrivant :
 H
ρ0 AH
ρ(z) dz = N = ρ0 AH ⇒ ρ(R) eU (R)/kT = " H
0 0
e−U (z)/kT dz

Pour calculer la densité superficielle σ = Nads /A de la phase adsorbée, on consi-


dère qu’un atome est adsorbé si la distance entre cet atome et la surface est inférieure
àR:
 r " R −U (z)/kT
U (R)/kT −U (z)/kT Nads e dz
Nads = ρ(R) e e dz ⇒ σ = = ρ0 H " 0H
0 A e−U (z)/kT dz
0
4.7 Gaz parfait diélectrique sous champ électrique 159

4.7.2 Thermodynamique des milieux diélectriques


On considère un gaz constitué de deux types de particules les unes chargées posi-
tivement (cations), les autres négativement (anions). Le système global sera supposé
électriquement neutre. Pour simplifier, nous considérerons un système constitué de
N cations de charge +q et de N anions de charge −q.
Le récipient est un parallélépipède rectangle inséré entre deux plaques, l’une
chargée positivement et l’autre négativement (figure 4.7 à gauche). On suppose le gaz
suffisamment dilué pour négliger les interactions électrostatiques entre particules par
rapport aux interactions avec les plaques (le gaz est supposé parfait). La pesanteur
n’intervient pas dans l’étude.

Fig. 4.7 – Gaz sous champ électrique : géométrie et répartition des charges fictives

On notera +σ et −σ les densités de charges de chacune des plaques. Pour éviter


les effets de bord, on supposera les deux plaques de dimension infinie. Le champ
électrique uniforme entre les deux plaques est dirigé du bas vers le haut sur la figure
et vaut E = +σ/ε0. Les cations y sont donc soumis à une force +q E (dirigée vers le
haut), et les anions à une force −q E (dirigée vers le bas). Tout se passe comme si
les particules baignaient dans deux champs d’énergie potentielle opposés :
U + (z) = −q E z pour les cations et U − (z) = +q E z pour les anions
On obtient, avec le raisonnement utilisé pour l’étude du champ de pesanteur, les
densités ρ+ (z) et ρ− (z) (en cations par m3 et en anions par m3 ) :
ρ+ (z) = ρ+
0 e
+q E z/kT
et ρ− (z) = ρ−
0 e
−q E z/kT

Si on appelle ρ0 = N/V la densité commune en anions et en cations en l’absence


de champ, on détermine les deux constantes en écrivant :
  qEL
1 +L/2 + 1 +L/2 − + − 2kT
ρ (z) dz = ρ (z) dz = ρ0 ⇒ ρ0 = ρ0 = ρ0
L −L/2 L −L/2 sinh qEL
2kT

Les centres de gravité des charges positives et négatives se trouvent respective-


ment aux cotes z + et z − que l’on calcule grâce aux relations :
" +L/2 + " +L/2 −  qEL 
+ − −L/2
z ρ (z) dz −L/2
z ρ (z) dz kT 2kT
z = −z = " +L/2 = − " +L/2 = −1
ρ+ (z) dz ρ− (z) dz qE tanh qEL
2kT
−L/2 −L/2
160 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

On peut remarquer que le modèle n’est pas satisfaisant à basse température :


lorsque T tend vers 0, z + tend vers +L/2 et z − vers −L/2. Cela signifie que les
charges sont agglutinées sur les parois supérieure et inférieure et donc que l’enceinte
est entièrement vide. Ce que nous n’avons pas pris en compte, c’est que la réparti-
tion non homogène des charges crée un champ électrique induit venant se superposer
(s’opposer) au champ appliqué. Ce champ induit est impossible à calculer puisqu’il
nécessite la connaissance de la répartition des charges, c’est-à-dire du résultat. Le
milieu est dit diélectrique : le champ électrique effectif présent dans le milieu est
différent du champ appliqué. À partir de maintenant, E désignera le champ effectif.
Le champ appliqué +σ/ε0 sera noté D. La constante diélectrique ε du milieu est
définie par la relation D = ε E.

Soit D  = E − D le champ induit. Tout comme à D est associée une densité de


charge σ, on associe à D  une charge fictive σ  : le champ D  est égal à celui que
provoquerait la présence de densités de charge +σ  et −σ  respectivement sur les
parois supérieure et inférieure du récipient (figure 4.7 à droite).

σ
On écrira donc : D  = − (il s’oppose au champ appliqué).
ε0
En thermodynamique, D est une variable intensive. Tout comme p et T , il peut
être contrôlé de l’extérieur (par l’intermédiaire de σ). Le champ D  par contre est
incontrôlable : il dépend de la réaction du milieu à l’action de D. Le développement
qui suit a pour but de déterminer la variable extensive associée à D.

σ
Le champ électrique total dans le milieu vaut : E = D + D  = D − .
ε0
La variable extensive associée à D est celle dont le produit avec D donne l’énergie
emmagasinée par le système sous l’effet de D. On la notera M : c’est le moment
dipolaire total du système.

Calculons le travail fourni au système lorsque σ passe à σ + dσ. Si A est l’aire


des plaques en regard avec l’enceinte, ce travail est utilisé pour transporter une
quantité de charge A dσ de la plaque supérieure (chargée négativement) vers la
plaque inférieure (chargée positivement). À ce déplacement s’oppose un champ E
sur une longueur L, et un champ D sur une longueur L − L. D’où le travail total
fourni : dWtot = E L A dσ + D (L − L) A dσ. Si l’espace entre les deux plaques était
vide, ce travail vaudrait dW0 = D L A dσ. La contribution du système vaut donc
dW = dWtot − dW0 . On trouve, avec V = L × A :

dW = (E − D) V dσ = D  V dσ = −σ  V = −σ  V dD
ε0
La densité de charge σ  est habituellement notée P : c’est la polarisation.
La grandeur extensive M recherchée vaut au signe près P V . On a donc, avec les
notation du paragraphe 1.4.8, une contribution −M dD à dΦM et par conséquent
une contribution +D dM à dE :
Équation de Gibbs : dE = T dS − p dV + D dM + μ dN
4.7 Gaz parfait diélectrique sous champ électrique 161

4.7.3 Molécules dipolaires dans un champ électrique


La diélectricité à l’échelle microscopique peut avoir différentes origines. Dans
tous les cas, le champ électrique appliqué provoque un déplacement des charges, de
sorte que le centre de gravité des charges positives ne coïncide plus avec le centre
de gravité des charges négatives. Le système devient porteur d’un moment dipolaire
induit porté par la droite liant les deux centres de gravité. On en a vu un exemple
au paragraphe précédent. En voici un autre.
Dans le système étudié ici, il n’est plus question d’anions et de cations. On consi-
dère un système d’atomes ou de molécules électriquement neutres. Le moment
dipolaire est dû à une déformation des nuages électroniques : les noyaux sont attirés
par la plaque chargée négativement, et les nuages électroniques par la plaque char-
gée positivement. Chaque molécule devient porteuse d’un moment dipolaire, et le
moment dipolaire total est la somme des moments dipolaires individuels.

Certaines molécules, comme H2 O ou H Cl, portent un moment dipolaire per-


manent. Même en l’absence de champ, les deux centres de gravité de coïncident pas.
Lorsqu’on applique le champ, d’une part un moment dipolaire induit vient s’ajouter
au permanent (déformation des nuages électroniques), d’autre part le moment dipo-
laire résultant (permanent et induit) a tendance à s’aligner à la direction du champ.
Il y a donc perturbation des degrés de liberté de rotation de la molécule. Les degrés
de liberté de vibration sont en toute rigueur également perturbés (modification des
niveaux d’énergie électroniques) mais nous n’en tiendront pas compte dans l’étude.
Les degrés de liberté de translation par contre ne sont pas du tout perturbés par la
présence du champ : les molécules restent électriquement neutres et ne présentent
aucune attirance vers l’une ou l’autre des plaques chargées.

On considère un gaz parfait monoconstituant constitué de N molécules indépen-


dantes que l’on plonge dans un champ électrique uniforme orienté suivant un axe Oz.

Les conditions de travail (T , V , D, N constants) conduisent tout naturellement


à travailler dans l’ensemble statistique de fonction caractéristique ΦM (T, V, D, N) :

ΦM (T, V, D, N) = E − T S − D M = F − D M = −kT ln ΔM (T, V, D, N)



avec ΔM (T, V, D, N) = Q(T, V, M, N) e+D M/kT
M

et dΦM = −S dT − p dV − M dD + μ dN

Que l’on travaille à M ou à D constant, les molécules sont indépendantes. Dans


la limite classique (voir paragraphe 2.2.2), on a avec les notations du paragraphe
1.4.8 :
q(T, V, M)N
− à M constant : Q(T, V, M, N) =
N!

δM (T, V, D)N
− à D constant : ΔM (T, V, D, N) =
N!
162 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Le plus simple est de travailler à D constant. Le problème revient à calculer la


fonction de partition δM (T, V, D) relative à une molécule. Deux phénomènes inter-
viennent :
– Le moment dipolaire permanent de la molécule a tendance à s’aligner avec le
 L’énergie emmagasinée par un dipôle de moment
champ électrique appliqué D.
dipolaire μ0 dans un champ D  vaut (θ est l’angle entre μ0 et D)
 :

 = −μ0 D cos θ
−μ0 · D

– Un moment dipolaire induit μi apparaît. En champ faible, celui-ci est propor-
 : μi = αD.
tionnel à D  Le coefficient α est une propriété de la molécule appelée
polarisabilité. Le travail nécessaire pour créer ce moment induit vaut :
 D  D
α D2
−μi (D) dD = −α D dD = −
0 0 2

La somme des deux contributions est appelée énergie potentielle rotationnelle :

α D2
UR (μ, D) = UR (θ, D) = −μ0 D cos θ −

2
Pour calculer δM (T, V, D), on somme sur tous les vecteurs μ = μ0 + μi possibles :

δM (T, V, D) = q(T, V ) e−UR (μ,D)/kT
μ


Cette somme est en fait une intégrale : toutes les orientations de μ sont permises :
 2π  π 1
μ0 D cos θ + 2
α D2
δM (T, V, D) = dϕ q(T, V ) exp sin θ dθ
0 0 kT
0
On trouve, en remarquant que δM (T, V ) = δM (T, V, 0) est égal à 4π q(T, V ) :

0 sinh y α D2 /2kT μ0 D
δM (T, V, D) = δM (T, V ) e avec y =
y kT
0
δM (T, V )N  sinh y N N α D2 /2kT
et donc ΔM (T, V, D, N) = e
N! y
α D2 sinh y
puis ΦM (T, V, D, N) = Φ0M (T, V, N) − N − NkT ln
2 y
0
δM (T, V )N
avec Φ0M (T, V, N) = −kT ln
N!
On en déduit par dérivations toutes les propriétés thermodynamiques du système.
Nous nous limiterons au calcul du moment dipolaire, de l’entropie et de la capacité
thermique à V et D constants. La fonction Φ0M (T, V, N) sera supposée connue. Ses
contributions à l’entropie, à l’énergie interne et à la capacité thermique seront notées
S0 , E0 , CV0 . Ce sont les deux autres termes qui nous intéressent.
4.7 Gaz parfait diélectrique sous champ électrique 163

Moment dipolaire.
De dΦM = −S dT − p dV − M dD + μ dN on déduit :

∂ΦM   1
M =− = N α D + μ0 L(y) avec L(y) = coth y −
∂D T,V,N y
L est la fonction de Langevin. Son graphe est représenté figure 4.8. On en déduit
la permittivité ε du milieu :
P D M  1 Nα Nμ2 L(y) 
0
D=E+ = + =D + +
ε0 ε ε0 V ε ε0 V ε0 V y
1 ρ L(y)  N μ0 D
⇒ =1− α + μ20 avec ρ = et y =
ε ε0 y V kT

1
Fig. 4.8 – Fonction de Langevin L(y) = coth y − y

Étudions les deux cas extrêmes.


– En champ fort ou à basse température, L(y) tend vers 1. On obtient alors
μ̄ ≈ α D + μ0 . Tous les moments sont alignés à D.
 La rotation est bloquée.
– Sous faible champ ou à haute température, y est petit. On peut dans ces condi-
tions utiliser les développements limités :
sinh y y2 y y3
≈1+ et L(y) ≈ −
y 6 3 45
Le moment dipolaire moyen par molécule devient :
μ20 D
μ̄ = α D + μ0 L(y) ≈ α D +
3kT
Le premier terme est le moment dipolaire induit. On peut vérifier que le
deuxième correspond à une moyenne de la composante parallèle à D  du mo-
ment dipolaire permanent μ0 , dans une situation où l’orientation de celui-ci
est aléatoire : "π
(μ0 cos θ) eμ0 D cos θ/kT sin θ dθ μ20 D
0 "π =
0
eμ0 D cos θ/kT sin θ dθ 3kT
Conclusion : à haute température ou sous faible champ, les rotateurs sont
libres ; les orientations des moments dipolaires permanents sont distribués aléa-
toirement.
164 CHAPITRE 4. GAZ PARFAIT D’ATOMES OU MOLÉCULES

Entropie et capacité thermique.

Fig. 4.9 – Milieux diélectriques : capacité thermique

L’entropie est obtenue par dérivation par rapport à T :


 
∂ΦM sinh y 
S=− = S0 − Nk y L(y) − ln
∂T V,D,N y

On vérifie facilement que S est toujours inférieure à S0 : le champ électrique limite


la liberté de mouvement de rotation des dipôles, et il y a diminution d’entropie.
Pour la capacité thermique CVD , il faut exprimer le potentiel thermodynamique
E − D M en fonction de (T, V, D, N).[7] On trouve (figure 4.9) :

Nα D 2
E − D M = ΦM + T S = Φ0M + T S0 − − Nμ0 D L(y)
2
 
∂(E − DM) 0 y2 
CVD =− = CVD + Nk 1 −
∂T V,D,N sinh2 y

7
Pour CVM , on exprime E en fonction de (T, V, M, N ) ; pour CpM , on exprime E + p V en
fonction de (T, p, M, N ) ; pour CpD , on exprime H = E + p V − D M en fonction de (T, p, D, N ).
Chapitre 5

Les gaz parfaits quantiques

5.1 Les différents cas pratiques


On a vu (paragraphe√ 3.3.1) que le modèle haute température est valable si
3
ρ Λ  1, avec Λ = h/ 2π m kT . Cette condition est vérifiée dans la plupart des
cas pratiques. On étudie ici deux systèmes de particules matérielles pour lesquels le
modèle haute température n’est plus utilisable.
L’hélium est particulier pour deux raisons :
– c’est un atome de faible masse (3 He : A = 3, 4 He : A = 4) ;
– c’est un gaz rare : les interactions entre atomes sont extrêmement faibles.
Les interactions sont si faibles que l’on peut considérer le gaz comme quasiment
parfait jusqu’à l’état liquide. Les densités valent ρ ≈ 1, 60 1028 atomes par m3
pour 3 He, et ρ ≈ 2, 26 1028 atomes par m3 pour 4 He. Moyennant quoi, la condition
ρ Λ3 (T )  1 s’écrit T 6 K pour les deux isotopes (voir équation 3.2). Sachant que
les températures de liquéfaction valent 3,2 K (3 He) et 4,2 K (4 He), le modèle classique
décrit au paragraphe 3.3.1 ne convient plus à basse température, les effets quantiques
devenant de plus en plus importants au fur et à mesure que la température décroît.
À noter que, bien que faibles, les interactions classiques à l’état liquide existent. Les
résultats ne pourront donc être que qualitatifs.
Autre propriété à prendre en compte : le spin. L’hélium 3 est un atome de spin
1/ (c’est donc un fermion) alors que l’hélium 4 est un atome de spin nul (c’est
2
donc un boson). A basse température, les deux isotopes auront des comportements
radicalement différents.
L’électron : dans les métaux dits normaux, le système constitué des électrons
de conduction peut être considéré comme un gaz parfait. C’est le modèle du gaz
d’électrons libres de Fermi. Les principales caractéristiques de ce gaz :
– très faible masse de la particule (m ≈ 10−30 kg), spin 1/2 ;
– haute densité du gaz (ρ ≈ 3 1028 e− /m3 ).
La condition ρ Λ3 (T )  1 s’écrit ici T 50 000 K. Jusqu’à la fusion du métal, la
température sera considérée comme très basse : le gaz d’électrons est dit dégénéré.
Il existe également des gaz purement quantiques, constitués de particules imma-
térielles (particules de masse nulle comme les photons ou de phonons). Ce type de
gaz, au traitement particulier, a fait l’objet des paragraphes 2.4 et 2.5.
166 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

5.2 L’hélium à haute température


Ce paragraphe est consacré aux gaz légers (comme l’hélium) à (relativement)
haute température. Le gaz parfait sera tridimensionnel et décrit dans l’approxima-
tion du continuum. Les variables choisies comme fixées sont (T, V, N), en fonction
desquelles on exprimera les autres grandeurs (E, S, p, μ, CV ). On rappelle les équa-
tions de base :
 2m 3/2 ∞ √ε dε
N = (2s + 1) 2πV (ε−μ)/kT + σ
(5.1)
h2 0 e

3  2m 3/2 ∞ ε √ε dε
E = p V = (2s + 1) 2πV (5.2)
2 h2 0 e
(ε−μ)/kT + σ

On ignore les degrés de liberté électroniques et nucléaires. Ils n’ont aucune in-
fluence dans le déroulement des calculs. On se reportera au paragraphe 4.1.1 pour
savoir ce qu’il faut ajouter à μ et S pour en tenir compte.

5.2.1 Calcul du potentiel chimique


Dans l’étude du gaz parfait classique (paragraphe 3.3.1), nous avions tout sim-
plement retiré σ du dénominateur. L’approximation adoptée ici (développement au
premier ordre) est moins violente. On peut bien entendu étendre le raisonnement à
des développements d’ordre plus élevé, mais le premier ordre suffit à distinguer le
comportement des bosons de celui de fermions.
De l’expression ?? de N on doit calculer le potentiel chimique μ, de façon à
pouvoir exprimer E en fonction de (T, V, N).
N ε μ
On pose ρ = , x = et γ = − .
V kT kT
En remplaçant dans l’expression 5.1, on trouve que γ doit vérifier :
 ∞ √
2 x dx ρ Λ3 (T ) h
√ = ϕ avec ϕ = et Λ(T ) = √ (5.3)
π 0 e x+γ +σ 2s + 1 2π mkT
ϕ est une grandeur sans dimension qui définit entièrement le gaz (la masse et
le spin d’une particule et la densité et la température du gaz). Elle prend des va-
leurs très grandes à basse température ou à haute densité, et très faibles à haute
température ou à basse densité. Dans un gaz parfait classique, on a ϕ = λ = e−γ
rigoureusement.
À haute température, γ = −μ/kT est très grand. On a donc e−(x+γ) = λ e−x
petit pour tout x. On réécrit la relation 5.3 en faisant apparaître ce terme :
 √
2λ ∞ x e−x dx
I(λ) = ϕ avec I(λ) = √ (5.4)
π 0 1 + σλ e−x
1 ∞
On remplace maintenant par (−σλ e−x )j .
1 + σλ e−x j=0
" ∞ √ −u " ∞ √ −(j+1)x
On trouve, sachant √2π 0 u e du = 1 ⇒ √2π 0 xe dx = (j + 1)−3/2 :

(−σλ)j σ 2 1 3 σ 4
I(λ) = λ ⇒ ϕ = I(λ) = λ − √ λ + √ λ − √ λ + ...
j=0
(j + 1)3/2
2 2 3 3 4 4
5.2 L’hélium à haute température 167

ϕ et λ étant deux infiniment petits du même ordre, on accède à λ par inversion


de série[1] . On obtient :
σ 1 1  σ  1 5 5 
λ = ϕ + √ ϕ2 + − √ ϕ3 − √ √ + √ − √ ϕ4 + . . .
2 2 4 3 3 2 2 2 2 3 3 4 4
Pour ce qui nous concerne, les deux premiers termes suffisent :
σ σ
ϕ ≈ λ − √ λ2 λ ≈ ϕ + √ ϕ2
2 2 2 2
 σ  σ
μ = kT ln λ ≈ kT ln ϕ + kT ln 1 + √ ϕ ≈ kT ln ϕ + kT √ ϕ
2 2 2 2

5.2.2 Les autres grandeurs thermodynamiques


ε ρΛ3
On réexprime d’abord E (5.2) en posant λ = eμ/kT , x = et ϕ = :
kT 2s + 1
 ∞
NkT 2λ x3/2 e−x dx
E= J(λ) avec J(λ) = √
ϕ π 0 1 + σλ e−x
"∞
Avec √2 u3/2 e−u du = 3/2, on trouve par un calcul similaire à celui de I(λ) :
π 0

3 (−σλ)j 3 

σ 2 1 3 σ 4
J(λ) = λ = λ − √ λ + √ λ − √ λ + . . .
2 j=0 (j + 1)5/2 2 4 2 9 3 16 4
σ
Et on remplace λ par ϕ + √ ϕ2 . Le calcul au premier ordre conduit à :
2 2
3  σ 
E ≈ NkT 1 + √ ϕ
2 4 2
On calcule enfin la capacité thermique CV en dérivant E par rapport à T (atten-
tion en dérivant : ϕ dépend de T ), la pression avec la relation pV = 23 E, et l’entropie
grâce à T S = E + pV − Nμ ; Ci-dessous le bilan complet de l’étude :
σ μ σϕ
λ ≈ ϕ + √ ϕ2 ≈ ln ϕ + √
2 2 kT 2 2

E 3 3σ ϕ pV σϕ
≈ + √ ≈1+ √ (5.5)
NkT 2 8 2 NkT 4 2

CV 3 3σ ϕ S 5  σϕ
≈ − √ ≈ − ln ϕ + √
Nk 2 16 2 Nk 2 8 2
Dans chacune des six expressions, le premier terme (celui ne contenant pas σ)
correspond au gaz parfait classique où les effets quantiques sont ignorés. Les termes
contenant σ représentent les effets quantiques. L’expression de E montre que les ef-
fets quantiques font augmenter l’énergie des fermions (σ = +1) et diminuer celle des
1
y = x + a x2 + b x3 + c x4 + . . . ⇒ x = y − a y 2 − (b − 2a2 )y 3 − (c − 5ab + 5a3 )y 4 − . . .
168 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

bosons (σ = −1). On parle de répulsion quantique pour les fermions, et d’attraction


quantique pour les bosons. Mais il ne faut pas pousser trop loin l’analogie avec les in-
teractions classiques : celles-ci provoquent toujours une diminution d’entropie (qu’il
y ait répulsion ou attraction entre particules), alors que la répulsion quantique chez
les fermions provoque une augmentation d’entropie.
Pour quantifier ces interactions, on peut calculer la fonction de partition cano-
nique à partir de l’énergie libre comme au paragraphe 3.3.2. On trouve ici :
 
1  (2s + 1)V N −N ϕ/4√2
F (T, V, N) = −kT ln e
N! Λ3 (T )

(2s + 1)N N −N σϕ/4√2


et donc Q(T, V, N) = V e
N! Λ3N

Le terme (2s + 1)N est √ce que nous avons appeler Qquant au paragraphe 3.6.2. On
en déduit que V N e−N σϕ/4 2 est l’intégrale de configuration classique du système[2]
(voir équation 3.33). Soit U l’énergie potentielle classique censée représenter les
interactions quantiques :
  √
ZN = · · · dq1 . . . dq3N e−U/kT = V N e−N σϕ/4 2

En remplaçant U par N ū, sachant que l’énergie moyenne d’interaction ū par


atome est indépendant de la position dans l’enceinte, et sachant que dq1 . . . dq3N
s’écrit en coordonnées cartésiennes dx1 dy1 dz1 . . . dxN dyN dzN on trouve :
√ 1   1  
−N σϕ/4 2 −N ū/kT
e =e dx1 dy1 dz1 × . . . × dxN dyN dzN = e−N ū/kT
V V V V

On en déduit l’énergie moyenne d’interaction (pour v̄, voir équation 3.5) :

σϕ σ  h2 3/2 ρ N σ h3
ū = kT √ = √ √ = × √
4 2 4 2 2π m (2s + 1) kT 2s + 1 4π 2 2 V m2 v̄

Résultat tout à fait correct :


– ū est du signe de σ : répulsion pour les fermions, attraction pour les bosons ;
– |ū| augmente quand ρ augmente ou quand T diminue ;
N
– pour une particule dans un état de spin donné, 2s+1 est le nombre de particules
dans le même état de spin : les interactions ne concernent que deux particules
dans le même état de spin ; c’est également ce qu’on trouve dans le traitement
quantique de Hartree-Fock des interactions entre électrons ;
On peut également remarquer que ū est inversement proportionnel à la vitesse
moyenne v̄ : plus les particules sont rapides, plus les interactions sont faibles.
2
plus exactement, c’est l’intégrale de configuration classique équivalente : on cherche ici à quoi
ressemblent classiquement les interactions quantiques.
5.3 L’hélium 3 à basse température et l’électron 169

5.3 L’hélium 3 à basse température et l’électron


On pose maintenant σ = +1 :
 ∞  ∞
3
N= g(ε) fFD(ε, T, μ) dε E = pV = ε g(ε) fFD(ε, T, μ) dε (5.6)
0 2 0

 2m 3/√
2 1
avec g(ε) = (2s + 1) 2πV ε et fFD (ε, T, μ) =
h2 e(ε−μ)/kT +1

5.3.1 L’état fondamental


L’état fondamental est celui qu’on observerait au zéro absolu. Au zéro absolu,
fFD (ε, 0, μ) est une marche : elle vaut 1 pour tout ε inférieur à μ, et 0 pour tout
ε supérieur à μ. Le potentiel chimique μ(T =0 K) est le plus haut niveau d’énergie
occupé. On l’appelle le niveau de Fermi et on le note εF :

0 1 si ε < εF
fFD (ε) = fFD (ε, 0, μ) =
0 si ε > εF

On en déduit qu’au zéro absolu on a :


 ε  ε
F 3 F
N= g(ε) dε et E = p V = ε g(ε) dε
0 2 0

N
La première expression permet de calculer εF en fonction de ρ = V
:

h2  2/3 − 
6π 2 ρ 2/3
2
3ρ h
εF = =
2m 4π (2s + 1) 2m 2s + 1
On peut exprimer en fonction de εF la densité d’états, ainsi que l’énergie interne
et la pression au zéro absolu :
 
3 N ε ε 3 N
g(ε) = = g(εF) avec g(εF) =
2 εF εF εF 2 εF
3 2
E0 = N ε̄0 = N εF p0 = ρ εF
5 5

5.3.2 Le calcul de Sommerfeld


 2m 3/2 3 N
On réécrit les équations 5.6 en remplaçant (2s + 1) 2πV par :
h2 2 ε3/2
F

 ∞ √ 3/2  ∞
ε dε εF E 3/
2 ε3/2 dε
= 3 et ε̄ = = 3/2
0 e (ε−μ)/kT +1 /2 N εF 0 e(ε−μ)/kT + 1

On est ainsi amené à calculer des intégrales du type :


 ∞
φ(ε) dε √
Ψ(T, μ) = avec φ(ε) = ε ou φ(ε) = ε3/2
0 e (ε−μ)/kT +1
170 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

Le calcul qui suit, dû à Sommerfeld,


" μ permet de trouver les termes correctifs
de Ψ(T, μ) par rapport à Ψ(0, μ) = 0 φ(ε) dε et de calculer toutes les grandeurs
thermodynamiques à basse température.
Pour T = 0 K, les termes correctifs s’écrivent :
 ∞
δΨ(T, μ) = Ψ(T, μ) − Ψ(0, μ) = φ(ε) δfFD (ε, T, μ) dε
0

fFD (ε, T, μ) − 1 si ε < μ
avec δfFD (ε, T, μ) =
fFD (ε, T, μ) si ε > μ

Fig. 5.1 – La fonction δfFD (ε, T, μ)

Cette fonction δfFD (figure 5.1) a deux particularités :


– son graphe en fonction de ε possède un centre de symétrie : le point (μ, 0) ;
– elle prend des valeurs appréciables uniquement dans un domaine de quelques
kT centré sur ε = μ.
On peut donc sans commettre d’erreur appréciable remplacer la borne inférieure
de l’intégrale par −∞, et appliquer à la fonction φ un développement de Taylor au
voisinage de μ.
On pose tout d’abord x = (ε − μ)/kT : fFD (ε, T, μ) et δfFD (ε, T, μ) deviennent
des fonctions à une seule variable f (x) et δf (x). On remarquera que la fonction δf
est impaire :

⎪ −1

⎪ f (x) − 1 = si x < 0
1 ⎨ e +1
−x
f (x) = x et δf (x) =
e +1 ⎪
⎪ 1

⎩ f (x) = si x > 0
e +1
x

Les valeurs de x pour lesquelles δf (x) est appréciable appartiennent à un domaine


large de quelques unités centré sur 0.
La fonction δΨ s’écrit maintenant :
 0  +∞
 −dx dx
δΨ(T, μ) = kT φ(μ + kT x ) −x + kT φ(μ + kT x) x
−∞ e +1 0 e +1

Ce qui donne, après changement de variable x = −x :


 +∞
% & dx
δΨ(T, μ) = kT φ(μ + kT x) − φ(μ − kT x)
0 ex+1
5.3 L’hélium 3 à basse température et l’électron 171

Si on se contente du premier ordre, le crochet vaut tout simplement 2kT x φ (μ).


Si ce n’est pas suffisant,[3] on développe le crochet en puissances de kT x :


(kT x)2j−1
φ(μ + kT x) − φ(μ − kT x) = 2 φ(2j−1) (μ)
j=1
(2j − 1)!

On en déduit :
∞ 
 +∞ 
(kT )2j−1 (2j−1) x2j−1 dx
δΨ(T, μ) = 2 φ (μ)
j=1
(2j − 1)! 0 ex + 1

Les intégrales restantes sont connues. Les trois premières valent :


 +∞  +∞ 3  +∞ 5
x dx π2 x dx 7π 4 x dx 31π 6
= = =
0 ex + 1 12 0 ex + 1 120 0 ex + 1 252
Nous nous contenterons des deux premiers termes :

π2 2  7π 4
δΨ(T, μ) = (kT ) φ (μ) + (kT )4 φ (μ)
6 360
On peut maintenant revenir à nos deux équations :
 ∞ √ 3/2  ∞
ε dε εF E 3/
2 ε3/2 dε
= et ε̄ = = 3/2
0 e(ε−μ)/kT + 1 3/
2 N 0εFe(ε−μ)/kT + 1

Pour la première équation, on applique ce qui précède à φ(ε) = ε :
 μ
√ μ3/2 π 2 (kT )2 7π 4 (kT )4
Ψ(0, μ) = ε dε = 3 δΨ(T, μ) = √ + + ...
0 /2 12 μ 960 μ5/2
 
3/2 2  3/2 π 2  kT 2 7π 4  kT 4
εF = Ψ(0, μ) + δΨ(T, μ) = μ 1+ + + ...
3 8 μ 640 μ
On élève la série à la puissance −2/3, et on multiplie le tout par kT . On écrit
ainsi l’infiniment petit kT
εF
en fonction de l’infiniment petit kT
μ
:
 
kT kT π 2  kT 2 π 4  kT 4
= 1− + + ...
εF μ 12 μ 720 μ

On inverse la série (voir note au bas de la page 167) :


 
kT kT π 2  kT 2 7π 4  kT 4
= 1+ + + ... (5.7)
μ εF 12 εF 360 εF
Et enfin, on divise par kT et on élève à la puissance −1 :
 
π 2  kT 2 π 4  kT 4
μ = εF 1 − − + ... (5.8)
12 εF 80 εF
3
c’est malheureusement le cas, afin de distinguer la capacité thermique et l’entropie
172 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

Pour la deuxième équation, on a φ(ε) = ε3/2 :


 μ
μ5/2 π2 √ 7π 4 (kT )4
Ψ(0, μ) = ε3/2 dε = 5 δΨ(T, μ) = (kT )2 μ − + ...
0 /2 4 960 μ3/2
 
2/ 
3  4 μ5/2 5π 2  kT 2 7π 4  kT 4
ε̄ = 3/2 Ψ(0, μ) + δΨ(T, μ) = 1+ − + ...
εF 15 ε3/2
F
8 μ 384 μ
En utilisant 5.7 et 5.8, on exprime E en fonction de (T, N, εF ) :
 
3 5π 2  kT 2 π 4  kT 4
E = N ε̄ = N εF 1 + − + ...
5 12 εF 16 εF
On calcule la capacité thermique CV en dérivant E par rapport à T (sachant que
εF n’est fonction que de N et V ), la pression avec la relation pV = 2E 3
, et l’entropie
grâce à T S = E + pV − Nμ :
 
2 5π 2  kT 2 π 4  kT 4
p = ρ εF 1 + − + ...
5 12 εF 16 εF
   
π 2 kT 3π 2  kT 2 π 2 kT π 2  kT 2
CV = Nk 1− +... S = Nk 1− +...
2 εF 10 εF 2 εF 10 εF
Au premier ordre, la loi CV (T ) est linéaire : c’est ce qu’on constate également
expérimentalement. La pression ne s’annule pas lorsque T tend vers 0. La pression
résiduelle p0 est appelée pression quantique. Elle est due au principe d’exclusion de
Pauli : les fermions ne pouvant pas tous se mettre sur le niveau fondamental (vitesse
nulle), les chocs contre les parois existent même au zéro absolu.

5.3.3 Conditions de validité


Le modèle basse température de Sommerfeld exige kT  εF , ou encore :
 3 2/3 h2  ρ 2/3 h2  ρ 2/3
T  TF avec TF = ≈ 0, 385
4π 2mk 2s + 1 2mk 2s + 1
TF est appelée température de Fermi. Plus la densité du gaz est faible, plus la
température doit être faible également. Le système dans ces conditions constitue
ce qu’on appelle un gaz de fermions dégénéré dans lequel les effets quantiques sont
importants.
ρΛ3 (T )
Le modèle haute température est valable lorsque  1. Ce qui donne :
2s + 1

1 h2  ρ 2/3 h2  ρ 2/3
T TC avec TC = ≈ 0, 318
π 2mk 2s + 1 2mk 2s + 1
Les effets quantiques deviennent insignifiants, et le gaz devient classique.

TF et TC ont même ordre de grandeur. Pour savoir si tel ou tel modèle est valable,
les deux tests sont équivalents.
5.3 L’hélium 3 à basse température et l’électron 173

On peut, soit comparer la température de travail à la température de Fermi (fonc-


tion de la densité du gaz), soit comparer la distance moyenne entre particules (de
l’ordre de ρ−1/3 ) à la longueur thermique de de Broglie (fonction de la température).

Pour les électrons dans un métal (TF ≈ 40 000 K), on peut à toute tempé-
rature ne garder dans les expressions que le premier terme. On en déduit, et c’est
vérifié expérimentalement, que le potentiel chimique et la pression sont indépendants
de T , et que la capacité thermique et l’entropie suivent une loi linéaire en T :

h2  3ρ 2/3 −2 
h 2/3
μ = εF = = 3π 2 ρ (5.9)
2m 8π 2m
3 2 π 2 kT
E = N ε̄ = N εF p = ρ εF CV = S = Nk
5 5 2 εF
Remarque : Un cas plus exotique est celui des naines blanches. Ce sont des étoiles
qui ont épuisé tout le combustible qui alimente les réactions nucléaires. Dans une
étoile habituelle, la pression engendrée par ces réactions contrebalance les forces
gravitationnelles, et la densité se stabilise à une valeur proche de celle de la terre.
Dans une naine blanche, c’est la pression quantique du gaz d’électrons qui contreba-
lance les forces gravitationnelles. La température qui y règne est de l’ordre de 107 K.
On pourrait penser qu’on a affaire à un gaz classique. Mais les mesures montrent
que masse volumique et densité du gaz d’électrons atteignent des valeurs énormes
(∼ 5 tonnes par cm3 et 1036 e− /m3 ), et ils ne sont pas seuls . . .), ce qui donne
TF ∼ 5 109 K, et par conséquent, à 107 K, un gaz d’électrons totalement dégénéré.

Pour l’hélium 3 (TF ≈ 4, 9 K à l’état liquide), les formules valables pour l’élec-
tron ne le sont ici qu’aux températures inférieure à 0,5 K. Au delà, les développe-
ments limités sont nécessaires, avec de plus en plus de termes au fur et à mesure que
la température augmente. De même avec le modèle haute température (paragraphe
5.2) où il faut de plus en plus de termes dans les développements au fur et à mesure
que la température décroît. Aux températures intermédiaires, on peut constater que
les deux modèles se rejoignent parfaitement[4] . Les courbes obtenues se trouvent au
paragraphe 5.4 en regard de celles trouvées pour l’hélium 4.

5.3.4 L’effet Pomerantchuk


L’hélium, en raison de sa faible masse atomique, présente la particularité de
n’exister à l’état solide que sous forte pression (4 He : 25 bars, 3 He : 29 bars). En
effet, le critère de Lindemann, bien vérifié expérimentalement, estime que la fusion
d’un solide a lieu lorsque l’extension spatiale des vibrations atomiques devient su-
périeure au dixième de la distance interatomique. Or, l’extension spatiale varie de
façon inversement proportionnelle à la racine carrée de mω. L’atome d’hélium étant
très léger, cette extension spatiale est, aux pressions habituelles, comparable aux
distances interatomiques : même à l’état fondamental, c’est-à-dire au zéro absolu,
4
à condition d’éviter les transitions gaz−liquide et liquide−solide. L’état solide ne peut être
obtenu qu’au delà de 29 bars. Pour éviter la transition gaz−liquide, il faut se placer à des pressions
supérieures à celle du point critique (1,15 bars). Le système est alors homogène à toute température.
174 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

l’extension spatiale des oscillateurs reste très supérieure au dixième de la distance


interatomique : la solidification est donc impossible. Lorsqu’on augmente fortement
la pression, la distance interatomique ne diminue que très peu. Par compte la pul-
sation ω augmente fortement : l’extension spatiale diminue et la solidification peut
avoir lieu en dessous d’une certaine température.

(a)

Fig. 5.2 – Diagramme p -T de l’hélium 3

Le diagramme p-T de l’hélium 3 représenté figure 5.2 fait apparaître une autre
particularité de ce fluide : une courbe de solidification décroissante de 0 à 0,32 K.
C’est un cas unique. Si, porté à 1 K et à 32 bars par exemple, on lui retire de la
chaleur, sa température décroît jusqu’à environ 0,7 K où il passe de l’état liquide à
l’état solide. Une fois la dernière goutte de liquide solidifiée, sa température décroît
à nouveau jusqu’à 0,2 K, où il subit la transformation inverse : il repasse à l’état
liquide.
Conclusion : dans la poche notée (a) sur le diagramme, l’entropie du liquide est
plus faible que celle du solide. C’est l’effet Pomerantchuk. Ce phénomène qui semble
anormal s’explique très simplement, du moins si l’on reste qualitatif.
D’abord, rappelons que :
– l’hélium 3 est un fermion de spin 1/2 ;
– à l’état liquide, les atomes sont indiscernables : ils sont tous identiques et
occupent en commun la même région de l’espace ;
– à l’état solide, ils occupent les sites d’un réseau : ils deviennent discernables.
Comparons l’enthalpie libre G = E − T S + pV du système pour ces deux états
à une pression p et une température T données.
– L’énergie interne est plus faible à l’état solide qu’à l’état liquide.
– L’entropie ne prenant en compte que l’état orbital tend vers 0 quand T tend
vers zéro aussi bien à l’état liquide qu’à l’état solide. On pourra négliger son
effet dans notre étude qualitative.
– La différence de volume entre la phase liquide et la phase solide est également
négligeable.
5.3 L’hélium 3 à basse température et l’électron 175

C’est l’entropie de configuration des spins qui change radicalement lorsqu’on


passe d’une phase à l’autre.
A l’état liquide, les N atomes (fermions) du système ont de plus en plus tendance
à occuper les N états de plus basse énergie au fur et à mesure que la température
diminue. Pour atteindre cet état fondamental, il est nécessaire que la moitié des
fermions soient dans un état de spin donné, et l’autre moitié dans l’autre (de façon
à pouvoir occuper chaque état orbital par deux fermions). Mais ces fermions étant
indiscernables à l’état liquide, l’entropie de configuration des spins est nulle.
À l’état solide, les atomes sont localisés sur les sites d’un réseau cristallin. Ils
deviennent discernables et peuvent donc tous occuper le même état vibratoire, ce
qui a pour effet de faire chuter l’énergie interne. Par contre, l’entropie augmente
fortement : en l’absence de champ magnétique, ils peuvent posséder de façon équi-
probable les deux états de spin disponibles. Il y a pour le système 2N possibilités,
et donc une contribution à l’entropie valant Nk ln 2 qui ne tend pas vers 0 quant T
tend vers 0.
Ce fait n’est pas en contradiction avec le troisième principe : à température
beaucoup plus basse (estimée à quelques dizaines de nanokelvins pour l’hélium), il
faut tenir compte des interactions entre spins causant une mise en ordre de ceux-ci
(et donc un champ magnétique induit), ne laissant au système qu’un seul état de
spin possible. Il en résulte une entropie nulle au zéro absolu.
On peut se demander pourquoi on n’observe pas ce phénomène avec les autres
fermions, en particulier pour les autres gaz rares qui ont une énergie de cohésion
à l’état condensé équivalente à celle de l’hélium. L’entropie SL (T ) à l’état liquide
varie en T /TF : rien que pour le néon, elle est, à température équivalente, sept fois
plus forte que celle de l’hélium. Partant du zéro absolu, SL (T ) devient supérieure
à l’entropie SC de l’état solide à température beaucoup plus basse, inférieure à la
température de mise en ordre des spins qui annule SC .
L’effet Pomerantchuk est à la base d’une technique permettant d’atteindre le
millikelvin. On amène l’hélium 3 à la pression ordinaire à la température de 0,2 K
(en pompant la vapeur au dessus du liquide[5] ). On comprime à T constant jusqu’à
la courbe de solidification (32 bars). On l’isole et on comprime à nouveau. La soli-
dification ne peut s’opérer puisque ce faisant le système doit libérer de la chaleur (il
est isolé). Son point représentatif sur le diagramme p-T doit donc suivre la courbe de
solidification. Toute autre substance au cours de cette étape verrait sa température
augmenter. Pour l’hélium 3 c’est l’inverse : sa température diminue. On peut ainsi
descendre aux alentours du millikelvin.

5
C’est une méthode classique ; au dessus du liquide se forme une vapeur dont la pression à
saturation est fonction croissante de la température ; si on pompe cette vapeur, la pression diminue,
et donc la température également ; on peut ainsi ajuster la température de façon continue depuis
le point critique (5,2 K pour l’hélium 4 ordinaire, 3,2 K pour l’hélium 3) jusqu’au point triple
du fluide ; l’hélium n’ayant pas de point triple, on peut en principe atteindre des températures
quasi-nulles, mais la température minimale accessible dépend de la puissance de la pompe qui doit
extraire la vapeur plus vite qu’elle ne se reforme ; avec l’hélium ordinaire, il n’est pas possible de
descendre en-dessous de 0,7 K (sa pression de vapeur saturante décroît extrêmement rapidement
avec la tempéraure) ; avec l’hélium 3, il est possible d’atteindre 0, 2 K (à 0,5 K par exemple, sa
pression de vapeur saturante est 10 000 fois plus importante que celle de l’hélium 4).
176 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

5.3.5 Le réfrigérateur à dilution d’hélium 3 dans l’hélium 4


Contrairement à la technique utilisant l’effet Pomerantchuk, le réfrigérateur à
dilution d’hélium 3 dans l’hélium 4 (mis au point en 1960) permet une production
continue de froid jusqu’à environ 2 millikelvins. En voici le principe.
Lorsqu’on mélange de l’hélium 3 et de l’hélium 4, on obtient un fluide qui se
liquéfie, à pression ordinaire, à une température comprise entre 3,2 et 4,2 K dépen-
dant de la concentration. Dans cette gamme de température, les deux isotopes sont
miscibles en toutes proportions. Lorsqu’on abaisse le température, on constate qu’à
0,87 K, le liquide se sépare en deux phases, l’une pauvre en hélium 3 au fond du
récipient, l’autre riche en hélium 3 plus légère qui surnage. Au fur et à mesure que
la température s’abaisse, la phase riche supérieure s’enrichit et la phase pauvre in-
férieure s’appauvrit. Quand T tend vers 0, la phase supérieure tend vers de l’hélium
3 pur, alors que la phase inférieure ne tend pas vers de l’hélium 4 pur : il y restera
toujours au moins 6,4 % d’atomes d’hélium 3.
Dans la phase inférieure, pauvre en hélium 3, du fait de la superfluidité de l’hé-
lium 4 dans cette gamme de température (voir paragraphe 5.4.5), les atomes d’hé-
lium 3 ont le comportement d’un gaz (l’habituelle pression doit simplement être
remplacée par une pression osmotique). L’hélium 3 étant un fermion, cette pression
ne s’annule pas au zéro absolu (la pression résiduelle vaut environ 15 millibars). Il
est donc envisageable d’extraire ce que nous appellerons le quasi-gaz et de créer du
froid même très près du zéro absolu.
À très basse température, le quasi-gaz d’hélium 3 de la phase inférieure est en
équilibre avec l’hélium 3 à peu près pur de la phase supérieure : tout se passe comme
dans un équilibre liquide - gaz habituel, à ceci près qu’ici la phase liquide flotte au
dessus de la phase gazeuse. Un échange constant d’atomes se produit à travers la
surface séparant les deux phases : ”l’évaporation” (vers le bas) s’accompagne d’une
absorption de chaleur, alors que la ”condensation” (vers le haut) s’accompagne d’un
dégagement de chaleur.

Fig. 5.3 – Schéma de principe de la pompe à dilution

Le principe est donc le même que celui d’un réfrigérateur à évaporation - conden-
sation classique. La figure 5.3 représente le schéma de l’installation. L’hélium 3 sor-
tant de la pompe est injecté sous pression à l’intérieur du condenseur (un bain
d’hélium 4 à 1 K), où il est liquéfié et refroidi. Il est ensuite acheminé vers la boîte
5.4 L’hélium 4 à basse température 177

de mélange où il est mis en contact avec le liquide inférieur contenant le quasi-gaz


d’hélium 3. Grâce au pompage, celui-ci se trouve appauvri en hélium 3 dans le dis-
tillateur (1 % dans le distillateur pour 6,4 % dans la boîte de mélange). Il s’établit
ainsi un flux d’hélium 3 de la boîte de mélange vers le distillateur, ce qui provoque
”l’évaporation” (vers le bas) attendue dans la boîte de mélange.

5.4 L’hélium 4 à basse température


On pose maintenant σ = −1 et s = 0 :
 ∞  ∞
3
N= g(ε) fBE(ε, T, μ) dε E = pV = ε g(ε) fBE(ε, T, μ) dε
0 2 0
(5.10)
 2m 3/√
2 1
avec g(ε) = 2π V ε et fBE (ε, T, μ) =
h2 e(ε−μ)/kT −1

5.4.1 Température de Bose, volume atomique de Bose


Même principe qu’avec les fermions : de l’expression de N on tire le potentiel
chimique. Mais ici, un problème se pose.
ε μ
En posant x = et γ = − , on doit trouver γ tel que :[6]
kT kT
 ∞ √
2 x dx 3 Λ3 (T )
I(γ) = ϕ avec I(γ) = √ et ϕ = ρ Λ (T ) =
π 0 ex+γ − 1 v

Fig. 5.4 – Graphe de la fonction I(γ)


On sait que le potentiel chimique est toujours inférieur à l’énergie du niveau
fondamental. Étant donné que nous avons placé l’origine des énergies sur celui-ci,
on doit donc avoir μ < 0 et par conséquent γ > 0. Vu l’allure du graphe I(γ) (figure
5.4), on ne pourra trouver une valeur positive à γ que si :
Λ3 (T ) h3
ϕ= = ≤ 2, 612
v v (2π m kT )3/2
6
Dans ce paragraphe, les résultats seront exprimés, non pas en fonction de la densité ρ = N/V
mais en fonction du volume atomique v = V /N .
178 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

On peut envisager deux types d’expérience :


– travailler à volume atomique constant et faire varier la température pour
tracer des isochores sur le diagramme p -T ; la condition ϕ ≤ 2, 612 devient :
h2
T ≥ TB (v) avec TB (v) = ou encore
2π m kT (2, 612 v)2/3
h
Λ(T ) ≤ ΛB (v) avec ΛB (v) = (2, 612 v)1/3 et Λ(T ) = √
2π m kT
– travailler à température constante et faire varier le volume pour tracer des
isothermes sur le diagramme p -v ; la condition ϕ < 2, 612 s’écrit alors :
Λ3 (T ) h3
v ≥ vB (T ) avec vB (T ) = =
2, 612 2, 612 (2π m kT )3/2

TB est la température de Bose, vB est le volume atomique de Bose.

Dans ce qui suit, nous raisonnerons à volume atomique constant en faisant varier
la température. Le volume atomique de Bose n’aura son utilité qu’au moment du
tracé du diagramme p -v.
Les démonstrations seront effectuées en conservant ϕ dans les expressions. On
remplacera celui-ci :
Λ3 (T )  T (v) 3/2
B
– par 2, 612 3 = 2, 612 lorsqu’on dérivera par rapport à T ,
ΛB (v) T
vB (T )
– par 2, 612 lorsqu’on dérivera par rapport à V ou N.
v
La température de Bose sépare deux domaines de température dans lesquels
le système possède des propriétés totalement différentes. Pour l’hélium 4 à l’état
liquide, on trouve TB = 3, 20 K.
Les températures très supérieures à TB ont été traitées au paragraphe 5.2.2. Les
résultats que nous y avons trouvés (équations 5.5, avec ici σ = −1 et s = 0) ont
été obtenus à partir de développements limités du premier ordre. En poussant de
plus en plus loin les développements limités, on peut en principe utiliser ce modèle
jusqu’à des températures très voisines de TB . Mais il existe un modèle mieux adapté
aux températures légèrement supérieures à TB .

5.4.2 Températures légèrement supérieures à TB


Aux températures proches de TB , γ tend vers 0 par valeurs supérieures, et I(γ)
tend vers I(0) = 2, 612 par valeurs inférieures. Un calcul au premier ordre plutôt
fastidieux donne :
 ∞ √ 
2 x dx μ (2, 612 − ϕ)2
ϕ = I(γ) = √ ≈ 2, 612 − 4π γ ⇒ γ = − ≈
π 0 ex+γ − 1 kT 4π
Pour le calcul de l’énergie interne E, on repart de :
 2m 3/2 ∞ ε3/2 dε NkT 2
 ∞ 3/2
x dx
E = 2π V = J(γ) avec J(γ) = √
h2
0 e
(ε−μ)/kT −1 ϕ π 0 ex+γ − 1
5.4 L’hélium 4 à basse température 179

On pose δJ(γ) = J(γ) − J(0) ≈ J(γ) − 2, 0115. Au premier ordre, on a :


  ∞  ∞  1 
dJ 2 3/2 −ex 2 3/2 d
δJ(γ) ≈ γ =γ√ x dx = γ √ x dx
dγ γ=0 π 0 (ex − 1)2 π 0 dx ex − 1

Après intégration par partie, on obtient :


 ∞√
3 2 x dx 2, 0115 − 3, 918 γ
δJ(γ) ≈ − γ √ ≈ −3, 918 γ et donc E = NkT
2 π 0 e −1x ϕ

(2, 612 − ϕ)2


On remplace γ par et on trouve :

2, 0115 − 0, 3118 (2, 612 − ϕ)2 0, 1158
E ≈ NkT ≈ 1, 6288 − − 0, 3118 ϕ
ϕ ϕ
 T (v) 3/2
B
On remplace maintenant ϕ par 2, 612 :
T
  T 3/2  T 3/2 
3 B
E = pV ≈ NkT 1, 6288 − 0, 0443 − 0, 8144
2 TB T
On calcule CV en dérivant E par rapport à T et S grâce à T S = E + pV − Nμ :
  T 3/2  T 3/2 
B
CV ≈ Nk 1, 6288 − 0, 1107 + 0, 4072
TB T
  T 3/2  T 3/2  T 3 
B B
S ≈ Nk 3, 2575 − 0, 0738 − 1, 0858 + 0, 5429
TB T T

5.4.3 Températures inférieures à TB


Partant de T > TB , lorsqu’on diminue la température, le potentiel chimique
(négatif) augmente jusqu’à devenir nul à T = TB . La fonction I(γ) atteint alors son
maximum 2,612. Dès que T devient inférieure à TB , ϕ devient supérieur à 2,612, et
l’équation I(γ) = ϕ n’a plus de solution pour γ.
On sait que, lorsque T diminue, les atomes ont une tendance de plus en plus
marquée à se placer dans leur état fondamental d’énergie nulle. On peut calculer le
potentiel chimique en fonction du nombre N(fond) d’atomes dans l’état fondamental :
1 μ  1 
N(fond) = ⇒ = − ln 1 +
e−μ/kT − 1 kT N(fond)

À haute température, μ/kT → −∞ et donc N(fond) est quasi nul. Plus la tem-
pérature diminue, plus le potentiel chimique s’approche de 0, et plus N(fond) aug-
mente. L’approximation du continuum ne peut pas rendre compte de cette popula-
tion puisque la densité d’états est nulle pour ε = 0. Tant que T est supérieure à TB ,
N(fond) est négligeable : le fait de les oublier n’affecte pas le résultat. En dessous d’une
certaine température (très proche de TB ), le nombre d’atomes à l’état fondamental
180 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

devient macroscopique (on sait que N(fond) doit atteindre la valeur N(fond) = N au
zéro absolu). Dès que N(fond) devient macroscopique, le potentiel chimique devient,
en valeur absolue, parfaitement négligeable devant kT (figure 5.5) :

μ  1  1
= − ln 1 + ≈− ≈0
kT N(fond) N(fond)

À noter qu’il n’est pas nécessaire que N(fond) = N soit d’ordre macroscopique
pour obtenir ce résultat. Un millionième de millionième de mole suffit (∼ 1012
atomes). Ce nombre est atteint à une température extrêmement voisine de TB .

Conclusion : Le potentiel chimique reste rigoureusement nul entre 0 et TB .

C’est là une caractéristique de particules, comme les photons, qui ont la faculté d’ap-
paraître ou disparaître à volonté. Nous avons ici affaire à des particules matérielles.
Bien entendu, elles ne disparaissent pas physiquement, mais elles disparaissent du
calcul : les atomes dans l’état fondamental ne participent plus à l’énergie. Ils peuvent
toujours subir des chocs de la part des autres atomes encore en mouvement, et donc
passer dans un état excité, mais lorsqu’on abaisse la température la probabilité
qu’un tel événement arrive est extrêmement faible par rapport à celle qu’ont les
autres atomes à passer dans l’état fondamental. Ce phénomène est connu sous le
nom de condensation de Bose. Mais attention, ce n’est pas une condensation
habituelle :
– Elle s’effectue, non pas dans l’espace habituel, mais dans l’espace réciproque
(espace des vitesses). Il n’y a pas deux phases distinctes. Les atomes dans
l’état fondamental sont disséminés parmi les autres atomes. Le système reste
toujours homogène, contrairement à ce qui se passe lors d’une transformation
gaz−liquide, où les densités des phases liquide et gazeuse sont différentes.
– Habituellement, lorsqu’on retire de la chaleur à un gaz, la température s’abaisse
jusqu’à ce qu’une première goutte de liquide apparaisse. La température s’ar-
rête alors de baisser, et ce n’est que lorsque la transformation gaz−liquide est
complète que la température peut à nouveau s’abaisser. La condensation de
Bose, par contre, a lieu de façon continue de TB à 0 K, sans interruption de la
baisse de température. Nous en reparlerons au paragraphe 5.4.4.
À noter que la situation est très inhabituelle : un ensemble macroscopique de
particules est dans un état quantique pur. Les fluctuations de N(fond) = N sont donc
extrêmement faibles, d’où des effets importants à l’échelle macroscopique. L’utilisa-
tion de la densité d’états reste correcte pour les états excités. Seul l’état fondamental
est singulier. Si on note N(exc) le nombre d’atomes excités, on a donc (avec μ = 0) :

 2m 3/2 ∞ √  ∞√
ε dε N 2 x dx 2, 612
N(exc) = 2π V = √ =N
h2 0 e ε/kT −1 ϕ π 0 ex −1 ϕ

et donc (figure 5.5 à droite) :


   T 3/2 
2, 612 
N(fond) = N − N(exc) =N 1− =N 1−
ϕ TB
5.4 L’hélium 4 à basse température 181

Fig. 5.5 – Potentiel chimique et nombre d’atomes ”condensés”

Calculons maintenant l’énergie interne, la capacité thermique, la pression et l’en-


tropie. Aux températures inférieures à TB , le potentiel chimique est nul et seuls les
atomes excités participent à l’énergie :
 2m 3/2 ∞ 3/2
ε dε V kT 2
 ∞ 3/2
x dx V kT NkT
E = 2π V = √ = 2, 0115 = 2, 0115
h2 0 eε/kT −1 Λ3 π 0 ex − 1 Λ3 Λ3 /v

Ce qui donne :

NkT  T 3/2
E = 2, 0115 = 0, 7701 NkT = 0, 7701 Nexc kT
ϕ TB
  T 3/2
dE Nk
CV = = 5, 02875 = 1, 9252 Nk = 1, 9252 Nexc k
dT V,N ϕ TB

E + pV Nk  T 3/2
S= = 3, 3525 = 1, 2835 Nk = 1, 2835 Nexc k
T ϕ TB

2E NkT  T 3/2
pV = = 1, 3410 = 0, 5134 NkT = 0, 5134 Nexc kT
3 ϕ TB

On remarquera le comportement à peu près ”normal” des atomes excités. La


forte décroissance de E et de CV lorsque T décroît est principalement due à la forte
augmentation du nombre d’atomes condensés qui ne participent pas à l’énergie. On
remarquera également que la pression ne dépend que de T . Elle sera donc constante
sur les isothermes que nous tracerons sur le diagramme p -v.
En résumé, aux températures inférieures à TB , il y a coexistence entre atomes
condensés et atomes excités. Les atomes condensés ne participent pas à l’énergie
totale du système. Dans nos hypothèses de départ, cette énergie est purement ciné-
tique. Les atomes condensés sont donc immobiles et de ce fait ne participent pas à
la pression (ils n’exercent aucune force sur les parois). Ils sont d’autre part dans un
état quantique pur, non dégénéré : l’entropie du sous-système constitué des atomes
condensés (indiscernables) est nulle. Le potentiel chimique étant nul, les atomes
condensés sont virtuellement absents du récipient.
182 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

5.4.4 La courbe CV (T ) et les diagrammes p -v et p -T


Les expressions de la capacité thermique CV (T ) trouvées dans les trois do-
maines de température permettent de tracer le graphe représenté sur la figure 5.6 à
droite. Celui-ci présente un pic à la température de transition T = TB . Le calcul de
TB donne, on l’a vu TB = 3, 20 K. Expérimentalement, ce pic est bien observé, mais
à 2,17 K. Cet écart est à attribuer aux interactions entre atomes que nous avons
négligées dans l’étude théorique.

Fig. 5.6 – Capacité thermique : à gauche les fermions, à droite les bosons

Les unités habituelles des diagrammes p -v et p -T sont le cm3 /mol pour le


volume et le bar pour la pression. On réécrit donc tous les résultats utiles dans ce
système d’unités.
– les grandeurs caractéristiques :

28, 63 153, 2 400, 2 kT T


TB (v) = vB (T ) = ϕ= = 82, 04
v 2/3 T 3/2 v T 3/2 v v
– la pression dans les trois domaines de température :

T 70, 74 
T TB ou v vB p  82, 04 1−
v v T 3/2
T 6825 3/2

T∼ > vB
> TB ou v ∼ p 89, 10 − − 0, 01585 v T
v v T 3/2

T < TB ou v < vB p = 0, 2749 T 5/2

Sur le diagramme p -v, on cherche d’abord l’équation de la courbe de transition


séparant les deux domaines.
Dans le domaine v < vB , la pression est indépendante de v : il y a donc sur le
diagramme p -v un plateau se terminant pour T donnée au point de coordonnées :
153, 2
vB (T ) = et pB (T ) = 0, 2749 T 5/2
T 3/2
1206
On en déduit l’équation de la courbe de transition : pB = 5/3
.
vB
La condensation de Bose a lieu dans le domaine situé sous cette courbe.
5.4 L’hélium 4 à basse température 183

Le diagramme p -v représenté figure 5.7 à gauche rassemble tous ces résultats. La


courbe de transition (en pointillé) est l’ensemble des points (pB , vB ). Apparaissent
également (en traits épais) les deux isothermes 3 K et 4 K. A droite on trouve le
diagramme p -v d’un système ”classique” (dans le sens où les effets quantiques sont
indétectables) présentant une transition gaz−liquide.

Fig. 5.7 – Diagrammes p -v : bosons à gauche, système classique à droite

Sur le diagramme p -v classique, les deux phases coexistent sous la courbe de


saturation (en pointillé). A T constant (on suit une isotherme en trait plein), lorsque
partant d’une très grande valeur on diminue le volume, la pression augmente jusqu’à
ce que le point représentatif de l’état du système entre en contact avec la courbe
de saturation. La première goutte de liquide apparaît alors, et la pression demeure
constante (palier de liquéfaction) tant que la transformation n’est pas terminée.
Celle-ci s’opère à pression constante, et s’achève à l’extrémité gauche du palier. Si on
continue à réduire le volume, la pression augmente à nouveau de façon asymptotique :
la valeur v = 0 n’est jamais atteinte.
Sur le diagramme p -v de Bose, lorsque le point représentatif de l’état du système
est sous la courbe de transition, il y a également coexistence entre la phase condensée
et la phase excitée. Mais ici, il n’y a pas séparation physique des deux phases : les
atomes ”condensés” sont disséminés dans le système. Dans la pratique, il ne peut y
avoir transformation complète : on ne peut pas atteindre la valeur v = 0. Mais en
théorie, c’est possible puisque les atomes sont considérés comme ponctuels et sans
interaction.
Sur le diagramme p -T (figure 5.8), Les isochores (en traits épais) ont pour
équations p = kT /v à haute température et rejoignent tangentiellement la courbe
5/2
de transition (en pointillé). Celle-ci, d’équation pB = 0, 2749 TB , a la même allure
que celle d’un corps classique ne présentant qu’une seule transition.
C’est dans l’utilisation du diagramme que réside la différence. Dans les deux cas,
si par exemple on abaisse T à p constant, le point représentatif se déplace horizonta-
lement jusqu’à atteindre la courbe de transition ou de liquéfaction. Habituellement,
lorsque le point atteint la courbe de liquéfaction, la température s’arrête de baisser.
Si on continue à retirer de la chaleur, le point représentatif stationne sur la courbe
tant que la transformation gaz − liquide n’est pas complète. Lorsque le système est
entièrement liquide, la température peut alors baisser à nouveau.
184 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

Fig. 5.8 – Diagrammes p -T d’un système de bosons

Sur le diagramme p -T de Bose, le point représentatif ne peut jamais se trouver


au-dessus de la courbe de transition. Une fois la courbe de transition atteinte, le
retrait de chaleur permet uniquement aux atomes de passer à l’état fondamental, ce
qui a pour effet de diminuer la pression. Il est alors impossible de maintenir la pres-
sion constante. La température ne peut baisser que si la pression diminue également,
et le point représentatif suit la courbe de transition sans jamais la traverser.

5.4.5 L’hélium 4 et la superfluidité


Mise en évidence expérimentale
À la température de 2,17 K (variant peu avec la pression), la capacité thermique
(figure 5.9) et le coefficient de dilatation de l’hélium 4 présentent une discontinuité.
C’est la signature d’une transition du second ordre (sans chaleur latente et sans
coexistence entre les deux phases). On lui donna le nom de transition λ, du fait de
la forme de la courbe CV (T ). On baptisa hélium I la phase haute température et
hélium II la phase basse température.

Fig. 5.9 – Capacité thermique de l’hélium 4

L’hélium I présente les propriétés habituelles des liquides. L’hélium II possède


quant à elle des propriétés étonnantes n’appartenant à aucune autre substance. Mis
à part cette transition, le diagramme p -T de l’hélium 4 (figure 5.10) a une allure
voisine de celui de l’hélium 3.
5.4 L’hélium 4 à basse température 185

On peut remarquer que la courbe de solidification est quasiment plate de 0 à


1 K : il existe en fait un minimum à peine marqué vers 0,8 K, et donc un très faible
effet Pomerantchuk.

Fig. 5.10 – Diagramme p-T de l’hélium 4

Voici énumérés de façon chronologique les phénomènes ”bizarres” apparaissant


à la transition :
– Du point critique C au point λ, comme tout autre liquide en contact avec sa
vapeur, l’hélium bout : il se vaporise en premier au fond du récipient où la
température est plus élevée, d’où formation de bulles qui viennent éclater à la
surface. En 1927, on s’aperçoit que, au point λ[7] , le liquide s’arrête brusque-
ment de bouillir. Interprétation (1936) : sa conductibilité thermique devient
si élevée (2000 fois plus que celle du cuivre à 300 K), que plus aucun gradient
de température n’est observé, et la vaporisation n’a lieu qu’en surface. L’ex-
périence montre qu’il est impossible en dessous de cette température de créer
des différences de température notables dans le liquide. On dit de lui que c’est
un supraconducteur de chaleur.
– La viscosité de l’hélium II n’obéit pas aux lois classiques des fluides visqueux.
Elle a une valeur normale dans certaines mesures (l’hélium II se comporte
tout-à-fait normalement lorsqu’il s’écoule autour d’un objet), elle est nulle
dans d’autres.
On constate d’abord (1935) que la viscosité de l’hélium II est inférieure à celle
de l’hélium I. C’est déjà inhabituel : en général, la viscosité augmente quand
la température diminue.
En 1937, le terme de ”superfluide” apparaît : la viscosité de l’hélium II n’est
pas mesurable. Il est capable de s’écouler entre deux disques polis et pressés
l’un contre l’autre, dans des capillaires très fins ou dans des matières poreuses
sans qu’il soit nécessaire de le comprimer : avec les moyens de l’époque, on en
7
Cette dénomination n’existait pas à l’époque : elle date de 1930, année du premier enregistre-
ment de la courbe CV (T ).
186 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

déduisit que la viscosité de l’hélium II était au moins 1000 fois plus faible que
celle de l’hélium I.
On découvre ensuite qu’il grimpe aux parois du récipient : une éprouvette
plongée partiellement dans un bain d’hélium II se remplit ou se vide lentement
jusqu’à ce que les niveaux s’égalisent. Le transfert se fait par l’intermédiaire
d’un film d’environ 30 nanomètres d’épaisseur qui recouvre toute surface en
contact avec l’hélium. Ce film se déplace sans frottement à une vitesse d’en-
viron 30 cm/s. On l’explique facilement : les interactions entre atomes sont
si faibles qu’elles sont toujours inférieures aux interactions atome - paroi ; le
liquide grimpe aux parois de façon à augmenter la surface de contact avec
celle-ci. Cette ascension, dans tout autre fluide, serait bloquée par la viscosité.
– En 1938, on met en évidence l’effet thermomécanique, et F. London propose
de relier toutes ces propriétés à la condensation de Bose, idée développée par
L. Tisza qui, la même année, jette les bases du modèle à deux fluides.
Autre phénomène spectaculaire mis en évidence plus tard : lancé dans un
anneau poreux, l’hélium superfluide ne subit à température constante aucun
ralentissement observable en fonction du temps. C’est un cas de courant per-
manent tout comme celui des électrons dans un supraconducteur.

Le modèle à deux fluides

Selon le type d’expérience, l’hélium II se comporte, tantôt comme un fluide nor-


mal, tantôt comme un superfluide. C’est ce qui conduisit à considérer l’hélium II
comme un mélange homogène de deux fluides, l’un ”normal”, l’autre superfluide. La
condensation de Bose met également en évidence deux types d’atomes : les atomes
condensés et les atomes excités. L’analogie entre les deux modèle est évidente. Mais
il y a tout de même des différences. La théorie de Bose concerne les bosons indépen-
dants, alors que l’hélium 4 en dessous de la transition est liquide. Les interactions
classiques, bien que faibles, existent, avec pour principales conséquences :
– des températures de transition différentes (3,2 K en théorie, 2,17 K dans la
pratique) ;
– à température nulle, le superfluide est constitué de 10 % des atomes seulement,
alors que dans le modèle de Bose la phase condensée réunit tous les atomes.
En outre, on peut montrer que le condensat de Bose n’est pas superfluide en
calculant la vitesse critique au delà de laquelle le liquide perd sa propriété de su-
perfluidité. Considérons pour le montrer un objet de masse M se déplaçant dans un
fluide. La viscosité représente un échange d’énergie et d’impulsion entre l’objet et le
fluide au cours du déplacement. Si ces échanges sont nuls ou s’ils ne peuvent pas se
produire, on dira que le milieu est superfluide.
Dans un système de particules indépendantes, chaque échange se fait entre l’objet
et UNE particule. Si v0 et v1 sont les vitesses avant et après l’échange (le choc), et si
δε et δp sont l’énergie et l’impulsion transmises à la particule, on écrit la conservation
de l’énergie et de l’impulsion :

1 1 δp2
Mv02 = Mv12 + δε et Mv0 = Mv1 + δp ⇒ v0 · δp = δε + > δε
2 2 2M
5.4 L’hélium 4 à basse température 187

Dans le condensat de Bose, l’énergie des atomes est nulle : lors d’un choc, elle
ne peut qu’augmenter. On en déduit que v0 · δp est positif, et donc, en utilisant
v0 · δp < v0 δp, on en déduit que :
δε
l’échange ne peut avoir lieu que si v > vC avec vC =
δp
L’état superfluide ne peut exister qu’en dessous de cette vitesse critique. Un
superfluide lancé à une vitesse supérieure se comporte comme un fluide normal.
Pour une particule quantique de masse m confinée dans une boîte cubique d’arête
h2
L, l’énergie ne peut varier que par sauts de 2mL 2 (voir paragraphe 3.2.1), ce qui

donne pour l’impulsion des variations par sauts de Lh .


La vitesse critique vC du condensat de Bose devient :
h2
2mL2 h
vC = h
= ≈ 0, 5 μm/s pour L = 10 cm
L
2mL

Le condensat de Bose ne peut donc être superfluide qu’à des vitesses extrêmement
faibles. Or, la vitesse critique dans l’hélium est mesurée à plusieurs millimètres par
seconde, c’est-à-dire environ 1000 fois plus que celle du condensat de Bose.

Seules les interactions peuvent être mises en cause : l’énergie et l’impulsion ne


peuvent être transmises à un atome seul, mais au système entier. Le modèle qui
suit (largement utilisé en physique du solide) décrit très bien le phénomène. Dans
un système de particules interactives, on ne peut plus parler d’états quantiques
individuels : le hamiltonien du système n’est plus à variables séparables, et on ne
peut plus attribuer une fonction d’onde à chaque particule. Les fonctions d’onde sont
macroscopiques : elles concernent le système entier. Lorsque les interactions sont
faibles, la résolution de l’équation aux valeurs propres conduit à une description
du système où les atomes sont animés de mouvements de translation individuels
(comme s’ils étaient indépendants), et où les interactions engendrent un mouvement
de vibration collective. Dans un superfluide, les mouvements de translation étant
inexistants, on a affaire à un oscillateur harmonique à 3N dimensions qui peut
être décomposé en 3N oscillateurs harmoniques linéaires indépendants. À chaque
oscillateur élémentaire est associé un vecteur d’onde k et une pulsation ω, liés entre
eux, en milieu isotrope, par une certaine relation ω(k) (que l’on notera ωk ) dépendant
de la nature des interactions, et appelée loi de dispersion. L’énergie vibrationnelle
liée à un mode de vibration (c’est-à-dire à une valeur de k donnée) est quantifiée :

 
εk (nk ) = h ωk nk + 1/2 avec nk entier positif ou nul

La liste des nk pour toutes les valeurs de k possibles définit l’état quantique
du système vibratoire. On dit en physique quantique que le système contient, pour
toutes les valeurs de k, nk pseudo-particules, appelées phonons, dans le mode k.
Expérimentalement, on trouve, pour les faibles valeurs de k = 2π/λ (grandes lon-
gueurs d’onde ou ondes sonores), que la loi de dispersion ω(k) est linéaire. On parle
alors de phonons acoustiques. La pente de la courbe est par définition la vitesse
de groupe vG de l’onde associée aux phonons, c’est-à-dire la vitesse du son dans le
188 CHAPITRE 5. LES GAZ PARFAITS QUANTIQUES

milieu : ω(k) = vG k. À une certaine température, et en l’absence de perturbations


extérieures, il s’établit dans le système un régime stationnaire correspondant à une
combinaison linéaire (fonction de T ) de tous les modes élémentaires. En termes de
phonons, l’équilibre correspond à une certaine population moyenne (fonction de T )
en phonons dans les différents modes. Lorsqu’on perturbe localement le système, ici
par l’intermédiaire d’un objet qui se déplace, l’apport d’énergie et d’impulsion est
transmise au gaz de phonons. Ces apports ne peuvent avoir lieu que s’ils peuvent
être dissipés, c’est-à-dire s’ils sont suffisants pour créer au moins un phonon dans
un mode nk donné. Le liquide est alors visqueux. L’apport d’énergie doit au moins
− − −
valoir δε = h ωk = h vG k. L’impulsion échangée dans le même temps vaut δp = h k.
Ce qui donne une vitesse critique :

δε h vG k
vC = = − = vG
δp hk

La vitesse critique correspond donc à la vitesse de propagation des ondes sonores


dans le fluide. Tant que cette vitesse n’est pas atteinte, la propagation ne peut avoir
lieu et le milieu est superfluide. De la même façon, si on entraîne le superfluide
à une certaine vitesse, l’état superfluide disparaît si cette vitesse est supérieure
à la vitesse critique. Ou encore, si on met en rotation un récipient contenant de
l’hélium superfluide, celui-ci reste immobile à vitesse lente (sa surface reste plane
et il n’est pas entraîné par les parois en rotation). Lorsque la vitesse de rotation
dépasse la vitesse critique, le liquide reprend les propriétés d’un fluide normal : il
est partiellement entraîné par les parois du récipient en rotation et la surface libre
devient parabolique comme dans tout autre liquide.
Compte tenu des résultats expérimentaux, la vitesse critique est estimée à 60
m/s. C’est beaucoup trop par rapport aux quelques millimètres par seconde que
l’on mesure. La présence de tourbillons observés au cours des différentes expériences
donne une explication : l’émission de tourbillons représente un mécanisme de dissipa-
tion plus efficace que la création de phonons. L’expérience montre qu’un écoulement
superfluide lancé à grande vitesse ralentit en perdant des quantités d’énergie quan-
tifiées à chaque émission d’un tourbillon. On parle de tourbillons quantiques.

En résumé, le modèle de Bose permet de comprendre qualitativement certains


phénomènes observés dans l’hélium 4 à basse température, mais pas quantitative-
ment. Si on compare les deux courbes 5.6 (à droite) et 5.9 représentant CV (T ), on
constate, d’une part que le pic à la température de transition est extrêmement plus
prononcé sur la courbe expérimentale, d’autre part des comportements différents à
très basse température (en T 3/2 pour la première, en T 3 pour la deuxième). C’est
d’ailleurs cette loi en T 3 , caractéristique des vibrations dans un réseau cristallin,
qui a suggéré que l’on pouvait décrire les interactions par la présence d’un gaz de
phonons dans le fluide. La courbe de Bose décrit mal les excitations thermiques du
fluide car celles-ci sont principalement liées aux interactions entre atomes : ce sont
elles qui sont responsables de la propagation quasi instantanée de la chaleur dans
le fluide. Le modèle à deux fluides, l’un constitué d’atomes superfluides, l’autre de
phonons, permet de décrire plus précisément le système : plutôt que de décrire le
système comme un mélange de deux fluides (l’un constitué des atomes ”condensés”,
5.4 L’hélium 4 à basse température 189

l’autre des atomes ”normaux” ou excités), on considère maintenant que la compo-


sante superfluide est un condensat constitué de tous les atomes d’hélium, et que la
composante ”normale” est un gaz de phonons.

Ce modèle est tout à fait correct jusqu’à environ 0,5 K : l’allure de la courbe
CV (T ), l’effet thermomécanique[8] , le calcul de la viscosité en fonction de la tempé-
rature, ainsi que l’interprétation de l’existence du second son[9] . On doit simplement
remplacer les anciennes densités en fluide normal et en superfluide par la densité
du condensat et la densité du gaz de phonons, cette dernière étant très délicate à
calculer, étant donné que les phonons sont des pseudo-particules de masse nulle.
Quoi qu’il en soit, les calculs montrent que la densité du gaz de phonons suit une
loi en T 4 et que la densité globale (condensat + gaz de phonons) reste constante en
température.
Lorsqu’on augmente la température au delà de 0,5 K, on constate que ce modèle
devient insuffisant. Le modèle de Debye qui décrit les vibrations dans un réseau
cristallin prévoit qu’à haute température, la courbe CV (T ) quitte la loi en T 3 ”vers
le bas”. Pour l’hélium 4, au delà de 0,5 K, la courbe quitte la loi en T 3 ”vers le
haut”. Landau explique le phénomène en introduisant un deuxième gaz de pseudo-
particules (des ”rotons”) aux propriétés différentes de celles des phonons. Sans entrer
dans les détails, ces rotons, quasiment inexcitables au voisinage du zéro absolu,
prendraient le relais des phonons au delà de 0,5 K.
Si on augmente encore la température, le modèle de Landau est à son tour mis
en échec : au delà de 1,8 K, aucun modèle théorique à ce jour ne permet d’interpréter
l’allure quasi asymptotique de la courbe CV (T ).

8
À chaque température correspond un certain taux de superfluide. Inversement, à chaque
concentration correspond une température et une seule. Si on force l’écoulement du superfluide
seul à travers un filtre poreux reliant deux réservoirs, on change les deux concentrations et il ap-
paraît une différence de température entre les deux réservoirs. Inversement, si on chauffe d’un côté
du filtre, un courant superfluide apparaît et une différence de pression s’établit. Ce phénomène est
connu sous le nom d’effet fontaine à cause de l’expérience suivante. Un vase est rempli d’hélium
porté à une température voisine de 1 K. Une canne dont l’extrémité inférieure est remplie d’un ma-
tériau poreux est plongée dans le vase. En chauffant suffisamment, on peut créer un jet d’hélium
superfluide à l’extrémité supérieure de la canne.
9
Le second son, que l’on peut décrire comme une onde de compression dans le gaz de phonons,
n’est pas propre à l’hélium superfluide. On peut l’observer également dans les cristaux très purs à
basse température. Le son habituel, appelé premier son, correspond dans un cristal à une vibration
en phase des atomes. C’est, dans la limite des milieux continus, une variation sinusoïdale de densité
qui se propage dans le matériau. Il en est de même dans l’hélium superfluide : les deux fluides vibrent
en phase et une oscillation de densité se propage. Dans l’hélium superfluide, on observe un autre
type d’oscillation où les deux fluides vibrent en opposition de phase. C’est ce qu’on appelle le second
son qui correspond à la propagation d’une onde de taux de superfluide, à densité constante. Ce
taux étant directement lié à la température, on parle de propagation d’une onde de température.

Vous aimerez peut-être aussi