0% ont trouvé ce document utile (0 vote)
119 vues58 pages

Physique Statistique

Le document est un polycopié sur la physique statistique, préparé par Dr. Redouane Fares pour des étudiants de troisième année en physique fondamentale. Il couvre des sujets tels que les méthodes statistiques, la thermodynamique, les micro et macro états, ainsi que les statistiques de Maxwell-Boltzmann, Fermi-Dirac et Bose-Einstein. L'objectif principal est de fournir une compréhension des propriétés macroscopiques des systèmes physiques à partir des caractéristiques microscopiques de leurs constituants.

Transféré par

Aymen El
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
119 vues58 pages

Physique Statistique

Le document est un polycopié sur la physique statistique, préparé par Dr. Redouane Fares pour des étudiants de troisième année en physique fondamentale. Il couvre des sujets tels que les méthodes statistiques, la thermodynamique, les micro et macro états, ainsi que les statistiques de Maxwell-Boltzmann, Fermi-Dirac et Bose-Einstein. L'objectif principal est de fournir une compréhension des propriétés macroscopiques des systèmes physiques à partir des caractéristiques microscopiques de leurs constituants.

Transféré par

Aymen El
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

See discussions, stats, and author profiles for this publication at: [Link]

net/publication/357585702

physique statistique

Book · January 2022

CITATIONS READS

0 1,857

1 author:

Redouane Fares
Université de Relizane
66 PUBLICATIONS 831 CITATIONS

SEE PROFILE

All content following this page was uploaded by Redouane Fares on 05 January 2022.

The user has requested enhancement of the downloaded file.


Centre Universitaire
Ahmed ZABANA, Relizane

Institue de Science Exacte, Science Naturelle et Vie


Département de Physique

Polycopié de la matière :
3ème année licence (LMD)

Physique Statistique
Cours & Applications
Préparé par :
Dr. FARES Redouane (M.C.B)

2020
Table des matières

Introduction Générale...............................................................................................................................i

Chapitre I Introduction aux méthodes statistiques

I. Introduction ...........................................................................................................................................1
I.2 Introduction aux méthodes statistiques ..............................................................................................1
I.2.1 Analyse combinatoire .............................................................................................................1
I.2.2 Notion de probabilité et statistiques ......................................................................................1
I.2 Eléments de mécanique .......................................................................................................................4
I.2.1 Formalisme Lagrangien .........................................................................................................4
I.2.2 Formalisme Hamiltonien .......................................................................................................5
I.3 Rappels de thermodynamique .............................................................................................................6
I.3.1 Définitions et notions de base.................................................................................................6
I.3.2 Principes de la thermodynamique ..........................................................................................9
I.3.3 Fonctions d’état en thermodynamique ................................................................................11
I.4 Exercices et problèmes......................................................................................................................12

Chapitre II Micro Et Macro États

Introduction: ...........................................................................................................................................14
II.1 MICRO-ÉTATS QUANTIQUES ....................................................................................................14
II.1.2 L’oscillateur harmonique à une dimension ........................................................................15
II.1.3 Une particule libre dans une boîte cubique ........................................................................16
II.2 Bosons et Fermions..........................................................................................................................16
II.2.1 Définitions ..........................................................................................................................16
II.2.2 Micro-états et spin ..............................................................................................................16
II.3 Systèmes à N particules indépendantes ...........................................................................................17
II.3.1 Particules discernables........................................................................................................17
II.3.2 Particules indiscernables ....................................................................................................18
II.4 Espace des phases ............................................................................................................................19
II.4.1 Définition de l’espace des phases .......................................................................................19
II.4.2 Espace des phases de l’oscillateur harmonique ..................................................................20
II.4.3 Volume et aire de l’espace des phases................................................................................21
II.5 Postulats de la physique statistique ..................................................................................................22
II.6 l’entropie statistique.........................................................................................................................22
II.6.1 Formule de Boltzmann .......................................................................................................23
II.6.2 Calcul de l’entropie statistique d’un gaz parfait .................................................................23
II.6.3 Paradoxe de Gibbs ..............................................................................................................23
II.7 Ensembles représentatifs : ...............................................................................................................24
II.7.1 Ensemble micro-canonique : ..............................................................................................25
II.7.2 L'ensemble canonique : ......................................................................................................25
II.8 Exercices et problèmes ....................................................................................................................26
Table des matières

Chapitre III Gaz parfait de Maxwell-Boltzmann

Introduction ............................................................................................................................................27
III.1 Gaz parfait classique ......................................................................................................................27
III.2 Gaz parfait de Maxwell-Boltzmann ...............................................................................................29
III.2.1 Statistique de Maxwell-Boltzmann ...................................................................................29
III.2.2 Distribution de Maxwell des vitesses ................................................................................30
III.3 Statistique de Fermi Dirac ..............................................................................................................33
III.4 Statistique de Bose-Einstein ...........................................................................................................33
III.5 Exercices et problèmes ...................................................................................................................34
Chapitre IV Gaz parfaits de Bose et de Fermi

IV.1 Introduction ....................................................................................................................................36


IV.2 Gaz parfait de Bose ........................................................................................................................39
IV.3 Rayonnement du corps noir............................................................................................................42
IV.4 Gaz parfait de Fermi.......................................................................................................................43
IV.5 Exercices et problèmes ..................................................................................................................46
Annexe

A1 L’Équation de Liouville ...................................................................................................................48


A.2 Modèle de Debye-Einstein pour les phonons ..................................................................................49
A.3 L’approximation de Stirling ............................................................................................................50
A.4 Fonction Gamma .............................................................................................................................50
A.5 Transformation de Legendre ...........................................................................................................51
Introduction Générale

La physique statistique est une approche probabiliste qui nous permet d’étudier les
propriétés macroscopiques ou thermodynamiques (comme la température, la pression, ... etc)
d’un système physique, en équilibre ! Ce système est composé d’un très grand nombre de
particules, donc, il possède un très grand nombre de degrés de libertés.
Phénoménologiquement, ses propriétés macroscopiques sont décrites par les lois de la
thermodynamique. On peut aussi définir la physique statistique comme la branche de la
physique qui utilise les méthodes de probabilité et statistiques, et les lois de la physique qui
s’applique au niveau microscopique (comme la mécanique classique, la mécanique quantique,
... etc) pour étudier des systèmes constitués de très grand nombre de particules.
Nous savons que la matière est constituée des particules (atomes, molécules et ions) et que
l'état dans lequel se trouvent ces particules (position et vitesse) est responsable des
phénomènes observée à l'échelle macroscopique (échelle humain). Par exemple, la notion de
la température est reliée à l'énergie cinétique ou la vitesse moyenne des particules : plus leur
vitesse est grande plus le corps constitué de particules semble chaud (exemple: théorie des gaz
 1 2 1 
parfait  Ec  mv  kbT 
 2 2 .
On parle de la physique statistique lorsque on parle de l’étude ou de la compréhension des
propriétés de systèmes macroscopiques (solides, liquides, gaz, aimants (système de spins),...)
avec un nombre N=Na = 6, 02.1023 d’éléments.
De même, la notion de densité ou la masse volumique est reliée à la distance moyenne entre
les particules, et la notion de pression est reliée à la quantité de mouvement que ces particules
peuvent transmettre à une face quelconque.
Le but de la physique statistique est l'étude du comportement des particules qui composent les
corps physiques en relation avec les grandeurs observées à l'échelle humaine. L'études du
comportement des particules est qualifié du microscopique. Les grandeurs observées sont
dites macroscopiques. Ce sont des résultats de mesures.
La physique statistique constitue avec la mécanique quantique et la relativité l’un des piliers
de la physique moderne. Elle se base sur les lois de la relativité et la mécanique quantique
pour expliquer le comportement collectif des assemblages des particules dans la limite où le
nombre des particules est très grand. Elle utilise les lois de la probabilité et les statistique pour
expliquer le comportement de ce grand nombre de constituants. Ces derniers (particules)
peuvent être des atomes, molécules, ions, ... etc.
La thermodynamique est basée sur des postulas, ce sont les principes de la thermodynamique.
Également la physique statistique est aussi construite à partir des postulats, qui sont les
hypothèses raisonnables choisies à priori. Le fondement sur ce choix permet de reproduire, et
de comprendre, un grand nombre de propriétés des corps macroscopiques. Comme la
physique statistique tient compte des propriétés des constituants microscopiques, alors la
thermodynamique ne s'occupe que des propriétés macroscopiques des corps, c'est une science
plus complète que cette dernière.

i
Introduction Générale

On peut résumer les objectifs principaux de la physique statistique


dans les trois points suivants :
 La physique statistique donne une compréhension rationnelle de la thermodynamique
à partir des caractéristiques des constituants microscopique d’un système et leurs interactions.
 La physique statistique permet de calculer la dépendance des quantités
thermodynamiques (chaleur spécifique, ... etc) en terme de la température et les propriétés de
transport (chaleur, électricité, ... etc).
 La physique statistique donne une explication complète aux phénomènes de transition
de phase.

Ce cours est destiné aux étudiants de troisième année physique fondamentale. Il s’intéresse à
la physique statistique classique.
Donc, ce cours est une introduction à la physique statistique. Dans le premier chapitre, on
donne quelques rappels de la thermodynamique, les probabilités et les statistiques, et on
démontre quelques relations qu’on aura besoin dans les chapitres qui suivent. Dans le
deuxième chapitre, on va développer un formalisme (micro et macro état) qui nous permet de
calculer l’entropie et les propriétés thermodynamiques d’un système isolé (énergie constante),
et de retrouver les résultats de la thermodynamique à partir de son hamiltonien. Dans le
troisième et quatrième chapitres, on va développer comment déterminer l’énergie d’un
système fermé qui peut échanger l’énergie avec le milieu extérieur et on va généraliser en
prenant en compte le spin des particules (statistique de Fermi-Dirac et de Bose-Einstein). On
va étudier aussi le rayonnement du corps noir (gaz parfait de photons) .

ii
Chapitre I Introduction aux méthodes statistiques

I. Introduction
Ce chapitre aborde des rappels sur les méthodes de la probabilité et les statistiques, la
thermodynamique, et on va introduire quelques relations importants et nécessaires dans ce cours.

I.2 Introduction aux méthodes statistiques

I.2.1 Analyse combinatoire


 Permutations : le nombre de permutations de N objets est donné par

P  N  N 1 N  21  N ! (I.1)

Par exemple : le nombre de permutations de trois objets numérotés dans les casiers est : 3!=6 ≡
|1|2|3|,|1|3|2|,|2|1|3|,|2|3|1|,|3|1|2|,|3|2|1|.
 Arrangements : le nombre d’arrangements est le nombre de façons de choisir n objets
parmi N objets en tenant en compte l’ordre de prise, il est donnée par
N!
ANn  (I.2)
 N  n !
Par exemple : Soient 4 boule numérotées de 1 à 4. Le nombre de cas possibles de prendre deux
boules parmi les 4, en tenant compte de l’ordre de prise, est :
4!
A42   12  1, 2  , 1,3 , 1, 4  ,  2,1 ,  2,3 ,  2, 4  , 3,1 , 3, 2  , 3, 4  ,  4,1 ,  4, 2  ,  4,3
 4  2 !
On note que (1, 2) et (2, 1) sont considérés comme deux cas différents.
 Combinaisons : le nombre de combinaisons est le nombre de choisir n objets parmi N
objets sans tenir compte de l’ordre de prise, il est donné par:
N!
CNn  (I.3)
 N  n  !n !
Par exemple : on prend l’exemple précédent sans tenir compte de l’ordre, ç.à.d. (1, 2) et (2, 1)
sont comptés comme une seule combinaison. Donc, le nombre de combinaisons est:
N!
CNn   1, 2  , 1, 3 , 1, 4  ,  2, 3 ,  2, 4  , 3, 4  .
 N  n  !n !
I.2.2 Notion de probabilité et statistiques
La physique statistique est basée sur la probabilité et les statistiques, car on s’intéresse
aux systèmes composés de très grands nombres de particules. Donc, la valeur d’une quantité
physique observée expérimentalement correspond à sa valeur la plus probable.
 Probabilité dans le cas d’événements discrets :
Notons les configurations (ou événement) possibles d’un système par ji >, et le nombre
d’expériences pour que ce système soit dans une de ces configurations par ni. Alors, la
probabilité de trouver le système dans une configuration |i > est
ni
Pi  , N   ni . (I.4)
N i

1
Chapitre I Introduction aux méthodes statistiques

Remarque : Dans le cas général, le nombre d’expérience totale N peut être fini ou infini.
Par exemple : Si on lance N fois une pièce de monnaie. On note par n1 et n2 le nombre de fois
d’obtenir pile et face, respectivement. Alors, les probabilités d’obtenir pile et face sont
données par
n n
Pn1  1 , Pn2  2 . (I.5)
N N
 Propriétés fondamentales :
 Normalisation: les conditions de normalisation dans les deux cas s’écrivent,
respectivement
n i

 Pi 
i
i

N
1 (I.6)

1
  ( x , x ,..., x

1 2 N )dx1dx2 ...dxN   dP( x1 , x2 ,..., xN ) 
N
dn( x1 , x2 ,..., xN )  1. (I.7)

 Addition : Si les deux éventements e1 et e2 sont compatibles, alors la probabilité est


donnée par
P(e1 e2 )  P(e1 )  P(e2 )  P(e1 e2 ). (I.8)
Si deux les deux éventements e1 et e2 sont incompatibles, alors la probabilité est donnée par
P(e1 e2 )  P(e1 )  P(e2 ). (I.9)

Si l’événement dépendent d’un paramètre continu x, alors la probabilité est donnée par
b
P (a  x  b)     x dx. (I.10)
a

 Valeur moyenne :
Si les événements sont discrets, alors la valeur moyenne d’une quantité f est définie par
f   Pm f m . (I.11)
m

Si les événements sont continus, alors la valeur moyenne d’une quantité f est définie par

f     x  f  x  dx.

(I.12)

 Variance : Dans le cas d’événements discrets, la variance est définie par

   .
2 2
2  f  f  f2 f (I.13)
Dans le cas d’éventements continus, la variance est définie par


  
dx   f  x    f  x  . 
2
  x f  x  f
2


2
 
2
(I.14)


 Écart-type : est définie par 𝜎 = √𝜎 2


 Distribution binomiale : On utilise la distribution binomiale si on a que deux type
d’événements possibles (A et B de probabilité PA et PB par exemple). La probabilité d’avoir n
fois A et N − n fois B est donnée par :
P( N , n)  CNn PAn PBN n (I.15)

2
Chapitre I Introduction aux méthodes statistiques

où N est le nombre d’expériences réalisées.


On peut montrer que :
N

 P ( N , n)
n 0
 1.
la probabilité binomiale est normalisée :
la valeur moyenne de n est n  NPA .
la variance est donnée par  2  NPA PB .
l’écart  type   NPA PB .
n 1
l’incertitude relative sur la valeur moyenne est   .
n N
 Distribution gaussienne : Cette distribution est appliquée aux événements continus. La
densité de probabilité gaussienne est donnée comme suite:
 x  x 2
1  0

 ( x)  e 2 2
. (I.16)
 2
où x0 est la valeur centrale de la distribution et σ est la largeur à la mi-hauteur de ρ(x). On peut
montrer que :
+∞
La probabilité gaussienne est normalisée ∫−∞ ρ(x)dx = 1

La valeur moyenne de x est : x̅ = x0


La variance est donnée par σ2
L’écart-type est σ
La loi binomiale devient la loi gaussienne lorsque N ≫ n ≫ 1
 Loi de Poisson : Les événements rares (événement de probabilité très petite) suivent la loi de
Poisson
e µ
P ( n)  µ n
. (I.17)
n!
où n est le nombre d’événements de même type. On peut montrer que :
la loi de Poisson est normalisée : ∑∞
n=0 P(n) = 1

la loi binomiale devient la loi de Poisson lorsque PA ≪ PB et N ≫ n ≫ 1


 Marche en Hasard à une dimension : Considérons une particule qui se déplace, par des pas
discrets, sur l’axe x. On note que la longueur de chaque pas est ∆l, et que la particule peut se
déplacer soit vers la gauche ou soit vers la droite.
 On suppose que la probabilité pour que la particule fasse un pas à droite est P1, et un pas à
gauche est P2. Alors, la probabilité pour que la particule fasse n1 pas à droite et n2 pas à
gauche (N=n1+n2 pas) suit la loi binomiale. On écrit
N!
P( N , n1 )  P1n1 P2N  n1 (I.18)
n1 !( N  n1 ) !

1
si P1  P2  .
2

3
Chapitre I Introduction aux méthodes statistiques

N
N! 1
P( N , n1 )    . (I.19)
n1 !( N  n1 ) !  2 
 Les valeurs moyennes de déplacements sont donnée par ̅̅̅ 𝑛1 = ̅̅̅𝑛2 = 𝑁𝑃1 = 𝑁/2. Alors, la
position moyenne après N déplacement se trouve à l’origine.
𝜎
 La variance 𝜎 2 = 𝑁𝑃1 𝑃2 = 𝑁/4. Donc, l’incertitude relative est ̅̅̅̅ = 1/√𝑁
𝑛 1

I.2 Eléments de mécanique


On va introduire les différents formalismes pour décrire la dynamique classique dans l’espace
des phases.
I.2.1 Formalisme Lagrangien
Soit N particules.
D’après la loi de Newton (où les qi sont les variables de position et V le potentiel dans lequel
elles sont) :
V {q j }
mqi  Fi   (I.20)
qi
avec i variant de à 3N
L’énergie cinétique du système est alors :

T {q j } 
1
m q 2j .
2 j (I.21)

D’où avec l’équation newtonienne :


d T d
  mqi   mqi (I.22)
dt qi dt
d T V {qi }
 0 (I.23)
dt qi qi
On introduit le lagrangien :
L {q j },{q j }, t   T {q j }, {q j }, t   V {q j }, t  (I.24)
Remarque : q j et q j sont considérés indépendants car ce sont les variables d’un lagrangien et
non les variables d’une équation du mouvement qui les relieraient.
Notation :
d  d d
   qi   qi (I.25)
dt t i qi i qi

L’équation de Newton donne alors :


d  L  L
  0 (I.26)
dt  qi  qi

C’est l’équation de Lagrange (scalaire, donc différente de celle de Newton).


Propriétés :
– qi et qi sont sur le même plan
– l’équation de Lagrange est invariante de forme par changement de coordonnées

4
Chapitre I Introduction aux méthodes statistiques

I.2.2 Formalisme Hamiltonien


On définit 3N quantité {pi} par
L
pi  (I.27)
qi {q j } fixes

C’est l’impulsion généralisée qui donne une relation qi  qi {q j }, { p j }, t  


On définit alors l’hamiltonien (par transformation de Legendre pour L pour éliminer la variable qi ) :

   
H {q j },{ p j }, t    pi q j {q j },{ p j }, t   L q j  , qi {q j },{ p j }, t  , t
i
(I.28)

 L dL  L
dH    qi dpi  pi dqi  dqi  dqi   dt. (I.29)
i  qi dqi  t
 L  L
   qi dpi  dqi   dt. (I.30)
i  qi  t
Or
 H H  H
dH    dpi  dpi   dt. (I.31)
i  qi pi  t
D’où par identification :
H
qi 
qi
L H

qi qi
L H

t t
L d L d
Or   pi  pi . Donc :
qi dt qi dt
 H
 qi  p
 i
 ¨ (I.32)
p    H
 i qi
Propriétés :
– pi et qi sont sur le même plan (l’un ne dérive pas explicitement de l’autre)
– équation du premier ordre en t
– étant donné 6N conditions initiales, il y a une unique solution
– deux trajectoires dans l’espace des phases ne peuvent pas se couper

I.3 Rappels de thermodynamique


La thermodynamique est une description phénoménologique des propriétés macroscopiques
d’un système physique en équilibre. Son but principal est de décrire les transformations entre les
deux formes de l’énergie : la chaleur et le travail. Dans cette section, on présente les points les
plus importants dans cette matière. Pour plus de détail, voir la référence [1].

5
Chapitre I Introduction aux méthodes statistiques

I.3.1 Définitions et notions de base


La définition historique de la thermodynamique est la science de la chaleur et des machines
thermiques, et selon Boltzmann est la science des grands systèmes en équilibre. Le but principal
de cette science est de décrire les transformations entre les deux formes de l’énergie, le travail
mécanique et la chaleur. Dans cette session, on donne les principales notions de la
thermodynamique (cours de 2ème année). Voici quelques notions de base :
 Système thermodynamique :
Une partie de l’univers entourée par une surface fermé (un gaz enfermé dans un ballon). C’est
un système composé de très grand nombre de particules (atome, molécules, ... etc), décrit par un
ensemble de variables (variables thermodynamiques ou macroscopiques) qui décrivent les
propriétés et le comportement de ce dernier. Ces variables sont classifiées en variables
extensives et intensives. Ce système peut être : isolé s’il ne peut échanger ni chaleur ni travail ni
matière avec l’extérieur, ouvert, s’il peut échanger de la chaleur, du travail et de la matière avec
l’extérieur, ou fermé s’il peut échanger de la chaleur et du travail avec l’extérieur mais pas la
matière.
 Variables macroscopiques ou thermodynamiques :
A l’aide d’un petit nombre de paramètres on peut décrire les propriétés thermodynamiques
d’un système. Ces paramètres peuvent être déterminé en effectuant des mesures à notre échelle,
on les appelle variables macroscopiques. Par exemple : la température absolu T , la pression P, le
volume V , ... etc. Les variables thermodynamiques nécessaires pour d’écrire, complètement, le
comportement d’un système, composé de g différents types de particules, sont :
{𝑇, 𝑝, 𝑉, 𝑁1 , … . . , 𝑁𝑔 } (où Ni est le nombre de particule du type i).

 Variables extensives :
Ces variables varient si on réunit deux systèmes, comme le volume V , le nombre de
particules N, l’énergie totale E, la magnétisation M... etc. Si on réunit deux systèmes
thermodynamiques identiques, par exemple, toutes les variables extensives associées augmentent
du double.
 Variables intensives :
Ces variables ne varient pas si on réunit deux systèmes identiques, comme la température T ,
la pression P, le potentiel chimique 𝜇 , le champ électrique 𝐸⃗ ... etc. Le rapport de deux variables
extensives est une variable intensive (Par exemple, la densité de nombre de particules n = N/V ).
 En mécanique classique :
La position et le mouvement d’une particule sont décrits par 6 variables. Par exemple, une
particule libre est décrite par : la position 𝑞 = (𝑥; 𝑦; 𝑧) et l’impulsion 𝑝 = (𝑝𝑥 ; 𝑝𝑦 ; 𝑝𝑧 ), où
⃗⃗⃗ = 𝑚𝑑𝑞 /𝑑𝑡. Si le système est composé de N particules libre, alors son état est décrit
𝑝
complètement par 6N variables (où 6N degrés de libertés dans l’espace des phases).
 En mécanique quantique :
L’état d’une particule est décrite par sa fonction d’onde (solution de l’équation de
Schrödinger) et les nombres quantiques, voir la section.
 État macroscopique :
Un état macroscopique est la configuration associée à des valeurs données des paramètres
macroscopiques.

6
Chapitre I Introduction aux méthodes statistiques

 État microscopique :
Un état microscopique est déterminé par la donnée d’un ensemble complet de paramètres
(nombres quantiques par exemple) qui permettent de déterminer de façon unique la
configuration du système à l’échelle microscopique.
 Système en équilibre :
Si ses variables macroscopiques ne varient pas au cours du temps.
 Processus thermodynamique :
Un processus thermodynamique est tout changement ou succession de changement dans l’état
des variables macroscopiques. Il est :
(a) cyclique si ses états initial et final sont les mêmes.
(b) quasi-statique si le système passe par une succession d’état d’équilibre.
(c) réversible si son chemin thermodynamique peut être réversible (dQ = T dS).
(d) isothermique : dT = 0.
(e) isobarique : d p = 0.
(f) isochore : dV = 0.
(g) adiabatique : dQ = 0 ...etc.
 Gaz parfait :
On appelle un gaz, gaz parfait, si les interactions mutuelles entre ses molécules sont
négligeables.
L’hélium à basse pression est une bonne approximation d’un gaz parfait. Son équation d’état est:
PV = NkbT (I.33)
où N est le nombre de particules en mole, p est sa pression (en Pascal pa), T sa température (en
Kelvin K) et kb est la constante de Boltzmann,
kb = 1.38064852 × 10−23 J · K−1. (I.34)
 Équation de Van der Waals :
L’équation d’état du gaz de Van der Waals (gaz non parfait) est donnée par :
 aN 2 
 p   (V  bN )  Nk BT (I.35)
 V2 

où a et b sont des paramètres qui dépendent de la nature des molécules constituant le gaz.
 Travail mécanique :
C’est un transfert d’énergie à l’échelle macroscopique qui se traduit par un changement des
paramètres macroscopiques autre que la température. Si la variable macroscopique qui varie est
le volume (dW = pdV ), on dit que le travail est d’origine mécanique. En général, l’élément
différentiel du travail est donnée par :
dW   Fi dX i . (I.36)
i

où Fi et Xi sont la force et le déplacement généralisé.


 Chaleur :

7
Chapitre I Introduction aux méthodes statistiques

C’est un transfert d’énergie à l’échelle macroscopique qui se traduit par un changement de


température (et pas les autres paramètres macroscopiques). On dit qu’il y a un échange de
chaleur Q. L’unité de la quantité de chaleur Q est le joule, où

1J = 107 erg = 6.242×1018ev. (I.37)

 Théories cinétique des gaz :


Le but de la théorie cinétique des gaz est d’expliquer le comportement macroscopique d’un
gaz à partir des caractéristiques (mouvement, ... etc) de ses constituants (atomes, molécules, ...).
Cette théorie permet de donner une interprétation microscopique des variables macroscopiques
(T et P).
 Pression :
L’unité de pression (p) est la force par unité de surface. Dans le SI, son unité est le Pascal (Pa),
Où 1 Pa=1N/m2 = 1kg/ms2, 1 bar = 105 Pa ,1 atm = 1,01325x105 Pa
D’après la théorie cinétique des gaz, la pression résulte des chocs des particules sur une paroi de
surface S, donc, elle est liée à leurs quantités de mouvement.
𝐹 = 𝑝 𝑑𝑆 (I.38)
 Température :
Dans la théorie cinétique des gaz, elle est liée directement à l’énergie cinétique des particules.
Dans le premier chapitre, on va dériver la relation entre la température et l’énergie interne. Pour
le gaz parfait, par exemple, on peut montrer que
3
U kbT . (I.39)
2
 Fonction d’état :
Une fonction d’état est une grandeur physique qui dépend que de l’état initial et de l’état final
(ne dépend pas du chemin de transformation).
 Énergie interne :
L’énergie totale d’un système mécanique conservatif est donnée par la somme de l’énergie
cinétique et de l’énergie potentielle des particules qui le constituent. Cette énergie est appelée
énergie interne (on la note par U) en thermodynamique, où

𝑑𝑈 = 𝛿𝑊 + 𝛿𝑄 (I.40)
 Capacité calorifique :
La capacité calorifique C est l’énergie qu’on doit donner à un système pour augmenter sa
température par un kelvin. L’unité de C est le joule par kelvin (J/K),
U H
CV  , CV  , (I.41)
T V T P

où CV est la capacité calorifique isochore, Cp est la capacité calorifique isobare et H est


l’enthalpie.
 Entropie :

8
Chapitre I Introduction aux méthodes statistiques

L’entropie est une fonction d’état extensive, dont l’unité est le joule par kelvin (J/K). D’après la
physique statistique, elle peut être interprétée comme la mesure de désordre d’un système à
l’échelle microscopique. Elle est donnée par la formule de Boltzmann :
S  kb ln . (I.42)

où Ω est le nombre d’état microscopique accessible pour un système.


Pour les processus réversibles, la variation de l’entropie est liée à la variation de la quantité de
chaleur par,
Q
dS  . (I.43)
T
 Système conservatif :
Un système conservatif est un système dont l’énergie est conservée.
 Transformation quasi-statique :
Si l’évolution du système est telle qu’il reste toujours en équilibre thermodynamique.
 Potentiel chimique :
Le potentiel chimique m décrit la variation de l’énergie d’un système par rapport à sa quantité de
matière. Il a la dimension d’une énergie molaire J/mol.

I.3.2 Principes de la thermodynamique


 Principe zéro :
Si deux systèmes sont en équilibre thermodynamique avec un troisième système, alors, les trois
systèmes sont en équilibre entre eux.
 Premier principe :
Ce principe annonce la conservation de l’énergie totale d’un système. Durant un processus
thermodynamique, le changement de l’énergie interne d’un système se traduit par:
∆U = Q + W .
La forme différentielle de ce principe est donnée par
𝑑𝑈 = 𝛿𝑄 + 𝛿𝑊 (I.44)

et ∫𝑐 𝑑𝑈 = 𝑈𝑓 − 𝑈𝑖 . L’énergie totale ne dépend pas du chemin suivit, elle dépend que de l’état
initial est final. Donc, U est une fonction d’état. Par contre W et Q dépendent du chemin
suivit, donc ils ne sont pas des fonctions d’état.
 Deuxième principe :
 Énoncé de Clausius : Il n’existe pas de processus dont le seul résultat soit de transférer
de la chaleur d’un corps froid à un corps chaud. Il est possible de faire passer la chaleur
d’un corps froid à un corps chaud mais il faut fournir du travail (réfrigérateur par exemple).
 Enoncé de Kelvin-Planck : Il n’existe pas de transformation dont le seul résultat soit de
produire du travail à partir d’une seule source de chaleur à température constante. Cela
signifie qu’il faut au moins deux sources à des températures différentes pour réaliser une
conversion d’énergie calorifique en énergie mécanique (cycle de Carnot par exemple).
 Théorème de Clausius : Pour des cycle quasi-statique (Carnot), la relation suivante est
vérifiée :

9
Chapitre I Introduction aux méthodes statistiques

 Qqs
 T
 0. (I.45)

où 𝛿𝑄𝑞𝑠 est la quantité de chaleur échangée de manière quasi-statique avec le système au point
du cycle, où la température est T .
On définit l’entropie S par la relation
 Qqs
dS 
T
, et  dS  0 (I.46)

L’entropie est, donc, une fonction d’état (ou une variable extensive), car elle ne dépend pas du
chemin suivit (elle dépend que de l’état initial et de l’état final). Elle permet de reformuler le
deuxième principe comme suit : L’entropie d’un système isolé ne peut que augmenter. Si le
processus est réversible ∆𝑆 = 0, si le processus est irréversible ∆𝑆 > 0.
 Entropie d’un gaz parfait : Considérons un gaz parfait constitué de N particules (N
constante donc dN = 0). La variation infinitésimale de U est
dU  TdS  PdV , ou  Q  TdS , W  PdV .
3NkbT
en plus PV  NkbT , U .
2
alors
3 dT dV
dS  Nkb  Nkb . (I.47)
2 T V
on peut montrer que

 5
 T  2  P0  
 
S (T , P)  Nkb  s0 T0 , P0   ln      (I.48)
  T0   P  

où s0(T0;P0) est une constante arbitraire qu’on détermine à l’aide du troisième principe de la
thermodynamique.
 Troisième principe :
L’entropie d’un solide ou d’un liquide pur en équilibre thermodynamique est nulle au zéro
absolu (énoncé de Nernst).

I.3.3 Fonctions d’état en thermodynamique


Une fonction d’état est une grandeur thermodynamique qui ne dépend pas du chemin suivit,
mais elle dépend que de l’état initial et de l’état final. Dans ce paragraphe, on donne quelques
fonctions d’états qui nous permettent de calculer les propriétés thermodynamiques des systèmes
macroscopiques.
 Énergie interne :
L’énergie interne est une fonction des paramètres extensifs S, V , N1, ..., Nr (où Ni est le nombre
de particules de type i) :
U = U(S,V, N1,..., Nr). (I.49)

10
Chapitre I Introduction aux méthodes statistiques

Chaque paramètre extensif correspond à un paramètre intensifs égal à la dérivé de U par rapport
à ce paramètre :
 U 
Température T   (I.50)
 S  V , N ,..., Nr
 U 
Pression. P    (I.51)
 V  S , N ,..., Nr
 U 
Potentiel chimique. j    (I.52)
 N
 j  S , N ,..., N j1 , N j , N j1 ,..., Nr

Donc,
r
dU  TdS  PdV   µ j dN j . (I.53)
j 1

Pour un gaz parfait, Nj = cst, alors dU  TdS  PdV .


 Enthalpie H(S, P, N) :
r
Avec volume contant H  U  PV  TS   µ j dN j (I.54)
j 1

 H   H   H 
T   , V   ,  j    (I.55)
 S  P , N ,...  P  S , N ,...  N
 j  S , N ,...

 Énergie libre F(T,V, N) :

r
Avec température constante F  U  TS   PV   µ j dN j (I.56)
j 1

 F   F   F 
S    , P    , j    (I.57)
 T  V , N ,...  V  S , N j ,... 
 N j  T ,V ,...

 Enthalpie libre G(T, P, N) :

r
Avec température et à pression constantes G  U  PV  TS   µ j dN j (I.58)
j 1

 G   G   G 
S    , V    , j    (I.59)
 T  P , N ,...  P  S , N j ,...  N
 j  T , P ,...

 Grand potentiel Φ (T;V; m) :

Lorsque on s’intéresse aux gaz de Bose ou de Fermi, on utilise souvent le grand potentiel Φ:

11
Chapitre I Introduction aux méthodes statistiques

  F  µN   PV , (I.60)

d    SdT  PdV  Ndµ (I.61)

        
S    , P    ,  j    . (I.62)
 T  V ,  ,...  V  T ,  ,...    T ,V ,...

I.4 Exercices et problèmes


Exercice N°1:
1- Quelle est la probabilité pour deux personnes ait la même date d’anniversaire dans une classe
de N=30 personnes ?
2- Quelle est la probabilité pour que cela se produise au moins une fois parmi vos camarades en
dis ans de scolarité (on supposant que ce sont 30 personnes différents cheque année ?
Exercice N°2:
Un marcheur se déplace sur une droite en sautant aléatoirement à gauche ou à droite (de manière
équiprobable) à une distance a de là ou il se trouve . On prend comme origine des
coordonnées l’endroit ou il se trouve à l’instant t=0. La durée qui s’écoule entre chacun de
ses sauts est notées𝜏.
1. Quelle est la probabilité 𝑃(𝑛, 𝑁) que le marcheur ait, après N sauts effectuées n saut vers
la droite et N-n vers la gauche ?
2. Quelle sera alors sa position x e est le n fonction de N ,n et a ?
3. Quel est le temps t qu’il lui faut pour faire N sauts ?
4. Quel est le nie nombre moyen de pas vers la droite ?
5. Exprimer la variance de la variable x, définie par 𝜎𝑥 2 = (∆𝑈)2 − 〈𝑈〉2 , en fonction, de N
et a puis en fonction de t ,𝜏 et a
On va à présent s’intéresser au comportement de 𝑃(𝑛, 𝑁) lorsque n et N sont très grand
devant 1, forme d’une loi gaussienne en variable𝜉.
Comment varie la distance typique atteinte en fonction du temps.

Exercice N°3:
La distribution de Maxwell-Boltzmann est donnée par :
3
 m   mv 2 

f v  
 2 kbT 
 exp   
 2kbT 
où m est la masse de la particule considérée, kb la constante de Boltzmann, T la température et
v2  vx2  vy2  vz2
(1) Montrer que f est normalisée.
(2) Calculer les valeurs moyenne :  vx ,  vy ,  vz ,  vx2 ,  vy2 ,  vz2 ,  Ec  et  vxvy 
(Ec est l’énergie cinétique).

Exercice N°4:
Application de la loi binomiale Calculer la probabilité d’obtenir un nombre de face entre 3 et 6
quand on lance 10 fois une pièce bien équilibrée.
12
Chapitre I Introduction aux méthodes statistiques

Exercice N°5
Considérons la distribution binomiale suivante :
𝑁!
𝑃(𝑛) = 𝑝𝑛 𝑞 𝑁−𝑛
𝑛! (𝑁 − 𝑛)!
N et n sont deux nombres entiers naturelle (avec𝑛 ≤ 𝑁) etp et q sont deux probabilités
complémentaires.
On place dans le cas 𝑝 ≪ 1 𝑒𝑡 𝑛 ≪ 𝑁
1) Montrer que :(1 − 𝑝)𝑁−𝑛 ≈ 𝑒 −𝑁𝑝
𝑁!
2) Montrer que :(𝑁−𝑛)! ≈ 𝑁 𝑛
3) D’après les résultats établis en (1) et (2). Montrer que p(n) peut s’écrire :
𝜆𝑛
𝑃(𝑛) = 𝑒 −𝜆 ou 𝜆 = 𝑁𝑝
𝑛!
Vérifier la condition de normalisation et montrer que 𝜆n’est autre que 𝑛̅

13
Chapitre II Micro Et Macro États

Introduction:
la physique statistique permet de faire la liaison entre les mondes macroscopiques et
microscopiques. À notre échelle, on peut définir une configuration particulière d’un système
macroscopique (macroétat) en se donnant la valeur de toutes ses variables thermodynamiques
indépendantes. Par exemple, pour un gaz parfait, il suffit de fixer trois paramètres choisis parmi
la pression, le volume, la température et le nombre de particules du gaz. Le quatrième paramètre
est alors obtenu à partir de l’équation d’état des gaz parfaits.

Si l’on étudie le système au niveau de ses constituants, on s’intéresse au monde microscopique. Il


convient à ce stade d’analyser les caractéristiques principales des constituants élémentaires de ce
corps tels que nous venons de les citer :

Ils sont extrêmement petits. Cela signifie que leurs propriétés sont souvent dominées par les
phénomènes quantiques.

Ils sont extrêmement nombreux. Leur évolution ne peut donc pas être traitée individuellement
mais comme un élément particulier d’un ensemble aux propriétés plus globales : c’est l’objet de
la physique statistique.

Paradoxalement, il est plus facile d’introduire la physique statistique à partir de la mécanique


quantique qu’à partir de la mécanique classique.

À un instant donné les particules d’un système sont dans une certaine configuration que l’on
appelle micro-état. La définition de celui-ci permet de complètement déterminer le système au
niveau microscopique. Il est important de noter qu’on ne peut pas, dans la pratique, déterminer le
micro-état d’un système macroscopique. En effet, considérons par exemple une mole de gaz.
Nous avons N particules, où N est le nombre d’Avogadro (N = 6,02 1023). Même si nous
utilisions la mécanique classique pour décrire l’évolution des molécules du gaz, il nous faudrait
connaître 3N positions et 3N vitesses pour pouvoir déterminer complètement une configuration
de ce système.

II.1 MICRO-ÉTATS QUANTIQUES


Un micro-état est une configuration microscopique particulière d’un système. Plutôt que d’introduire
cette notion de manière formelle, illustrons-la sur quelques exemples simples qui nous permettrons
d’assimiler ce concept.
Exemple 1. atome d’Hydrogène

Dans le cadre de la théorie de Bohr, les niveaux d’énergie de l’électron sont quantifiés. L’énergie
de chaque niveau est donnée par :
13.6
n   2 (II.1)
n
où n est le nombre quantique principal (pour les états excités n > 1). Pour un état d’énergie
donnée, on a plusieurs configurations possibles, chacune est définie par les nombres quantiques
suivants :
Le nombre quantique secondaire l : 0 ≤ l ≤ n−1..
Le nombre quantique magnétique m : −l ≤ m ≤ +l.

14
Chapitre II Micro Et Macro États

Le nombre quantique de spin s : s = 1/2


La projection de s sur l’axe (oz) sz :−1/2 ≤ sz ≤ +1/2.
Donc, pour l’atome d’hydrogène, un état microscopique quantique est déterminé par les cinq
nombres quantiques (n;l;m;s;sz). Ces derniers permettent de décrire complètement le système au
niveau microscopique. Par exemple :
l  0, m  0, s  1 2, sZ  1 2
si n  1     2micro  états. (II.2)
l  0, m  0, s  1 2, sZ  1 2
Donc, si n = 1, on a deux états microscopiques quantiques différents. Si n = 2, la dégénérescence
est égale à huit, etc. À l’état correspondant à n = 2 , on peut donc associer 8 micro-états
différents.

II.1.2 L’oscillateur harmonique à une dimension


L’évolution d’un poids suspendu à un ressort autour de sa position d’équilibre, après qu’il en ait
été légèrement écarté, représente un exemple d’oscillateur harmonique classique. Supposons que
le poids ait une masse m et qu’il soit susceptible de se déplacer dans une seule direction que nous
noterons x. Nous supposerons que la position d’équilibre correspond à x=0. Ce système a le
comportement d’un oscillateur harmonique si son énergie potentielle, U, est de la forme :
1
U  Kx 2 (II.3)
2
où K est une constante.
l’équation du mouvement s’écrit :
d 2x
m 2   Kx (II.4)
dt
où t désigne le temps. La solution de cette équation est une sinusoïde dont la pulsation  est
K
donnée par :   . . Le système oscille autour de sa position d’équilibre avec la pulsation  ,
m

i.e. avec une fréquence   . n . Classiquement, toutes les valeurs positives de l’énergie sont
2
permises.
Au niveau microscopique, il existe également des systèmes dont l’énergie potentielle est une
forme quadratique des coordonnées. Un exemple très simple est donné par la molécule
d’hydrogène dont les deux atomes peuvent osciller le long de l’axe de symétrie de la molécule.
La description correcte de tels systèmes requiert l’utilisation de la mécanique quantique. Comme
pour l’atome d’hydrogène, cette théorie dit que les niveaux d’énergie, donc les pulsations, sont
quantifiés. Dans le cas d’un oscillateur harmonique à une dimension, les niveaux d’énergie sont
donnés par l’expression :
 1
n   n    (II.5)
 2
où n est un entier positif ou nul : c’est le nombre quantique associé à un oscillateur à une
dimension.

15
Chapitre II Micro Et Macro États

II.1.3 Une particule libre dans une boîte cubique


Nous utiliserons souvent dans ce cours l’exemple d’une particule libre, de masse m et de spin
nul, placée dans une boîte cubique de coté L (figure 2). L’énergie potentielle de ce système est
nulle à l’intérieur de la boîte et infiniment répulsive (U = +∞) à l’extérieur de manière à confiner
la particule à l’intérieur du cube. Comme dans les deux exemples précédents, l’énergie de la
particule (purement sous forme cinétique dans ce cas) ne peut pas être quelconque. Seules
certaines valeurs sont permises par la mécanique quantique. Elles sont données par l’expression :
2 2
 n ,n
x y , nz
2mL2
 nx2  ny2  nz2 
 (II.6)

où nx, ny et nz sont des entiers strictement positifs. Ce sont les nombres quantiques associés à
chacune des directions de l’espace : x, y et z.

II.2 Bosons et Fermions


II.2.1 Définitions
La plupart des objets sont discernables au niveau macroscopique. Si ce n’est pas le cas, on
peut, sans changer aucunement leurs propriétés, les marquer pour pouvoir les distinguer (boules
de billard de couleurs différentes, par exemple). Ce n’est pas le cas au niveau microscopique où
toutes les particules de même nature sont indiscernables et où il n’est pas possible de les «
marquer » sans les perturber fortement. Ainsi, pour distinguer deux atomes d’hydrogène, il
faudrait modifier la structure de l’un d’entre eux mais on n’aurait alors plus l’atome dans son état
fondamental. L’expérience montre que toutes les particules de la nature ont un spin s (exprimé
en unités) qui est soit entier soit demi-entier. Selon la valeur du spin, les particules appartiennent
à deux familles différentes : les bosons si s est entier, et les fermions s’il est demi-entier. Par
exemple, l’électron qui a un spin égal à 1 2 est un fermion alors que le photon, qui a un spin égal
à 1, est un boson. Les fermions et les bosons ont les propriétés suivantes :
• La fonction d’onde d’un système constitué de plusieurs fermions est antisymétrique par rapport
à l’échange de particules. Cela signifie que le signe de la fonction d’onde change si l’on permute
deux particules dans l’espace. Cette propriété implique que deux particules ne peuvent pas être
dans le même état quantique. C’est ce que l’on appelle le principe d’exclusion de Pauli. On dit
que les fermions obéissent à la statistique de Fermi-Dirac. Un déterminant est un objet
mathématique qui satisfait à ces propriétés :
si l’on permute deux lignes ou deux colonnes, le déterminant change de signe. Si deux lignes ou
deux colonnes sont identiques, le déterminant est nul. Ces propriétés d’antisymétrie font que la
fonction d’onde totale d’un système de fermions peut parfois être représentée par un
déterminant.
• La fonction d’onde d’un système de bosons doit être symétrique par rapport à l’échange de
deux particules. Plusieurs bosons peuvent se trouver dans la même configuration quantique. On
dit qu’ils obéissent à la statistique de Bose-Einstein.

II.2.2 Micro-états et spin


En mécanique quantique, un micro-état est déterminé par la donnée d’un ensemble complet de
nombres quantiques qui permettent de préciser de manière unique la configuration du système.
Revenons sur l’exemple d’une particule libre dans une boîte cubique et supposons que celle-ci
ait un spin s. Dans ce cas, la donnée des nombres quantiques nx, ny et nz n’est plus suffisante pour

16
Chapitre II Micro Et Macro États

décrire un micro-état. Il est nécessaire d’introduire deux nombres quantiques supplémentaires : s


et sz, où sz est la projection du spin sur l’axe z. Nous savons que sz ne peut prendre que des
valeurs comprises entre −s et +s par sauts d’une unité. Il y a donc 2s + 1 valeurs possibles de sz.
• Pour une particule de spin nul, un micro-état est défini par la donnée de cinq nombres
quantiques : nx, ny, nz, s = 0 et sz = 0. Comme s et sz ont la même valeur pour tous les micro-états,
ils ne jouent aucun rôle dans le décompte de ceux-ci. Les micro-états sont alors complètement
déterminés par la simple donnée de nx, ny et nz.
• Lorsque le spin de la particule est différent de zéro, il faut absolument préciser les valeurs de s
et sz. Par exemple, si s = 1 et si ce n’est pas un photon, sz peut prendre 3 valeurs : −1,0 et +1.
Pour nx, ny et nz fixés, on peut définir trois micro-états (nx, ny, nz, s, sz) :

nx, ny, nz, 1, −1 ; nx, ny, nz, 1, 0 ; nx, ny, nz, 1, +1

Dans le cas de particules indépendantes, il est souvent commode de considérer séparément les degrés de
liberté liés au spin des particules, de ceux qui sont liés à l’espace ordinaire. La raison en est simple : on
peut résoudre dans une première étape le problème sans s’occuper du spin et obtenir les configurations à
une particule. Ces configurations correspondent en fait aux micro-états associés à une particule de spin
nul. Dans une seconde étape, on peuple certaines de ces configurations avec les particules, en tenant
compte de la statistique à laquelle elles obéissent (Fermi-Dirac ou Bose-Einstein).

II.3 Systèmes à N particules indépendantes


Nous allons à présent appliquer les notions précédentes à quelques exemples simples.
Considérons un système où les niveaux d’énergie à une particule sont régulièrement espacés et
non dégénérés lorsque l’on ne tient pas compte du spin. Prenons pour origine des énergies le
niveau le plus bas et comme unité la différence entre deux niveaux consécutifs. Nous allons,
dans plusieurs cas, étudier l’état d’un système constitué de trois particules indépendantes dont
l’énergie totale est égale à trois unités.

II.3.1 Particules discernables


Bien qu’irréaliste, cette situation est intéressante pour illustrer la manière dont on décompte
les micro-états. Supposons qu’une particule soit bleue (B), l’autre rouge (R) et la dernière jaune
(J). Oublions pour le moment la nature des particules et cherchons de combien de manières
différentes trois particules peuvent conduire à 3 unités d’énergie. On trouve trois configurations
possibles (figure II.1) :
1- Une particule sur le niveau 3 et deux sur le niveau zéro.
2- Une particule sur chacun des trois premiers niveaux.
3- Trois particules sur le premier niveau.
Considérons à présent la nature des particules et évaluons le nombre de micro-états associés à
chaque configuration. Nous noterons un micro-état par (nB, nR, nJ) où nB, nR et nJ repèrent les
niveaux occupés par les particules B, R et J, respectivement. Pour la première configuration,
(figure II.1a), nous avons trois micro-états possibles : (3,0,0), (0,3,0) et (0,0,3). Pour la seconde,
nous avons les 6 possibilités indiquées sur la figure II.1b et pour la troisième configuration nous
n’avons qu’une seule possibilité (figure II.1c). Au total, pour ce système à trois particules, la
dégénérescence du niveau d’énergie est égale à 10 et nous avons 10 micro-états différents à trois
particules.

17
Chapitre II Micro Et Macro États

Figure II.1 Evaluations du nombres de micro-états discernable

II.3.2 Particules indiscernables


Supposons à présent que les particules soient indiscernables. Nous allons considérer séparément
le cas des bosons et des fermions.
 Bosons
Supposons que les trois particules soient des bosons de spin nul. Comme il n’y a pas de
restriction pour l’occupation des niveaux à une particule (statistique de Bose-Einstein), chacune
des configurations décrites dans la section II.3.1 ne correspond qu’à un seul micro-état. Par
conséquent nous n’avons au total que trois micro-états (figure II.2a).
 Fermions
Supposons enfin que les trois particules soient des fermions de spin 1 2 (des électrons par
exemple). Le principe d’exclusion de Pauli empêche deux fermions d’avoir les mêmes nombres
quantiques. Ceci va réduire le nombre de micro-états possibles par rapport à la statistique de
Bose-Einstein. Ainsi, la configuration où l’on a trois particules dans l’état 1 est impossible. En
effet, si pour le premier électron sz   1 , le second ne peut être que dans l’état sz   1 . Il
2 2
n’est donc pas possible de mettre un troisième électron sur le même niveau d’énergie. La
première configuration conduit à 2 micro-états alors que la deuxième donne 8 micro-états car,
pour chaque électron, nous avons le choix entre 2 valeurs de sz, ce qui donne une dégénérescence
de 2×2×2 =8 (figure II.2b).

18
Chapitre II Micro Et Macro États

Figure II.2 Evaluations du nombres de micro-états indiscernable

II.4 Espace des phases


II.4.1 Définition de l’espace des phases
Pour déterminer, de façon unique, l’évolution d’un système classique constitué de N particules, il
suffit de connaître la position qi  t  et la vitesse vi  t  (ou plus généralement, l’impulsion pi  t  )
de chaque particule à l’instant t. Les vecteurs position et impulsion de la particule i à trois
dimensions sont donnés par

 xi  t    pxi  t  
   
qi  t    yi  t   , pi  t    p yi  t   , (II,7)
   
 zi  t  
 pz  t  
 i 

 
On peut interpréter l’ensemble qi , pi comme un point dans un espace à 6N dimensions que
l’on appelle espace des phases. Une trajectoire dans cet espace est définie par la courbe
 q t  , p t  qui décrit l’évolution temporelle du système. Les quantités q t  et p t  sont
i i i i

déterminés à l’aide des équations d’Hamilton-Jacobi :

 H
 q 
 pi
i

 (II.8)
 p   H
 i  qi

19
Chapitre II Micro Et Macro États

FIGURE II.3 – Espace des phases à deux dimensions (à gauche), et espace des
phases de l’oscillateur harmonique à une dimension (à droite).

où H est l’hamiltonien du système (correspond à l’énergie totale du système H  Ec  E p ). Pour


les systèmes isolés, H ne dépend pas explicitement du temps, on écrit donc

E  H  qi  t  , pi  t   . (II.9)

L’espace des phases peut être subdiviser en éléments de volume d 3 N qd 3 N p . On appelle chaque
élément de cet espace Cellule de l’espace des phases. Si N = 1 (espace des phases d’une seule
particule), la taille d’une cellule est d 3qd 3 p   dxdydz    dpx dp y dp z  . La Fig. (II.3) (à gauche)
représente un espace des phases à deux dimensions et une cellule dans cet espace (particule se
déplace sur l’axe x par exemple).

L’espace des phases peut être subdiviser en éléments de volume d3N qd 3N p. On appelle chaque
élément de cet espace Cellule de l’espace des phases. Si N = 1 (espace des phases d’une seule
particule), la taille d’une cellule est d3qd3 p = (dxdydz) (d pxd pyd pz). La Fig.(II.2) (à gauche)
représente un espace des phases à deux dimensions et une cellule dans cet espace (particule se
déplace sur l’axe x par exemple).

II.4.2 Espace des phases de l’oscillateur harmonique


Considérons un oscillateur harmonique classique à une dimension. L’hamiltonien de ce système
est donné par :

px2 k 2
H ( x, p x )   x  E  C ste (II.10)
2m 2

où m est la masse de la particule et k est la constante de raideur de l’oscillateur.

L’énergie totale du système est conservée car l’hamiltonien H ne dépend pas explicitement du
temps. D’après l’eq. (II.9), l’espace des phases est une ellipse dont la taille dépend de l’énergie.
Les deux demi-axes de cet ellipse sont donnés par:

2E
a  2mE , b . (II.11)
k
20
Chapitre II Micro Et Macro États

La surface σ de cette ellipse est donnée par :

m
   ab  2 E r . (II.12)
k

L’énergie d’un système est toujours définie avec une incertitude 𝛿𝐸 Si l’énergie du système est
comprise entre E et E   E , les trajectoire dans l’espace des phases seront toutes comprise entre
les deux ellipse 1 et 2, voir Fig. (II.3) (à droite).

II.4.3 Volume et aire de l’espace des phases


Dans le cas général, on définit le volume total 𝜔 de l’espace des phases à 6N dimensions et la
surface 𝜎comprise entre E et E   E , d’un système isolé d’hamiltonien H, par

 E   d 3 N qd 3 N p   d (II.13)
H ( qi , pi ) E H ( qi , pi ) E

 E   d (II.14)
E H (q, p)

où 𝑑𝜔 et 𝑑𝜎 sont les éléments de volume et de surface, respectivement.

Si l’énergie du système est comprise entre E et E   E , alors le volume de l’espace des phase
dans ce cas est donnée par :

  
E  H ( q , p )  E E
d 3 N qd 3 N p  
E  H ( q , p )  E E
d (II.15)

Si ∆E → 0 (très petite), alors on peut écrire


   ( E  E )   ( E )  E. (II.16)
E V , N

D’après le théorème de Cavalieri (Si les figures planes, déterminées par les intersections de
deux solides avec tout plan parallèle à un plan fixe donné, ont la même aire, alors les deux
solides ont le même volume), alors le volume entre deux surface, séparées par ∆E, d’aire σ(E) est
donné par

   ( E )E. (II.17)

Donc,

 ( E )
 (E)  . (II.18)
E

21
Chapitre II Micro Et Macro États

II.5 Postulats de la physique statistique


La physique statistique est construite à partir de postulats. Ce sont des hypothèses
raisonnables choisies a priori. La justification du bien fondé de ce choix se fait a posteriori en
vérifiant que cette théorie permet de reproduire, et de comprendre, un grand nombre de
propriétés des corps macroscopiques. La thermodynamique est aussi basée sur des postulats : ce
sont les principes de la thermodynamique. Comme la physique statistique tient compte des
propriétés des constituants microscopiques, alors que la thermodynamique ne s’occupe que des
propriétés macroscopiques des corps, c’est une science plus complète que cette dernière.

 Postulat 1 : Équiprobabilité des états microscopiques


Tous les états microscopiques accessibles à un système macroscopique isolé en équilibre sont
équiprobables.

Donc, la probabilité pour que ce système soit dans un état microscopique donné est

1
p( E )  (II.19)
( E )

où Ω est le nombre totale d’états microscopiques.

 Postulat 2 : Principe ergodique


La moyenne d’un paramètre quelconque calculée d’une manière statistique est égale à la
moyenne de ce paramètre prise sur un ensemble de systèmes identiques.

Si W est le nombre d’états microscopiques accessibles au système pour une énergie comprise
entre E et E   E ,. D’après le premier postulat, le temps passé dans chaque micro-état est le
même  t  t / Ω  . Alors, la probabilité est donnée par

t t / Ω 1
p   (II.20)
t t 

Si on considère un ensemble de N système identiques (copies de notre système), où N est très


grand. On note par ni le nombre de copies dans l’état i. Donc, la probabilité de trouver le système

ni 1
p  (II.21)
N 

Donc, dans les deux visions la probabilité est la même.

II.6 l’entropie statistique


Nous avons déjà remarqué que Ω(E), le nombre de micro-états accessibles à un système dont
l’énergie est égale à E, est une quantité importante en physique statistique. Nous allons
maintenant préciser ceci de manière quantitative en reliant Ω(E) à une quantité qui nous est
familière en thermodynamique : l’entropie. Il faut noter que Ω(E) est un nombre extrêmement
grand pour les systèmes macroscopiques dont la température n’est pas proche du zéro absolu.

22
Chapitre II Micro Et Macro États

II.6.1 Formule de Boltzmann


Considérons un système isolé constitué de deux sous-systèmes A et B. On note le nombre
d’états microscopiques de chaque sous système par Ω1(E1) et Ω2(E2), respectivement. Les deux
systèmes peuvent échanger de la chaleur (les énergies peuvent variées), les particules ou bien
leurs volumes peuvent varier. On suppose que ces deux systèmes sont statistiquement
indépendants, alors le nombre total d’états microscopiques est donné par

Ω(E)= Ω1(E1)x Ω2(E2) (II.22)

Du point de vu macroscopique et d’après le deuxième principe de la thermodynamique,


l’entropie d’un système isolé composé de deux sous systèmes est la somme des entropies de ces
deux derniers,

S(E,) = S1(E1)+ S2(E2) et dS = dS1 + dS2. . (II.23)

D’autre part, à l’équilibre thermodynamique l’entropie d’un système isolé est maximale, ç.à.d

S  Smax
 (II.24)
dS  dS1  dS2  0

Si on compare les deux points de vue macroscopique et microscopique, on déduit que


l’entropie doit être proportionnelle au logarithme du nombre d’états microscopiques, alors

S(E,V,N) = kb lnΩ(E,V,N) . (II.25)

où kb est une constante de proportionnalité de même dimension que l’entropie, que l’on
appelle la constante de Boltzmann. Cette équation, est très importante en physique statistique
(formule de Boltzmann) car elle permet de calculer les propriétés thermodynamiques
(température, pression, ... etc) d’un système à partir de son hamiltonien en utilisant les relations
suivantes :

1 S P S  S
 ,  ,   . (II.26)
T E V , N T V E ,V T N E,N

II.6.2 Calcul de l’entropie statistique d’un gaz parfait


l’entropie d’un gaz parfait s’écrit sous la forme

 3  V  4 mE 3 2  
S  E   Nkb   ln  3    (II.27)
 2  h  3N   

II.6.3 Paradoxe de Gibbs


Considérons un récipient isolé du milieu extérieur divisé en deux parties, de volumes V1 et V2,
séparées par une paroi. La première partie contient N1 particules d’un gaz parfait monoatomique,
la seconde en contient N2 de nature différente. Nous supposons que les deux gaz sont à la même
température. Retirons maintenant la paroi. Le volume accessible devient V=V1+V2. Le
changement d’entropie vaut :

23
Chapitre II Micro Et Macro États

 V V   V V 
S  S1  S2  N1kb ln  1 2   N 2 kb ln  1 2   0. (II.28)
 V1   V2 

Même dans ce cas, la différence d’entropie est positive ce qui ne peut pas être correct car le
processus dans ce cas est réversible(on peut toujours revenir à l’état initial si on remet la cloison
de séparation). D’après le deuxième principe de la thermodynamique, la différence d’entropie
pour les processus réversible est nulle ∆S = 0. Cette contradiction s’appelle le Paradoxe de
Gibbs.

Dans la vision classique (mécanique classique), les particules sont discernables. Si on


numérote les particules du gaz A de 1 à N1 (ç.à.d. 1,2,...,N1), et les particules du gaz B de N1+1 à
N1+N2 (ç.à.d. N1+1,N1+2,...,N1+N2), et on retire le mur de séparation, il y aura un processus
irréversible car les particules vont se mélanger et on ne peut pas revenir à l’état initial si on prend
en considération la numérotation des particules. En réalité, les particules d’un gaz parfait sont
indiscernables (non-dénombrables) comme en mécanique quantique. Donc, le nombre d’états
microscopiques dans ce cas est donné par le nombre d’états microscopiques du cas classique
(calculé avant) divisé par N! (le facteur de Gibbs).


 . (II.29)
N!

et l’entropie du gaz parfait, calculé dans la section précédente, devient


5  V  4 mE 3 2  

S  E   Nkb   ln  3    (II.30)

2  Nh  3N    

L’argument du logarithme de cette formule ne contient que des quantités intensives, d’où,
l’entropie S est une grandeur extensive.

Si on calcule la différence d’entropie (en utilisant la nouvelle formule) pour les deux gaz
identiques et leurs mélange, on peut montrer que

∆S = 0. (II.31)

ce qui implique que la nouvelle formule de l’entropie est en accord avec le deuxième principe de
la thermodynamique.

II.7 Ensembles représentatifs :


Avant de calculer des propriétés d’un système en physique statistique, nous devons utiliser
toute la connaissance que nous avons sur le système étudié, puis trouver un ensemble qui nous
permet de faire des prédictions statistiques au sujet des quantités que nous ne pouvons pas
prédire avec précision.
Nous identifions le contraste entre deux situations physiques différentes et les ensembles
correspondants, l’ensemble micro-canonique et l’ensemble canonique.

24
Chapitre II Micro Et Macro États

II.7.1 Ensemble micro-canonique :


Dans l’ensemble micro-canonique, nous considérons un seul système isolé du monde
extérieur et nous supposons son énergie totale connue à une précision donnée. D’autres quantités
mécaniques sont aussi spécifiées tel le volume et le nombre de particules. C'est-à-dire que
l'ensemble micro-canonique est un système (un ensemble statistique) isolé d'énergie totale fixé à
prés, et qui n'échangeant pas de la matière (de particules) avec le milieu extérieur. Alors cet
ensemble représente les états d'équilibre d'un tel système (isolé) d'énergie totale fixé à prés, à
donc une densité en phase entre les états d'énergie et . Ainsi, la probabilité que le système soit
dans un état microscopique donné (r) d’énergie et de volume est donnée par :
 1
  E , V ; E  Er  E   E
P  E ,V     r 
0 ; ailleurs

  Er ,V  est le nombre total d’états microscopiques accessibles dans l’intervalle d’énergie
E  Er  E   E

II.7.2 L'ensemble canonique :


Dans l'ensemble canonique, nous considérons un système fermé qui peut échanger de
l'énergie mais pas de la matière avec le milieu extérieur. Pour cela, nous allons considérer un
système (S) en équilibre thermique avec un réservoir qui se comporte comme un thermostat (t)
pour le système (S) (Figure II.4). La température (T) du thermostat est constante malgré
l’éventuel d’échange de température avec le système.

thermostat
(t)

Système
(S)

Figure II4. : thermostat (t) en contact avec un réservoir Système (S)

Alors l'ensemble canonique permet d'étudier les systèmes fermés qui échangent que de
l'énergie avec un thermostat à cause du contact thermique (l’évolution de l'énergie ou la pression
au court du temps), mais pas de la matière (nombre de particules constant) et le volume constant.
Comme l'ensemble (S+t) est isolé et en équilibre statistique, on peut le décrire par l'ensemble
micro-canonique. Soit E0 son énergie totale (définie à  E près, cette quantité est négligée car
elle n'influe pas sur les résultats relatifs au système macroscopique).
Lorsque l'énergie d'un micro-état particulier r  j  du système (S) égale à Er , et du thermostat
(t) égale à Et, dans la limite thermodynamique, l'énergie totale l'ensemble micro-canonique égale
à la somme de l’énergie du système (S) et de l’énergie du thermostat (t) : (E0=Er+Et).

25
Chapitre II Micro Et Macro États

II.8 Exercices et problèmes


Exercice N°1:

Soient trois équidistants (𝜀0 = 0, 𝜀1 = 𝜀, 𝜀2 = 2𝜀) et non dégénérés, sur lesquels se répartissent
deux particules discernables (A et B). On suppose que l’énergie totale est 𝑈 = 2𝜀

1- représenter sur un schéma les déférents macroscopiques possibles, ainsi que les complexions
correspondantes. Quel est l’état probable.

2- même question si le niveau 𝜀1 a une dégénérescence égale à 2. Expliquer la dégénérescence


est aussi appelée poids statique du niveau. On vérifiera le nombre de complexions de chaque
état macroscopique et bien égaleé celui que donne la formule générale de maxwell-Boltzmann

Pourquoi ne peut-on calculer la répartition la plus probable par la formule générale maxwell-
Boltzmann

Exercice N°2:

Etablir, dans le cas des bosons et dans l’hypothèse ou le nombre de particules est grand mais
indéterminé ( cas des photons ou des phonons) , la position à l’équilibre thermique de chaque
niveau𝜀𝑖 de dégénérescence𝑔𝑖 . On mettra 𝑁𝑖0 sous la forme suivante :
𝑔𝑖
𝑁𝑖0 =
𝑒𝛽𝜀𝑖−1
Ou apparait un seul 𝛽

Exercice N°3:

Considérons une particule à deux degrés de liberté. L’élément de volume dans l’espace des
phases s’écrit : 𝑑Ω = 𝑑𝑥𝑑𝑦𝑑𝑃𝑥 𝑑𝑃𝑦 .
1- Montrer que cet élément de volume reste invariant lorsqu’on passe des coordonnées
cartésiennes aux coordonnées polaires :
𝑑𝑥𝑑𝑦𝑑𝑃𝑥 𝑑𝑃𝑦 = 𝑑𝑟𝑑𝜃𝑑𝑃𝑟 𝑑𝑃𝜃
avec 𝑃𝑟 = 𝑚𝑟̇ et 𝑃𝑟 = 𝐼𝜃̇ , I étant le moment d’inertie de la particule.
2- Supposons maintenant que cette particule de masse m et attachées par un fil de longueur
l à un point fixe.
a. Quelles sont les variables dynamiques représentant le système dans I ‘espace de
phase?
b. Trouvez l’équation de la trajectoire de phases. En déduire l’équation de la trajectoire.
Tracer cette trajectoire.
c. Donner l’équation temporelle du mouvement.
d. Montrer que le théorème de Liouville est vérifié.

26
Chapitre III Gaz parfait de Maxwell-Boltzmann

Introduction
La distribution des vitesses des particules constituant un gaz parfait classique à la température
T est une quantité qu’il est important d’étudier en détail car elle est utilisée dans le cadre de la
théorie cinétique des gaz. Dans les deux premières sections, nous avons vu que la probabilité
pour qu’une particule ait une impulsion comprise entre p et p + dp, et soit située dans un volume
dr compris entre r et r + dr, est égale à :

p2
1 drdp  2 mkbT
P  r , p  drdp  e (III.1)
 h3

 2 mkbT 
32

avec     V
 h2 

III.1 Gaz parfait classique


On considère un gaz parfait monoatomique classique, dans un récipient de volume V,
constitué de N particules indiscernables, maintenu à la température T. L’énergie totale de ce gaz
est donnée par

N px2i  p y2i  pz2i


H  qi , pi   
i 1 2m (III.2)

Dans ce cas, l’énergie est continue, elle dépend des variables continues pxi, pyi et pzi (varient
entre ]−∞,+∞[). Alors, pour calculer Z(c) on utilise la fonction de partition canonique Z(c) .

 La fonction de partition Z(c)


La fonction de partition canonique s’écrit
d 3 N qd 3 N p   H  qv , pv 
Z  c  [T ,V , N ]   e ,
N ! h3 N

N  px2i  p 2yi  pz2i


1 

N ! h3 N
  dx dy dz  dp
i 1
i i i xi dp yi dpzi e 2m

 (III.3)
px2i  p 2yi  pz2i
V   dxi dyi dzi 

avec et  dp

xi dp yi dpzi e 2m
 (2m kbT )3/2

L’intégrale sur d 3 qi  dxi dyi dzi est évidente car l’intégrante ne dépend pas de ces variables, donc
elle est égale juste au volume du récipient. Pour intégrer sur d 3 pi  dpxi dpyi dpzi , on utilise
l’intégrale gaussienne suivante


 dxe
 x 2


 (III.4)

où α est un réel positif non nul. Alors, on montre que la fonction de partition canonique de ce gaz
est donnée par
27
Chapitre III Gaz parfait de Maxwell-Boltzmann
V3
Z  c  [T ,V , N ]  , h
N ! 3 N  (III.5)
2m kbT

la quantité λ est la longueur d’onde thermique (de Broglie) de ce gaz.

 Énergie libre F :
L’énergie libre de ce gaz s’écrit

F [T ,V , N ]  kbT ln Z ( c ) [T ,V , N ],

  V  2m kbT 3/2  


  NkbT 1  ln      .
  N  h 2
  
  (III.6)

où on a utilisé la formule de Stirling ln N !  N ln N  N pour N très grand.

 L’entropie S :
L’entropie de ce système est

F
S  .
T V , N

5  V  2m kbT 3/2  


 Nkb   ln      .
2  N  h 2
  
  (III.7)

c’est la formule qu’on a trouvé dans le chapitre précédent après la correction de Gibbs.

 La pression p :
La pression est donnée par

F NkbT
p  .
V T ,N V
(III.8)

ce qui conduit à la fameuse équation d’état du gaz parfait pV = NkbT.

 Le potentiel chimique µ :
Le potentiel chimique est donc

F
  .
N T ,V

 V  2m kbT 3/2 


  Nkb ln    .
 N  h  
2

(III.9)

 L’énergie interne U :
On peut calculer l’énergie interne par deux méthodes, soit par la relation

28
Chapitre III Gaz parfait de Maxwell-Boltzmann
3
U  F  TS  NkbT .
2 (III.10)

ou soit par l’évaluation de l’énergie moyenne.

U  H  

 ln Z  c  T ,V , N    3 Nk T .

b
2 (III.11)

c’est la formule qu’on trouve en thermodynamique.

III.2 Gaz parfait de Maxwell-Boltzmann


III.2.1 Statistique de Maxwell-Boltzmann
La probabilité de trouver un système de l’ensemble canonique dans un état microscopique

  H  qi , pi 
1 1 e
dp  3N
c  qi , pi  dq 3 N dp 3 N  3 N dq 3 N dp 3 N
h h Z (III.12)

où on a pas pris en compte le facteur de Gibbs.

D’après le premier postulat de la physique statistique (équiprobabilité des états


microscopiques), cette probabilité est constante sur la surface d’énergie H(qi, pi) = E dans
l’espace des phases. Alors, la probabilité de trouver le système dans un état microscopique
d’énergie comprise entre E et E +dE est
  H  qi , pi 
e 1 dq 3 N dp 3 N
dp 
Z h3 N E  H  E E h3 N . (III.13)

1 dq3 N dp3 N    E    1 dq3 N dp3 N 


h3 N EH E E h3N  E  E  h3N H qi , pi E h3N  dE,
 g ( E )dE (III.14)

où Σ(E) est le volume de l’espace des phases divisé par h3N, et g(E) est la densité d’état sur la
surface d’énergie. Ces deux derniers sont reliés par la relation suivante

  E 
 g ( E )  ( E ).
E (III.15)

où Ω(E) est le nombre d’état microscopiques accessibles au système. Donc, la fonction de


partition canonique et la probabilité sont exprimés en fonction de la densité d’état g(E) comme
suit

29
Chapitre III Gaz parfait de Maxwell-Boltzmann
g  E   E
pE  e , 

 g  E e
 E
Z Z (III.16)
0

En mécanique quantique, on remplace la densité d’état g(E) par le degré de dégénérescence gE.
La probabilité donnée par l’éq.(III.16) est la probabilité de la statistique de Maxwell-Boltzmann.
Elle nous donne toutes les informations sur un système physique si le spin de ces constituants
n’est pas pris en compte .

III.2.2 Distribution de Maxwell des vitesses


Ces distributions sont valables pour un gaz mono ou polyatomique classique.
2
N
p
H   i X  V (q1 , . . . , q N ) (III.17)
i 1 2m

1
dq d p
   
i i
  H { pi , qi }
dP  q1 , q 2 ,..., q n , p1 , p 2 ,..., p n  i 1
3N
e (III.18)
Z N !h

On s’intéresse à la distribution des vitesses indépendamment des positions

   
N N
1 1
 d pi   d qie
  H { pi , qi }
(III.19) dP  p1 , p 2 ,..., p n 
Z N !h3 N i 1 i 1

N 2

 2 mi
p
N 
 C  d pi e i 1
(III.20)
i 1

N
 2 mvi
1 2


 
N
dP v1 , v 2 , ..., v n , v1 , v 2 , ..., v n  C  d v i e i 1
(III.21)
i 1

Pour une molécule, on a :


1 2
  mv
dP v  C e 2
dv (III.22)

3/2

Or   m 
 dP v  1 d'ou C    2 kT  . On en déduit la distribution de Maxwell des vitesses
3/2

  m 
1 2
  mv
dP v    e 2
dv (III.23)
 2 kT 

On s’intéresse maintenant aux grandeurs moyennes.

Nombre moyen de particules de vitesse comprises entre v et v  dv


dN v  NdP v  (III.24)

30
Chapitre III Gaz parfait de Maxwell-Boltzmann
Ceci est vrai car on n’a pas de corrélation entre les vitesses des particules (il n’y a pas
d’interaction entre les vitesses)
 Distribution des vitesses


2
dN v est isotrope (ne dépend que de v ).

dN (vx )  dN (v y ) · · · dN (v.n) (III.25)

3/2 
 m 
dN (vx )  N  dvx  dv y dvz e

 m vx2  v 2y  vz2 .

2
(III.26)
 2 kT 


m 
N
2
dvx e 2 mvx (III.27)
2 kT

On obtient une gaussienne centrée en vx  0 , donc v x  0 : la distribution de vitesse est bien isotrope.

 Vitesse quadratique moyenne


 
m  mvx2
vx2   vx e
2 2
dvx (III.28)
2 kT 


m  2  vx2

2 kT 



vx e dvx

m  

2 kT  

m 1  32
  
2 kT 2
3

m 1  2kT  2
  
2 kT 2  m 

1 2kT kT
 
2 m m

kT 2 kT
vx2  , vx  vx2  vx  (III.29)
m m

Remarque :

mv  m  vx2  v y2  vz2   3 mvx2  kT


1 2 1 1 3
Ec  (III.30)
2 2 2 2

On a bien l’équipartition de l’énergie

31
Chapitre III Gaz parfait de Maxwell-Boltzmann
Distribution de v

La probabilité que v  v est :

dN   dN (v)
 ,
(III.31)

32 2 
 m 
1 2
  mv
 N  dv  d  d v sin d d e
2 2

 2 kT  0 0

32
 m 
1
  mv 2
dN  N  4 v 2 e 2
dv
 2 kT 

 Valeur la plus probable v de v

d  d N  v   d  2  2 mv2 
   v e  (III.32)
dv  dv  dv  

 
 mv2     mv2
 2ve 2
 v 2   mv 2  e 2
 2 

d  d N v  m 2
 0 v 1
dv  dv  2

2 2 2kT
v  
m m

2kT
v (III.33)
m

 Valeur moyenne v de v

1
v
N  N  v  dv
0
(III.34)

 32
 m 
1
  mv 2
   4 v e
2 2
dv
0  2 kT 


32    12 mv2 
 m  2 e 
 4   
 2 kT  m  m 
  0

32
Chapitre III Gaz parfait de Maxwell-Boltzmann
32
 m  2
 4   
 2 kT   m2
2

8kT

m

8kT 3kT 3kT


v , v2  , v2  . (III.35)
m m m

La distribution de Maxwell des vitesses intervient dans :


- La théorie cinétique des gaz
- Les collisions (décrivent alors l’approche de l’équilibre par l’équation de Boltzmann)
- Les propriétés de transport comme les coefficients intervenant dans les équations
phénoménologiques comme la diffusion de la chaleur (coefficient de conductivité), et
l’hydrodynamique avec la viscosité.

III.3 Statistique de Fermi Dirac


On considère un gaz parfait quantique composé de N fermions de spin 1/2, dans une boite
cubique de volume V, maintenu à la température T à l’aide d’un thermostat. Un état
microscopique de ce système est déterminé par les nombres quantiques suivants (nx,ny,nz,s,sz).
D’après le principe d’exclusion de Pauli, deux fermions identiques (ç.à.d ont les mêmes nombres
quantiques) ne peuvent pas occuper le même état microscopique. Donc, chaque état
microscopique peut être occupé par une seule particule au plus. Le système composé de cet état
peut être considéré comme un système de l’ensemble grand-canonique (le reste forme le
réservoir de particules). Alors, la fonction de partition grand-canonique de ce sous système est
donnée par
1
   ei   ni     ei   
Z i gc     e  1 e
ni  0 {i}
(III.36)
Le nombre moyen des fermions occupant un état microscopique est

e i 
  e 
1  ln Z i
gc 
 ni   .
1 e  i 
  e 
  (III.37)
cette distribution de nombre de fermions s’appelle la distribution de Fermi-Dirac.
Le nombre moyen de fermions doit vérifier la relation
  ni   N .
{i }
(III.38)

où {i}  {nx(1) , n(y1) , nz(1) ;...} désigne tous les états microscopiques possibles.

III.4 Statistique de Bose-Einstein


Considérons, maintenant, un gaz parfait quantique composé de N bosons (ç.à.d particules de
spin entier ou nul), dans un recopiant de volume V, maintenu à la température T à l’aide d’un
thermostat. Comme dans le paragraphe précédent, un état microscopique de ce système est
déterminé par les nombres quantiques (nx,ny,nz,s,sz). Car les particules sont des bosons, un état

33
Chapitre III Gaz parfait de Maxwell-Boltzmann
microscopique ou un sous-système peut être occupé par toutes les particules (aucune limite sur le
nombre de particules). Le sous-système peut être considéré comme un système de l’ensemble
grand-canonique (les autres sous système constituent le réservoir de particules). On suppose que
l’énergie de chaque particule est ei, alors, l’énergie de N particules est
EN ,i  Nei ,
N  0,1,···,  (III.39)
Donc, la fonction de partition grand-canonique de ce système est


 N    ei 
 gc 
 e
1
Zi      ei 
.
(III.40) ni 0 1 e
où on a utilisé la somme d’une série géométrique pour trouver l’expression dans la deuxième
ligne de cette équation.
Le nombre moyen de particules qui occupent un état microscopique est donc

1  ln Zi 
gc
1
 ni    e   .
  e i 1 (III.41)
Cette distribution de nombre de particules s’appelle la statistique de Bose-Einstein.

III.5 Exercices et problèmes


Exercice N°1:

On se propose d’établir l’expression de β dans la statique de maxwell-Boltzmann. Soient𝜀1 les


niveaux d’énergie. 𝑔𝑖 Leurs facteurs de dégénérescence et𝑁𝑖 le nombre de particules à l’équilibre.

a. écrire l’expression statique de l’énergie interne U.


b. on fait varier de façon infinitésimale l’état du système. Ecrire la variation de l’énergie
interne.
c. les niveaux d’énergie 𝜀𝑖 dépend en générale du volume mais non de la température
interpréter les deux termes qui interviennent dans l’expression de 𝑑𝑈

En comparant la relation thermodynamique 𝑑𝑄 = 𝑇𝑑𝑆aux relations correspondantes obtenues en


différentiant la relation 𝑆 = 𝐾Log(W). Établir l’expression de 𝛽en fonction de la température
thermodynamique dans le cas ou W correspond à la statique de maxwell-Boltzmann.

Exercice N°2:
Soit un oscillateur harmonique linéaire constitue d'une masse m attachée à un ressort de
constante de raideur k, pouvant se déplacer sur un axe horizontal (Ox).
a. Quelles sont les variables dynamiques représentant le système dans l'espace de phase?
b. Donner l’expression de son énergie totale E en fonction de ses variables dynamiques.
c. Supposons que l'oscillateur est mécaniquement isolé, En déduire de la question b, la
nature de son mouvement dans ('espace de phase?
d. Démontrer que le mouvement de l’oscillateur est régi par l’équation différentielle :
𝑥̈ + 𝜔2 𝑥 = 0 (avec𝜔 à déterminer).Et en déduire la fréquence 𝜈 de l'oscillateur en
fonction de k et m.

34
Chapitre III Gaz parfait de Maxwell-Boltzmann
1. On considère un ensemble de N oscillateurs harmoniques classiques simples sans interaction,
de même masse m et de constante de raideur k, en contact avec un réservoir de chaleur de
température fixe T.
a. Quelle est la nature de l’ensemble statistique en question?
b. Démontrer que la fonction de partition s’écrit sous la forme:
𝑘𝐵 𝑇 𝑁
𝑍=( )
ℎ𝜈
au𝑘𝐵 et h sont respectivement, les constantes de Boltzmann et de Planck.
+∞
2 𝜋
(on donne ∫ 𝑒 −𝛼𝑦 𝑑𝑦 = √ )
−∞ 𝛼
c. Déterminer l'énergie moyenne E
d. Déterminer les fluctuations de l'énergie
e. Déterminer l’énergie libre

35
Chapitre IV Gaz parfaits de Bose et de Fermi

IV.1 Introduction
En mécanique quantique, toutes les informations sur l’état d’un système sont codées
dans la fonction d’onde, cette dernière est solution de l’équation de Schrödinger. La fonction
d’onde d’un système composé de N particules (bosons ou fermions) est donné par
N
 k ···k (r1 ,···, r N )   k (r i ).
1 N 1
i 1 (IV.1)

où ψk (⃗⃗ri ) pour i = 1,2,··· est la fonction d’onde à une particule. ⃗⃗ri et ki sont,
i
respectivement, les vecteurs position de chaque particule et l’ensemble de nombres
quantiques désignant un état à une particule donné. La fonction d’onde ψk ⋯k (⃗⃗ri ) peut être
1 N
symétrique où antisymétrique par permutation des nombres 1···N. Les fonctions d’onde
symétriques décrivent les états des particules de spin entier, ce que l’on appelle les bosons.
Par contre, les fonctions d’onde antisymétriques décrivent le comportement des particules de
spin demi-entier, que l’on appelle les fermions. Dans la notation de Dirac, le vecteur d’état du
système totale s’écrit
| k1 , k2 ,···, k N | k1 | k2 ···| k N  . (IV.2)

où |ki > est un vecteur d’état à une particule.


La fonction d’onde est un état propre de l’opérateur hamiltonien Ĥ . Pour un système composé
de particules libres, gaz parfait par exemple, elle doit vérifier
N
̂ |k1 ,··· , k N > = 𝐸|k1 ,··· , k N > .
H E    ki . (IV.3)
i 1
2
ħ2 ki
k 
ĥ|k1 > = εk , i
2m
(IV.4)
i

où H ̂ ( r1 ,··· , rN , p ⃗ N ) = ∑N
⃗ 1 ,··· , p ̂
i=1 h ( ri , p
⃗ i )., car le système est constitué de particules sans
interactions.
Le vecteur d’état peut être caractérisé par les nombres d’occupation ni au lieu de l’ensemble des
nombres quantiques {ki}. ç.à.d

| n1 ,···, nN  | k1 ,···, k N  .
(IV.5)

où ni est le nombre de particules qui peuvent occupées l’état |k i >. On peut écrire donc,

̂ |n1 ,··· , nN > = 𝐸 |n1 ,··· , nN > ,
H E   nk  k . (IV.6)
k 1

̂ |n1 ,··· , nN > = 𝑁|n1 ,··· , nN > ,
N N   nk . (IV.7)
k 1

0,1, fermions
n̂k |n1 ,··· , nN > = nk |n1 ,··· , nN > , nk = { (IV.8)
0,1,2, … bosons

où Ĥ est l’opérateur hamiltonien, E est l’énergie totale du système, N ̂ est l’opérateur


nombre de particules, N est le nombre de particule du système, nk est le nombre de particules
dans l’état |k>. D’après le principe d’exclusion de Pauli, deux fermions ne peuvent pas
occuper le même état s’ils ont les mêmes nombres quantiques ce qui explique pourquoi
36
Chapitre IV Gaz parfaits de Bose et de Fermi

nk=0,1. Par contre, les bosons peuvent occuper le même état peu import s’ils possèdent les
mêmes nombres quantiques ou non (nk = 0,1,2···).
Appliquant maintenant le langage du nombre d’occupation pour dériver les fonctions de
partition canonique et grand-canonique pour la statistique classique de Maxwell-Boltzmann et
pour les statistiques quantiques de Fermi Dirac et de Bose Einstein. Le nombre d’occupation
ne fournit pas des informations sur les particules qui doivent occuper un certain état à une
particule |k>. Donc, l’ensemble {n1,n2,···} doit avoir un poids pour pourvoir prendre en
compte la nature (le spin et l’indiscernabilité) des particules. Dans le cas général, et pour
n’importe quelle statistique, on peut écrire les fonctions de partition canonique et grand-
canonique sous les formes compactes suivantes :

l   nk  k
Z ( c ) [T ,V , N ]   g{nk }e k 1

nk  (IV.9)

l   nk  k   
Z ( g ,c ) [T ,V ,  ]   g{nk }e k 1
.
nk  (IV.10)
ou
l N

  
nk  n1 , n2 ,··· 0
n1  n2 ··· N
(IV.11)

Le poids statistique d’un ensemble {n1,n2,···}, pour chaque statistique, est donné par,

(IV.12)

Alors, les probabilités canonique et grand-canonique s’écrivent


g{n }    nk  k
P ( c ) {nk }  ( ck) e k 1
Z (IV.13)

g{nk }    nk  k   
P( g .c ) {nk } 
e k 1

Z ( g .c ) (IV.14)
Calculons maintenant, explicitement, les fonctions de partition grand-canonique dans les trois
cas. La fonction de partition grand-canonique de Bose-Einstein est

 e  e 
 n1 n2
  1       2   
Z BE 
( g ,c )
...
n1 , n2 ,··· 0

 
 
 e
   k   
nk

k 1 nk  0


1
   k
k 1 1  ze

(IV.15)

37
Chapitre IV Gaz parfaits de Bose et de Fermi

où la fugacité z = eβµ. Pour trouver la dernière formule, on a utilisé la somme d’une suite
géométrique. En ce qui concerne le cas de Fermi-Dirac, on a

  e        e     
 n1 n2
 1  2
Z FD 
( g ,c )
...
n1 , n2 ,··· 0

 
 
 e
   k   
nk

k 1 nk  0


  1  ze   k 
k 1 (IV.16)

De la même manière, on calcule la fonction de partition grand-canonique de Maxwell-


Boltzmann,

  e        e     
 n1 n2
 1  2
Z MB 
( g ,c )
...
n1 , n2 ,··· 0

 
 
 e
   k   
nk

k 1 nk  0

  e ze
  k

k 1 (IV.17)

Une fois les fonctions de partition grand-canonique sont connues, les propriétés
thermodynamiques peuvent être calculées à l’aide du potentiel grand-canonique

(T ,V , µ)  kbT ln( Z g .c [T ,V , µ]  U  TS  µN   pV . (IV.18)

Les potentiels grand-canonique des trois statistiques sont donnés par :



 MB  kbT  e
   k   

nk  0
(IV.19)

 .

 BE  kbT  ln 1  e
   k   

nk  0
(IV.20)

 .

 BE  kbT  ln 1  e
   k   

nk  0
(IV.21)

On peut écrire le logarithme de la fonction de partition grand-canonique, dans ces trois cas,
sous la forme compacte suivante :
pV 1 
q[T ,V , µ]  ln(Z ( g .c ) [T ,V , µ])    ln 1  aze  k .
kbT a k 1
 
(IV.22)

avec

38
Chapitre IV Gaz parfaits de Bose et de Fermi

+1 FD
a = {0 MB (IV.23)
−1 BE

pour la statistique de Maxwell-Boltzmann on prend la limite de a tend vers zéro (et pas
a=0!).On montre que le nombre de particules et l’énergie interne sont données par

 
1
N (T ,V , µ)  kbT lnZ  g .c    1  k  N . (IV.24)
µ T ,V k 1 z e a
 

U (T ,V , µ)   ln Z  g .c   k
1  k
 N . (IV.25)
µ z ,V k 1 z e a
On a
 
 N   nk   nk .
k 1 k 1 (IV.26)
donc,
1 1 
 nk   ( k  µ )
 ln Z  g .c 
e a   k z ,V , i  k
(IV.27)
où la fugacité z est supposée être constante, voir la discussion dans la section suivante.

IV.2 Gaz parfait de Bose


Dans cette section, on calcule les propriétés thermodynamiques d’un gaz parfait de bosons
non relativistes. Les particules de ce gaz sont indiscernables et n’interagissent pas entre elles.
2
L’énergie de chaque particule est  k  ħ 2 k i 2m (où m est la masse de chacune). Calculons,
i

maintenant, le logarithme de la fonction de partition grand-canonique (qui nous permet de


calculer les autres quantités physiques). On a

q (T ,V , z )  ln Z ( g .c ) (T ,V , z )   ln 1  ze   k .  
k (IV.28)

où V est le volume du récipient, et z=eβµ est la fugacité.


Pour imposer des contraintes sur le potentiel chimique µ est la fugacité z, on utilise la
formule du nombre de particules moyen dans un état |k > d’énergie ε k dérivé dans la section
précédente. On sait que ce dernier est positif est ne peut pas dépasser le nombre total des
particules du système, alors
1
0  1  k  N.
0 ≤ < nk > ≤ 𝑁,  z e 1 (IV.29)
donc
   k  µ
z 1ek  e 1 (IV.30)

ce qui implique que εk ≥ µ pour tous les état |k >. ç.à.d que le potentiel chimique d’un gaz de
bosons doit être plus petit que l’énergie le plus bas ε = 0, alors
µ ≤ 0, ⇒ 0 ≤ z ≤ 1. (IV.31)

39
Chapitre IV Gaz parfaits de Bose et de Fermi

donc le potentiel chimique d’un gaz de bosons est nul où négatif et la fugacité z est toujours
inférieur où égal à 1. Pour un volume suffisamment grand, la somme sur tous les états à une
particule peut s’écrire, approximativement, sous forme d’intégrale,

V 2 V
  g    d      
3 1
d k3
 2 m 2
 2 d
 2 
3 3
k h 0
(IV.32)

d d d 3qd 3 p
g      h3 .
d d (IV.33)
Alors, q(T,V,z) devient
q(T ,V , z )   ln 1  z    ln(1  ze  k ).
k

2 V
3 
2m  2   2 ln 1  ze    d  .
3 1
  ln(1  z ) 
h 0

 3
2 V 3 2  2
  ln 1  z   3  2m  2   1  d .
h 3 0 z e 1
(IV.34)

où on a séparé la contribution de l‘état d’énergie ε=0  -ln 1 - z   , et on a intégré par partie


pour obtenir la dernière intégrale. De la même manière, on montre que le nombre de
particules est
 1
2 V  2 z
N T , V , z   3  2m  2  1 
3
 .
h z e 1 1  z
0 0  z  1, n  R. (IV.35)

où z/(1−z) est le nombre de particules dans les états d’énergie ε = 0. Pour effectuer
l’intégration sur ε, on introduit la représentation intégrale suivante

1 x n 1
gn  z  
  n  0 z 1e x  1
,
0≤z≤1, (IV.36)
Donc,
q  q  q0 .
V
 z,
5
q  g 2
 3
q0   ln(1  z ). (IV.37)
et
N  N  N 0 .
V z
 z,
3
N  g 2
q0  .
 3
1 z (IV.38)

où qε et q0 (Nε et N0) est le logarithme de la fonction de partition grand-canonique (nombre de


bosons) des états excités (ε > 0) et des état d’énergie nulle (ε = 0), respectivement.

40
Chapitre IV Gaz parfaits de Bose et de Fermi

Si la température est suffisamment élevée (V/λ3 ≫ 1)et la fugacité z n’est pas très proche de
3
3
1, on peut montrer que N0 est négligeable devant Nε, et que 0 ≤ g 2 (z) ≤ ζ (2) = 2.612,
alors
3
 2 mkbT  2 3
N max
 N  2.612V    VT 2 .
 h 
2
(IV.39)

où ζ est la fonction de Riemann.


On appelle la température de Bose TB la température dans laquelle le nombre de bosons dans
des états excités est égal au nombre de particules totale. Alors,
3
 2 mkbT  2
N  2.612V   .
 h 
2
(IV.40)
On écrit donc,
3
T  2
N  N   .
 TB  (IV.41)

Le nombre de bosons dans l’état ε = 0 est


  T 32 
N 0  N 1     .
  TB  
  (IV.42)

D’après cette relation, on voit que si la température T décroît, le nombre de bosons dans l’état
ε = 0 croit. Ce phénomène est appelé la condensation de Bose-Einstein (les bosons
s‘accumule dans l’état de faible énergie lorsque T décroît).
Calculons maintenant l’énergie interne,

 3 V 5
U  q  kbT 3 g 2  z  .
 z ,V 2 
3 V
 kbT 3 g5 2 ( z ).
T TB
µ 0
2 
3
3  2 m  2
 kbT 
5
 1.34 V  2  2
.
2  h  (IV.43)

et en fonction de la température de Bose, on écrit


3
T  2
U  0.77 NkbT   .
 TB  (IV.44)

La capacité calorifique à volume constant est


3
T  2
5U
CV  1.93Nkb    .
 TB  2T
(IV.45)

41
Chapitre IV Gaz parfaits de Bose et de Fermi

L’entropie
 5U
S  
T V ,  3 T
(IV.46)

La pression est donc


m 3  kbT  2
5
 2U 2
p  =0.0851 .
V T ,  3 V ħ3
(IV.47)

Donc, la pression dépend que de la température du système (et pas du volume V).On peut
montrer qu’on retrouve les propriétés thermodynamiques d’un gaz de parfait classique (gaz de
Boltzmann) si la température est très élevé et la densité est faible.

IV.3 Rayonnement du corps noir


Dans cette section, on étudie les rayonnements électromagnétiques émises par un corps
chauffé à la température T (corps noir), ces rayonnements ou ces photons constituent un gaz
de bosons (les photons sont des particules de spin 1) dans une cavité maintenue à la
température T. On suppose que ce gaz est parfait, car les photons n’interagissent pas entre eux
(les photon sont électriquement neutre et de masse nulle). Le photon possède deux
polarisation transverse, donc le facteur de dégénérescence du spin est égal à deux (gs = 2). La
vitesse des photons est égale à celle de la lumière c, donc l’énergie de chaque particule s’écrit,

  ħ  h  pc (IV.48)

où ω, ν et p sont la pulsation, la fréquence et l’impulsion du photon.


Les photons peuvent être émises ou absorbés par les parois de la cavité, donc le nombre de
photons est variable ce qui nécessite l’utilisation de l’ensemble grand-canonique pour étudier
ce système (T et V ne varient pas). A l’équilibre, l’énergie libre du système est constante,
donc
F
 0
N T ,V
(IV.49)

donc le potentiel chimique de ce gaz est nul. Le nombre moyen de photons dans un état
d’énergie   ħ est
1
 n  
e 1 (IV.50)
Le nombre de photons moyen dans des états où l’énergie est comprise entre ε et ε + dε (où
entre ω et ω + dω) est donc,
8 V  2
dN  n  g ( )d   d .
h3c3 e   1 (IV.51)
1  2
 d .
 c e 1
2 3  ħ
(IV.52)
avec

42
Chapitre IV Gaz parfaits de Bose et de Fermi

4 V 2
g ( )  g s  .
h3c 3 (IV.53)

Donc, le nombre de photons moyen dans la cavité est



V 2
N 2 3 d . (IV.54)
 c 0 e ħ  1

pour effectuer l’intégration sur ω, on utilise la représentation intégrale suivante



x n 1
0 e x  1dx    n    n  .
(IV.55)

1
où x  0 et  (n)   n
est la fonction de Riemann :
k 1 k

ζ(3/2) = 2.612, ζ(5/2) = 1.341, ζ(3) = 1.202, ζ(5) = 1.037. (IV.56)

on trouve alors
3
k T 
N  0.24V  b  .
.  ħc  (IV.57)
On définit la densité de photons (n(ω) = N/V) et la densité d’énergie
dn( ) 1 2
 2 3  ħ .
d  c e 1 (IV.58)
du ( ) dn( ) ħ  3
 ħ  2 3  ħ .
d d  c e 1 (IV.59)

La variation de l’énergie interne en fonction de la pulsation (ou la longueur d’onde) est


ħV  3
dU  d .
 2c3 e  ħ  1
 5
 8 hcV  hc
d .
1 e 
(IV.60)

Cette formule décrit la distribution spectrale de l’énergie du rayonnement du corps noir. Elle
est dérivée pour la première fois par Planck, et elle est en accord avec les résultats
expérimentaux.
Regardons maintenant les limites à basse est à haute fréquences, respectivement, de cette
distribution
k TV
dU  b 2 3  2 d. (IV.61)
 c
ħ
ħV -
dU  2 3  3e k T d,
b

 c (IV.62)

43
Chapitre IV Gaz parfaits de Bose et de Fermi

La première formule est la formule de Rayleigh-Jeans, elle correspond à la limite classique où


les photons sont considérés comme des oscillateurs harmoniques de pulsation ω. La deuxième
est la formule Wein, dans ce cas le comportement quantique est très important.
Pour obtenir l’énergie totale dans le cas général, on intègre l’éq. (IV.60) sur la pulsation qui
varie entre zéro et l’infini. On trouve
kb4V  4 4
U T . (IV.63)
15 2 c3ħ 3

Donc, l’énergie est proportionnelle à T 4 ce qui correspond à la loi de Stéphan. L’énergie rayonnée par
unité de volume est

U
u  7.56 1016 T 4 Jm 3 . (IV.64)
V
Car le potentiel chimique est nul µ = 0, l’énergie libre correspond au grand-potentiel Φ, on a
donc

F    b 3 3   2 ln 1  e   ħ  d  ,
k TV
 c 0
4
 VT 4 . (IV.65)
3c

kb4V  4
 . (IV.66)
60 2 c 2ħ 3
et
F 4 4
p  T . (IV.67)
V T 3c
F 16 V 3
S   T . (IV.68)
T T 3c

On retrouve l’énergie interne donnée par l’éq. (IV.63),


4 V 4 16 V 3
U  F  TS  T  3F , CV  T . (IV.69)
c c
L’équation d’état du gaz de photons est
U
pV  . (IV.70)
3

IV.4 Gaz parfait de Fermi


Les nucléons à l’intérieur du noyau atomique ou les électrons dans les métaux peuvent être
considérés, approximativement, comme des gaz parfait de Fermi. Dans ce paragraphe, on
étudie les propriétés thermodynamiques d’un gaz parfait constitué de fermions non-
relativistes. Pour la statistique de Fermi-Dirac, on écrit

q(T ,V , z )   ln 1  ze   k .  (IV.71)
k

44
Chapitre IV Gaz parfaits de Bose et de Fermi

1
N (T ,V , z )   1  k
. (IV.72)
k z e 1

Car les niveaux d’énergie sont proches l’un de l’autre pour un volume suffisamment grand,
alors la somme sur k peut être remplacée par une intégrale sur l’énergie. On écrit donc,


q(T , V , z )   g ( )d  ln 1  ze   k .  (IV.73)
0

1
N (T , V , z )   g ( )d  1  k
. (IV.74)
0
z e 1
avec
2 V
3 
2m  2  2 ,
3 1
g ( )  g s gs = 2s+1. (IV.75)
h

où s est le spin des fermions.


Introduisons, maintenant, la représentation intégrale suivante,

1 x n 1
fn  z     1 x dx, 0  z  , x   . (IV.76)
  n 0 z e 1
Donc,
gV
q (T ,V , z )  f 5/2 ( z ). (IV.77)
3
gV
N (T ,V , z )  f 3/2 ( z ). (IV.78)
3

On peut montrer que l’énergie interne et la pression de ce gaz sont données par,
3 f ( z)
U  NkbT 5/2 . (IV.79)
2 f 3/2 ( z )
2U
p . (IV.80)
3V

Donc, la pression est égale à 2/3 fois la distribution d’énergie dans l’espace. Cette relation est
valable pour le gaz parfait classique non-relativiste de Maxwell-Boltzmann, et le gaz parfait
non-relativiste de Bose-Einstein. On peut montrer aussi que l’énergie libre et l’entropie sont
données par

 f5 3  z  
F  N k bT  ln  z    (IV.81)

 f3 2  z  
 5 f5 3  z  
S  Nkb   ln  z   (IV.82)
 2 f3 2  z  
 

45
Chapitre IV Gaz parfaits de Bose et de Fermi

IV.5 Exercices et problèmes


ExerciceN°1:

On considère un gaz parfait classique dans un champ gravitationnel. L’énergie de chaque


particule à l’altitude zi est

Pi 2
Ei   mgzi
2m

où g est la constante de gravitation.

(1) Calculer la fonction de partition grand-canonique Z(gc).

(2) Calculer la variation de la pression en fonction de l’altitude z.

Exercice N°2:

On se propose de déterminer, au premier ordre, l'écart de la loi de Bose-Einstein par rapport à


celle de Maxwell-Boltzmann. Le grand potentiel Ω s'écrit:

Ω=-kTzf()

ou k est la constante de Boltzmann;


𝑁
𝑓 (𝜐) = 𝛼 = 𝑧 , z étant la fonction de partition de transition d'un gaz de Maxwell-Boltzmann;

𝑁 2 +∞
𝑓 (𝜐 ) = 𝛼 = =− ∫ √𝑥 𝑙𝑛(1 − 𝑒 (𝜐−𝑥) )𝑑𝑥 est une fonction ne dépend que de 𝜐
𝑧 √𝜋 0

Etablir l'expression de l'équation d'état à partir de 𝑓 (𝜐)

Etablir en fonction de 𝑓(𝜐) les expression de :

- l'entropie S.
- l'énergie interne U.
- la capacité calorifique à volume constant Cv
3. Etablir une relation entre la pression P, l'énergie interne U et le volume V pour le gaz de
Bosons.

ExerciceN°3:

Le premier calcul théorique des propriétés du rayonnement du corps noir est dû à Planck. Au
lieu da raisonner sur les quantums du champs électromagnétique (Bose). Planck raisonne sur
les source de champ, c'est à dire les parois de la gravité enfermant le champ
électromagnétique.

46
Chapitre IV Gaz parfaits de Bose et de Fermi

Les atomes de la paroi, à la température T, sont assimilés à des oscillateurs harmoniques


vibrant à la fréquence 𝜐 et obéissant à la statistique de Maxwell-Boltzmann. L'énergie
ℎ𝜐
moyenne d'un oscillateur est dans ce cas 𝜀̅ ℎ𝜐 .
𝑒 𝑘𝑇 −1

En supposant que le nombre d'oscillateurs dont la fréquence est comprise entre 𝜐 et 𝜐 + 𝑑𝜐 est
8𝜋𝑉
𝑔(𝜐)𝑑𝜐 = 𝜐 2 𝑑𝜐, calculer la densité spectrale d'énergie 𝜌(𝜐, 𝑇).
𝑐3

A température fixée, étudier la variation de 𝜌(𝜐, 𝑇) en fonction de 𝜐:

pour les faibles fréquences (loi de Rayleigh-Jeans).

pour les fréquences élevées(loi de Wein).

Montrer que 𝜌(𝜐, 𝑇)présente un maximum et représenter graphiquement cette fonction.

Comment se déplace le maximum quand la température varie?

3. Retrouver la loi de Rayleigh-Jeans par le théorème d'équipartition de l'énergie .

47
Annexe

A1 L’ÉQUATION DE LIOUVILLE
La description d’un système de N particules indiscernables de masse m à l’aide de la fonction
de distribution à un corps est une approximation car on néglige les corrélations entre les
particules. L’énergie totale de ce système, que nous supposerons être constitué de particules
ponctuelles obéissant à la mécanique classique, est la somme de l’énergie cinétique et de
l’énergie potentielle que nous supposerons ne dépendre que des coordonnées :
Pi 2 N
EH   V  r1  ...  rN  .
i 1 2m (1)
La quantité H est désignée sous le nom de Hamiltonien du système. Il correspond à
l’expression de l’énergie totale du système à l’aide des coordonnées et des impulsions. La
H pi
quantité   ri n’est autre que la vitesse de la particule i. Les équations de Newton, qui
pi m
H
donnent l’évolution dynamique des particules du système, peuvent s’écrire m ri  pi   .
ri
L’ensemble de ces deux équations constitue ce que l’on appelle les équations de Hamilton. Elles
sont équivalentes aux équations de Newton. Le premier jeu définit l’impulsion des particules et
le second jeu donne l’évolution dynamique de celles-ci :
H H
ri  et p   i=1 à N (2)
pi ri
i

Exprimons maintenant les équations de Hamilton sous une autre forme en introduisant la
fonction de distribution à N corps f(N)(r1, p1, . . . , rN, pN, t). L’espace de phase associé à ce
problème de N particules a 6N dimensions.
La quantité f(N)(r1, p1, . . . , rN, pN, t)dr1 dp1 . . . drN dpN représente la probabilité de trouver N
particules dans le volume élémentaire dr1 dp1 . . . drN dpN au temps t3. Par conséquent, si l’on
intègre sur tout l’espace de phase :
 f
N
 r1 , p1 , . . . , rN , pN , t  dr1dp1. . . drN dpN 1 (3)
Considérant un élément de volume dr1 dp1 . . . drN dpN centré en r1, p1, . . . , rN, pN au temps t,
celui-ci deviendra dr'1 dp'1 . . . dr'N dp'N centré en r'1 p'1 . . . r'N p'N au temps t+dt. Les quantités
r'1,p'1,...,r'N,p'N sont déduites de r1,p1,...,rN,pN en utilisant les équations du mouvement. On peut
montrer que cet élément de volume est invariant dans la transformation, i.e. :
dr'1 dp'1 . . . dr'N dp'N= dr1 dp1 . . . drN dpN (4)
Ceci résulte simplement du fait que le jacobien de la transformation est, au second ordre
près, égal à l’unité.
Exemple:
Si toute propriété du système peut être calculée à partir de la fonction de distribution fp(r, p, t), il
nous faut connaître l’évolution de celle-ci en fonction du temps. Nous allons, dans le cadre de
l’approximation de particules indépendantes, trouver l’équation à laquelle satisfait fp(r, p, t).
Dans une première étape, nous négligerons les collisions entre particules.
Considérons, au temps t, l’élément de volume dr dp centré en r et p de l’espace de phase. Il
contient en moyenne fp(r,p,t)drdp particules. Au temps t+dt, ces particules se sont déplacées sous
l’influence du potentiel moyen U(r). En effet, chaque particule est soumise à une force

48
Annexe

U (r )
F . L’élément de volume drdp est devenu dr'dp' et il est centré en (r',p'). On déduit r et
r
p des équations du mouvement des particules :
dr p p
 v   r   r  dt
dt m m
dp
 F  p  p  Fdt (5)
dt
L’élément de volume dr' dp' est relié à dr dp par la relation suivante :

dr' dp' = |J| dr dp (6)

dans laquelle J est le jacobien de la transformation. Compte tenu de (5), il vaut :

(7)
Par conséquent, J = 1 ce qui implique que :
dr' dp' = dr dp (8)
A.2 Modèle de Debye-Einstein pour les phonons
Dans le modèle d’Einstein, les atomes d’un solide sont représentés par des oscillateurs
harmoniques quantiques à 3 dimensions, qui vibrent indépendamment l’un de l’autre à la même
pulsation ω, voir la section (3.5). On a montré que l’énergie interne du système total et la valeur
moyenne des niveaux d’excitation de chaque oscillateur à une dimension (dans une direction)
sont données par
1 1 
U T , N   3 N      .
 2 e 1  (9)
1
 n   
e 1 (10)
Ce qui implique que l’énergie moyenne d’un oscillateur à une dimension, de pulsation ω, est
1 
       n   .
2  (11)
Par analogie avec le système de photons, on peut interpréter <n> comme le nombre de quanta
indiscernables qu’on les appelle les phonons. Donc, les phonons sont des bosons d’énergie

  cs p .
p  k. (12)
où cs est la vitesse de propagation des phonons, elle est égale à la vitesse sonore. Donc, dans
cette interprétation (ou le modèle de Debye), le solide est considéré comme un milieu élastique
parcouru par les ondes, comme les ondes sonores, qui se propage dans les deux directions

49
Annexe

transverses à la vitesse ct, et dans la direction longitudinale à la vitesse cl. Dans ce cas, la densité
d’états g(ω), en fonction de la pulsation ω, s’écrit
 2 2 
g    V  2 3  2 3 
 2 cl  ct  (13)
Car le nombre d’oscillations normales est fini (3N), alors
1
c N1 2
 g   d   3 N ,    18 3
c  
2
0 V  cl3 ct3 
(14)
On peut montrer que l’énergie interne et la capacité calorifique s’écrivent,
9 N c  1 1
U T , V , N   3  d     3
c 0
 e 1 2  (15)
9N 2 c  4e 
CV   d
c3kbt 2 e  1
0   2

(16)

A.3 L’approximation de Stirling


La fonction factorielle : n !  1 2  3  . . .  (n  1)  n devient bien vite incalculable lorsque n est
grand. On peut néanmoins l’évaluer avec une excellente approximation en remarquant que :

n
log n !   log i log xdx   x log x  x 1  n log n  n  1
n

n
1
i 1 (17)

Lorsque 𝑛 ≫ 1, on obtient l’approximation de Stirling :

Log 𝑛! = 𝑛 Log 𝑛 − 𝑛 (18)

qui est excellente pour les nombres mis en jeu en physique statistique. Lorsque n est petit, on utilise
parfois une approximation plus précise :

1
Log 𝑛! = 𝑛 Log 𝑛 − 𝑛 + 2 Log (2𝜋𝑛) 𝑠𝑜𝑖𝑡 𝑛! = √2𝜋𝑛 𝑛𝑛 𝑒 −𝑛 (19)

A.4 Fonction Gamma


On appelle fonction gamma, l’intégrale définie suivante :


Γ(𝑛 + 1) = ∫0 𝑥 𝑛 𝑒 −𝑥 𝑑𝑥 pour 𝑛 > −1 (20)

Par intégration par parties, on peut établir la relation suivante :

∞ ∞
Γ(𝑛 + 1) = ∫0 𝑥 𝑛 𝑒 −𝑥 𝑑𝑥 = −[𝑥 𝑛 𝑒 −𝑥 ]∞
0 + 𝑛 ∫0 𝑥
𝑛−1 −𝑥
𝑒 𝑑𝑥 = 𝑛Γ(𝑛) (21)


si n est entier Γ(1) = ∫0 𝑒 −𝑥 𝑑𝑥 = 1, d’où Γ(𝑛 + 1) = 𝑛! La définition (4) permet de généraliser la
notion de factorielle à des nombres non entiers. Pour les nombres n demi-entiers, on calcule Γ𝑛en utilisant
1 1
la relation de récurrence (5) et la propriété Γ (2) = (− 2) ! = √𝜋qui sera établie plus bas. En utilisant les
résultats ci-dessus, on en déduit, après un changement de variable élémentaire, que :

50
Annexe

∞ 𝑛!
∫0 𝑥 𝑛 𝑒 −𝛼𝑥 𝑑𝑥 = 𝛼 𝑛+1
pour 𝑛 entier (22)

A.5 Transformation de Legendre


Il est bien connu qu’une courbe dans le plan y=f(x) est parfaitement définie dès lors que sa
fonction dérivée f′ est connue en tout point x. On rencontre un certain nombre de situations en
physique et en mathématique où la donnée naturelle du problème étudié est la dérivée f′(x) plutôt
que la variable x elle-même. La transformation de Legendre est un moyen systématique qui
permet de définir, sans perte d’information, une nouvelle fonction dont la variable indépendante
sera la pente de la fonction f au point x, c’est-à-dire f′(x).
Définition : Soit f:R → R, une fonction bornée à variation bornée. La transformée de Legendre
de f est la fonction g définie par l’une des deux relations :
g (f′(x))≡ xf′(x)−f(x) ou g(f′(x))≡f(x)−xf′(x) .
La première convention de signe est celle utilisée en Mathématique, la seconde est celle
utilisée en Thermodynamique.
Montrons que cette définition est équivalente à la définition

g(p) ≡ max (px−f(x)) ,

qui a un contenu géométrique clair: g(p) est la distance maximale entre la droite de pente p qui
passe par l’origine et la fonction f. La solution est obtenue pour xp tel que p = f′(xp), c’est-à-dire
que la distance entre la droite et la fonction est maximale au point xp où la tangente à f est égale à
la pente de la droite (voir Fig. F3). On a donc aussi g(p)≡pxp−f(xp), soit encore
g(f′(xp))=f′(xp)xp−f(xp), ce qui correspond à la définition initiale. Les variables x et f′(x) ≡ p sont
dites variables conjuguées par rapport au couple de fonctions f et g.

Figure A.5 – Interprétation géométrique de la transformée de Legendre.

51
BIBLIOGRAPHIE :
[1] B. Diu, C. Guthmann, D. Lederer et B. Roulet, Physique statistique, Hermann (1989).
[2] Christian Ngô, Hélène Ngô, Physique statistique. Introduction, cours et exercices
corrigés,
[3] 2ème édition, Dunod (2000).
[4] H. Diep, Physique statistique : Cours, exercices et problèmes corrigés, Ellipses (2006).
[5] J.M. Yeomans, Statistical mechanics of phase transitions, Clarendon Press Oxford
(1992).
[6] L. Landau et Lifchitz, Physique statistique, Editions Mir (1967).
[7] M. KARDAR, Statistical physics of particles, Cambridge University Press (2007).
[8] M. Le Bellac et al : Thermodynamique statistique, Dunod (2001).
[9] Piero Olla, An Introduction to Thermodynamics and Statistical Physics (UNITEXT for
Physics), Springer (2015).
[10] Reinhard Hentschke, Thermodynamics: for physicists, chemists and materials
scientists, (undergraduate lecture notes in physics), 2nd edition, Springer (2014).
[11] Sylvie Vaulair, Elements de physique statistique, hasard organisation evolution,
intereditions (1997).
[12] W. Greiner, L. Neise and H. Stocker, Thermodynamics and statistical mechanics,
Springer (1994). Thermodynamique et mécanique statistique, traduit est adapté par H.
Aksas, Springer (1999).
[13] W.G.V. Rosser, Ellis Hordwood An introduction to statistical physics, Limited (1982).
[14] Walter Greiner, Ludwig Neise, Horst Stocker, Thermodynamics and statistical
mechanics, (Original German edition published by Harri Deutsch Verlag) 1987,
springer (1995)

View publication stats

Vous aimerez peut-être aussi