0% ont trouvé ce document utile (0 vote)
12 vues8 pages

Module 2

Le document traite des principes fondamentaux de la physique statistique, en introduisant des concepts tels que l'espace des phases, la fonction de distribution statistique, et l'équilibre statistique. Il explique comment les sous-systèmes interagissent et se comportent comme des systèmes isolés, ainsi que le rôle crucial de l'énergie dans la détermination des propriétés statistiques d'un système. Enfin, il aborde la notion d'entropie et sa relation avec la température, tout en soulignant l'importance de l'entropie dans la seconde loi de la thermodynamique.

Transféré par

Elie Ayefouni
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
12 vues8 pages

Module 2

Le document traite des principes fondamentaux de la physique statistique, en introduisant des concepts tels que l'espace des phases, la fonction de distribution statistique, et l'équilibre statistique. Il explique comment les sous-systèmes interagissent et se comportent comme des systèmes isolés, ainsi que le rôle crucial de l'énergie dans la détermination des propriétés statistiques d'un système. Enfin, il aborde la notion d'entropie et sa relation avec la température, tout en soulignant l'importance de l'entropie dans la seconde loi de la thermodynamique.

Transféré par

Elie Ayefouni
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

PRINCIPES FONDAMENTAUX DE LA PHYSIQUE STATISTIQUE

V. Distribution statistiques

Pour formuler le problème fondamental de la statistique classique, nous devons avant tout introduire la
notion d’espace des phases.

V.1 Espace des phases

Soit un système à s degrés de libertés la position de chaque point dans l’espace est caractérisée par s
coordonnées de position que nous désignons par qi, l’indice i=1,2,…. s. L’état de ce système à un
moment donné peut alors être déterminé par les valeurs simultanées des coordonnées qi et des s
vitesses correspondantes . En statistique, pour caractériser le système, on utilise habituellement ses
coordonnées qi et ses impulsions pi non pas ses vitesses ; ceci présentant un certain nombre
d’avantages. Mathématiquement, les divers états du système peuvent être représentés par des points
dans l’espace dit des phases (ce dernier étant une notion purement mathématique).

Exemple : Considérons un gaz monoatomique contenant N particules.

L’état de ce système’ est caractérisé par 6paramètres : M(x,y,z) coordonnées de positions et V(Vx, Vy,
Vz) coordonnées de vitesses.
Dans l’espace des phases à 6 dimensions, le point M s’écrit : M(x , y, z, Px=mVx, Py=mVy, Pz=mVz)

L’espace des phases est donc divisé en petits domaines délimité par :
x et x+dx ; y et y +dy ; z et z+dz ;
Px et Px + dPx ; Py et Py + dPy ; Pz et Pz + dPz

L’énergie d’une particule monoatomique est son énergie cinétique de translation : U=EC

V.2 Sous système d’un système macroscopique et Notion de la fonction de distribution

Considérons un système isolé n’interagissant avec aucun autre corps.

Nous appellerons sous-système de ce corps entier, toutes parties relativement petites mais
macroscopiques. Ce système défini est un système mécanique non isolé soumis à l’interaction des
autres parties du système entier.

Par suite de l’enchevêtrement des actions exercées sur le sous-système par les autres parties du corps,
durant un laps de temps suffisamment long, un sous-système choisi passera un grand nombre de fois
par tous les états possibles.

Soit pq un élément de « volume » de l’espace des phases du sous-système correspondant aux
valeurs des coordonnées q et d’impulsion p se trouvant dans de petits intervalles q et p.

1
Lorsque pq devient infiniment petit, on peut introduire la notion de probabilité d des états
représentés par des points dans le volume. C’est la probabilité pour des coordonnées q et impulsion p
de prendre des valeurs se trouvant dans les intervalles infiniment petites q et p et q+dq , p+dp. On
écrit :
soit

est une fonction de tous les coordonnées et toutes les impulsion.

La fonction  jouant le rôle de la « densité » de distribution des probabilités dans l’espace des phases,
s’appelle fonction de distribution statistique ou simplement fonction de distribution d’un corps donné.

La fonction de distribution doit évidemment satisfaire à la « condition de normalisation ».


pour un milieu continu τ est l’espace total de phases
pour un milieu discontinu

L’intégration ou la somme est prise pour tout l’espace de phase.

Les égalités posées expriment simplement le fait que la somme des probabilités des divers états
possibles doit être égale à l’unité.

Avec la fonction de distribution , on définir la valeur moyenne des grandeurs physiques sous la
forme :
et

Si à l’aide de la fonction , on construit la fonction de distribution des probabilités des


différentes valeurs de la grandeur f(p,q), cette fonction aura un maximum très net pour =f, et ne
différera notablement de zéro que très près du point correspondant au maximum. Ainsi, les prédictions
permises en statistiques sont d’une grande précision.
f
δ

E
x

C’est la distribution de Dirac : avec

est la fonction de Dirac :

Si un corps ou système macroscopique isolé se trouve dans un état tel que les grandeurs physiques
« macroscopiques » relatives à une de ses parties (qui est elle-même un corps macroscopique) sont
égales avec une précision relativement grande à leurs valeurs, on dit que le système se trouve en
équilibre statistique ainsi on parle d’équilibre thermodynamique.

2
Considérons un système macroscopique en équilibre statistique, si à un moment initial quelconque le
système macroscopique isolé ne se trouvait pas en équilibre statistique (par exemple artificiellement
mis hors de cet équilibre par des actions extérieurs puis laissé à lui lui-même, donc redevenu un
système isolé) dans le temps, il reviendra obligatoirement vers cet équilibre. L’intervalle de temps
durant lequel le système doit obligatoirement passer à l’équilibre statistique est appelé temps de
relaxation. Ainsi lorsqu’on parle de temps suffisamment long, on sous-entend des intervalles de temps
supérieurs au temps de relaxation.

VI. Indépendance statistique

Les sous-systèmes étant des corps macroscopiques non isolé en interactions incessants entre eux, si le
temps de relaxation est suffisamment grand, ces sous-systèmes se comporteront comme des corps
isoles. On dit qu’ils sont quasi-isolés et le l’on considère que les interactions sont alors faibles. Ce qui
permet de considérer les sous sous-systèmes comme statiquement indépendants.

Considérons deux sous-systèmes quelconque A et B indépendants. L’indépendance statistique conduit


à écrire :

Alors : soit

VII. Rôle de l’énergie

On démontre en physique statistique (théorème de Liouville) que seuls des combinaisons des variables
p, q restant constantes lors de l’évolution (mouvement) du sous-système supposé isolé, doivent enter la
fonction de distribution. Ces quantités sont des invariants mécaniques ou des intégrales premières de
mouvements.
Par conséquent, on peut dire que la fonction de distribution qui est fonction des invariants mécaniques
est elle-même une intégrale première. On peut réduire considérablement le nombre des intégrales 1ères
dont peut dépendre la fonction de distribution.

Rappelons que alors ; c’est-à-dire que le logarithme


de la fonction de distribution est une grandeur additive.

Le logarithme de la fonction de distribution doit être non seulement une intégrale première mais aussi
une intégrale première additive.

En mécanique, il existe 7 intégrales premières additives indépendantes L’énergie, les trois (3)
composantes de vecteur vitesse et les trois (3) composante de vecteur moment que nous désignerons
respectivement par : E(p,q), P(p,q) MΔ(p,q).

L’unique combinaison linéaire additive de ces grandeurs est la combinaison linéaire de la forme :

Les coefficients α, β, γ et δ sont des constantes ; de plus ces coefficients doivent être les mêmes pour
tous les sous-systèmes d’un système isolé. En particulier α est simplement une constante de
normalisation déterminée par la relation : .

Les 7 autres constantes β, γ et δ sont indépendantes et peuvent être déterminées par 7 valeurs
constantes des intégrales premières additives du système isolé en entier.
3
En conclusion, en statistique, les valeurs des intégrales premières additives : Energie, Impulsion et
Moment déterminent complètement les propriétés statistiques d’un système isolé. C’est-à-dire la
distribution statistique de tous les sous-systèmes et par la suite la valeur moyenne de toutes les
grandeurs physiques.

Ces 7 intégrales premières additives remplacent les innombrables données (conditions initiales)
requise pour une description mécanique.
Comme les valeurs des intégrales premières non additives n’influent pas sur les propriétés du système,
on peut se servir, pour les décrire, d’une fonction quelconque ne dépendant que des valeurs des
intégrales premières additives du système et satisfaisant au théorème de Liouville en tout point de
l’espace des phases.
La plus simple de ces fonction est pour tout point de l’espace des phases correspondant aux
constantes d’énergie (E0), d’impulsion (P0) et de moment (MΔ0) donnés su système. Et pour
tous les autres points.

Ainsi, pour que l’intégrale : soit définie en ces points, la fonction de distribution d’u
système isolé doit être écrite de la manière suivante :

La fonction est dite distribution microcanonique

L’impulsion et le moment d’un système isolé sont liés à son mouvement de translation et de rotation
uniforme. C’est pourquoi, on peut dire que l’état statistique d’un système effectuant un mouvement
donné ne dépend que de son énergie ; Ainsi, en statistique, l’énergie joue un rôle prépondérant.

La fonction de distribution statistique se réduit et s’écrit :

et

VIII. Equilibre incomplet

Nous avons toujours supposé que tout le système isolé se trouve en état d’équilibre statistique.
En d’autres termes, nous l’avons considéré durant des intervalles de temps supérieurs au temps de
relaxation (Il faut noter que Le temps de relaxation augment avec les dimensions d’un système). Les
petites parties du système arrivent séparément à l’état d’équilibre bien avant que soit établi l’équilibre
entres les divers petites parties. Ce qui veut dire que chaque petite partie du système est décrite par sa
propre fonction de distribution , mais les valeurs β, γ et δ définies plus haut sont différentes pour
chaque petite partie. On dit alors que le système se trouve en équilibre incomplet. L’équilibre
incomplet se transforme peu à peu en équilibre complet.

XI. Matrice statistique

En statistique classique, la fonction de distribution donne directement la distribution des


probabilités des différentes valeurs de coordonnées et des impulsions des particules des corps ;

4
Il en est autrement en statistique quantique où on définit plutôt une matrice de densité (matrice
statistique) pour un nième sous-système, en raison du caractère incomplet de la nature quantique
des particules. est une matrice diagonale.

La distribution microcanonique s’écrit :

avec : Etats quantiques


On peut alors écrire :
et

X. Entropie

Considérons un système isolé en équilibre statistique complet (durant un intervalle de temps supérieur
au temps de relaxation).
Dans le développement qui va suivre, nous traiterons d’abord le cas de la statistique quantique.

Découpons le système en un grand nombre de parties macroscopiques (sous-systèmes


macroscopiques) et considérons l’une d’elle.
Soit , la fonction de distribution de ce sous-système fonction de l’énergie .
Pour obtenir la probabilité pour que l’énergie du sous-système se trouve dans l’intervalle
entre E et E+dE, il faut multiplier par le nombre d’états quantiques ayant des énergie se
trouvant dans cet intervalle.

En utilisant la notion de spectre énergétique « étalé », et en désignons Γ(E) le nombre d’états


quantiques dont les énergies sont inférieures ou égales à E.

Le nombre d’états quantiques qui nous intéresse, dont les énergies se trouvent entre E et E+dE, est :

Et on obtient :

La condition de normalisation veut dire du point de vue de géométrique que la


surface limitée par la courbe est égale à l’unité.
a un maximum très net pour et défère de zéro (0) seulement à proximité de ce point.
Introduisons la « largeur » de la courbe en la déterminant comme la largeur du
rectangle dont la hauteur est égale à la valeur de la fonction au point du maximum et la largeur à
l’unité.

Or : ce qui entraine que

E
représente le nombre d’états quantiques
correspondant à l’intervalle des valeurs de l’énergie.

La grandeur caractérise le « degré d’étalement » de l’état


5
macroscopique du sous-système suivant ses états
microscopiques. est du même ordre de grandeur que la
fluctuation de l’énergie du sous-système.

Les définitions données peuvent être facilement rapportées à la statistique classique, mais la fonction
doit être remplacée par la fonction classique de distribution ; au lieu de on parlera de
de volume du domaine des phases déterminé par la relation :

est l’élément de volume de l’espace des phases tout comme qui caractérise les dimensions du
domaine de l’espace des phases où ledit sous-système se trouve la majeure partie du temps.

On peut établir le lien qui lie et lors du passage à la limite de la théorie classique à la théorie
quantique.

On sait que, dans le cas quasi-classique, qui est voisin de la mécanique classique, on peut établir une
correspondance déterminée entre le volume d’un domaine quelconque de l’espace des phases et le nombre
d’états quantique qui lui « correspondent » ; on peut dire qu’à chaque état quantique « correspond » une
« cellule » dans l’espace des phases dont le volume est :

( s degré de liberté)

Dans le cas quasi classique le nombre d’états quantiques vaut :

appelé Poids statistique de l’état macroscopique du système

Et par définition l’entropie est :

Remarques :

 L’entropie ainsi définie est sans unité tout comme le poids statistique ; et comme n’est
jamais inférieur à 1 ; ainsi, l’entropie n’est jamais négative.

L’entropie est une des notions essentielles de la statistique.

 et en utilisant la relation , on
écrit :

Par définition de la valeur moyenne, on a :

Si on a un système isolé en entier et soit les poids statistiques , ……. de ces divers sous-
systèmes. Si chacun des sous sous-systèmes se trouve dans l’un des états quantiques , il est évident
que le système entier aura : états.

Propriétés de la fonction entropie :

 L’entropie est additive puisque


6
 L’entropie est une grandeur caractérisant les propriétés moyennes du corps durant un certain
intervalle de temps t différent de zéro
On ne peut parler de la valeur instantanée de l’entropie (même pour des valeurs très petits de
l’intervalle de temps)
 Loi de croissance de l’entropie :
Si un système isolé se trouve à un moment donné dans un état macroscopique hors d’équilibre,
le plus probable est croissance ultérieure monotone de son entropie. C’est ce qu’on appelle la
loi de croissance de l’entropie ou la seconde loi de la thermodynamique. Cette loi a été énoncée
par R. Clausis et son aspect statistique mis en lumière par Boltzmann.
 Unité de l’entropie et de la température :

L’entropie définie par l’expression : est sans unité comme le poids statistique.

Tout comme le poids statistique, la température est une grandeur a un caractère purement statistique et
n’a de sens pour les corps macroscopiques. La température absolue ou température tout simplement T
est définie par la relation :

L’entropie S est une grandeur sans dimension ; de la relation ci-dessus, il ressort que la température a
la dimension de l’énergie et exprimée en ergs. Mais l’unité ergs est trop grande et pratiquement on
mesure la température en unité particulières appelé Kelvin ou degré tout simplement.
Le passage l’erg aux degrés s’effectue à l’aide de la constante de Boltzmann.

k =1,38.1016 erg/degré
1 eV =11606 degrés

Si T est exprimé en degré alors la relation : devient : et exprimé en


J/degré.

On a donc les passages suivants : et

7
EXERCICES D’APPLICATION

Exercice 2.1 : Soit un gaz parfait monoatomique à N particules constituant un système isolé à la
température T. On admettra que le système est quantifié dans un volume V fixé. En utilisant le
théorème de l’équipartition de l’énergie, on montre que l’énergie interne .
a) Définir la température absolue thermodynamique en fonction de la l’entropie statistique
b) Montrer que l’entropie statistique n’est fonction que U et de N, Conclure.
c) En déduire le nombre d’états microscopiques pour U fixé

Exercice 2.2 Considérons un système de N particules discernables et sans interactions, en position


fixe, dans un champ magnétique H et ayant un moment magnétique . Chaque particule peut occuper
un des deux niveaux d’énergie E=0 et E=2H.
1. Quelle est l’énergie interne U(n). Quelle est sa valeur maximale ?
2. L’entropie, S, du système peut être écrite sous la forme S=[Link](W(E)), où k est la constante de
Boltzmann et E l’énergie totale du système. Expliquer la signification de W(E)).
3. Préciser l’expression de S(n) en fonction du nombre de particule n du niveau d’énergie limite
le plus élevé.
4. Pour quelle valeur de n l’entropie est maximum
5. En considérant l’énergie continue, montrer que ce système peut avoir une température absolue
négative.
6. Pourquoi la température absolue négative est possible ici et non dans un gaz contenu dans une
boite.

Exercice 2.3 : L’entropie d’un système idéal paramagnétique placé dans un champ magnétique est
donnée approximativement par la relation : S=S0 – C.U2
Où U est l’énergie du système de Spin et C une constante fonction des paramètres mécaniques
constants du système.
1. Déterminer l’énergie U du système de Spin en fonction de la température T.
2. Représenter la fonction U=U(T) pour toutes les valeurs de T (-  < T < ).
3. Expliquer brièvement le sens physique de la partie du résultat dans la zone de température
négative.

Exercice 2.4 : Considérons un système de N particules sans interactions (N >>1) pour lequel l’énergie de
chaque particule peut prendre seulement deux valeurs distinctes, 0 et E (E >0). Notons par N 0 et N1 le nombre
d’occupation des niveaux d’énergie 0 et E, respectivement. L’énergie totale fixée du système est U.
1. Calculer l’entropie du système
2. Calculer la température du système en fonction de l’énergie total U. Pour quel domaine de valeur de N 0
la température est négative (T < 0 ) ?

Vous aimerez peut-être aussi