Cap 7
Cap 7
INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
1. Introducción
El Capítulo ofrece una breve introducción destinada a brindar una visión preliminar
de los fundamentos de la termodinámica estadística, TE clásica. La termodinámica
estadística emplea un andamiaje estadístico, enfoque que usualmente es conocido como
295
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Mecánica Estadística, ME. Al final del Capítulo, se ofrecen una serie de referencias,
algunas de las cuales son de obligatoria consulta, donde el lector interesado puede
profundizar sobre el tema acá tratado.
Así las cosas, tenemos que el formalismo de la Mecánica Estadística tiene por
objeto interpretar y predecir las propiedades macroscópicas de los sistemas en función de
las propiedades de las partículas que lo integran. Por tanto, podemos afirmar que la
termodinámica estadística complementa el formalismo de la termodinámica clásica, TC,
tratado a lo largo de los Capítulos del 1 al 5.
Por otra parte, hay que comentar que, la teoría de la termodinámica mesoscópica
que trataremos en el Capítulo 8, la que descansa sobre la teoría de la cinética física y los
métodos estocásticos, complementa el formalismo macroscópico del no-equilibrio, es decir,
la termodinámica de los procesos irreversibles, visto en el Capítulo 6.
296
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
La Mecánica Estadística suele distinguir entre partículas clásicas y partículas
cuánticas. Las primeras son el objeto de la Mecánica Estadística Clásica o estadística de
Maxwell-Boltzmann (M-B), cuya característica fundamental, es que las partículas pueden
tomar cualquier valor de energía, son variables continuas y existe un continuo de estados
accesibles. Adicionalmente, las partículas clásicas son discernibles.
297
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
2. Conceptos básicos
representan los promedios estadísticos del ensemble de las partículas que lo integran.
298
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
x1 , x2 , x3 , ,
realización de estos p1 , p2 , p3 , , como .
p1 , p2 , p3 , ,
3. Suma de las probabilidades: Sí ocurren dos eventos los cuales son excluyentes,
ejemplo del dado, es decir, que ocurra A o B , tenemos que la probabilidad de
los eventos es igual a la suma de estos aislados como: p ( A + B ) = p ( A ) + p ( B ) .
n
Entonces se cumple, p i
= 1, lo que se denomina condición de
i =1
normalización.
4. Multiplicación de las probabilidades: Sí tenemos dos eventos A, B los cuales
ocurren estocásticamente independientes, tenemos que la probabilidad del
producto viene dada como: p ( A B ) = p ( A ) p ( B ) .
dN x
p ( x, x + dx ) = = f ( x ) dx , donde dN x es el número de observaciones en
N
dicho intervalo y N el total de observaciones de observaciones, es decir
+
N = dN x .
−
normalizada de la forma: f ( x ) = ( xk ) N .
6. Valor Medio. El valor medio de una variable aleatoria X que puede tomar
diferentes valores x1 , x2 , x3 , , con probabilidades p1 , p2 , p3 , , se dice que el
299
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
300
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
macroscópica, y desempeñan un importante rol en la autoorganización fuera del
equilibrio. En el Capítulo 8 retomaremos nuevamente el tema.
Así tenemos que la distribución Gaussiana ( X G ) se describe a través
de la expresión
1
1 − ( x − )2 X2
( X G ) = e 2
(7.2.1)
X 2
x
( X P ) = e −
(7.2.2)
x!
n!
nPn = ; donde n ! es el factorial de n , recordar que n ! = n ( n − 1)( n − 2 ) 1 , y que
n1 !n2 !
0! = 1 . Normalmente se suele emplear para simbolizar las permutaciones P .
301
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Ejemplo 7.2.1
Sea la palabra estadísticas, determine el número de permutaciones P posibles, entre las letras que integran la
palabra.
Solución: Así tenemos que, el número total de letras de la palabra estadísticas n = 12 . Cada una de las letras,
es un objeto distinguible, n1 , n2 , n3 , , e (1) , s ( 3 ) , t ( 2 ) , a ( 2 ) , d (1) , i ( 2 ) , c (1 ) entonces se tiene que el
número de permutaciones aparecen como:
12!
P= = 9.9792 106 .
3s !2t !2a !2i !1e !1d !1c !
Ejemplo 7.2.2
Determine la probabilidad termodinámica, W , de un macroestado de k celdas (microestados) y N
partículas.
Solución: Considerando que el número de permutaciones de N elementos es N ! , debemos excluir aquellas
que resultan de permutar entre sí las partículas de cada recinto, por lo cual es necesario dividir por los valores
de N1 !, N 2 !, , N k ! .
N! N!
Así tenemos W = = .
N1 ! N 2 ! Nk ! N k
!
k
Comentario: El resultado anterior nos informa que el número microestados (complexiones) que corresponde
al caso en que hay N 1 partículas en la celda 1, N 2 partículas en la celda 2, …, N k partículas en la celda k.
( 6.023 1023 ) , resulta apropiado introducir la llamada Aproximación de Stirling, útil para
ln N ! = N ln N − N (7.2.3)
Dado que un sistema macroscópico está integrado por un gran número de partículas,
se tiene que los valores medidos de las magnitudes macroscópicas, temperatura, presión,
302
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
…, etc. coincidirán con sus promedios estadísticos en virtud de la Ley de los Grandes
Números.
La Ley de los Grandes Números, fue formulada por el matemático Jakob Bernoulli
(1654–1705), la misma se puede enunciar como sigue: Sea una variable X (magnitud
física), que sea la suma estadística de variables aleatorias independientes con una
distribución de probabilidades común:
X = X1 + X 2 + + Xn (7.2.4)
individual X n2 = 2 .
303
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
3. Ensemble Estadístico
configuración ith.
Ello exige, por una parte, que existan un gran número de partículas ( )
10 23 , por
otra parte, que la función de distribución de probabilidades sea una función continua. Así,
tenemos que cada una de las diferentes distribuciones de las N partículas en cada una de
las celdas ocupadas, constituyen un microestado del sistema.
304
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Así tenemos que a un macroestado le corresponden un número grande de
microestados (complexiones) compatibles con las ligaduras impuestas. Adicionalmente, se
puede añadir que todos los microestados accesibles de un sistema tienen la misma
probabilidad, es decir son equiprobables. De hecho, esta afirmación constituye, como
vimos al inicio, uno de los postulados fundamentales de la Termodinámica estadística,
iguales probabilidades a priori.
N!
W= (7.3.1)
Nk !
k
Hay que añadir que, el número total de microestados , viene dado por
= Wk (7.3.2)
k
Así las cosas, por el momento comenzaremos con nuestro modelo del gas ideal (ver
Cap. 1). Un gas ideal, como vimos en el Capítulo 1, representa una “Ley límite” de un
modelo de sistema donde las interacciones potenciales entre las partículas se pueden
despreciar y los choques entre ellas, de ocurrir, son de naturaleza elástica y la relación
entre las variables de estado esta descrita mediante la ecuación térmica de estado, Ec.
305
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
(1.4.1). Los gases reales, a altas temperaturas o bajas presiones tienden a un
comportamiento “ideal”.
Así tenemos que, por lo anteriormente expuesto las variables que caracterizan a
cada uno de los ensembles son:
Tal y como vimos en los Capítulos anteriores, siempre y cuando las magnitudes
extensivas que caracterizan al sistema no pierdan su aditividad, en principio podemos
306
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
reducir el estudio de cualquier sistema a un sistema aislado, esto nos posibilita generar un
formalismo lo más simple posible sin pérdida de generalidad, navaja de Ockham.
Fue Maxwell en 1860, el primero en derivar una expresión para una distribución de
probabilidad, ( xk ) para un sistema en equilibrio térmico, resultado este que fue
32
m −mv2 2 kBT
( X M ) = n e (7.3.2)
2 T
curiosamente fue introducida originalmente por Planck (ref. 23, pág. 213).
N i e − i k BT
( X B ) pi = = (7.3.3)
N
p i
= 1 , lo que se denomina condición de normalización, en el sentido matemático, y se
i =1
(T , V , N ) e − i kBT
= e− i (7.3.4)
i i
307
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
donde e − i kBT
se le llama factor de Boltzmann. La función de partición (del alemán
Zustandsumme o suma de estados) constituye el punto de partida para los cálculos de las
magnitudes termodinámicas. De hecho, físicamente, la función de partición es per se una
propiedad termodinámica, ya que depende del estado del sistema y es función de la
temperatura y el volumen.
k
i N i − EiN1 ( Nk )
(T ,V , ) = exp i (7.3.5a)
N1 Nk kBT
donde 1 kBT (ver ref. 23). Todas las demostraciones las hemos omitidos ya que, estos
aspectos trascienden el alcance introductorio de este Capítulo, así que el lector interesado
puede consultar las referencias que se ofrecen al final del Capítulo (ver, por ejemplo,
referencias 6 y 23, 27).
308
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Así, tenemos que un sistema macroscópico está formado por un número de
partículas cercano a la constante de Avogadro ( 10 23 ) cuya energía total es = i N i ,
i
donde i representa las energías de las partículas individuales las cuales poseen valores
discretos de la misma.
Ejemplo 7.3.1
Sea un sistema aislado formado por tres partículas discernibles a, b, c; N = 3 , que pueden ocupar en 5
celdas k con niveles distintos de energía, 0,1, 2, 3, 4 unidades energía , donde todos los microestados
son equiprobables. Determine la probabilidad termodinámica Wk y el número de microestados del
sistema, si se le impone la ligadura de que = N i i
= 9 .
i
E1 = 3 3 = 9 ; E2 = (1 4 ) + (1 3 ) + (1 2 ) = 9 ; E3 = ( 2 4 ) + (1 1 ) = 9 . El número
total de microestados es igual a: = W k
= W1 + W2 + W3 = 1 + 6 + 3 = 10 .
k
Comentario: Teniendo en cuenta que, a escala macroscópica, los sistemas están compuestos por un número
de partículas cercano a la constante de Avogadro ( )
10 23 para el cálculo de la probabilidad termodinámica
resulta útil emplear la Aproximación de Stirling, Ec. (7.2.3).
309
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
En ocasiones se encuentran sistemas en los cuales un nivel energético puede
corresponder a varios estados moleculares distintos. Así, por ejemplo, un átomo que vibra
armónicamente con cierta amplitud posee una energía i , pero su eje de vibración puede
todas las cuales se corresponden a la misma energía de vibración. Estos estados se llaman
estados degenerados y el número g i se denomina factor de degeneración.
g kNk
W = N ! (7.3.6)
k Nk !
N i gi e − i kBT
( X B ) pi = = (7.3.7)
N gi e − i
i
310
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
4. Entropía
“…The truth of the Second Law is, therefore, a statistical and not a mathematical
truth, for it depends on the fact that the bodies we deal with consist of millions of
molecules and that we never can get a hold of single molecules…”
J.C. Maxwell
En el Capítulo 3, desarrollamos una amplia y profusa discusión en torno a la entropía, su
alcance y limitaciones, por lo cual resulta necesario antes de adéntranos en los pormenores
de esta, tener claridad en algunos aspectos importantes.
Así las cosas, se debe a Gibbs, en su trabajo seminal en 1902 (“…the average index
of probability with its sign reversed corresponds to entropy…”), la célebre expresión de la
entropía, entropía de Gibbs (“…the second law of thermodynamics is a consequence of a
dynamics having the mixing property according to which the statistical averages of
observables or the coarse-grained probabilities pi converge to their equilibrium
311
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
SG = −kB pi ln pi (7.4.1)
i
introducida originalmente por Planck (ref. 23, pág. 213), por lo cual esta no figuraba
explícitamente en la expresión de la versión original del trabajo de Gibbs, es decir, la Ec.
(7.4.1) es la versión actual de la entropía de Gibbs (ver por ejemplo ref. 27). pi representa
donde Tr es la traza, que representa la suma de los elementos matriciales diagonales del
operador estadístico ̂ o de la matriz densidad del sistema, la cual desempeña un papel
equivalente a la densidad de probabilidad en el formalismo de la mecánica estadística
clásica.
312
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
W
1
SG = −kB pi ln pi , sí pi = i,
i W
1 1
W
SG = −kB ln ,
i W W (7.4.3)
W 1
SG = −kB ln ,
W W
SG = kB ln W S BP ;
un sistema aislado Ec. (7.4.1), alcanza su valor máximo. Para ello, empleamos el método de
los multiplicadores indeterminados de Lagrange, (ver Apéndice A.3).
condición de normalización, p i
= 1 , para simplificar el cálculo se obvia la constante k B ,
i =1
L ( p1 , , pn , ) = f ( p1 , , pn ) + g ( p1 , , pn ) ,
L
pi = f pi ( p1 , , pn ) + g pi ( p1 , , pn ) = 0,
L
= g ( p1 , , pn ) = 0,
313
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
n
donde f ( p1 , pn ) S G , g ( p1 , pn ) p = 1 , y
i
es el multiplicador indeterminado de
i =1
n n
L ( p1 , , pn , ) = − pi ln pi + pi − 1 ,
i =1 i =1
= − ln pi − 1 + = 0, pi = e(
L −1)
pi ,
n
L
= pi − 1 = 0,
i =1
n
( ( ln ) )
Como pi = 1, ne( −1) = 1 = ln 1n + 1, pi = e( −1) = e
1
+1 −1
n
= 1
n
. Según se observa,
i =1
Así podemos escribir para nuestro caso la matriz Hessiana orlada como
314
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
0 g
p1
g
pn
0 1 1
g
L L −1
0
2 2
p1 p1pn 1 p1
=
p12
;
g 2L 2L 1 0 −1
pn
pn p1pn pn
0 1
1 −1
, det = −1 0,
p1
0 1 1
1 −1
p1 0 , det = p11 + p12 0,
−1
1 0 p2
0 1 1 1
1 −1
0 0
p1
, det = − p1 p2 − − 0;
1 1 1
1 0 −1
0 p1 p3 p2 p3
p2
1 0 0 −p13
Según se observa los menores principales tienen signos alternos, por lo cual queda
así demostrado que, en el equilibrio, la entropía de Gibbs SG , exhibe un máximo y además
, ,
1 2
, k del ensemble estadístico se requiere al menos I = log 2 W bits de
información. El número de bits está relacionado con la entropía de Gibbs, Ec. (7.4.1), como
SG
I N (7.4.4)
kB ln 2
315
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Shannon, formalmente se define la entropía para un proceso de Markov discreto (ver ref.
20), definido a través de las probabilidades p1 , p2 , , pn , como
S Sh = −k pn ln pn (7.4.5)
n
1 n
Sq ( R ) = log 2 pkq (7.4.6)
(1 − q ) k =1
donde q es un parámetro que está asociado con las características específicas del sistema
bajo estudio. Por ejemplo, en la dinámica de fluidos, q está relacionado con el número de
Reynolds y en los clústers de percolación, con el umbral de percolación. La entropía de
Renyi S q ( R ) tiene especial interés para la caracterización de patrones espaciotemporales
316
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
En 1967 Havrda y Charvát obtuvieron una expresión análoga a la Ec. (7.4.6), que
fue popularizada posteriormente por Tsallis en 1988 (ver ref. 24, 25), como:
1 n q
(1 − q )
S q (T ) = pk − 1 (7.4.7)
k =1
aproximadamente igual a la entropía de Tsallis, Ec. (7.4.7), a pesar de que esta última no es
aditiva y no cumple con el cuarto Teorema de Khinchin.
En otro orden de cosas, es interesante abordar un instructivo tema que ha sido y es,
de gran debate y reflexiones, conocido como la Paradoja de Maxwell, popularmente
conocido como el “demonio de Maxwell” y que aparentemente entraría en “contradicción”,
según Maxwell, con la Segunda Ley. La Paradoja de Maxwell, fue expuesta en su obra
titulada Theory of Heat, en 1871 (ver ref. 12).
317
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
un grupo de moléculas ( 1023 ) , que por simplicidad se denotan como rojas (r) y azules (a),
las cuales tendrían diferente energía cinética, por tanto, diferente “temperatura”, Tr Ta .
“…Éste es sólo uno de los casos en los que las conclusiones que hemos extraído de nuestra
experiencia de cuerpos que constan de un inmenso número de moléculas pueden resultar no
aplicables a las observaciones y experimentos más delicados que podemos suponer
realizados por alguien que puede percibir y manejar las moléculas individuales con las que
tratamos solo en grandes masas…”, “…Al tratar con masas de materia, mientras no
percibimos las moléculas individuales, nos vemos obligados a adoptar lo que he descrito
como el método de cálculo estadístico y a abandonar el método dinámico estricto, en el que
seguimos cada movimiento mediante el cálculo. Sería interesante indagar hasta qué punto
esas ideas sobre la naturaleza y los métodos de la ciencia que se han derivado de ejemplos
de investigación científica en los que se sigue el método dinámico son aplicables a nuestro
conocimiento real de cosas concretas, que, como hemos visto, es de naturaleza
esencialmente estadística, porque nadie ha descubierto todavía ningún método práctico
para rastrear el camino de una molécula o para identificarla en diferentes momentos …”
318
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
La paradoja reside, por una parte, en el hecho que se mezclan dos enfoques, el
macroscópico y el microscópico. A escala macroscópica, los sistemas están compuestos por
un número de partículas cercano a la constante de Avogadro ( 1023 ) y las magnitudes que
lo caracterizan representan los promedios estadísticos del conjunto de las partículas que lo
integran, a lo que llama Maxwell cálculo estadístico por lo cual, en este caso, la
temperatura promedio macroscópicamente medida es constante, tanto en A como en B, por
lo cual la entropía del sistema, el gas, no ha cambiado.
319
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Así las cosas, en ausencia de campos externos, se asume que las moléculas del gas
ideal monoatómico se comportan como masas puntuales y que la única energía involucrada
es la cinética.
ln W = ln N !− ln N i ! = N ln N − N − N i ln N i + N i ,
i i i
N = N i = ctc, (7.5.1)
i
ln W = N ln N − N i ln N i ;
i
S BP = kB ln W = kB N ln N − N i ln N i = kB ( N ln + E ) ,
i (7.5.2)
E
S BP = kB N ln + ;
T
320
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
donde E es la energía interna, tal que E = Ni i = ctc y = 1 kBT , en lo adelante por
i
pero debemos tener en mente este aspecto y que se trata de la entropía del sistema y es una
función de estado.
W
E = kB NT ln (7.5.3)
−E −E
= We kB NT
= We RT
(7.5.4)
ln
E = kB NT 2 ,
T V
(7.5.5)
ln
E = RT 2 ;
T V
321
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
A su vez, como comentamos en el propio Cap. 4 que, en 1889, Arrhenius inspirado
en la fórmula de la isóbara de van´t Hoff, obtuvo su célebre ecuación, conocida como
ecuación de Arrhenius, Ec. (4.4.4), fórmula básica de la cinética química, la cual relaciona
la llamada energía de activación con la constante de velocidad específica k + , como:
d ln k +
E = RT 2 . De esta forma, podemos físicamente interpretar que, la función de
dT
partición desempeña en la TE el mismo rol que la constante de equilibrio en la TC o la
constante de velocidad específica, en la cinética química.
Así las cosas, y teniendo en mente que estamos tratando con sistema aislado
(ensemble microcanónico), según vimos en el Capítulo 3, Acápite 5, las variables que lo
caracterizan son ( E ,V , N ) , N es constante, a través de la representación entrópica del
1 p
sistema, Ec. (3.5.1) dS S = dE + dV , para un proceso reversible podemos determinar,
T T
S N
= kB + + E ,
E V E E
Ni
= − i e − i = − i = = − E, (7.5.6)
i i N N
S 1
= kB − E + +E = ;
E V E E T
V E
ln
p = kB NT (7.5.7)
V
322
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
E 2 ln
CV = = NkB T (7.5.8)
T V T T V V
Por su parte, teniendo en cuenta la Ec. (7.5.2), podemos obtener una expresión para
la energía de Helmholtz que formalmente se define como: ( E − TS ) F , Ec. (3.5.3), como
F = −k B NT ln (7.5.9)
Ejemplo 7.5.1
Sea un sistema formado por N partículas y un espacio de fases de dos celdas, 1 y 2. Si la energía de las
partículas es igual en ambas celdas 1 = 2 = ; Determine: 1. La función de partición del sistema, 2. El
número de partículas en cada una de las celdas, 3. La energía interna total y 4. La entropía del sistema.
Solución: 1. La función de partición del sistema se determina a través de la Ec. (7.3.4), como:
= e = 2 e
− i kBT − kBT
; 2. El número de partículas por celda, se determina a través de la Ec. (7.3.3), es
i i
− i kBT
Ne N
decir la distribución de Boltzmann, como: N1 = N 2 = =
, es decir una distribución uniforme; 3.
2
Para determinar la energía interna total, empleamos la primera fórmula de la Ec. (7.5.5), así tenemos que:
2 ln = N
E = k B NT ; 4. La entropía del sistema se calcula a través de la Ec. (7.5.2), tenemos:
T V
E
S BP = k B N ln + = k B N ln 2 .
T
323
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Tal y como comentamos al inicio de este Acápite, el gas ideal monoatómico, en
ausencia de campos externos, se asume que sus moléculas se comportan como masas
puntuales y que la única energía involucrada es la energía cinética de traslación:
i = mvi2 2 . Así teniendo en cuenta la distribución de Maxwell, Ec. (7.3.2), la función de
partición adopta la forma
ctcVT 3 2 (7.5.10)
donde, ctc es una constante, V es el volumen. Así tenemos que las variables de estado
temperatura y volumen vienen dadas por
3 2T = ( ln T )V ,
(7.5.11)
1 V = ( ln V )T ;
ln k NT
p = kB NT = B ,
V V
(7.5.12)
RT
p= ;
v
donde v es el volumen molar, es decir la Ec. (7.5.12) representa la ecuación de estado del
gas ideal, Ec. (1.4.1), que vimos en el Cap. 1. Así tenemos que la energía interna, Ec.
(7.5.5), adopta la forma
ln 3
E = kB NT 2 = NkBT (7.5.13)
T V 2
3
E = RT (7.5.14)
2
324
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
tanto, la variación de la energía interna solo depende, para el gas ideal, de la temperatura
(ver Cap. 2).
Así tenemos que, la capacidad calórica a volumen constante, CV , Ec. (7.5.8), para
E 3
CV = = Nk B ,
T V 2
(7.5.15)
3
CV = R;
2
E 3 3
S = kB N ln + = kB N ln ctc + ln V + ln T + k B N ,
T 2 2
(7.5.16)
3
S = kB N ln V + ln T + S 0 ;
2
3 3 J
S = −46.33 + R ln T + ln V + ln M , ; (7.5.17)
2 2 mol.K
325
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
5
H = ( E + pV ) = NkBT ,
2
(7.5.18)
5
H = RT ;
2
La Ec. (7.5.18), muestra dos aspectos importantes, por una parte, como vimos en el
Cap. 2, para el gas ideal la entalpia solo depende de la temperatura. Por otra parte, se
5
observa que el termino, R , no es más que la capacidad calórica a presión constante C p ,
2
Ec (2.2.4).
Ejemplo 7.5.2
Evalúe la entropía de un mol de argón Ar , a partir de la ecuación de Sackur-Tetrode, Ec. (7.5.17), a la
temperatura de 298 K y presión 1 atm.
3 3
Solución: Dado que el argón es un gas monoatómico, tenemos que: S = −46.33 + R ln T + ln V + ln M ,
2 2
para ello es necesario conocer la masa molar M , el volumen V y la temperatura T . La masa molar del
argón M = 39.948 Da , el volumen se puede evaluar a través de la (7.5.12), del gas ideal,
3 3
V = 24.436 10 cm , por tanto, se obtiene: S = 154.61 J mol.K , el valor tabulado evaluado a través del
tercer principio, Ec. (4.3.3) es: S = 154.8 J mol.K , es decir se logra una buena aproximación.
Tal y como comentamos al inicio de este Acápite la TE, hace una diferenciación
entre el gas ideal monoatómico y diatómico, debido a que, si bien en el caso del gas ideal
monoatómico la única energía involucrada es la energía cinética de traslación, i = mvi2 2 ,
para el ideal diatómico, existe una contribución de diferentes modos de movimiento, por
tanto, la energía de una molécula es la suma de las contribuciones de las energías: cinética
de traslación, rotación, y vibración.
Por lo cual, hay que factorizar la función de partición molecular, Ec. (7.3.4) en las
contribuciones de cada uno de los modos, como
= exp ( − t − r − v − e ),
i (7.5.18)
=zz z z ;
t r v e
326
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Como resumen podemos decir que nos hemos limitado a esbozar brevemente el
formalismo de la TE clásica para el gas ideal monoatómico, que por una parte, nos permitió
establecer de forma preliminar un puente con la termodinámica clásica, no obstante, el
lector interesado puede ampliar en las referencias que se ofrecen. Por otra parte, los
diferentes aspectos acá tratados, sirven de elementos introductorios para los cursos de
termodinámica estadística y mecánica cuántica.
Bibliografía
327
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
18. Rényi A., “On measures of information and entropy”. Proceedings of the fourth
Berkeley Symposium on Mathematics, Statistics and Probability, 1960, 547-561.
19. Rodríguez Castellanos C. & Pérez Maldonado M.T., Introducción a la Física
Estadística, ed. Félix Varela, La Habana, 2002.
20. Shannon C.E., A Mathematical Theory of Communication, The Bell System
Technical Journal, vol. 27, 1848, 623-656.
21. Sethna J. P., Statistical Mechanics: Entropy, Order Parameters and Complexity,
Cornell University, Ithaca, NY, 2005.
22. Simon C. and Blume L., Mathematics for Economists, W.W. Norton & Comp.,
1994.
23. Sommerfeld A, Thermodynamics and Statistical Mechanics, New York: Academic
Press, 1956.
24. Tsallis C., On the foundations of statistical mechanics, Eur. Phys. J. Special Topics
226, 2017, 1433–1443.
25. Tsallis C., Possible generalization of Boltzmann-Gibbs statistics, J. Stat. Phys., 52,
1988, 479.
26. Terlietski Y.P., Física Estadística, ed. Ciencia y Técnica, La Habana 1971.
27. Tolman R.C., Principles of statistical physics, Clarendon, Oxford, UK, 1938.
328