0% encontró este documento útil (0 votos)
45 vistas34 páginas

Cap 7

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
45 vistas34 páginas

Cap 7

Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

CAPÍTULO 7.

INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

“Since a given system of bodies can never by

itself pass to an equally probable state, but only to

a more probable one, … it is impossible to

construct a perpetuum mobile which periodically

returns to the original state”

Ludwig Eduard Boltzmann (1844–1906)

1. Introducción; 2. Conceptos básicos: probabilidad,


permutaciones, Ley de los Grandes Números, Teorema del Límite
Central; 3. Ensemble Estadístico: Macroestado y microestados,
Conjuntos microcanónico, canónico y macrocanonico,
distribución de Maxwell-Boltzmann-Gibbs, función de partición,
Hipótesis Ergódica, teorema de equipartición de la energía; 4.
Entropía: Gibbs, Boltzmann-Planck, von Neumann, Shannon,
Renyi y Tsallis, Paradoja de Maxwell; 5. Magnitudes
termodinámicas y la función de partición: Gas Ideal,
monoatómico y diatómico; Bibliografía.

1. Introducción

En el Capítulo introductorio, dejamos claro que la termodinámica constituye per se un


bloque monolítico y que, desde un punto de vista académico y formal, se puede agrupar en
tres unidades fundamentales:

1. Enfoque macroscópico: “termodinámica clásica” y “termodinámica de los


procesos irreversibles”.

2. Enfoque microscópico: “termodinámica estadística”.

3. Enfoque mesoscópico: “termodinámica mesoscópica”.

El Capítulo ofrece una breve introducción destinada a brindar una visión preliminar
de los fundamentos de la termodinámica estadística, TE clásica. La termodinámica
estadística emplea un andamiaje estadístico, enfoque que usualmente es conocido como

295
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Mecánica Estadística, ME. Al final del Capítulo, se ofrecen una serie de referencias,
algunas de las cuales son de obligatoria consulta, donde el lector interesado puede
profundizar sobre el tema acá tratado.

Así las cosas, tenemos que el formalismo de la Mecánica Estadística tiene por
objeto interpretar y predecir las propiedades macroscópicas de los sistemas en función de
las propiedades de las partículas que lo integran. Por tanto, podemos afirmar que la
termodinámica estadística complementa el formalismo de la termodinámica clásica, TC,
tratado a lo largo de los Capítulos del 1 al 5.

Por otra parte, hay que comentar que, la teoría de la termodinámica mesoscópica
que trataremos en el Capítulo 8, la que descansa sobre la teoría de la cinética física y los
métodos estocásticos, complementa el formalismo macroscópico del no-equilibrio, es decir,
la termodinámica de los procesos irreversibles, visto en el Capítulo 6.

El desarrollo de la Mecánica Estadística está ligado a las contribuciones laudables


de tres figuras paradigmáticas de las ciencias, Maxwell, Boltzmann y Gibbs (ver ref.
5,13,19). Fue Maxwell quien desarrollo el andamiaje teórico de la teoría cinética de los
gases, 1860, que sirvió de base para el ulterior desarrollo de la Mecánica Estadística. Fue él
unos de los primeros, junto con Boltzmann, en entender la naturaleza probabilística de la
Segunda Ley de la Termodinámica. En 1878 introdujo el concepto de ensemble
microcanónico y formuló la hipótesis ergódica.

Por su parte Boltzmann, en 1872 obtuvo su famosa y polémica ecuación cinética,


análoga de la velocidad de entropía, Ec. (8.3.1), ver Cap. 8, a partir de la formulación del
Teorema H. En 1887 a partir de los trabajos de Clausius, obtuvo una relación entre la
entropía y la probabilidad, que posteriormente en 1901 Planck (ver ref. 5) desarrolló la
versión popularmente conocida como Ecuación de Boltzmann, Ec. (3.1.2). Generalizó la
Ley de distribución de Maxwell, ensemble canónico, y demostró el teorema de
equipartición de la energía, establecido previamente por Maxwell.

La obra de Gibbs en la termodinámica ha sido colosal, como se ha visto a lo largo


de los Capítulos anteriores. Gibbs acuñó el término Mecánica Estadística, obra publicada
en su libro Elementary principles in Statistical Mechanics, 1902 (ver ref. 6). Introdujo el
concepto de ensemble y los ensembles canónico y Gran canónico.

296
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
La Mecánica Estadística suele distinguir entre partículas clásicas y partículas
cuánticas. Las primeras son el objeto de la Mecánica Estadística Clásica o estadística de
Maxwell-Boltzmann (M-B), cuya característica fundamental, es que las partículas pueden
tomar cualquier valor de energía, son variables continuas y existe un continuo de estados
accesibles. Adicionalmente, las partículas clásicas son discernibles.

Las partículas cuánticas, estadísticas de Bose-Einstein (B-E) y de Fermi-Dirac (F-


D), solo pueden tomar valores discretos de la energía, valores permitidos, los que poseen
niveles energéticos caracterizados a través de los números cuánticos. Además, las
partículas cuánticas, son indiscernibles. A altas temperaturas y bajas densidades a través de
la estadística clásica y las estadísticas cuánticas, se obtienen resultados similares.

Acá solo trataremos los aspectos esenciales referentes a la Mecánica Estadística


Clásica. La estructura formal de la Mecánica Estadística se basa en una serie de
postulados, de los cuales profundizaremos más adelante, así podemos mencionar:

1. El primer postulado de la mecánica estadística es que en equilibrio un sistema


aislado (ensemble microcanónico) tiene a priori la misma probabilidad de estar
en cualquiera de sus estados accesibles (microestados), iguales probabilidades
a priori, compatibles con las ligaduras del sistema. Para sistemas que están en
contacto térmico o su número de partículas no es constante, el conjunto de
estados accesibles serán diferentes y habrá que calcular sus probabilidades.
2. El segundo postulado de la mecánica estadística, Hipótesis Ergódica, implica
que, los promedios temporales se corresponden a los promedios del ensemble
(conjunto).

297
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

2. Conceptos básicos

En el presente Acápite vamos a introducir una serie de conceptos básicos de la teoría de


probabilidades, necesarios para el desarrollo ulterior de las bases de termodinámica
estadística. No obstante, el lector interesado en ahondar en el tema puede consultar las
referencias 3 y 7.

El enfoque estadístico de un sistema macroscópico resulta necesario ya que como


promedio se tiene que los sistemas están compuestos por un número de partículas cercano a
la constante de Avogadro N A ( 6.023  1023 ) y las magnitudes que lo caracterizan

representan los promedios estadísticos del ensemble de las partículas que lo integran.

Así tenemos que, entendemos por probabilidad la medida cuantitativa de la


posibilidad. Vale decir que el concepto de posibilidad es una categoría primaria, por lo cual
dada su generalidad es imposible utilizar un concepto más general para su definición, por lo
cual se acude al método de los contrarios polares. El contrario polar de posibilidad es
realidad.

Así las cosas, la forma cuantitativa de evaluar la probabilidad de un evento es a


través de la relación entre el número de casos favorables y el número de casos posibles,
esta definición es conocida como definición clásica de probabilidad. Por ejemplo, en el
caso de un dado que tiene 6 caras, la probabilidad pi de que a la hora de lanzar el mismo

salga una de las caras será: pi = 1 6 , i = 1, ,6 .

Las probabilidades cumplen con una serie de propiedades, a decir:

1. La probabilidad como número. Sean una serie de procesos aleatorios,


A, B, , caracterizados a través de las probabilidades, p A , pB , , los mismos

deben satisfacer los siguientes requerimientos:


Sí, el proceso A es más probable que el B , se cumple: p A  pB .

Sí, ambos procesos son equiprobables entonces: p A = pB .

Sí, el proceso A ocurre con certidumbre, se tiene p A = 1 .


2. Variable aleatoria o estocástica: Sean una serie de procesos aleatorios,
A, B, C , , los cuales representan diferentes estados caracterizados por las

298
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

magnitudes x1 , x2 , x3 , , se dice que una variable aleatoria discreta viene dada

por el conjunto de sus posibles valores x1 , x2 , x3 , , y por las probabilidades de

 x1 , x2 , x3 , , 
realización de estos p1 , p2 , p3 , , como  .
 p1 , p2 , p3 , , 
3. Suma de las probabilidades: Sí ocurren dos eventos los cuales son excluyentes,
ejemplo del dado, es decir, que ocurra A o B , tenemos que la probabilidad de
los eventos es igual a la suma de estos aislados como: p ( A + B ) = p ( A ) + p ( B ) .
n
Entonces se cumple, p i
= 1, lo que se denomina condición de
i =1

normalización.
4. Multiplicación de las probabilidades: Sí tenemos dos eventos A, B los cuales
ocurren estocásticamente independientes, tenemos que la probabilidad del
producto viene dada como: p ( A  B ) = p ( A )  p ( B ) .

5. Función de distribución de probabilidad  ( xk ) . La función de distribución

de probabilidad  ( xk ) tiene especial relevancia en el formalismo de la

termodinámica estadística ya que permite trasladar al conjunto (ensemble) las


propiedades de las partículas individuales.
Así tenemos que la probabilidad de que tenga lugar un evento en un
intervalo de una variable aleatoria continua  x, x + dx  es:

dN x
p ( x, x + dx ) = = f ( x ) dx , donde dN x es el número de observaciones en
N
dicho intervalo y N el total de observaciones de observaciones, es decir
+
N =  dN x .
−

De esta forma se cumple para la función de distribución de probabilidad


 ( xk ) que:  ( xk ) = dN x dx . Resulta útil definir la función de distribución

normalizada de la forma: f ( x ) =  ( xk ) N .

6. Valor Medio. El valor medio de una variable aleatoria X que puede tomar
diferentes valores x1 , x2 , x3 , , con probabilidades p1 , p2 , p3 , , se dice que el

299
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

valor medio (average) de la variable X viene dado por: X =  xi pi . El valor


i

medio suele simbolizarse por  .


7. Momentos de una distribución. Los Momentos de una distribución de
probabilidad  ( xk ) desempeñan un importante rol en la teoría estadística. Sea

una variable aleatoria X que puede tomar diferentes valores x1 , x2 , x3 , , con

probabilidades p1 , p2 , p3 , , así tenemos que el momento de orden k viene

dado por: X k =  xik pi . Como puede verse, el momento de orden k = 1


i

representa el valor medio  .


8. Varianza. La varianza representa una medida en cuanto el valor real de una
variable aleatoria se desvía de su valor medio, así tenemos que la varianza de la
X2 = X2 − X
2
variable X viene dada por: , la varianza suele

simbolizarse por  2 . La desviación cuadrática media de la varianza se conoce


como desviación estándar  , magnitud que suele identificarse como la
fluctuación de la variable X .
9. Distribución normal o Gaussiana. Como comentamos en el punto 5, la función
de distribución de probabilidad  ( xk ) tiene especial relevancia en el

formalismo de la termodinámica estadística. Por una parte, veremos dos


distribuciones fundamentales en la estadística, que nos permitirán más adelante
entender las particularidades de las distribuciones empleadas en el formalismo
de la ME, a decir, la distribución de Maxwell-Boltzmann-Gibbs.
Por otra, es importante notar que, en el caso del equilibrio
termodinámico, descrito bajo el formalismo clásico, el rol de las fluctuaciones
sobre las desviaciones respecto a los valores medios de las magnitudes físicas es
pequeño y se ajustan a la distribución Gaussiana.
Físicamente ello implica que, en el equilibrio a escala macroscópica, las
fluctuaciones se amortiguan. No sucede así fuera del equilibrio, como vimos en
el Capítulo 6, donde las fluctuaciones crecen y se amplifican a escala

300
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
macroscópica, y desempeñan un importante rol en la autoorganización fuera del
equilibrio. En el Capítulo 8 retomaremos nuevamente el tema.
Así tenemos que la distribución Gaussiana  ( X G ) se describe a través

de la expresión
1
1 − ( x −  )2 X2
( X G ) = e 2
(7.2.1)
 X 2

donde  es valor medio y  la desviación estándar.


10. Distribución de Poisson. La distribución de Poisson, al igual que la
distribución Gaussiana, representa una de las distribuciones de probabilidades
de mayor importancia en la estadística, así como en la descripción de numerosos
problemas físicos. Su nombre se debe al fisicomatemático francés Poisson,
quien la propuso en 1838.
Así tenemos que

x
( X P ) = e −
(7.2.2)
x!

Es importante señalar que la distribución de Poisson adquiere especial


relevancia cuando el tamaño del sistema es pequeño y por tanto las
fluctuaciones pueden tener un rol protagónico en la autoorganización del sistema
fuera del equilibrio (ver Cap.6), tema este que retomaremos en el próximo
Capítulo 8.

Resulta imprescindible introducir un concepto del análisis combinatorio,


denominado permutaciones (ver ref. 3). Sean n objetos tomados n a la vez, se dice que el
número de permutaciones nPn es igual a: nPn = n ! . Si los n objetos son distinguibles,

n1 , n2 , n3 , , entonces se tiene que el número de permutaciones nPn es igual a:

n!
nPn = ; donde n ! es el factorial de n , recordar que n ! = n ( n − 1)( n − 2 ) 1 , y que
n1 !n2 !
0! = 1 . Normalmente se suele emplear para simbolizar las permutaciones P .

301
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

Ejemplo 7.2.1
Sea la palabra estadísticas, determine el número de permutaciones P posibles, entre las letras que integran la
palabra.
Solución: Así tenemos que, el número total de letras de la palabra estadísticas n = 12 . Cada una de las letras,
es un objeto distinguible, n1 , n2 , n3 , , e (1) , s ( 3 ) , t ( 2 ) , a ( 2 ) , d (1) , i ( 2 ) , c (1 ) entonces se tiene que el
número de permutaciones aparecen como:
12!
P= = 9.9792  106 .
3s !2t !2a !2i !1e !1d !1c !

Históricamente, fue Boltzmann en 1887 quien empleó el termino de permutabilidad


(del alemán Permutabilität) P , para derivar la ecuación que relaciona la entropía y la
probabilidad. Posteriormente, en 1901, Planck desarrollo la versión popularmente conocida
como Ecuación de Boltzmann, y sustituyó P por W (del alemán Wahrscheinlichkeit)
probabilidad termodinámica que representa el número de microestados (Planck le
denominó complexiones) compatibles con un macroestado dado del sistema, ver Ec. (7.4.3)

Ejemplo 7.2.2
Determine la probabilidad termodinámica, W , de un macroestado de k celdas (microestados) y N
partículas.
Solución: Considerando que el número de permutaciones de N elementos es N ! , debemos excluir aquellas
que resultan de permutar entre sí las partículas de cada recinto, por lo cual es necesario dividir por los valores
de N1 !, N 2 !, , N k ! .

N! N!
Así tenemos W = = .
N1 ! N 2 ! Nk ! N k
!
k

Comentario: El resultado anterior nos informa que el número microestados (complexiones) que corresponde
al caso en que hay N 1 partículas en la celda 1, N 2 partículas en la celda 2, …, N k partículas en la celda k.

Teniendo en cuenta que un sistema macroscópico está compuesto como promedio


por un número de grande de partículas, cercano a la constante de Avogadro N A

( 6.023  1023 ) , resulta apropiado introducir la llamada Aproximación de Stirling, útil para

el cálculo de factoriales de números grandes, así tenemos

ln N ! = N ln N − N (7.2.3)

Dado que un sistema macroscópico está integrado por un gran número de partículas,
se tiene que los valores medidos de las magnitudes macroscópicas, temperatura, presión,

302
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
…, etc. coincidirán con sus promedios estadísticos en virtud de la Ley de los Grandes
Números.

La Ley de los Grandes Números, fue formulada por el matemático Jakob Bernoulli
(1654–1705), la misma se puede enunciar como sigue: Sea una variable X (magnitud
física), que sea la suma estadística de variables aleatorias independientes con una
distribución de probabilidades común:

X = X1 + X 2 + + Xn (7.2.4)

Bajo la suposición inicial, extremadamente débil, de que existe un valor medio


Xk de cada una de una de las distribuciones, la Ley de los Grandes Números afirma que

la probabilidad de que la media aritmética ( X1 + X 2 + + X n ) n diverja de la media

estadística menos que un  predeterminado de forma arbitraria, tiende a 1 en el límite


para: n → ,  → 0 ; con la suposición complementaria de que existe la varianza

individual  X n2 =  2 .

Adicionalmente se tiene que, para n → , la distribución de probabilidad

( X1 + X 2 + + X n ) n de la distribución normal se acerca tanto como se quiera a la

densidad de probabilidad Gaussiana, afirmación que se sustenta en el Teorema del Límite


del Central.

303
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

3. Ensemble Estadístico

Hasta el momento hemos hecho alusión a macroestados y microestados de manera


intuitiva, sin una definición rigurosa. Por tanto, es necesario precisar claramente a que nos
estamos refiriendo.

Macroestado: El macroestado W , es el estado de un sistema macroscópico


caracterizado por las variables de estado, por ejemplo, T , V , , ver los Capítulos 1 y 3.

Microestado (Planck los llamo complexiones): Un microestado  refleja una


configuración dada de los grados de libertad que caracterizan al sistema, por ejemplo, las
velocidades y las posiciones de las partículas (clásico) o bien energías adoptadas por las
partículas (cuánticas).

Un sistema macroscópico puede estudiarse a partir de las partículas que lo integran,


en general pueden ser desde bolas de billar hasta átomos, moléculas, etc. En una
descripción estadística clásica, se requiere especificar en cada instante las 3N coordenadas
q y los 3N momenta p de las N partículas que lo integran. En el caso cuántico, deben
conocerse los espectros energéticos de los grados de libertad empleados para caracterizar el
estado cuántico de la partícula. El espacio de los posibles microestados se le llama espacio
de fase. Para un gas ideal monoatómico formado por N partículas la dimensionalidad del
espacio de fase es 6N .

De esta forma tenemos que la magnitud macroscópica medida, M , es el promedio


1  
estadístico del ensemble M , es decir: M = M =   M i  , donde N ens es el
ens ens
N ens  i 
número de configuraciones en el ensemble y M i es el valor de la magnitud en la

configuración ith.

Ello exige, por una parte, que existan un gran número de partículas ( )
10 23 , por

otra parte, que la función de distribución de probabilidades sea una función continua. Así,
tenemos que cada una de las diferentes distribuciones de las N partículas en cada una de
las celdas ocupadas, constituyen un microestado del sistema.

304
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Así tenemos que a un macroestado le corresponden un número grande de
microestados (complexiones) compatibles con las ligaduras impuestas. Adicionalmente, se
puede añadir que todos los microestados accesibles de un sistema tienen la misma
probabilidad, es decir son equiprobables. De hecho, esta afirmación constituye, como
vimos al inicio, uno de los postulados fundamentales de la Termodinámica estadística,
iguales probabilidades a priori.

Así las cosas, el número de complexiones compatibles con un macroestado dado


del sistema W (probabilidad termodinámica), viene dado a través del número de
permutaciones de N elementos en k celdas (ver Ejemplo 7.2.2), como

N!
W= (7.3.1)
 Nk !
k

Hay que añadir que, el número total de microestados  , viene dado por

 = Wk (7.3.2)
k

donde Wk son los diferentes macroestados.

Hasta el momento, las ideas expuestas, son generales y no se comprometen con un


sistema en particular, todo lo cual permite disponer de un formalismo lo más simple posible
sin pérdida de generalidad. Por una parte, tal y como mencionamos en el Capítulo 1, una de
las limitaciones del formalismo de la termodinámica clásica, está relacionado con el hecho
de que no ofrece información a priori de la estructura de las sustancias. Por otra, como el
objetivo general del presente texto, como se vio a lo largo de los Capítulos del 1 al 5, son
los sistemas biofísicoquímicos, debemos en este momento concentrarnos en los sistemas
químicos.

Así las cosas, por el momento comenzaremos con nuestro modelo del gas ideal (ver
Cap. 1). Un gas ideal, como vimos en el Capítulo 1, representa una “Ley límite” de un
modelo de sistema donde las interacciones potenciales entre las partículas se pueden
despreciar y los choques entre ellas, de ocurrir, son de naturaleza elástica y la relación
entre las variables de estado esta descrita mediante la ecuación térmica de estado, Ec.

305
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
(1.4.1). Los gases reales, a altas temperaturas o bajas presiones tienden a un
comportamiento “ideal”.

Como vimos en los Capítulos precedentes, el empleo de las técnicas calorimétricas


permitió un notable avance de la termodinámica clásica. Del mismo modo, las técnicas
espectroscópicas han posibilitado experimentalmente el cálculo de los niveles de energía de
las moléculas y poderlos relacionar con sus tamaños y formas (ver ref. 15), constituyendo
así la base experimental de la termodinámica estadística.

Al igual que hace la termodinámica clásica, que formalmente establece la existencia


de tres tipos extremos de sistemas: aislado, cerrado y abierto (ver Cap.1), la
Termodinámica estadística, establece un análogo a los mismos, a decir: ensemble
(conjunto) microcanónico (sistema aislado), ensemble canónico (sistema cerrado) y
ensemble gran canónico (sistema abierto).

Así tenemos que, por lo anteriormente expuesto las variables que caracterizan a
cada uno de los ensembles son:

1. Microcanónico (sistema aislado): E , V , N . Tal y como vimos en el Capítulo 3,


Acápite 5, si se establece como ligaduras E , V , N , entonces la función idónea
para caracterizar el sistema es la entropía del sistema S S , que de hecho

representa una función potencial.


2. Canónico (sistema cerrado): T , V , N . En este caso, la función idónea para
caracterizar el sistema es la energía de Helmholtz F , que representa una función
potencial.
3. Gran canónico (sistema abierto): T , V ,  . En este caso, la función idónea para
caracterizar el sistema es el potencial gran canónico
 G (T ,V ,  )  E − TS −  N .

La termodinámica estadística clásica, está estructurada sobre la base del ensemble


microcanónico, el mismo fue introducido por Maxwell en 1878 que además formuló la
hipótesis ergódica que como vimos nos permite referirnos al promedio estadístico.

Tal y como vimos en los Capítulos anteriores, siempre y cuando las magnitudes
extensivas que caracterizan al sistema no pierdan su aditividad, en principio podemos

306
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
reducir el estudio de cualquier sistema a un sistema aislado, esto nos posibilita generar un
formalismo lo más simple posible sin pérdida de generalidad, navaja de Ockham.

Fue Maxwell en 1860, el primero en derivar una expresión para una distribución de
probabilidad,  ( xk ) para un sistema en equilibrio térmico, resultado este que fue

posteriormente generalizado por Boltzmann y Gibbs respectivamente. La distribución de


probabilidad para un gas ideal, en ausencia de fuerzas externas, solo dependerá de las
velocidades de las partículas individuales.

De esta forma, la distribución de velocidades de Maxwell  ( X M ) , adopta la

forma tipo de una distribución Gaussiana como

32
 m  −mv2 2 kBT
( X M ) = n   e (7.3.2)
 2 T 

donde m se refiere a la masa de cada una de las n partículas, mv 2 2 se refiere a la energía

cinética, T es la temperatura absoluta y k B es la constante de Boltzmann, la cual

curiosamente fue introducida originalmente por Planck (ref. 23, pág. 213).

Boltzmann generalizó la distribución de Maxwell reemplazando la energía cinética


en la Ec. (7.3.2) por la energía total conservada, e incluye además de la energía cinética la
energía potencial, así se tiene

N i e − i k BT
 ( X B )  pi = = (7.3.3)
N

La Ec. (7.3.3) se conoce como la distribución de Boltzmann  ( X B ) , donde es

un factor de normalización, que garantiza la conservación de la probabilidad, es decir,


n

p i
= 1 , lo que se denomina condición de normalización, en el sentido matemático, y se
i =1

conoce como función de partición, así se tiene que

(T , V , N )   e − i kBT
=  e− i (7.3.4)
i i

307
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

donde e − i kBT
se le llama factor de Boltzmann. La función de partición (del alemán
Zustandsumme o suma de estados) constituye el punto de partida para los cálculos de las
magnitudes termodinámicas. De hecho, físicamente, la función de partición es per se una
propiedad termodinámica, ya que depende del estado del sistema y es función de la
temperatura y el volumen.

La distribución de Boltzmann describe el ensemble canónico, es decir, un sistema


cerrado. De acuerdo con Boltzmann todas las energías  i contribuyen por igual cantidad,

1 2k BT , al valor medio de la energía interna E del sistema, lo que se conoce como el

Teorema de equipartición de la energía, el cual fue establecido previamente por Maxwell


en su teoría cinética de los gases. Además, admite que, el estado de un sistema que
corresponde al equilibrio estadístico es aquel cuya probabilidad es máxima.

Por su parte Gibbs generalizó el resultado de Boltzmann a los sistemas abiertos,


ensemble Gran canónico, donde el número de partículas no es constante, a través de la
introducción de potencial químico  . El ensemble Gran canónico resulta de gran utilidad
para describir las reacciones químicas.

Así se puede demostrar que la función de partición para el ensemble Gran


canónico, para un sistema de k-componentes adopta la forma de

 k
  i N i − EiN1 ( Nk ) 
(T ,V ,  ) =   exp  i  (7.3.5a)
N1 Nk  kBT 
 

Para un sistema de un solo componente la Ec. (7.3.5a) se reduce a


N Ei N

(T ,V ,  ) =  e kBT
e kBT
=  e
 N (  − i )
(7.3.5b)
N i =1 N i =1

donde   1 kBT (ver ref. 23). Todas las demostraciones las hemos omitidos ya que, estos

aspectos trascienden el alcance introductorio de este Capítulo, así que el lector interesado
puede consultar las referencias que se ofrecen al final del Capítulo (ver, por ejemplo,
referencias 6 y 23, 27).

308
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Así, tenemos que un sistema macroscópico está formado por un número de
partículas cercano a la constante de Avogadro ( 10 23 ) cuya energía total es  =   i N i ,
i

donde  i representa las energías de las partículas individuales las cuales poseen valores

discretos de la misma.

Por otra parte, la suma de los números de distribución N i debe permanecer

constante y ser igual al número total de partículas, N =  N i en el sistema. Cada N i indica


i

el número de subsistemas que se corresponden con el nivel energético  i . Es de notar que,

en ausencia de campos externos, la energía potencial es cero y la energía total  coincide


con la energía interna E del sistema. La restricción energética hace que el número de
macroestados quede reducido a aquellos en que la energía total sea  .

Ejemplo 7.3.1
Sea un sistema aislado formado por tres partículas discernibles a, b, c; N = 3 , que pueden ocupar en 5
celdas k con niveles distintos de energía, 0,1, 2, 3, 4 unidades energía   , donde todos los microestados
son equiprobables. Determine la probabilidad termodinámica Wk y el número de microestados  del
sistema, si se le impone la ligadura de que  =  N i i
= 9 .
i

Solución: Para determinar la probabilidad termodinámica W tenemos que hallar el número de


permutaciones de los N partículas discernibles, en las en 5 celdas k , Ec. (7.3.1), así tenemos:
N!
W= . Teniendo en cuenta que todos los microestados son equiprobables, tenemos que 3
N 0 ! N1 ! N 2 ! N 3 ! N 4 !
posibilidades, que sean compatibles con la ligadura impuesta,  =  N i i
= 9 :
i

1. Que las 3 partículas, a, b, c se encuentren en el nivel energético 3,


2. Que exista 1 partícula en cada uno de los niveles energéticos, tal que, sea compatible con la restricción
impuesta y
3. Que existan 2 partículas en el nivel 4 y 1 en el nivel 1.
De esta forma obtenemos:
3! 3! 3!
W1 = = 1 , W2 = = 6 , W3 = = 3 . Así tenemos que la energía total:
0!0!0!3!0! 0!0!1!1!1! 0!1!0!0!2!

E1 = 3  3 = 9 ; E2 = (1  4 ) + (1  3 ) + (1  2 ) = 9 ; E3 = ( 2  4 ) + (1  1 ) = 9 . El número
total de microestados  es igual a:  = W k
= W1 + W2 + W3 = 1 + 6 + 3 = 10 .
k

Comentario: Teniendo en cuenta que, a escala macroscópica, los sistemas están compuestos por un número
de partículas cercano a la constante de Avogadro ( )
10 23 para el cálculo de la probabilidad termodinámica
resulta útil emplear la Aproximación de Stirling, Ec. (7.2.3).

309
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
En ocasiones se encuentran sistemas en los cuales un nivel energético puede
corresponder a varios estados moleculares distintos. Así, por ejemplo, un átomo que vibra
armónicamente con cierta amplitud posee una energía  i , pero su eje de vibración puede

apuntar según un cierto número g i de direcciones espaciales diferentes y discernibles,

todas las cuales se corresponden a la misma energía de vibración. Estos estados se llaman
estados degenerados y el número g i se denomina factor de degeneración.

De esta forma, cuando existen estados degenerados, es necesario hacer una


corrección en el cálculo de la probabilidad termodinámica, Ec. (7.3.1), así tenemos que

g kNk
W = N ! (7.3.6)
k Nk !

donde g kNk es el factor de degeneración correspondiente con el nivel energético  k .

De esta forma, se puede generalizar la Ley de distribución de Boltzmann, Ec.


(7.3.3), como

N i gi e − i kBT
 ( X B )  pi = = (7.3.7)
N  gi e −  i
i

La Ec. (7.3.7) se denomina genéricamente distribución canónica.

310
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

4. Entropía

“…The truth of the Second Law is, therefore, a statistical and not a mathematical
truth, for it depends on the fact that the bodies we deal with consist of millions of
molecules and that we never can get a hold of single molecules…”
J.C. Maxwell
En el Capítulo 3, desarrollamos una amplia y profusa discusión en torno a la entropía, su
alcance y limitaciones, por lo cual resulta necesario antes de adéntranos en los pormenores
de esta, tener claridad en algunos aspectos importantes.

Resulta evidente entonces que el objetivo fundamental que perseguimos en este


Acápite es, por una parte, ampliar las diferentes aristas abordadas en el Capítulo 3 entorno a
la entropía, por otra, articularlos dentro del marco formal de la termodinámica estadística.

No obstante, es menester dejar claro varios aspectos fundamentales en relación con


la entropía, vinculados con la Segunda Ley, que han sido abordados en los Capítulos
precedentes, de los cuales se derivaron los siguientes corolarios:

1. La entropía, es diferente de la energía ya que se crea durante la


evolución de un sistema.

2. La misma tiene un carácter probabilístico.

3. Aumenta con la incertidumbre.

4. Le proporciona un sentido físico al tiempo.

5. Les impone un carácter irreversible a los procesos naturales a escala


macroscópica, ya que se crea entropía, pero no se destruye, y
constituye per se, el postulado fundamental de La Segunda Ley.

6. Mide la complejidad de un sistema.

Así las cosas, se debe a Gibbs, en su trabajo seminal en 1902 (“…the average index
of probability with its sign reversed corresponds to entropy…”), la célebre expresión de la
entropía, entropía de Gibbs (“…the second law of thermodynamics is a consequence of a
dynamics having the mixing property according to which the statistical averages of
observables or the coarse-grained probabilities pi converge to their equilibrium

values…”), la definición desde un punto de vista estadístico de la entropía, como

311
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

SG = −kB  pi ln pi (7.4.1)
i

donde k B es la constante de Boltzmann, la cual como comentamos anteriormente fue

introducida originalmente por Planck (ref. 23, pág. 213), por lo cual esta no figuraba
explícitamente en la expresión de la versión original del trabajo de Gibbs, es decir, la Ec.
(7.4.1) es la versión actual de la entropía de Gibbs (ver por ejemplo ref. 27). pi representa

a las probabilidades (coarse-graining) vinculadas con la distribución de probabilidades


que, por razones históricas anteriormente vistas, genéricamente se conoce como
distribución de Maxwell-Boltzmann-Gibbs, en lo adelante nos referiremos a ella como
distribución MBG, Ecs. (7.3.3), (7.3.5), (7.3.7).

Una expresión equivalente, en el formalismo de la mecánica estadística cuántica,


fue derivada en 1927 por von Neumann (ver ref. 16, 25) como

SvN = −Tr ˆ ln ˆ (7.4.2)

donde Tr es la traza, que representa la suma de los elementos matriciales diagonales del
operador estadístico ̂ o de la matriz densidad del sistema, la cual desempeña un papel
equivalente a la densidad de probabilidad en el formalismo de la mecánica estadística
clásica.

En 1927, von Neumann desarrolló un formalismo alternativo para la mecánica


cuántica en términos de lo que se denomina matriz de densidad, que reemplaza a la función
de onda. La representación de la matriz densidad opera de manera muy simple los estados
mixtos y conduce a una forma natural de medir la entropía de un sistema mecánico
cuántico y el entrelazamiento cuántico (entanglement). Evidentemente todos estos aspectos
desbordan el alcance introductorio de este Capítulo.

Así, tenemos como caso particular, en el marco de la mecánica estadística clásica,


en donde la energía total es constante, el ensemble microcanónico, y que todos los
microestados accesibles tienen igual probabilidad a priori, pi = p = 1 W , uno de los

postulados fundamentales, se puede demostrar por una parte que, en el equilibrio un


sistema aislado la entropía de Gibbs SG Ec. (7.4.1), se reduce a

312
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
W
1
SG = −kB  pi ln pi , sí pi = i,
i W
1 1
W
SG = −kB    ln   ,
i W  W  (7.4.3)
W   1 
SG = −kB   ln   ,
W  W 
SG = kB ln W  S BP ;

donde W es la probabilidad termodinámica, ver Ec. (7.3.1), es decir, el número de


complexiones compatibles con un macroestado dado del sistema. La Ec. (7.4.3), tal y como
comentamos en el Cap.3, fue obtenida originalmente por Planck en 1901, y se le conoce
como la Ecuación de Boltzmann, el cual formuló en 1877 una expresión equivalente, la
misma constituye el fundamento operacional del formalismo de la Termodinámica
Estadística. La entropía definida a través de la Ec. (7.4.3), se conoce como la entropía de
Boltzmann-Planck S BP .

Por otra parte, se puede demostrar que, en el equilibrio, la entropía de Gibbs SG de

un sistema aislado Ec. (7.4.1), alcanza su valor máximo. Para ello, empleamos el método de
los multiplicadores indeterminados de Lagrange, (ver Apéndice A.3).

Así debemos buscar la condición de extremo de la entropía de Gibbs SG , sujeta a la


n

condición de normalización, p i
= 1 , para simplificar el cálculo se obvia la constante k B ,
i =1

de esta forma se construye la función Lagrangiana L tal que:

L ( p1 , , pn ,  ) = f ( p1 , , pn ) +  g ( p1 , , pn ) ,

El punto crítico, se busca como

L
pi = f pi ( p1 , , pn ) +  g pi ( p1 , , pn ) = 0,

L
 = g ( p1 , , pn ) = 0,

313
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
n

donde f ( p1 , pn )  S G , g ( p1 , pn )   p = 1 , y
i
 es el multiplicador indeterminado de
i =1

Lagrange. Así tenemos que la función Lagrangiana L adopta la forma de

 n n 
L ( p1 , , pn ,  ) = −  pi ln pi +    pi − 1  ,
 i =1  i =1 

= − ln pi − 1 +  = 0, pi = e(
L  −1)
pi ,

n 
L
 =   pi − 1 = 0,
 i =1 

n
( ( ln ) )
Como  pi = 1, ne(  −1) = 1   = ln 1n + 1,  pi = e(  −1) = e
1
+1 −1
n
= 1
n
. Según se observa,
i =1

se llega de esta forma a la versión de la entropía de Boltzmann-Planck S BP , las

coordenadas del punto crítico pi = 1n = W1 , es decir, la distribución de probabilidades en

donde la entropía adopta su valor máximo, la del equilibrio termodinámico.

Para demostrar si se trata de un máximo (ver Apéndice A.3), debemos construir la


llamada matriz Hessiana orlada (ver ref. 22, Cap. 19), a partir de conocer las coordenadas
del punto crítico.

La matriz Hessiana orlada es una variante de la matriz Hessiana utilizada en


problemas de optimización restringida. El determinante de sus menores principales se
utiliza como criterio para determinar si un punto crítico de una función es un mínimo o un
máximo. En el caso n-dimensional, se tiene que:

1. Si todos los menores principales son  0 , tenemos un mínimo local.

2. Si el menor de tamaño 3x3 es  0 , el siguiente menor (4x4) es  0 , y de esa


manera se van alternando su signo, tenemos un máximo local.

Así podemos escribir para nuestro caso la matriz Hessiana orlada como

314
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

0 g
p1
g
pn
 0 1 1
 g  
 L  L −1
0 
2 2
 p1 p1pn  1 p1
=
p12
 
;
   
 g  2L  2L  1 0 −1
pn 
 pn p1pn pn  

Los menores principales son

0 1
1 −1 
, det = −1  0,
 p1 

0 1 1
 
1 −1
p1 0  , det = p11 + p12  0,
 −1 
1 0 p2 

0 1 1 1
1 −1
0 0 
 p1

 , det = − p1 p2 − −  0;
1 1 1
1 0 −1
0 p1 p3 p2 p3
 p2

1 0 0 −p13 

Según se observa los menores principales tienen signos alternos, por lo cual queda
así demostrado que, en el equilibrio, la entropía de Gibbs SG , exhibe un máximo y además

se reduce a la entropía de Boltzmann-Planck S BP .

Los trabajos de Leo Szilard en 1929 y Brillouin en 1951 establecieron una


interesante conexión entre la entropía y la información. Así las cosas, la entropía puede
interpretarse como la cantidad de información I requerida para especificar el
microestado del sistema. De hecho, para especificar al azar los microestados

 ,  ,
1 2
,  k  del ensemble estadístico se requiere al menos I = log 2 W bits de

información. El número de bits está relacionado con la entropía de Gibbs, Ec. (7.4.1), como

SG
I N (7.4.4)
kB ln 2

Se debe a Shannon, quien en 1948 empíricamente generalizó la entropía de Gibbs,


(ver ref. 20), y extendió el vínculo entre la entropía y la información. Así de acuerdo

315
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Shannon, formalmente se define la entropía para un proceso de Markov discreto (ver ref.
20), definido a través de las probabilidades p1 , p2 , , pn , como

S Sh = −k  pn ln pn (7.4.5)
n

donde k es una constante que determina las unidades de la entropía, sí k es igual a la


constante de Boltzmann, k  kB = 1.3806 10 -23 J , entonces hablamos de entropía, por
K
el contrario, si k = 1 ln 2 , entonces las unidades son el bit –binary digit, entonces se habla
de información, nótese que, en dependencia del contexto, se usa una u otra, pero hay que
tener en mente que ambas son equivalentes.

Obsérvese como la entropía de Gibbs SG constituye un caso particular de la

entropía de Shannon S Sh cuando las probabilidades pi están relacionadas con la

distribución de MBG, Ec. (7.3.7), es decir, para un sistema en equilibrio termodinámico.

En 1957 Khinchin (ver ref. 9) estableció las bases teóricas de la entropía de


Shannon S Sh . A través de los famosos teoremas de Khinchin, la información adquiere un

sentido físico y amplía el abanico de posibilidades de la entropía, las cuales señalamos al


inicio de este Acápite, puntos del 1 al 6.

En 1961 Renyi (ref.18) realizó una generalización de la entropía de Shannon S Sh

conocida como la entropía de Renyi,

1  n 
Sq ( R ) = log 2   pkq  (7.4.6)
(1 − q )  k =1 

donde q es un parámetro que está asociado con las características específicas del sistema
bajo estudio. Por ejemplo, en la dinámica de fluidos, q está relacionado con el número de
Reynolds y en los clústers de percolación, con el umbral de percolación. La entropía de
Renyi S q ( R ) tiene especial interés para la caracterización de patrones espaciotemporales

que exhiben multifractalidad (ver Cap.6). En el límite, cuando q → 1 , la entropía de Renyi


se reduce a la entropía de Shannon.

316
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
En 1967 Havrda y Charvát obtuvieron una expresión análoga a la Ec. (7.4.6), que
fue popularizada posteriormente por Tsallis en 1988 (ver ref. 24, 25), como:

1  n q 
(1 − q ) 
S q (T ) = pk − 1 (7.4.7)
k =1 

De forma análoga, en el límite, cuando q → 1 , la entropía de Tsallis se reduce a


entropía de Shannon. La entropía de Tsallis, se ha empleado con éxito en estudios

cosmológicos. Se puede demostrar que para q ( + ) la entropía de Renyi, Ec. (7.4.6) es

aproximadamente igual a la entropía de Tsallis, Ec. (7.4.7), a pesar de que esta última no es
aditiva y no cumple con el cuarto Teorema de Khinchin.

En otro orden de cosas, es interesante abordar un instructivo tema que ha sido y es,
de gran debate y reflexiones, conocido como la Paradoja de Maxwell, popularmente
conocido como el “demonio de Maxwell” y que aparentemente entraría en “contradicción”,
según Maxwell, con la Segunda Ley. La Paradoja de Maxwell, fue expuesta en su obra
titulada Theory of Heat, en 1871 (ver ref. 12).

En la Fig. 7.4.1 se muestra una representación esquemática del “demonio de


Maxwell”.

Fig. 7.4.1 Representación esquemática del “demonio de Maxwell”. A. Se muestra un gas


ideal que contiene moléculas con diferente energía cinética (rojas “calientes”, azules
“frías”) en dos compartimientos  y , separados por un tabique con una compuerta la cual
un “ser inteligente” es capaz de discernir cuales de ellas tienen mayor o menor energía
cinética, dejándolas pasar hacia un lado u otro en dependencia de su energía cinética; B.
Concluido el proceso de selección, las moléculas “frías” del gas quedan confinadas en  y
las “calientes” en .
El recinto A (B) está aislado adiabáticamente del exterior, rígido y está compuesto
por dos compartimientos  y . En el mismo está confinado un mol de gas ideal a
temperatura constante, desde una visión macroscópica. Microscópicamente, tendríamos que

317
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

un grupo de moléculas ( 1023 ) , que por simplicidad se denotan como rojas (r) y azules (a),

las cuales tendrían diferente energía cinética, por tanto, diferente “temperatura”, Tr  Ta .

Es importante entender que la temperatura es una magnitud macroscópica, ver Capítulo 1,


no se puede hablar de la temperatura de una molécula, sino de su energía cinética, es por
ello por lo que usamos el término de temperatura entre comillas.

En A, los compartimientos  y  están separados por un tabique con una compuerta


la cual un “ser inteligente” (un dispositivo) es capaz de discernir cuales de ellas tienen
mayor o menor “temperatura”, dejándolas pasar hacia un lado u otro en dependencia de su
energía cinética. Una vez separadas las partículas, recinto B, se cierra la compuerta y
quedarían agrupadas en los dos compartimientos  y , tal que, en  estarían las de menor
“temperatura” (Ta ) y en  las de mayor (Tr ) . Así, sin realizar trabajo, se elevará la

temperatura en el recinto  y disminuirá en . Aparentemente esto conllevaría, según


palabras del propio Maxwell, a una “contradicción” con la Segunda Ley.

Sobre esta paradoja el propio Maxwell expresó:

“…Éste es sólo uno de los casos en los que las conclusiones que hemos extraído de nuestra
experiencia de cuerpos que constan de un inmenso número de moléculas pueden resultar no
aplicables a las observaciones y experimentos más delicados que podemos suponer
realizados por alguien que puede percibir y manejar las moléculas individuales con las que
tratamos solo en grandes masas…”, “…Al tratar con masas de materia, mientras no
percibimos las moléculas individuales, nos vemos obligados a adoptar lo que he descrito
como el método de cálculo estadístico y a abandonar el método dinámico estricto, en el que
seguimos cada movimiento mediante el cálculo. Sería interesante indagar hasta qué punto
esas ideas sobre la naturaleza y los métodos de la ciencia que se han derivado de ejemplos
de investigación científica en los que se sigue el método dinámico son aplicables a nuestro
conocimiento real de cosas concretas, que, como hemos visto, es de naturaleza
esencialmente estadística, porque nadie ha descubierto todavía ningún método práctico
para rastrear el camino de una molécula o para identificarla en diferentes momentos …”

Esto evidencia la genialidad del pensamiento de Maxwell, recordemos que su


trabajo data de 1871, y aún se estaban gestando las bases de la termodinámica clásica y de
la termodinámica estadística, donde junto a Boltzmann y Gibbs fue uno de los padres
fundadores.

318
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
La paradoja reside, por una parte, en el hecho que se mezclan dos enfoques, el
macroscópico y el microscópico. A escala macroscópica, los sistemas están compuestos por
un número de partículas cercano a la constante de Avogadro ( 1023 ) y las magnitudes que

lo caracterizan representan los promedios estadísticos del conjunto de las partículas que lo
integran, a lo que llama Maxwell cálculo estadístico por lo cual, en este caso, la
temperatura promedio macroscópicamente medida es constante, tanto en A como en B, por
lo cual la entropía del sistema, el gas, no ha cambiado.

Por el contrario, microscópicamente si disponemos hipotéticamente de un


dispositivo, “ser inteligente”, capaz de agrupar las partículas del gas en dependencia de su
energía cinética, a lo que Maxwell denomina método dinámico estricto, este dispositivo
necesitaría disponer además de una fuente de energía, de información para realizar dicha
operación en una población con un número de partículas 1023 . Por tanto, no sería
apropiado utilizar el formalismo desarrollado, valido a nivel macroscópico, por lo cual, no
se puede hablar de una “contradicción” con la Segunda Ley, la cual es válida a escala
macroscópica.

Asimismo podríamos agregar, que a escala microscópica, si dispusiéramos del “ser


inteligente” su actuación estaría limitada por El Principio de Incertidumbre (ver ref. 27)
definido por Heisenberg uno de los padres fundadores de la Mecánica Cuántica, el cual en
1927 estableció que el producto de las incertidumbres en la posición x y el momenta p x

de una partícula microscópica es del orden de magnitud de la constante de Planck o


mayor, es decir, xpx  . En otras palabras, la determinación simultanea de la posición y

la velocidad de una partícula microscópica está prohibida de acuerdo con El Principio de


Incertidumbre de Heisenberg.

Una vez más se muestra la validez de la “máxima de Ockham” (William van


Ockham, 1285-1347), conocida como la navaja de Ockham, “…en igualdad de
condiciones, la explicación más sencilla suele ser la más probable…”. Sobre esta base, es
que se estructura el formalismo de la termodinámica, como comentamos en el Cap. 1, sobre
un principio de economía o principio de parsimonia.

319
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

5. Magnitudes termodinámicas y la función de partición

En este Acápite, ilustraremos como evaluar las magnitudes termodinámicas, en el contexto


de la TE, basado en el modelo del gas ideal, que como hemos comentado a lo largo de los
diferentes Capítulos, nos ha permitido obtener un formalismo termodinámico sencillo y a
su vez general.

A diferencia de la TC, la TE, hace una diferenciación entre el gas ideal


monoatómico y diatómico. Comenzaremos nuestro desarrollo con el gas ideal
monoatómico.

Así las cosas, en ausencia de campos externos, se asume que las moléculas del gas
ideal monoatómico se comportan como masas puntuales y que la única energía involucrada
es la cinética.

Tal y como vimos en el Capítulo 3, Acápite 5, un sistema aislado (ensemble


microcanónico) se caracteriza por que las variables de estado que identifican al sistema son
E , V , entonces la función potencial idónea para caracterizar al sistema es la entropía S ,

S = S ( E , V , N ) , a partir de conocer la S se pueden obtener el resto de las magnitudes

termodinámicas. Nótese que, N es constante y N N A = 6.023 1023 .

Así, considerando la Ec. (7.3.1) e introduciendo la aproximación de Stirling, Ec.


(7.2.3), se tiene

ln W = ln N !−  ln N i ! = N ln N − N −  N i ln N i +  N i ,
i i i

N =  N i = ctc, (7.5.1)
i

ln W = N ln N −  N i ln N i ;
i

Sustituyendo la Ec. (7.5.1) en la Ec. (7.4.3) y considerando la distribución MBG,


Ecs. (7.3.3) y (7.3.4), la entropía de Boltzmann-Planck S BP , se puede evaluar como

 
S BP = kB ln W = kB  N ln N −  N i ln N i  = kB ( N ln +  E ) ,
 i  (7.5.2)
E
S BP = kB N ln + ;
T

320
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

donde E es la energía interna, tal que E =  Ni i = ctc y  = 1 kBT , en lo adelante por
i

simplicidad nos referiremos a la entropía de Boltzmann-Planck S BP , como la entropía S ,

pero debemos tener en mente este aspecto y que se trata de la entropía del sistema y es una
función de estado.

Se puede demostrar fácilmente como se puede obtener la energía interna, a partir de


la Ec. (7.5.2) como

W
E = kB NT ln (7.5.3)

A partir de la Ec. (7.5.3) se puede expresar la función de partición en función de la


energía interna, como

−E −E
= We kB NT
= We RT
(7.5.4)

donde R es la constante de los gases, R = kB N A . La Ec. (7.5.4) le proporciona un sentido

físico a la función de partición, estableciendo que mide el número de microestados


compatibles con un macroestado dado del sistema W en los que puede encontrase el

sistema “amortiguado” por E …, Ec. (7.3.4).


RT

Teniendo en cuenta que E =  Ni i , y considerando las Ecs. (7.3.3), (7.3.4) y


i

(7.5.3), la energía interna se puede reescribir como

  ln 
E = kB NT 2   ,
 T V
(7.5.5)
  ln 
E = RT 2   ;
 T V

Resulta instructivo establecer un paralelismo con el formalismo macroscópico de la


TC, por ejemplo, si comparamos la Ec. (7.5.5) con la ecuación isóbara de van´t Hoff, Ec.
(4.4.3), (ver Cap. 4), la cual obtuvo empíricamente van´t Hoff en 1884, tenemos que la

variación de energía interna viene dada por: E  = RT 2  .


d ln K c

 dT 

321
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
A su vez, como comentamos en el propio Cap. 4 que, en 1889, Arrhenius inspirado
en la fórmula de la isóbara de van´t Hoff, obtuvo su célebre ecuación, conocida como
ecuación de Arrhenius, Ec. (4.4.4), fórmula básica de la cinética química, la cual relaciona
la llamada energía de activación con la constante de velocidad específica k + , como:

 d ln k + 
E = RT 2   . De esta forma, podemos físicamente interpretar que, la función de
 dT 
partición desempeña en la TE el mismo rol que la constante de equilibrio en la TC o la
constante de velocidad específica, en la cinética química.

Así las cosas, y teniendo en mente que estamos tratando con sistema aislado
(ensemble microcanónico), según vimos en el Capítulo 3, Acápite 5, las variables que lo
caracterizan son ( E ,V , N ) , N es constante, a través de la representación entrópica del

1 p
sistema, Ec. (3.5.1) dS S = dE + dV , para un proceso reversible podemos determinar,
T T

las variables de estado, temperatura 1 =


S
T E ( ) y presión
V
p
T
 S 
=  respectivamente.
 V  E

Para la obtención de la temperatura, derivamos la Ec. (7.5.2) con respecto a la


energía interna y teniendo en cuenta las Ecs. (7.3.3) y (7.3.4) se obtiene

 S   N    
  = kB  +  + E ,
 E V   E E 
 Ni
= −  i e −  i = −  i = = − E, (7.5.6)
 i i N N
 S      1
  = kB  − E + +E = ;
 E V  E E  T

De forma análoga procedemos en el caso de la presión, p


T
= ( ) , se obtiene
S

V E

 ln
p = kB NT (7.5.7)
V

Una vez que conocemos la energía interna E , podemos evaluar la capacidad


calórica a volumen constante, CV , así derivando la Ec. (7.5.5) con respecto a T obtenemos

322
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

 E    2   ln  
CV =   = NkB T    (7.5.8)
 T V T   T V V

Por su parte, teniendo en cuenta la Ec. (7.5.2), podemos obtener una expresión para
la energía de Helmholtz que formalmente se define como: ( E − TS )  F , Ec. (3.5.3), como

F = −k B NT ln (7.5.9)

Antes de seguir adelante es necesario realizar algunas precisiones útiles de lo


anteriormente tratado:

1. Un sistema aislado (ensemble microcanónico) se caracteriza por que las


variables de estado que identifican al sistema son E , V , entonces la función
potencial idónea que se elige para caracterizar al sistema es la entropía S , a
partir de ella se pueden determinar el resto de las magnitudes termodinámicas.
Es necesario tener en mente, que el formalismo está estructurado para sistemas
en el equilibrio termodinámico.
2. Para determinar las magnitudes termodinámicas anteriormente vistas, el
problema se reduce a determinar la función de partición y su variación con la
temperatura.

Ejemplo 7.5.1
Sea un sistema formado por N partículas y un espacio de fases de dos celdas, 1 y 2. Si la energía de las
partículas es igual en ambas celdas 1 =  2 =  ; Determine: 1. La función de partición del sistema, 2. El
número de partículas en cada una de las celdas, 3. La energía interna total y 4. La entropía del sistema.
Solución: 1. La función de partición del sistema se determina a través de la Ec. (7.3.4), como:
= e = 2 e
−  i kBT −  kBT
; 2. El número de partículas por celda, se determina a través de la Ec. (7.3.3), es
i i

− i kBT
Ne N
decir la distribución de Boltzmann, como: N1 = N 2 = =
, es decir una distribución uniforme; 3.
2
Para determinar la energía interna total, empleamos la primera fórmula de la Ec. (7.5.5), así tenemos que:
2   ln  = N
E = k B NT   ; 4. La entropía del sistema se calcula a través de la Ec. (7.5.2), tenemos:
 T V
E
S BP = k B N ln + = k B N ln 2 .
T

323
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
Tal y como comentamos al inicio de este Acápite, el gas ideal monoatómico, en
ausencia de campos externos, se asume que sus moléculas se comportan como masas
puntuales y que la única energía involucrada es la energía cinética de traslación:
 i = mvi2 2 . Así teniendo en cuenta la distribución de Maxwell, Ec. (7.3.2), la función de
partición adopta la forma

ctcVT 3 2 (7.5.10)

donde, ctc es una constante, V es el volumen. Así tenemos que las variables de estado
temperatura y volumen vienen dadas por

3 2T = (  ln T )V ,
(7.5.11)
1 V = (  ln V )T ;

Considerando la Ec. (7.5.7) a partir de la Ec. (7.5.10) se obtiene

 ln k NT
p = kB NT = B ,
V V
(7.5.12)
RT
p= ;
v

donde v es el volumen molar, es decir la Ec. (7.5.12) representa la ecuación de estado del
gas ideal, Ec. (1.4.1), que vimos en el Cap. 1. Así tenemos que la energía interna, Ec.
(7.5.5), adopta la forma

  ln  3
E = kB NT 2   = NkBT (7.5.13)
 T V 2

La Ec. (7.5.13) es resultado del principio de equipartición de la energía, que


establece que la energía se distribuye por igual entre todos los grados de libertad de la
partícula o sistema. La Ec. (7.5.13) se puede reescribir como

3
E = RT (7.5.14)
2

La Ec. (7.5.14) sustenta teóricamente el resultado del experimento de Joule-


E 
Thomson, en donde entre otras cosas demuestra que   = 0 si se trata del gas ideal, por
 V T

324
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
tanto, la variación de la energía interna solo depende, para el gas ideal, de la temperatura
(ver Cap. 2).

Así tenemos que, la capacidad calórica a volumen constante, CV , Ec. (7.5.8), para

el gas ideal, a partir de la Ec. (7.5.13) se puede reescribir

 E  3
CV =   = Nk B ,
 T V 2
(7.5.15)
3
CV = R;
2

Es el resultado que se obtiene para la capacidad calórica a volumen constante, CV ,

del gas ideal, Ec. (2.2.4), ver Cap. 2.

La entropía del sistema la podemos evaluar, a partir de la Ec. (7.5.2), considerando


la Ec. (7.5.10) se obtiene

E  3  3
S = kB N ln + = kB N  ln ctc + ln V + ln T  + k B N ,
T  2  2
(7.5.16)
 3 
S = kB N  ln V + ln T  + S 0 ;
 2 

La Ec. (7.5.16) se conoce como la ecuación de Sackur-Tetrode, la cual obtuvieron


de forma independiente en 1912. La cual puede reescribirse de forma operacional (ver ref.
14, pág. 167) de la forma

3 3   J 
S = −46.33 + R  ln T + ln V + ln M  ,  ; (7.5.17)
2 2   mol.K 

De esta forma conociendo la masa molar M  Da  , el volumen V cm3  y la

temperatura T  K  , es posible con una buena aproximación evaluar la entropía de gases

monoatómicos (ver Tabla 6.5, ref. 14, pág. 168).

La entalpía ( E + pV )  H , según vimos en el Cap. 2 se obtuvo operacionalmente a

través del experimento de Joule-Thomson, se evalúa como

325
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

5
H = ( E + pV ) = NkBT ,
2
(7.5.18)
5
H = RT ;
2

La Ec. (7.5.18), muestra dos aspectos importantes, por una parte, como vimos en el
Cap. 2, para el gas ideal la entalpia solo depende de la temperatura. Por otra parte, se
5
observa que el termino, R , no es más que la capacidad calórica a presión constante C p ,
2
Ec (2.2.4).

Ejemplo 7.5.2
Evalúe la entropía de un mol de argón Ar , a partir de la ecuación de Sackur-Tetrode, Ec. (7.5.17), a la
temperatura de 298 K y presión 1 atm.

3 3 
Solución: Dado que el argón es un gas monoatómico, tenemos que: S = −46.33 + R  ln T + ln V + ln M  ,
2 2 
para ello es necesario conocer la masa molar M , el volumen V y la temperatura T . La masa molar del
argón M = 39.948 Da , el volumen se puede evaluar a través de la (7.5.12), del gas ideal,
3 3
V = 24.436  10 cm , por tanto, se obtiene: S = 154.61 J mol.K , el valor tabulado evaluado a través del
tercer principio, Ec. (4.3.3) es: S = 154.8 J mol.K , es decir se logra una buena aproximación.

Tal y como comentamos al inicio de este Acápite la TE, hace una diferenciación
entre el gas ideal monoatómico y diatómico, debido a que, si bien en el caso del gas ideal
monoatómico la única energía involucrada es la energía cinética de traslación,  i = mvi2 2 ,

para el ideal diatómico, existe una contribución de diferentes modos de movimiento, por
tanto, la energía de una molécula es la suma de las contribuciones de las energías: cinética
de traslación, rotación, y vibración.

Por lo cual, hay que factorizar la función de partición molecular, Ec. (7.3.4) en las
contribuciones de cada uno de los modos, como

=  exp ( −  t −  r −  v −  e ),
i (7.5.18)
=zz z z ;
t r v e

donde z t , z r , z v , z e son las funciones de partición de traslación, rotación, vibración y

electrónica respectivamente. Es importante señalar que tanto las energías rotacionales  r y

326
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA

vibracionales  v , no pueden expresarse como una función continua y no cumplen con el


principio de equipartición de la energía, por lo cual es necesario recurrir a elementos de la
mecánica cuántica, que evidentemente rebasan el alcance introductorio propuesto en este
Capítulo.

Como resumen podemos decir que nos hemos limitado a esbozar brevemente el
formalismo de la TE clásica para el gas ideal monoatómico, que por una parte, nos permitió
establecer de forma preliminar un puente con la termodinámica clásica, no obstante, el
lector interesado puede ampliar en las referencias que se ofrecen. Por otra parte, los
diferentes aspectos acá tratados, sirven de elementos introductorios para los cursos de
termodinámica estadística y mecánica cuántica.

Bibliografía

1. Aguilar Peris J.; Curso de Termodinámica, Alambra Universidad, Madrid, 1981.


2. Bais F.A. and Farmer J.D., The Physics of Information, SFI Working paper 07-08-
029, arXiv:0708.2837v2 [[Link]-ph], 2007.
3. Feller W., An Introduction to Probability Theory and Its Application, v. 1,2 Wiley,
N.Y., 1968/1971.
4. Gallavotti G., Short Treatise of Statistical Mechanics, Roma, 1999.
5. Gallavotti G., Yngvason J., Reiter W.L., Boltzmann’s Legacy, European
Mathematical Society, 2008.
6. Gibbs J.W., Elementary principles in Statistical Mechanics, N.Y., Scribner’s Sons,
1902.
7. Gnedenko B.V., The Theory of Probabilty, MIR Pub. Moscow, 1978.
8. Khinchin A.I., Mathematical Foundations of Statistical Mechanics, Dover
Publications, Inc., NY, 1949.
9. Khinchin A.I., Mathematical Foundations of Information Theory, Dover
Publications, Inc., New York, 1957.
10. Landau L.D. & Lifshitz E.M., Física Estadística, v.5, ed. Reverté, S.A., 1969.
11. Linder B., Thermodynamics and Introductory Statistical Mechanics, John Wiley &
Sons, Inc., 2004.
12. Maxwell J.C., Theory of Heat, Third Ed., Longman, Green and Co. London,
Chapter XXII, 1872, 308-309.
13. Müller I.; A History of Thermodynamics, Springer-Verlag Berlin Heidelberg 2007.
14. Ortiz Del Toro P. & Pérez Martínez C., Introducción a la Termodinámica
Estadística, ed. MES, La Habana, 1985.
15. Pérez Martínez C. & Ortiz Del Toro P., Espectroscopía, ed. F. Varela, 2014.
16. Reichl L.E., A Modern Course in Statistical Physics, 2nd Ed., John Wiley & Sons,
Inc., 1998.
17. Reif F., Statistical Physics: Berkeley Physics Course, v.5, 1967.

327
CAPÍTULO 7. INTRODUCCIÓN A LA TERMODINÁMICA
ESTADÍSTICA
18. Rényi A., “On measures of information and entropy”. Proceedings of the fourth
Berkeley Symposium on Mathematics, Statistics and Probability, 1960, 547-561.
19. Rodríguez Castellanos C. & Pérez Maldonado M.T., Introducción a la Física
Estadística, ed. Félix Varela, La Habana, 2002.
20. Shannon C.E., A Mathematical Theory of Communication, The Bell System
Technical Journal, vol. 27, 1848, 623-656.
21. Sethna J. P., Statistical Mechanics: Entropy, Order Parameters and Complexity,
Cornell University, Ithaca, NY, 2005.
22. Simon C. and Blume L., Mathematics for Economists, W.W. Norton & Comp.,
1994.
23. Sommerfeld A, Thermodynamics and Statistical Mechanics, New York: Academic
Press, 1956.
24. Tsallis C., On the foundations of statistical mechanics, Eur. Phys. J. Special Topics
226, 2017, 1433–1443.
25. Tsallis C., Possible generalization of Boltzmann-Gibbs statistics, J. Stat. Phys., 52,
1988, 479.
26. Terlietski Y.P., Física Estadística, ed. Ciencia y Técnica, La Habana 1971.
27. Tolman R.C., Principles of statistical physics, Clarendon, Oxford, UK, 1938.

328

También podría gustarte